Moralische Roboter: Humanistisch-philosophische Grundlagen und didaktische Anwendungen 3837667200, 9783837667202

Brauchen Roboter moralische Kompetenz? Die Antwort lautet ja. Einerseits benötigen Roboter moralische Kompetenz, um unse

133 60 5MB

German Pages [229] Year 2024

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Cover
Inhalt
Danksagung
Vorwort
1. Einführung zur Roboterethik
1.1 Einleitung
1.2 Was ist Roboterethik?
1.3 Roboter versus KI: Was ist der Unterschied?
1.4 Wo brauchen wir Roboter?
1.5 Können Roboter Personen sein?
2. Was ist moralische Kompetenz?
2.1 Einführung in den Begriff
2.2 Kant über Moral
2.3 »Kognitive Wende« in der Psychologie«
2.4 Die »Renaissance des Gefühls«
2.5 Linds Zwei‐Aspekt‐Theorie: Moral ist lehrbar
2.6 Warum brauchen Roboter moralische Kompetenz?
3. Ethische Theorien programmieren?
3.1 Welche Ethik ist die Richtige?
3.2 Top‐Down Strategien
3.3 Bottom‐Up Strategien
3.4 Altruistische und empathische Maschinen
3.5 Superintelligenz
4. Moralische Kompetenz in Robotern
4.1 Moralische Kompetenz in Robotern: Wie ist der Stand der Forschung?
4.2 Funktionalismus
4.3 Der funktionalistische Ansatz: Moralischen Kompetenz als Komponenten‑Modell
4.4 Dual‐Aspekt‐Dual‐Ebenen Modell
4.5 Die Stufen der moralischen Orientierung
5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern
5.1 Sprache
5.1.1 Warum brauchen Roboter eine Sprache?
5.1.1 Turing‐Test
5.1.2 Das Chinesische Zimmer
5.1.3 Das »Symbol‐Grounding‐Problem«
5.1.4 »Action‐based Semantics« (AbS)
5.1.5 Zwischenbilanz zum Themenfeld Sprache
5.2 Identität
5.2.1 Einleitende Fragestellungen und Problemstellung
5.2.2 Roboter als Verantwortungssubjekte und ‑objekte
5.2.3 Zwei Theorien der Person
5.2.4 Das Argument der »Artifiziellen Person«
5.2.5 Können Roboter personale Identität besitzen?
5.2.6 Roboter als Zweck an sich
5.2.7 Zwischenbilanz zum Themenfeld Identität
5.3 Bewusstsein
5.3.1 Begriffsgeschichte und Forschungstand
5.3.2 Bewusstsein als Erfahrung und Funktion
5.3.3 Warum brauchen wir bewusste Roboter?
5.3.4 Wann ist ein Roboter bewusst?
5.3.5 Zwischenbilanz zum Themenfeld Bewusstsein
6. Robotik in der Schule
6.1 Aktueller Forschungsstand
6.2 Mein Freund, der Roboter – eine Unterrichtseinheit für die Grundschule
(a) Fachlich‐inhaltlicher Schwerpunkt (Sachanalyse)
(b) Begründung der Lerneinheit
(c) Ergebnisse der Unterrichtsstunde
Zusammenfassung und Ausblick
Verzeichnisse
Internetquellen
Literatur
Recommend Papers

Moralische Roboter: Humanistisch-philosophische Grundlagen und didaktische Anwendungen
 3837667200, 9783837667202

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

André Schmiljun, Iga Maria Schmiljun Moralische Roboter

Edition Moderne Postmoderne

Editorial Die Edition Moderne Postmoderne präsentiert die moderne Philosophie in zweierlei Hinsicht: zum einen als philosophiehistorische Epoche, die mit dem Ende des Hegel’schen Systems einsetzt und als Teil des Hegel’schen Erbes den ersten philosophischen Begriff der Moderne mit sich führt; zum anderen als Form des Philosophierens, in dem die Modernität der Zeit selbst immer stärker in den Vordergrund der philosophischen Reflexion in ihren verschiedenen Varianten rückt – bis hin zu ihrer »postmodernen« Überbietung.

André Schmiljun (Dr. phil.), geb. 1984, promovierte im Fach Philosophie an der Humboldt-Universität zu Berlin. Im Jahr 2019 erhielt er ein Stipendium des Deutschen Akademischen Austauschdienstes (DAAD). Sein Forschungsinteresse gilt der Roboterethik, dem Deutschen Idealismus und der Philosophie des Geistes. Iga Maria Schmiljun, geb. 1990, unterrichtet als Grundschullehrerin in den Fächern Deutsch, Mathematik und Sachunterricht. Sie studierte an der Adam-MickiewiczUniversität Poznan (Polen) und an der Humboldt-Universität zu Berlin Frühpädagogik und Lehramt.

André Schmiljun, Iga Maria Schmiljun

Moralische Roboter Humanistisch-philosophische Grundlagen und didaktische Anwendungen

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über https ://dnb.dnb.de/ abrufbar.

© 2024 transcript Verlag, Bielefeld Alle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: PhonlamaiPhoto / iStock by GettyImages Druck: Majuskel Medienproduktion GmbH, Wetzlar https://doi.org/10.14361/9783839467206 Print-ISBN: 978-3-8376-6720-2 PDF-ISBN: 978-3-8394-6720-6 Buchreihen-ISSN: 2702-900X Buchreihen-eISSN: 2702-9018 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff.

Für unsere Kinder: Malina Charlotte und Liam Otto Stefan.

Inhalt

Danksagung ........................................................................ 11 Vorwort ............................................................................13 1. 1.1 1.2 1.3 1.4 1.5

Einführung zur Roboterethik .................................................. 15 Einleitung ...................................................................... 15 Was ist Roboterethik?...........................................................18 Roboter versus KI: Was ist der Unterschied? ..................................... 21 Wo brauchen wir Roboter? ..................................................... 25 Können Roboter Personen sein?................................................ 27

2. 2.1 2.2 2.3 2.4 2.5 2.6

Was ist moralische Kompetenz? ............................................. 29 Einführung in den Begriff ...................................................... 29 Kant über Moral ............................................................... 32 »Kognitive Wende« in der Psychologie« ........................................ 35 Die »Renaissance des Gefühls« ................................................ 37 Linds Zwei-Aspekt-Theorie: Moral ist lehrbar ................................... 40 Warum brauchen Roboter moralische Kompetenz?.............................. 45

3. 3.1 3.2 3.3 3.4 3.5

Ethische Theorien programmieren?........................................... 51 Welche Ethik ist die Richtige? ................................................... 51 Top-Down Strategien .......................................................... 52 Bottom-Up Strategien.......................................................... 56 Altruistische und empathische Maschinen ...................................... 58 Superintelligenz ............................................................... 62

Moralische Kompetenz in Robotern .......................................... 65 Moralische Kompetenz in Robotern: Wie ist der Stand der Forschung? ........... 65 Funktionalismus ............................................................... 67 Der funktionalistische Ansatz: Moralischen Kompetenz als Komponenten-Modell ............................... 69 4.4 Dual-Aspekt-Dual-Ebenen Modell ............................................... 74 4.5 Die Stufen der moralischen Orientierung ....................................... 80 4. 4.1 4.2 4.3

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern ................................................................... 87 5.1 Sprache ....................................................................... 88 5.1.1 Warum brauchen Roboter eine Sprache? ................................. 88 5.1.1 Turing-Test .............................................................. 91 5.1.2 Das Chinesische Zimmer ................................................ 96 5.1.3 Das »Symbol-Grounding-Problem« ...................................... 100 5.1.4 »Action-based Semantics« (AbS) ........................................107 5.1.5 Zwischenbilanz zum Themenfeld Sprache ................................ 116 5.2 Identität....................................................................... 119 5.2.1 Einleitende Fragestellungen und Problemstellung......................... 119 5.2.2 Roboter als Verantwortungssubjekte und -objekte ........................120 5.2.3 Zwei Theorien der Person............................................... 130 5.2.4 Das Argument der »Artifiziellen Person« ................................ 134 5.2.5 Können Roboter personale Identität besitzen?............................ 141 5.2.6 Roboter als Zweck an sich ...............................................146 5.2.7 Zwischenbilanz zum Themenfeld Identität ...............................152 5.3 Bewusstsein ...................................................................154 5.3.1 Begriffsgeschichte und Forschungstand .................................154 5.3.2 Bewusstsein als Erfahrung und Funktion .................................157 5.3.3 Warum brauchen wir bewusste Roboter? ................................. 161 5.3.4 Wann ist ein Roboter bewusst? ..........................................164 5.3.5 Zwischenbilanz zum Themenfeld Bewusstsein............................173 6. Robotik in der Schule ........................................................175 6.1 Aktueller Forschungsstand .....................................................175 6.2 Mein Freund, der Roboter – eine Unterrichtseinheit für die Grundschule ........ 180 (a) Fachlich-inhaltlicher Schwerpunkt (Sachanalyse) ........................ 184 (b) Begründung der Lerneinheit ............................................ 186 (c) Ergebnisse der Unterrichtsstunde........................................ 191

Zusammenfassung und Ausblick................................................. 193 Verzeichnisse .....................................................................197 Internetquellen.....................................................................197 Literatur ...........................................................................199

Danksagung

Das Buch wäre nicht dank Unterstützung einiger Institutionen und Personen möglich gewesen. Ein Großteil der Arbeit entstand im Rahmen eines Gastaufenthalts am Institut für Philosophie der Adam-Mickiewicz-Universität Poznań (Polen), finanziert durch ein Forschungsstipendium für Nachwuchswissenschaftler des Deutschen Akademischen Austauschdienstes e.V. (DAAD). Unser Dank gilt daher allen voran Frau Prof. Dr. Ewa Nowak für ihre vielen hilfreichen Anregungen und wertvollen Ideen. Ein besonderer Dank verdient außerdem Herr Prof. Dr. Georg Lind, dessen Arbeiten zur moralischen Kompetenztheorie Grundlage für unsere Studie waren und mit dem wir viele Stunden, ob in Privatgesprächen oder auf Konferenzen, zum vorliegenden Thema diskutierten. Sein überraschender Tod im Jahr 2021 war ein großer Verlust für die Wissenschaft und für uns, die wir ihn kannten und schätzten. Unser Dank gilt Herrn Prof. Dr. Steffen Dietzsch sowie Herrn Prof. Dr. Christian Möckel für Ihre Unterstützung. Stefan Kastner und Janina L. Samuel sind wir sehr für die kritische Durchsicht verbunden.

Vorwort

Über die genaue wissenschaftliche Definition von Intelligenz herrscht in und zwischen wissenschaftlichen Fachdisziplinen keine Einigkeit, auch wenn unstrittig ist, dass es sich dabei um die wichtigste Eigenschaft des Menschen handelt. Ohne sie wäre der Mensch nicht überlebensfähig, sie determiniert Entwicklung und Erfolg im Leben. Gleichermaßen ist menschliche Intelligenz Referenz und Ziel technischer Entwicklungen, welche sich in den vergangenen Jahren gerade im Bereich der Software immer weiter beschleunigen. Der Durchbruch maschineller Lernverfahren begann Mitte der 10er Jahre unseres Jahrhunderts mit der robusten Umsetzung basaler Wahrnehmungsaufgaben unter realweltlichen Bedingungen. Aktuell folgen in der technischen Weiterentwicklung komplexe Sprachmodelle und ein semantisches Verständnis von Situationen durch visuelle Wahrnehmungsfunktionen und Kameratechnik. In diesem Zusammenhang ist ein fließender Übergang von Maschinensprache und menschlicher Sprache sowie ein gemeinsames Verständnis von komplexen Sachverhalten nahe. Industrielle Revolutionen von der Dampfmaschine bis hin zu vernetzten cyberphysischen Systemen der Industrie 4.0 standen immer vor dem Hintergrund ihrer Zeit und waren Antworten auf veränderte gesellschaftliche und wirtschaftliche Anforderungen. Aktuell mehren sich erneut Stimmen, welche auf Basis des Fortschritts der Automatisierungstechnik und Künstlichen Intelligenz (KI) die menschenleere Fabrik fordern. Das Paradigma der humanzentrierten Automatisierung steht unter Druck, galt es noch Mensch und Technik gemäß ihrer Stärken in hybriden Nutzerinnenzentrieten Systemen zusammenarbeiten zu lassen, stehen die herausragenden Fähigkeiten des Menschen bezüglich Hand-Auge-Koordination, Problemlösen und Abstraktion mit zunehmendem technischen Fortschritt in Konkurrenz. In Ergänzung vermögen auch die aktuellen KI-Entwicklungen Antworten auf globale Krisen, wie bspw. Fachkräftemangel, gestörte Lieferketten und erhöhte Anforderun-

14

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

gen an die Flexibilität von Produktionssystemen zu liefern. In naher Zukunft ist die Vision der menschenleeren Fabrik allerdings unrealistisch und bleibt eine zweifelhafte Vision. Die Welt befindet sich im Wandel mit einer zu gestaltenden Rolle des Menschen in zukünftigen Automatisierungssystemen und einer zu definierenden Rolle der KI. Roboter als verkörperte KI vermögen die Kette von Wahrnehmung über die Kognition bis hin zur Handlung zu schließen. Mit zunehmender Intelligenz und zunehmenden Fähigkeiten im Umgang mit unstrukturierten Umgebungen sind Roboter dabei die Werkshallen und Fabrikgelände zu verlassen und werden in den kommenden Jahren zunehmend in alltäglichen Szenarios ihren Einsatz finden, als Liefer- und Reinigungsroboter, als Servicekraft in der Gastronomie und als Unterstützung in der Pflege und Krankenversorgung. Anders als in asiatischen Ländern polarisiert das Thema Robotik speziell in Deutschland. Tief verwurzelt ist eine mediale Prägung des Themas, welche nur allzu oft durch negative Zukunftsdystopien zum Ausdruck gebracht wird. In diesem Zusammenhang besteht die greifbare Gefahr, dass die Geschwindigkeit des technischen Fortschritts, die gesellschaftliche und soziale Entwicklung und Adaption klar überschreitet. Da sich technischer Fortschritt in einer globalisierten Welt schwer aufhalten lässt und KI-Regulierung nur einen Teil der wachsenden Herausforderungen adressieren kann, ist es umso wichtiger, dass die gesellschaftlich ethische Debatte um das Thema KI und Robotik an Fahrt gewinnt und mit dem technischen Entwicklungen Schritt hält beziehungsweise zukünftige Entwicklungen antizipiert. Es liegt bei uns, den technischen Fortschritt verantwortungsvoll für eine nachhaltige Wohlstandsentwicklung und für eine allgemeine Verbesserung der Lebensumstände und des Umweltschutzes zu gestalten. Es gilt, entsprechende Gefahren zu benennen und konsequent zu adressieren und im gleichen Zug Chancen durch KI und Robotik ohne Zögern zu nutzen. Ethische Grundsätze, die in die Entwicklung und Ausgestaltung automatisierter und autonomer Systeme integriert werden, dass sie im Einklang mit gesellschaftlichen Werten handeln, kommen entsprechend zukünftig eine Schlüsselrolle zu. Diese entscheidet nicht nur über die Akzeptanz, sondern wird den entscheidenden Unterschied machen zwischen Dystopie und Profit oder Wohlstand und Nachhaltigkeit. Prof. Dr.-Ing. Jens Lambrecht (MBA) Berlin, 28. November 2023

1. Einführung zur Roboterethik

1.1 Einleitung Die Bedeutung der Robotik in unserer Gesellschaft hat in den vergangenen Jahren erheblich zugenommen. Sowohl in der Industrie, als auch in diversen Servicebereichen, übernehmen Roboter unzählige Aufgaben. Roboter werden heutzutage dort eingesetzt, wo sie nicht-wertschöpfende Tätigkeiten ersetzen. Damit ist gemeint, dass sie Aufgaben übernehmen, die zeitraubend, mühselig, Gesundheitsschädigend und repetitiv sind. Parallel dazu stellen sie in Aussicht, Arbeitsprozesse autonom und ohne Pause zu erledigen. Dies erklärt insbesondere in der Industrie (etwa in der Automobilindustrie, Chemie, Pharmazie) den Trend zur Automatisierung. Manche Autoren sehen das Potential von Robotern in ganz anderen, vor allem zwischenmenschlichen Bereichen, als Pflegeroboter für die Großeltern1 , als Babysitter oder Freund für die Kinder2 , oder sogar als Liebesroboter und damit exklusives, erotisches Spielzeug.3 Die Rede ist hier von sogenannten Social Robots4 . Maciej Musiał bemerkt vielleicht gerade deshalb in seiner Habilitationsschrift, dass Roboter an sich etwas Magisches hätten.5 Sie ziehen uns in ihren 1

2 3

4 5

Vgl. Studley, Mattew und Meacham, Darian (2017). »Could a robot care? It’s all in the movement.« In: Patrick Lin, Ryan Jenkins und Keith Abney (Hg.). Robot Ethics 2.0. From Autonomous cars to artificial intelligence (S. 97–112). Oxford: Oxford University Press. Vgl. Elder, Alexis (2017). »Robot friends for autistic children: Monopoly money or Counterfeit currency?«, In: Robot Ethics 2.0, S. 113–126. Vgl. Danaher, John und McArthur, Neil (Hg.) (2018). Robot sex. Social and ethical implications; London: MIT Press. Nowak, Ewa (2020). Advancing the human self. Do technologies make us »posthuman«? Berlin: Peter Lang. Loh, Janina und Wulf (Hg.) (2022). Social robots and the good life. The normative side of forming emotional bonds with robots. Bielefeld: transcript Verlag. Vgl. Musiał, Maciej (2019). Enchanting Robots. Intima, magic and technology. Cham (Schweiz): Palgrave Macmillan, S. 10.

16

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Bann, verzaubern und entzaubern uns zugleich. Schon 2007 macht Bill Gates auf die enorme Geschwindigkeit aufmerksam, mit der die Robotik voranschreitet: »The emergence of the robotics industry is developing in the same way that the computer business did 30 years ago«6 . Dabei gibt es offensichtlich keine Grenzen des technisch Möglichen, wenn man Autoren wie beispielsweise Kevin Warwick oder Nick Bostrom Glauben schenken darf. Ersterer ist der Überzeugung, dass wir bald schon in der Lage sein werden, ein künstliches Gehirn nachzubauen, vergleichbar dem unsrigen. Bostrom hingegen sieht in der Künstlichen Intelligenz den nächsten Schritt zur Superintelligenz, die uns Menschen als »vermeintliche Krone der Schöpfung« ablöst. Seiner Meinung nach haben wir bei weitem noch nicht unsere physischen und technischen Möglichkeiten in der Wissenschaft ausgereizt.7 Mit dem Release des Chatbots ChatGPT im November 2022 des US-amerikanischen Unternehmens OpenAI sollte Bostrom Recht behalten. Bei ChatGPT handelt es sich um ein textbasiertes Dialogsystem, das menschliche Sprache auf einer bislang nie da gewesenen Weise simulieren kann, sodass der Unterschied zwischen menschlicher und künstlicher Leistung nicht mehr erkennbar ist. Das Programm hat eine Antwort auf beinah jede Frage, kann programmieren, Gedichte oder Aufsätze schreiben. Darüber hinaus kommt ChatGPT auch als Sprachmodul für Roboter in Frage. Ein Entwickler-Team von Microsoft arbeitet derzeit an ChatGPT gestützten Robotern, die später beispielsweise im Haushalt Menschen unter die Arme greifen können.8 Nicht nur die Beispiele von Warwick und Bostrom, sondern auch der erwähnte technologische Wandel in der Gesellschaft hin zu einer »Robotergesellschaft« lassen vermuten, dass wir es mit einer historischen Revolution zu tun haben, die alles auf den Kopf stellen wird, was wir derzeit zu wissen meinen. Vor diesem Hintergrund zeigt sich die Dringlichkeit einer Maschinen- oder

6

7 8

Vgl. Lin, Patrick (2014). »Introduction into Robot Ethics.« In: Lin, Patrick; Abney, Keith & Bekey, George A. (Hg.), Robot Ethics. The Ethical and Social Implications of Robotics. Cambridge: MIT University Press, S. 1. Vgl. Bostrom, Nick (2014). Superintelligence. Paths. Dangers. Strategies. Oxford: Oxford University Press, S. 110. Vemprala, Sai; Bonatti, Rogerio; Bucker, Arthur und Kapoor, Ashish (2023). »ChatGPT for Robotics: Design Principles and Model Abilities.« MSR-TR-2023-8. Der Aufsatz ist online unter dem folgenden Link verfügbar: https://www.microsoft.com/en-us/rese arch/uploads/prod/2023/02/ChatGPT___Robotics.pdf (zuletzt aufgerufen am 2. Juni 2023).

1. Einführung zur Roboterethik

Roboterethik, die klärt, wie Roboter zukünftig konzipiert sein sollten, damit sie in die Gesellschaft konfliktfrei integriert werden können. Das vorliegende Buch skizziert dazu einen vielversprechenden Ansatz aus der aktuellen Forschung, der auf den Begriff der moralischen Kompetenz aufbaut. Die These lautet: Roboter, die mit uns zusammenleben und zusammenarbeiten, benötigen moralische Kompetenz, um unsere Welt aus Regeln, Vorschriften und Werten zu begreifen und andererseits von ihrem Umfeld akzeptiert zu werden. In einem ersten Schritt fragt das Buch nach der Herkunft des Begriffs der moralischen Kompetenz, bevor im zweiten Kapitel die unterschiedlichen Modelle für ethische Roboter diskutiert werden. Das dritte Kapitel beleuchtet aktuelle Versuche in der Forschung, moralische Kompetenz in Robotern zu implementieren. Dabei geht die Untersuchung auf eine zweite These ein, die man auf den folgenden Gedanken zuspitzen kann: Moralische Kompetenz lässt sich nicht allein durch funktionalistische Theorien definieren, wie in der Forschung überwiegend argumentiert wird, sondern erfordert einen anderen Theorierahmen. Die Forschungsarbeiten von Lawrence Kohlberg9 , Georg Lind10 und Ewa Nowak11 zur moralischen Kompetenz bieten hierzu ein geeignetes Gegenmodell an, das sich ebenfalls für die Robotik fruchtbar machen lässt. Moralische Kompetenz verstehen – zumindest die beiden letztgenannten Autoren – als Fähigkeit, Konflikte auf der Grundlage von universellen moralischen Prinzipien durch Überlegung und Diskussion zu lösen. Welche philosophischen Herausforderungen mit der Implementierung von moralischer Kompetenz allerdings zusammenhängen, wird im vorletzten Kapitel zu erörtern sein. Hierzu zählen zentrale philosophische Begriffe wie Sprache, Identität und Bewusstsein. Das letzte Kapitel formuliert einen Vorschlag, wie sich das Thema (Moralische Roboter) didaktisch in der Grundschule für die Klassen 1 bis 2 einführen lässt, da bislang gerade für diese Bildungsstufen wenig bis kaum Material vorliegt. Dazu wurde im Rahmen der Studie eine Unterrichtseinheit mit Unterrichtsentwurf ausgearbeitet und im Sommer 2023 an einer Berliner Grundschule umgesetzt.

9 10 11

Vgl. Kohlberg, Lawrence (1958). The development of modes of moral thinking and choice in the years 10 to 16. Diss. University of Chicago. Vgl. Lind, Georg (2016). How to teach morality? Berlin: Logos Verlag. Vgl. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?« In: Ethics in Progress. Bd. 7. Nr. 1: 322–333.

17

18

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Das Ergebnis der Arbeit soll einerseits den Problemhorizont aus der humanistisch-philosophischen Perspektive skizzieren, der mit einer möglichen Entwicklung von moralisch kompetenten Robotern einher geht, andererseits einen didaktischen Einstieg in das Thema formulieren, um frühzeitig Kinder mit der Idee von moralischen Robotern vertraut zu machen, sie zum Philosophieren über Technik anzuregen und dabei ihr Verhältnis zu den neuen künstlichen Wegbegleitern zu reflektieren. Das Buch richtet sich damit also sowohl an Technikphilosophie interessierte Leserinnen und Leser als auch an angehende sowie ausgebildete Lehrerinnen und Lehrer als neuen Stoff für den Unterricht.

1.2 Was ist Roboterethik? Die Roboterethik ist in der deutschen Forschungslandschaft noch eine vergleichsweise junge Disziplin, wie Janina Loh zurecht in ihrer Begriffseinführung bemerkt12 . Die Basis der Literatur ist trotzdem über die letzten Jahre stetig gewachsen. Zu nennen sind hier beispielsweise die Arbeiten von Oliver Bendel13 , Matthias Rath und Friedrich Krotz14 oder Catrin Misselhorn15 , die in die Grundlagen der Maschinen- bzw. Roboterethik einführen. Darüber hinaus hat Markus Gabriel das Thema im Zusammenhang seiner Diskussion um die Etablierung eines »Neuen Realismus« aufgegriffen16 . Der wissenschaftliche Diskurs im anglo-amerikanischen Forschungsumfeld ist dagegen wesentlich umfangreicher und knüpft an prominente Autoren

12 13 14 15 16

Vgl. Loh, Janina (2017). »Roboterethik. Über eine noch junge Bereichsethik.« Information Philosophie, Bd. 1, S. 20. Vgl. Bendel, Oliver (2016). Die Moral in der Maschine. Hannover: Heise Medien. Vgl. Rath, Matthias und Krotz, Friedrich (2018). Maschinenethik: Normative Grenzen autonomer Systeme (Ethik in mediatisierten Welten). Wiesbaden: Springer VS. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik. Leipzig: Reclam. Vgl. Gabriel, Markus (2018). Der Sinn des Denkens. Berlin: Ullstein.

1. Einführung zur Roboterethik

wie Alan M. Turing, John Searle17 , Hilary Putnam18 , Ned Block19 oder Thomas Nagel20 an. Erste Sammelbände zur Roboterethik sind etwa von Patrick Lin21 oder Anderson et al.22 herausgegeben worden. Weitere Sammelbände im deutsch-sprachigen Raum von Oliver Bender (2019), Klaus Mainzer (2020)23 , Birgit Beck und Michael Kühler (2020)24 sowie eine Einführung von Janina Loh (2019)25 und von Michael Funk (2022)26 kamen in den letzten Jahren hinzu. Ein zentrales Ziel der Roboterethik ist von Anfang an, Regeln und Prinzipien festzulegen, nach denen Roboter handeln sollen.27 Es geht also darum, sich darüber zu verständigen, wie wir Roboter mit uns interagieren lassen wollen.28 Einer der ersten Autoren, der sich hierzu Gedanken gemacht hat, war der Russe Isaac Asimov mit seinen »Drei Gesetzen der Robotik«. Seine Gesetze entsprechen einfachen Handlungsanweisungen, die man einem Robo17 18

19

20

21

22 23 24

25 26 27 28

Vgl. etwa Searle, John R. (2004). Geist, Sprache und Gesellschaft. Frankfurt a.M.: Suhrkamp. Vgl. etwa: Putnam, Hilary (1964). »Robots: Machines or Artificially Created Life?« The Journal of Philosophy Bd. 61, Nr. 21, American Philosophical Association Eastern Division Sixty-First Annual Meeting (Nov. 12, 1964):668-691. Vgl. etwa: Block, Ned (1995). »On a confusion about a function of consciousness«. BEHAVIORAL AND BRAIN SCIENCES (1995) 18:227-287. Und: Block, Ned (1978). Troubles with functionalism. Minnesota Studies in the Philosophy of Science 9:261-325. Vgl. Nagel, Thomas (1974). »What Is It Like to Be a Bat?« In: The Philosophical Review, Bd. 83 (4):435-450. Und: Nagel, Thomas (1986). The view from nowhere. Oxford, New York, Toronto: Oxford University Press. Vgl. Lin, Patrick; Abney, Keith; Bekey George A. (2014). Robot Ethics. The ethical and social implications of robotics. Cambridge: MIT University Press. Und: Lin, Patrick; Jenkis, Ryan; Abney, Keith. (Hg.) (2017). Robot ethics 2.0. From autonomous cars to artificial intelligence. Oxford: Oxford University Press. Vgl. Anderson, Michael; Anderson, Susan L. (Hg.) (2011). Machine ethics. Cambridge: University Press. Vgl. Mainzer, Klaus (Hg.) (2020). Philosophisches Handbuch Künstliche Intelligenz. Wiesbaden: Springer, https://doi.org/10.1007/978-3-658-23715-8. Beck, Birgit und Kühler, Michael (Hg.) (2020). Technology, Anthropology, and Dimensions of Responsibility. Techno: Phil – Aktuelle Herausforderungen der Technikphilosophie, Band 1. Stuttgart: J.B. Metzler. Loh, Janina (2019). Roboterethik. Suhrkamp: Frankfurt a.M. Funk, Michael (2022). Roboter- und KI-Ethik – Eine methodische Einführung – Grundlagen der Technikethik. Band 1. Springer Fachmedien Wiesbaden GmbH. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 90. Vgl. Malle B. F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.« Ethics and Information Technology 18:243-256. DOI:10.1007/s10676-015-9367-8, S. 243.

19

20

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

ter einprogrammieren könnte. Allerdings bleibt die Frage der Alltagstauglichkeit offen. Ähnlich ergeht es anderen vielversprechenden ethischen Modellen wie der konsequentialistischen, der deontologischen oder Werte-basierenden Strategie.29 Nowak fragt daher sinnvollerweise: »What kind of ethics should be implemented in AI and what kinds of competencies should be experientially acquired by AI? Should it be more sophisticated or practicable ethics?«30 Die Programmierung ist so entscheidend, weil von Robotern keine Gefahr ausgehen soll. Es soll vermieden werden, dass Roboter psychologische oder soziale Probleme hervorrufen31 , andere Menschen oder Gegenstände verletzen.32 Hier sind also notwendigerweise Vorkehrungen zu treffen. Autonome Roboter müssen in die Lage versetzt werden, sagt wiederum Scheutz, soziale und moralische Normen in der Gesellschaft zu begreifen und mit ihnen umgehen zu können. Normen sind tief verankert in unseren kognitiven Strukturen und unserem Verhalten (»deeply ingrained in human cognition and behavior«). Sollten Roboter unseren Normen im zwischenmenschlichen Diskurs nicht entsprechen können, wären unabsehbare Folgen die Konsequenz, die von Ablehnung, Verletzung bis hin zu rechtlichen Auseinandersetzungen reichen könnten. (»If they fail to comply with them it could result into different social reactions, from blame to rebuke to »full-fledged legal consequences«33 .) Damit einhergehend beschäftigt sich die Roboterethik ebenfalls mit den Reaktionen und also mit dem Verhalten von uns Menschen im Umgang mit Robotern. Wann und wie müssen wir uns zum Beispiel gegenüber Robotern benehmen? Wo in welchen Bereichen unserer Gesellschaft sollen Roboter eingesetzt werden? Wo hat es Sinn? Wo nicht? Gibt es Anwendungsfelder, in denen ein Robotereinsatz technisch möglich, allerdings moralisch zweifelhaft re-

29

30

31 32

33

Vgl. Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.« In: Robot Ethics. The ethical and social implications of robotics (S. 347–364), hier: S. 347. Vgl. Nowak, Ewa (2017). »Can Human and Artificial Agents Share an Autonomy, Categorical Imperative-Based Ethics and ›Moral‹ Selfhood?« Filozofia Publiczna I Edukacja Demokratyczna 6(2):169-208. DOI: https://doi.org/10.14746/fped.2017.6.2.20, S. 187. Vgl. Veruggio Gianmarco; Solis, Jorge und Van der Loos, Machiel (2011). »Roboethics: Ethics Applied to Robotics.« IEEE Robotics & Automation Magazine 18(1):22-23, S. 22. Vgl. Wallach, Wendell (2010). »Robot Minds and Human Ethics: The Need for a Comprehensive.« Ethics and Information Technology 12(3):243-250. DOI: https://doi.org/10.10 07/s10676-010-9232-8, S. 243. Scheutz Matthias (2017). »The Case for Explicit Ethical Agents.« AI Magazine 38(4):5764. DOI: https://doi.org/10.1609/aimag.v38i4.2746, S. 57.

1. Einführung zur Roboterethik

spektive diskussionswürdig wäre? Zum Beispiel stellt sich die Frage, ab welchem Alter Kinder bereits Kontakt zu Robotern haben sollten? Für gewöhnlich unterscheidet man in der Roboterethik zwei grundlegende Begriffe: Roboter als »moral patients« und Roboter als »moral agents«34 . Die erste Kategorie versteht Roboter als passive Besitzer von Rechten, die als Gegenstand moralischer Verantwortung von »moral agents« auftauchen. Moralische Einstellungen wie Sorgen, Respekt, Verantwortungsgefühl und Achtung lassen sich in die Richtung von »moral patients« adressieren. Hervorgebracht werden diese von »moral agents«. Es gilt, dass »moral agents« ebenfalls als »moral patients« auftreten und wahrgenommen werden können, andersherum ist dies natürlich nicht immer der Fall. Nach dieser Lesart sind es also die moralischen Agenten, die aktiv über moralische Verpflichtungen und Verantwortung verfügen. Während es in der ersten Kategorie um das korrekte Verhalten gegenüber »moral patients« geht (wie oben beschrieben), Roboter primär als Werkzeug oder technische Ergänzung des Menschen verstanden werden, geht es in der zweiten Kategorie darum, Roboter als moralische Subjekte zu verstehen. Vor allem durch die Entwicklung auf dem Feld der Künstlichen Intelligenz scheint diese Kategorie deutlich an Relevanz zu gewinnen. Wir werden im nachfolgenden Kapitel den Unterschied zwischen »Roboter« und »Künstlicher Intelligenz« (KI) verdeutlichen, da diese öfters verwechselt werden. Leserinnen und Leser, die mit beiden Begriffen vertraut sind, können den nächsten Abschnitt überspringen.

1.3 Roboter versus KI: Was ist der Unterschied? Worin besteht der Unterschied zwischen »Robotern« und »Künstlicher Intelligenz«? Warum müssen wir beide Begriffe voneinander differenzieren? Folgt man dem Eintrag im Oxford English Dictionary, dann versteht man unter

34

Vgl. Loh, Janina (2017). »Roboterethik. Über eine noch junge Bereichsethik.«, S. 22. Sullin definiert drei Voraussetzungen für moralisches Handeln von Robotern: Autonomie, Intentionalität und Verantwortung: »Robots are moral agents when there is a reasonable level of abstraction under which we must grant that the machine has autonomous intentions and responsibilities.« (Vgl. Sullin, John P. (2006). »When Is a Robot a Moral Agent?.« International Review of Information Ethics 6(12):23-30, S. 29).

21

22

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

»Künstlicher Intelligenz« das Projekt, Computerprogramme Aufgaben erledigen zu lassen, für die es für gewöhnlich menschliche Intelligenz braucht, wie zum Beispiel visuelle Wahrnehmung, Spracherkennung, Entscheidungsfähigkeit und Übersetzung zwischen unterschiedlichen Sprachen. Ein Roboter dagegen ist eine Maschine, die bestimmte menschliche Funktionen und Bewegungen autonom imitiert. Der Begriff »Roboter« stammt ursprünglich ab von dem tschechischen Wort »robota« und bedeutet so viel wie Arbeit und Zwangsarbeit. Eingeführt und erstmals verwendet wurde dieser von dem Künstler Josef Čapek in 1920. In seinem Theaterstück »Rossum’s Universal Robots« (1921) sprach sein Bruder Karel Čapek von »labori« als menschliches Werkzeug zur Erleichterung der mühseligen Arbeit. Die Literatur liefert mehrere Definitionen, was ein Roboter ist. Grundsätzlich hat man sich darauf verständigt, dass ein Roboter typischerweise über Sensoren verfügt, mit denen er sich in der Außenwelt zurechtfindet. Er verfügt über ein Programm, dass ihm als Grundlage dient, die externen Daten zu verarbeiten, sowie über Aktoren für die Interaktion mit Anderen. Roboter sind also autonome Maschinen35 , KI auf der anderen Seite liefert das Programm, um den Roboter in Bewegung zu setzen. Dresler verweist auf zwei grundlegend verschiedenen Strategien innerhalb der KI Forschung.36 Einerseits wird das Ziel verfolgt, mit Methoden der Robotik und dem Ingenieurwesen intelligente Maschinen zu entwickeln. Andererseits sollen Computermodelle menschliche Intelligenz und damit den Geist erklärbar machen.37 Für den Begriff der KI gibt es ebenfalls keine feste Definition. Unterschieden wird allerdings in der Regel zwischen schwacher und starker KI. Nach Searle weist ein Computer starke KI auf, sobald er über reale mentale Inhalte verfügt. Eine ganz genaue Erklärung finden wir bei Searle allerdings auch nicht. Wir können von starker KI in seinen Augen sprechen, wenn die KI die Leistungsfähigkeit des menschlichen Gehirns erreicht hat, also dem Menschen in seinen geistigen Aktivitäten ebenwürdig ist.38 Schwache KI hingegen stellt Se-

35 36 37 38

Vgl. Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.«, S. 349–50. Vgl. Dresler, Martin (2009). Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«, Würzburg: Königshausen u. Neumann, S. 38. Vgl. Münch, Dieter (1992). »Computermodelle des Geistes«, in: Ders. (Hg.). Kognitionswissenschaft, Grundlagen, Probleme, Perspektiven (7–53). Frankfurt a.M.: Suhrkamp, S. 7. Dresler, Martin (2009). Künstliche Intelligenz, S. 65.

1. Einführung zur Roboterethik

arle zufolge ein Instrument dar, um den menschlichen Geist zu erforschen.39 Eine etwas schärfere Begriffsbestimmung liefern Russell and Norvig 2010: »First, some terminology: the assertion that machines could act as if they were intelligent is called the weak AI hypothesis by philosophers, and the assertion that machines that do so are actually thinking (not just simulating thinking) is called the strong AI hypothesis. Most AI researchers take the weak AI hypothesis for granted, and don’t care about the strong AI hypothesis — as long as their program works, they don’t care whether you call it a simulation of intelligence or real intelligence. All AI researchers should be concerned with the ethical implications of their work.«40 Laut Russell und Norvig hat also starke KI mit der Fähigkeit zu tun, sich intelligent zu verhalten und überdies denken zu können. Bei der schwachen KI erscheint es dagegen so, als hätte die Maschine solche Fähigkeiten. In Wahrheit jedoch simuliert sie nur ein bestimmtes Verhalten. Diese Definition deckt sich mit jener von Doherty. »Strong AI is also known as Artificial General Intelligence, or AGI. Weak AI are those designed and programmed to do clearly defined, limited set of tasks and no more. They can operate within their specific fields only. Strong AI are those programmed to learn and interact within the world the way a human would.«41 Der entscheidende Unterschied ist also, dass starke KI im Vergleich zu schwacher KI in der Lage ist, zu lernen, selbstbestimmt und frei zu operieren, außerhalb festgelegter Aufgabenbeschreibungen. Die Idee, den Menschen mit einer Maschine zu vergleichen und hierdurch Erkenntnisse zu gewinnen, ist dabei nicht neu. Bereits Descartes beschrieb im Rahmen seines dualistischen Weltbildes der res existensa (materielle Substanz oder Sache) und res cogitans (immaterielle Substanz) den Körper als Maschine. Das Gehirn funktioniere, folgt man Descartes, wie eine Orgel. Ähnlich wie die Luft durch eine Orgel geführt

39 40 41

Vgl. Searle, John. R. (1980) »Minds, brains, and programs.« Behavioral and Brain Sciences 3 (3):417-457. S. 417. Russell, Stuart J. und Norvig, Peter (2010). Artificial Intelligence: A Modern Approach. 3rd Edition, Prentice-Hall, Upper Saddle River, S. 1020. Doherty, Jason P. (2016). Introduction to »AI Civil Rights«. Addressing Civil Rights for Artificial Intelligence,« Harry Benjamin Kindle Editions.

23

24

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

wird, gelangt der Geist vom Gehirn über die Nerven in den Körper. Den Antrieb dazu gewährleisten das Herz und die Arterien. Auf diesem Weg erklärt sich der Philosoph das Zustandekommen von Wahrnehmungen und körperlichen Reaktionen. Eine Maschine ist also vor allem in der Lage, äußere Eindrücke zu verarbeiten, »wie Licht, Töne, Geruch, Geschmack, Wärme und alle die übrigen Beschaffenheiten der äußeren Gegenstände durch die Vermittlung der Sinne dort verschiedene Ideen einprägen, wie Hunger, Durst und die übrigen inneren Empfindungen auch die ihrigen dorthin senden können; was man unter dem Gemeinsinn verstehen muß, der diese Ideen empfängt.«42 Die Grenzen einer Maschine liegen darin, Symbole und Wörter zu artikulieren und zu verstehen. Dies ist nur dem Geist vorbehalten: »Das erste ist, dass sie (die Maschinen) niemals Worte oder andere von ihnen gemachte Zeichen würden brauchen können, wie wir tun, um anderen unsere Gedanken mitzuteilen.«43 Gleiches gilt für die Befähigung, aus eigenem Antrieb heraus zu handeln, autonom und selbstbestimmt zu entscheiden. »Und das zweite ist, dass, wenn sie auch viele Dinge ebensogut oder vielleicht besser als einer von uns machten, sie doch unausbleiblich in einigen anderen fehlen und dadurch zeigen würden, dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln.«44 Während Descartes einer Maschine kognitive, symbolverarbeitende Kompetenzen abstreitet, setzt Hobbes, in der Tradition des Rationalismus, Denken gleich mit einem Rechner. Es geschieht nach Regeln, auf die wir uns verständigt haben. So schreibt Hobbes: »Vernunft (ist) eine Art von Rechnen; man mag dabei allgemeine Begriffe zusammensetzen oder abziehen, und diese mögen nun dazu dienen, daß wir unsere eigenen Gedanken ordnen oder anderen vorlegen«45 Das Zusammenfügen von Worten zu grammatikalisch richtigen Sät-

42 43 44 45

Descartes, René (1637). Abhandlung über die Methode des richtigen Vernunftgebrauchs. (Online Version, abgerufen am 2. Juni 2023: Link: https://www.textlog.de/35548.html). Vgl. Descartes, René (1637). Abhandlung über die Methode des richtigen Vernunftgebrauchs. Descartes, René (1637). Abhandlung über die Methode des richtigen Vernunftgebrauchs. Vgl. Hobbes, Thomas (1651). Leviathan oder Materie, Form und Gewalt eines kirchlichen und staatlichen Gemeinwesens. Herausgegeben von Walter Euchner 1978, Teil 1 und 2. Leipzig: Reclam, S. 65.

1. Einführung zur Roboterethik

zen, so Hobbes, erfolgt wie das Addieren oder Subtrahieren in der Mathematik. Dieser Vorstoß in der Philosophie der Künstlichen Intelligenz, den Körper oder gar den Geist mit einer Maschine, später mit einem Computer zu vergleichen, wurde vor allem durch John Searle in seinem »Chinesischen Zimmer« prominent widersprochen, wie in einem der nachfolgenden Kapitel zu zeigen sein wird.

1.4 Wo brauchen wir Roboter? Der Fantasie sind keine Grenzen gesetzt. Grundsätzlich werden Roboter überall dort eingesetzt, wo sie Menschen entlasten oder unterstützen können. Die IFR (International Federation of Robotics) spricht von »Service Robotern«, die einerseits im professionellen Umfeld, also im industriellen Kontext eingesetzt werden, andererseits ihren Einsatz im Haushalt finden und damit privat genutzt werden. In beiden Segmenten verzeichnet die IFR einen erheblichen Anstieg der verkauften Einheiten. Wurden 2019 noch 319.000 Roboter in der Industrie gezählt, so waren es 2021 bereits 517.000 Einheiten.46 Ähnlich sieht es mit den Zahlen für den privaten Gebrauch aus. 2018 wurden etwa 16.3 Millionen Roboter weltweit an Privatpersonen verkauft, 2021 hingegen mehr als 19 Millionen.47 Roboter kommen in den verschiedensten Einsatzfeldern vor: Landwirtschaft, Bergbau, Reinigung, Bildung, Entertainment, Medizin und Pflege, Weltraumforschung, Militär und Industrie. Inzwischen scheint sich auch die Vermutung von John Danaher zu bestätigen, der einen Marktzuwachs von Robotern für die Erotikindustrie 2018 voraussagte.48 Seit der Einführung von »Roxxxy«/»Rocky« durch die Firma TrueCompanion folgten zahlreiche vergleichbare Produkte wie »Harmony«, »Samantha« oder

46 47

48

Vgl. World Robotics 2022 – Industrial Robots, Präsentation. Stand: 21.03.2023. Link: h ttps://ifr.org/downloads/press2018/2022_WR_extended_version.pdf. Vgl. World Robotics 2022 – Industrial Robots, Präsentation. Stand: 21.03.2023. Link: h ttps://ifr.org/downloads/press2018/2022_WR_extended_version.pdf und »Executive Summary World Robotics 2019 Service Robots«, Link: https://ifr.org/downloads/pre ss2018/Executive_Summary_WR_Service_Robots_2019.pdf. Vgl. Danaher, John (2018). »Should we be thinking about robot sex«. In: Ders. und Neil McArthur (Hg.). Robot Sex. Social and Ethical Implications (3–14), Cambridge: MIT Press, S. 6.

25

26

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

»Cow Kylie«. Roboter werden also zunehmend menschlicher, äußerlich wie innerlich. Diese Entwicklung hat in der Psychologie und Roboterethik zwei zentrale Fragen ausgelöst: Erstens: Welchen Effekt hat der zunehmende Anthropomorphismus in der Robotik auf uns Menschen? Zweitens: Können Roboter irgendwann Personen sein, ausgestattet mit sämtlichen Rechten und Pflichten? Der Diskurs zur ersten Frage ist mit dem Stichwort »Uncanny Valley« verbunden, was übersetzt so viel bedeutet wie »unheimliches Tal«. Es handelt sich um ein überraschendes Phänomen, das erstmals vom japanischen Wissenschaftler Masahiro Mori beschrieben wurde49 . Hiernach können Roboter Befremden, Irritation und Ablehnung hervorbringen, je menschlicher sie werden. Diese Beobachtung ist insofern überraschend, weil sie kontraintuitiv zu sein scheint.50 Zu erwarten wäre, dass die Akzeptanz mit der zunehmenden Angleichung des Roboters an den Menschen ebenfalls steigen würde. Damit stellt dieser Effekt eine besondere Herausforderung für das Design von Robotern dar, die mit Menschen interagieren sollen.51 Wie sollen Roboter aussehen, damit sie von Menschen nicht abgelehnt werden? Sollten sie sich eher vom menschlichen Äußeren unterscheiden.52 In der Forschung ist man sich über das Phänomen des »Uncanny Valley« nicht einig. Während einige Autoren behaupten, dass sich diese Beobachtung nicht nur auf humanoide Roboter beschränkt53 , zweifeln andere Autoren grundsätzlich an der Richtigkeit der Theorie und plädieren für eine Revision der bisherigen Überlegungen.54 Die zweite oben angesprochene Frage beschäftigt sich mit den ethischen und politischen Implikationen von Robotern, die immer menschlicher werden. 49 50

51 52

53

54

Vgl. Mori, Masahiro; MacDorman, Karl F., Kageki, Norri (2012). The Uncanny Valley. IEEE Robotics & Automation Magazine, 19, S. 98–100. Vgl. Samuel, Janina L. (2019). »Company from the Uncanny Valley: A Psychological Perspective on Social Robots, Anthropomorphism and the Introduction of Robots to Society«. ETHICS IN PROGRESS 10(2):8-26. DOI: https://doi.org/10.14746/eip.2019.2.2. Vgl. Samuel, Janina L. (2019). »Company from the Uncanny Valley, S. 12. Gresco, Alberto, Anerdi, Giuseppe & Rodriguez, Guido (2009). »Acceptance of an Animaloid Robot As a Start- ing Point for Cognitive Stimulators Supporting Elders with Cognitive Impairments.« Revue d’Intelligence Artificielle 23(4):523-37, S. 17. Ferrey, Anne E.; Burleigh, Tyler J. & Fenske, Mark J. (2015). »Stimulus-category Competition, Inhibition, and Affective Devaluation: A Novel Account of the Uncanny Valley.« Frontiers in Psychology 6:249, S. 6. Bartneck, Christoph; Kanda, Takayuki, Ishiguro, Hiroshi, & Hagita, Norihiro. (2007). »Is the Uncanny Valley an Uncanny Cliff?« RO-MAN 2007-The 16th IEEE International Symposium on Robot and Human Interactive Communication (S. 368–373). IEEE, S. 15.

1. Einführung zur Roboterethik

Relevant werden diese Fragen vor allem, sobald wir Roboter den PersonenStatus anerkennen. Wir werden diesen Gedanken im nächsten Abschnitt zunächst einleiten und später ausführlich gegen eine Kennzeichnung von Robotern als Personen argumentieren, ohne jedoch ihnen dabei ihre Rechte und Pflichten abzusprechen.

1.5 Können Roboter Personen sein? Können Roboter Personen sein? Auch wenn diese Frage etwas ungewöhnlich erscheint, ist sie keinesfalls abwegig. Sie stellt sich zumal vor dem Hintergrund, wenn es gelingen sollte, Roboter mit moralischer Kompetenz auszustatten und als »moral agents« in der Gesellschaft zu integrieren. Im Frühling 2018 führte Google auf der I/O Konferenz eine Software namens »Duplex« ein. Es handelt sich dabei um eine Stimmen-Imitation-Software, die in der Lage ist, Telefonate wie natürliche Personen zu führen. Duplex vereinbart Termine beispielsweise beim Friseur, in der Autowerkstatt oder bucht einen Tisch im Restaurant. Die Software nutzt dazu Interjektionen wie »ah« und »oh«, um das Gespräch realistischer und komfortabler zu machen.55 Für den Gesprächspartner am anderen Ende der Telefonleitung ist dadurch der Unterschied zwischen der KI und einem Menschen kaum heraushörbar. In den letzten Jahren sind viele weitere spektakuläre Roboter- und KI-Anwendungen dazugekommen wie »Atlas« von der Firma Boston Dynamics, der sich menschenähnlich bewegen kann, oder »Ameca« und »Mesmer« von »Engineered Arts«, die eine große Bandbreite an Emotionen simulieren können. Assistenzsysteme wie »Siri«, »Alexa« oder »Cortana« gehören ebenfalls inzwischen fest zu unserem Alltag. Mit der Handy-Applikation »Replika« soll es laut Hersteller sogar möglich sein, dass Menschen Beziehungen zu einer KI entwickeln können. Beispiele wie diese haben in der Roboterethik Autoren wie Petersen, Sparrow56 , Veruggio, Abney zu der optimistischen Annahme motiviert, dass Ro55

56

Lomas, Natasha (21. Juli 2019). Duplex shows Google failing at ethical and creative AI design. Link: https://techcrunch.com/2018/05/10/duplex-shows-google-failing-atethical-and-creative-ai-design/. Sparrow gehört auch zu der optimistischen Gruppe von Wissenschaftlern, die glaubt, dass Roboter irgendwann als Personen von uns Menschen akzeptiert werden können. Im Vergleich zu Petersen, Veruggio und Abney vertritt er die Ansicht, dass Roboter zu Menschen werden, wenn sie den Turing Triage Test bestehen, einen Test, der ei-

27

28

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

boter irgendwann als Personen verstanden werden könnten, ähnlich wie etwa in den Science-Fiction Filmen wie Star Trek, I Robot (2004) or Ex Machina (2014). Ihre Strategie kennzeichnet sich dadurch, dass sie das PersonenSein auf emergente Eigenschaften und Organisationsstrukturen wie kognitive, moralische Fähigkeiten und (Selbst)-bewusstsein zurückführen. Ob jemand als Person gilt – so das Argument für »Artificial People« (AP) – hängt also weniger davon ab, aus welchem organischen oder nicht-organischen Material er, sie oder es sich zusammensetzt. Folglich können auch artifizielle Lebewesen, sofern sie über die genannten höherstufigen Charakteristika verfügen, als Personen in Frage kommen.57 Welche philosophischen Schwierigkeiten mit diesem Argument verbunden sind, möchten wir im fünften Kapitel ausführen. Dazu werden wir auf zwei gebräuchliche Theorien zur Bestimmung von Personen eingehen und mit Christine Korsgaard einen alternativen Weg skizzieren, der den umstrittenen Begriff der Person vermeidet.

57

ne notwendige und hinreichende Bedingung dafür darstellt, künstlicher Intelligenz einen moralischen Status zuzuerkennen. Maschinen werden zu Menschen, wenn wir sie nicht sterben lassen können, ohne vor demselben moralischen Dilemma zu stehen, das wir hätten, wenn wir einen Menschen sterben lassen müssten. Vgl. weiter unten. Vgl. Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.«, S. 353; Petersen Steve. (2014). »Designing People to Serve«, in Lin P., Leith A., & Bekey G. A. (Hg.), Robot Ethics (283–98), S. 284.

2. Was ist moralische Kompetenz?

2.1 Einführung in den Begriff Der Begriff »Moralische Kompetenz« hat seinen Ursprung in den Worten »Moral« und »Kompetenz«. Während »Moral« allgemein auf das angemessene Verhalten (Was ist geboten? Was ist untersagt? Was ist sittlich?) von Personen in Gemeinschaften abzielt, leitet sich das Wort »Kompetenz« von dem lateinischen Ausdruck »competentia« ab. Verwendet wurde das Wort in zwei unterschiedlichen Sinnen: Zum einen in Bezug auf Vereinbarungen, Verabredungen oder Treffen, zum anderen in Wettbewerbssituationen. Lind betont mit Blick auf die gegenwärtige pädagogische Diskussion um den Begriff, dass dieser insgesamt fünf Facetten umfasst: Fakten-Wissen (Information), VerstehensWissen, Anwendungs-Wissens und Verantwortungs-Wissen sowie unbewusstes, automatisch erworbenes Wissen.1 Lind will mit dieser Definition darauf hinaus, dass »Kompetenz« nicht nur auf »Begriffswissen« oder »Faktenwissen« – wie gemeinhin in der Forschung angenommen – abzielt2 , sondern weit mehr bedeutet. Kompetenz steht ebenfalls, so könnte man sagen, für die Fähigkeit, sein erlerntes Wissen richtig und angemessen anzuwenden. Berücksichtig man die Etymologie der beiden Worte, dann lässt sich unter moralischer Kompetenz eine Fähigkeit verstehen, moralisch handeln und »richtige« oder »gute« Entscheidungen treffen zu können.3 Ferner ist die Idee, wie Lind meint, dass moralische Kompetenz lernbar ist. Moralisch kompetentere Perso-

1 2 3

Vgl. Lind, Georg (2016). »Theorie und Praxis des Begriffs ›Kompetenz‹«. Lehren und Lernen, Heft 10, (S. 16–20), S. 18. Vgl. Ebd., S. 17–18. Nunner-Winkler, Gertrud (1999). »Moralische Integration«. Kölner Zeitschrift für Soziologie und Sozialpsychologie, 39: 293–319.

30

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

nen handeln also auch moralischer.4 Diese Vorbemerkung ist sicherlich stark vereinfacht, zeigt allerdings den Rahmen auf, in dem sich aktuelle Theorien und Überlegungen zur moralischen Kompetenz bewegen.5 Grundsätzlich ist der Begriff der moralischen Kompetenz in der Forschung jüngeren Datums6 und ist über die Jahre kontrovers diskutiert worden7 . Dementsprechend finden sich mehrere definitorische Ansätze. Für Neumaier beispielsweise hat der Begriff »Moralische Kompetenz« gleich drei Bedeutungen: Erstens hebt er auf die »Menge menschlicher Fähigkeiten zum Erwerb und Gebrauch moralischer Regeln (analog zur Sprachfähigkeit)« ab, zweitens bezieht er sich auf »jenes Regelsystem, das dem Verhalten eines Menschen tatsächlich zugrunde liegt (analog dem Sprachwissen)«, und drittens spielt »Moralische Kompetenz« eine Rolle als idealisiertes Modell innerhalb seiner so genannten »generativen Ethik«8 . Anja Geisler lehnt wiederum ihre Definition an jene von Bierhoff an und versteht unter Moralischer Kompetenz die Verfügbarkeit affektiver und kognitiver Strukturen9 , »die die Lösung zwischen-menschlicher Probleme auf der Basis moralischer Normen und ethischer Begründungen ermöglichen«10 . Brigitte Latzko und Tina Malti sprechen sogar von einer »Sozio-moralischen Kompetenz«, die »kritische Reflexionsfähigkeit, Empathie, Kooperation, gegenseitige Achtung,

4

5 6 7

8 9

10

Vgl. Lind, Georg (2014). »Moralische Kompetenz und globale Demokratie«. In: M. Tiedemann & J. Rohbeck (Hg.). Philosophie und Verständigung in der pluralistischen Gesellschaft (192- 211). Dresden: Thelem, S. 193. Lind, Georg (2011). »Moralerziehung«. In: Kiel, E.; Zierer, K. (Hg.), Basiswissen Unterrichtsgestaltung (39–50). Baltmannweiler: Schneider. Verlag Hohengehren. Vgl. Lind, Georg (2016). Gemeinsames Lernen braucht Moralkompetenz. Gemeinsames Lernen, 2016, Heft 4:42-47, S. 45. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation«. In: D. Horster & J. Oelkers (Hg.). Pädagogik und Ethik (149–172). Wiesbaden: Verlag für Sozialwissenschaften, S. 1. Neumaier, Otto (1981). »Moralische Kompetenz als Gegenstand der Ethik«. In: Conceptus. Zeitschrift für Philosophie, Bd.XV (1981), Nr.35-36:143-156, S. 145. Geisler, Anja (2016). Mobbing – eine Frage der Moral? Der Einfluss moralischer Fähigkeiten auf Verhalten in Mobbing-Situationen. Diss. an der Ludwig-Maximilians-Universität München, S 13. Link: https://edoc.ub.uni-muenchen.de/20097/1/Geisler_Anja.pdf (Stand: 22.03.2023). Vgl. Bierhoff, Hans-Werner (2004). »Moralische Kompetenz.« In: G. Sommer & A. Fuchs (Hg.), Krieg und Frieden. Handbuch der Konflikt- und Friedenspsychologie (S. 568–580). Weinheim: Beltz Psychologie Verlags Union, S. 569.

2. Was ist moralische Kompetenz?

Toleranz, Verantwortungsübernahme, Fürsorge, Konfliktlösefähigkeiten und soziale Solidarität« umfasst11 . Die Erforschung der moralischen Kompetenz oder »Moralkompetenz« hat sich aus der kognitiven Entwicklungspsychologie des Schweizer Psychologen Jean Piaget (1983) heraus entwickelt, die später vor allem durch Lawrence Kohlberg und dessen Konzept zur »Moralischen Urteilskompetenz«12 sowie durch Georg Linds »Dual-Aspekt-Theorie des Moralischen Selbst« grundsätzlich weitergeführt und ausgearbeitet wurde.13 Zudem steht der kognitionstheoretische Ansatz in einer längeren philosophischen Tradition, den Lind bis weit in die Zeit des griechischen Gelehrten Sokrates verortet sieht. Dieser (Sokrates) differenzierte zwischen dem Wunsch, das Gute zu wollen, und der Fähigkeit, es zu bekommen oder zu erreichen. Es folgten etwa der Biologe Charles Darwin14 sowie der Nervenarzt Max Levy-Suhl (1912)15 , die wie Sokrates einen Zusammenhang zwischen moralischem Verhalten und Kognition vermuteten. Die moderne kognitive Entwicklungspsychologie ist neben James Mark Baldwin16 und John Dewey17 nicht zuletzt durch die moralphilosophischen Überlegungen Immanuel Kants beeinflusst worden. Inwiefern Kant hier als Vorbereiter gelten kann, möchten wir im nächsten Abschnitt kurz ausführen. Danach nehmen wir den Faden zu Piaget und Kohlberg wieder auf.

11

12

13 14 15

16

17

Latzko, Brigitte und Malti, Tina (Hg.) (2010). Moralische Entwicklung und Erziehung in Kindheit und Adoleszenz. Göttingen: Hogrefe, S. 7. Link: https://pubengine2.s3.e u-central-1.amazonaws.com/preview/99.110005/9783840922268_preview.pdf (Stand: 22.03.2023). Kohlberg, Lawrence (1964). »Development of Moral Character and Moral Ideology.« In: Hofmann, M.L., Hofmann, L.W. (Hg.). Review of Child Development Research (Bd. 1, S. 381–431). New York: Russell Sage Foundation. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«. Darwin, Charles (1966). Die Abstammung des Menschen. (Originaltitel: The descent of man. 2. Auflage, 1874). Stuttgart: Kröner Verlag. Levy-Suhl, Max (1912). Die Prüfung der sittlichen Reife jugendlicher Angeklagter und die Reformvorschläge zum § 56 des deutschen Strafgesetzbuches. Zeitschrift für Psychotherapie: 232–254. Baldwin, James M. (1897). Social and ethical interpretations in mental development: A study in social psychology. MacMillan Co. APA PsycBooks. https://doi.org/10.1037/129 07-000. Dewey, John (1986). »Experience and education.« The Educational Forum, 50:241-252.

31

32

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

2.2 Kant über Moral Im Wesentlichen sind es zwei zentrale Aspekte aus der Philosophie Kants, die für die moderne kognitive Entwicklungspsychologie entscheidend werden.18 Zum einen ist dies Kants anthropologisches Verständnis vom Menschen, zum anderen – und umso wichtiger – dessen Konzept der Urteilskraft im Rahmen seiner deontologischen Ethik.19 Kant interpretiert den Menschen als »Zweck an sich selbst«20 und »Subjekt des moralischen Gesetzes«, das über »Autonomie«21 und damit über einen freien Willen verfügt.22 Der Mensch ist in erster Linie ein denkendes und interpretierendes Wesen23 , was ihn vom Tier unterscheidet. Er ist nicht das »Resultat widerstreitender Triebenergien«24 , sondern Vernunft geleitet. Seine Entscheidungen als handelndes Wesen lassen sich auf Gründe zurückführen. Jegliche Verantwortung für sein Handeln trägt also der Mensch. Er ist sich selbst Gesetzgebung.25 Die Gründe für sein Handeln können nach Kant sodann Anspruch auf moralische Gültigkeit einfordern, insofern sie für alle Menschen gelten und universal sind. Hierin liegt auch der Kerngedanke Kants deontologischer Ethik (Pflichtenethik), nämlich eigene subjektive Maximen (Handlungsregeln, »das subjektive Prinzip des Wollens«26 ) zugunsten einem übergeordneten »moralischen Gesetz« zurückzustellen. Um jedoch überhaupt einschätzen zu können, ob eine Handlung nach einer subjektiven oder gar allgemeingültigen, universalen Maxime erfolgt, braucht es das Vermögen der Urteilskraft:

18 19 20 21 22 23 24 25 26

Garz, Detlef (2009). Lawrence Kohlberg. An Introduction. Berlin: Verlag Barbara Budrich S. 14. Vgl. Lind, Georg; Hartmann, Hans A. und Wakenhut, Roland (1985). Moral Development and the Social Environment, Milton: Routledge, S. 30. Kant, Immanuel (1788). Kritik der praktischen Vernunft, herausgegeben von Horst D. Brandt und Heiner F. Klemme 2003, Hamburg: Meiner, S. 237. Rössler, Beate (2019). Autonomie. Frankfurt a.M.: Suhrkamp, 32. Kant, Immanuel (1788). Kritik der praktischen Vernunft, 132. Vgl. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 149. Ebd., S. 149. Rössler, Beate (2019). Autonomie, S. 31. Kant, Immanuel (1785). Grundlegung der Metaphysik der Sitten. Herausgegeben von Theodor Valentiner 1961, Stuttgart: Reclam, (400–401), S. 25.

2. Was ist moralische Kompetenz?

»um teils zu unterscheiden, in welchen Fällen (die moralischen Regeln) ihre Anwendung haben, teils ihren Eingang in den Willen des Menschen und Nachdruck zur Ausübung verschaffen, da dieser die Idee einer praktischen Vernunft zwar fähig, aber nicht so leicht vermögend ist, sie in seinem Lebenswandel in concreto wirksam zu machen.«27 Die Urteilskraft hat also einen zuallererst praktischen Nutzen für den Menschen, da sie ihm hilft, richtige Entscheidungen in alltäglichen Lebenssituationen entlang moralischer Maximen zu treffen und sich grundsätzlich in der Welt zurechtzufinden. So heisst es bei Kant zum Wesen der Urteilskraft: »Frage dich selbst, ob die Handlung, die du vorhast, wenn sie nach einem Gesetze der Natur, von der du selbst ein Teil wärest, geschehen sollte, sie du wohl, als durch deinen Willen möglich, ansehen wolltest? Nach dieser Regel beurteilt in der Tat jedermann Handlungen, ob sie sittlich-gut oder böse sind.«28 Bei Kohlberg findet sich vom Inhalt her eine ähnliche Äußerung, wie Lind feststellt: »Every educated layman [...] is of the belief that someone is only moral when he acts in accordance with his conscience. An action is neither good nor bad when it has not been preceded by a judgment of right or wrong.«29 Kohlberg und nach ihm Lind teilen Kants Aufklärungsethos, den Menschen als Zentrum des Erkennens und Handelns verstehen zu wollen. Jeder Mensch ist als »gleichwertiges Subjekt« mit unterschiedlichen »moralischen Ansprüchen« zu betrachten und dürfe niemals ausgegrenzt werden.30 Lind ruft in Anlehnung an Kants Schrift »Zum Ewigen Frieden« (1781)31 dazu auf, sich für eine »globale moralische Gesellschaft« einzusetzen, um den Frieden untereinander zu gewährleisten.32 Kant stellt darin fest, dass die Menschen untereinander schon aufgrund ihrer Natur unterschiedliche Bedürfnisse haben und unterschiedliche Ziele anstreben. Etwas drastisch formuliert, schreibt Kant daher:

27 28 29 30 31 32

Kant, Immanuel (1785). Grundlegung der Metaphysik der Sitten, (389–390) S. 10. Kant, Immanuel (1788). Kritik der praktischen Vernunft, (123), S. 94. Kohlberg, Lawrence (1958). The development of modes of moral thinking and choice in the years 10 to 16, S. 5. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 149. Kant, Immanuel (1781). Zum ewigen Frieden. Herausgegeben von Rudolf Walter 2002. Stuttgart: Reclam. Lind, Georg (2016). How to teach morality. Promotion deliberation and discussion, reducing violence and deceit, Berlin: Logos, S. 26.

33

34

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

»Indem die Natur nun dafür gesorgt hat, daß Menschen allerwärts auf Erden leben könnten, so hat sie zugleich auch despotisch gewollt, daß sie allerwärts leben sollten, wenn gleich wider ihre Neigung, und selbst ohne daß dieses Sollen zugleich einen Pflichtbegriff voraussetzte, der sie hiezu, vermittelst eines moralischen Gesetzes, verbände, – sondern sie hat, zu diesem ihrem Zweck zu gelangen, den Krieg gewählt.«33 Für einen möglichst friedlichen Konsens ist es vonnöten, dass bei einer moralischen Urteilsfindung und Konfliktlösung nicht nur die Perspektive des Einzelnen entscheidend ist, sondern auch immer die Frage eine Rolle spielt, welche Konsequenzen das eigene Urteil auf andere Menschen haben könnte. Universale Prinzipien – wie bei Kant – sollen dem Menschen Orientierung sein. Entsprechend versteht Kohlberg unter der menschlichen Urteilskraft die »Fähigkeit, […] sich aus der konkreten ethischen Situation herauszunehmen, und nach abstrakten universellen moralischen Prinzipien zu handeln«34 . Lind präzisiert diese Definition um den Aspekt der »Diskussionsfähigkeit«, die statt Gewalt, Hinterlist und Täuschung aktiviert werden müsse.35 Lind definiert moralische Kompetenz als die Fähigkeit, Konflikte und Probleme auf der Grundlage universeller moralischer Prinzipien durch Überlegen und Diskutieren zu lösen. Die inhaltliche Nähe in beiden Fällen zu Kant ist offenkundig. Der Ausgangspunkt ist die Mündigkeit des Menschen, der erstens zum »eigenen kritischen Urteil«36 befähigt ist und zweitens sein Verhalten und Entscheiden nach moralischen Prinzipien ausrichten kann. Kohlbergs Position wird als »rationalistisch-kognitivistisch« respektive »moralischer Universalismus« bezeichnet37 , die exemplarisch für die in der Psychologie vollzogene »Kognitive Wende« steht. In der Forschung wird sie auch als Reaktion auf die wissenschaftliche Strömung des normenkonformen »blinden« Menschen und auf die Zeit Deutschlands während des Nationalso-

33 34 35 36

37

Kant, Immanuel (1781). Zum ewigen Frieden, S. 28. Kohlberg, Lawrence (1974); zitiert aus: Dreyfus, Hubert L. (1993). Was ist moralische Reife? Deutsche Zeitschrift für Philosophie, 41(3), 435–458, S. 452. Lind, Georg (2016). How to teach morality, S. 45. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens. Theoretische, methodische und empirische Untersuchungen zur Urteils- und Demokratiekompetenz bei Studierenden. Diss. Universität Konstanz, S. 58. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 149.

2. Was ist moralische Kompetenz?

zialismus gewertet, in der Gruppen und Personen als »moralische Subjekte« ausgeschlossen und entwertet worden waren.38

2.3 »Kognitive Wende« in der Psychologie« Der von Lind eingeführte und unter anderem von Nowak (2016) an anderer Stelle weiterentwickelte Begriff der moralischen Kompetenz hat zweierlei Ursprünge: Zum einen steht er im Zusammenhang mit der so genannten »Kognitiven Wende« (Dember 1974) in der Psychologie in den 1960er und 1970er Jahren. Zum anderen ist er in der Auseinandersetzung mit den aufkommenden neurowissenschaftlichen Theorien Ende des Jahrhunderts begrifflich spezifiziert worden. Als »Kognitive Wende« wird der Paradigmenwechsel innerhalb der Psychologie von primär behavioristischen hin zu kognitiven Erklärungsmodellen verstanden. Hiernach werden bei der Untersuchung menschlichen Verhaltens insbesondere die internen Denk- und Bewusstseinsprozesse – also die kognitive Struktur – in den Blick genommen. Der Mensch wird nicht mehr nur wie im Behaviorismus als »black box« interpretiert. Kritiker wie Chomsky kritisieren den Behaviorismus als Position, die zu einer »reductio ad absurdum«39 führt. In den kognitive Entwicklungsmodellen geht es demgegenüber nicht mehr nur um die sozialen Einflüsse, die eine bestimmte Disposition beim Menschen verursachen oder auslösen. Im Vordergrund stehen ebenso die innerpsychischen Prozesse, deren Inhalt und Struktur40 . Dabei bleibt das soziale Umfeld, die Gesellschaft, in die der Mensch eingebunden ist, für die Untersuchung nicht irrelevant. Auch ist die »Persönlichkeit weder etwas rein Äußerliches noch etwas rein Innerliches, sondern das Charakteristische an der Beziehung zwischen Individuum und sozialer Umwelt«41 . Treffend hat Piaget den Gedanken des doppelten Untersuchungsgegenstandes formuliert, wonach »jedes Verhalten einen energetischen oder affektiven und einen strukturellen oder erkenntnismäßigen Aspekt hat«42 . Piaget war es, der sich in

38 39 40 41 42

Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 149. Chomsky, Noam (1959). »A Review of B. F. Skinner’s Verbal Behavior«. Language, 35, Nr. 1: 26–58. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens. S. 56. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens. S. 56. Piaget, Jean (1976). Psychologie und Intelligenz. München: Kindler, S. 7–8.

35

36

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

seiner kognitiven Moralentwicklung mit den idealtypischen Formen der Moral bei Kindern und Erwachsenen befasst hat.43 Er fand heraus, dass die Moral eines Kindes primär egozentrisch, heteronom und subjektiv gekennzeichnet ist. Verankert ist sie in den unilateralen Machtbeziehungen zwischen Eltern und Kind. Die Partner (die Eltern) geben die Verhaltensmaximen vor, die vom anderen Partner (dem Kind) befolgt werden müssen. Nach Piaget sind diese Regeln für das Kind absolut, die sich durch die Autorität der Eltern – fußend auf Liebe und Furcht – konstituiert. Die Moral der Heranwachsenden dagegen ist in erster Linie durch Autonomie, Reziprozität und Gleichheit definiert. Moralisch autonom wird man durch den Umgang mit Gleichaltrigen. Die Regeln für den Umgang unter Heranwachsenden basieren auf gemeinsam vereinbarten, ausgehandelten Übereinkünften. Kohlbergs kognitive Entwicklungspsychologie knüpft an die Arbeiten von Piaget an. Er konfrontierte in den 1950er und 1960er Jahren Kinder mit Dilemmasituationen44 und entwickelte darauf aufbauend sechs Orientierungsstufen der Moral bzw. des moralischen Urteilens, die jeder Mensch in seinem Leben durchläuft.45 Diese Stufen können wiederum in drei Entwicklungsphasen zu geordnet: In den Stufen der ersten Entwicklungsphase orientiert sich das Individuum bei der Lösung von moralischen Problemen an präkonventionellen, in erster Linie von eigenen Interessen gesteuerten Argumenten. In der darauffolgenden konventionellen Entwicklungsphase bestimmt das Einhalten von Konventionen, Normen und Regeln die Struktur der Argumente. Richtiges Verhalten ergibt sich oft dadurch, was allgemein gefällt, konsensfähig ist und einer »Norm« zu zuordnen ist.46 Die moralische Urteilsfähigkeit auf dieser Ebene berücksichtigt das Einhalten von Ordnung und Recht, mithin das Umsetzen von Pflichten und Respektieren von Autoritäten. In der letzten – der sogenannten postkonventionellen Entwicklungsphase – erreicht das Handeln einen Zustand, in dem ausschließlich universale Prinzipien gültig sind. Diese orientieren sich am »Gemeinwohl«47 der »gesamten Gesellschaft«48 aller »moralisch rationalen Subjekte«49 und sind durch 43 44 45 46 47 48 49

Vgl. Lind, Georg et al. (1985). Moral Development and the Social Environment, S. 22. Vgl. Lind, Georg (2016). How to teach morality, S. 53. Vgl. Garz, Detlef (2009). Lawrence Kohlberg. An Introduction, S. 40. Vgl. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 61. Geisler, Anja (2016). Mobbing – eine Frage der Moral? Der Einfluss moralischer Fähigkeiten auf Verhalten in Mobbing-Situationen, S. 22. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 61. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 150.

2. Was ist moralische Kompetenz?

eine »ausgeprägte Perspektivenübernahme«50 gekennzeichnet. Vergleichbar ist diese Stufe mit Kants moralischem Universalismus, der im letzten Abschnitt kurz besprochen wurde. Um nun von einer Stufe auf eine andere Stufe zu gelangen, spielen Erfahrung und Übung eine Rolle. Nur so kann beispielsweise das moralische Bewusstsein eines Kindes, ausgehend von der ursprünglich erlebten Sozialisation, transformiert werden. Lind spricht von einem »Bedeutungswandel«, der sich im Kopf des Kindes abspielt.51 Jede höhere Stufe bedeutet mehr »Komplexität«52 . Das Stufenmodell der Moral mit seinen inhaltlichen Bestimmungen soll uns im späteren Verlauf der Arbeit erneut beschäftigen, vor allem mit Blick auf die Frage, welche der moralischen Orientierungsstufen bei Robotern sinnvoll oder gar erforderlich sind. Zunächst lässt sich festhalten, dass Kohlbergs Theorie von der Annahme getragen ist, dass jedes moralische Argumentieren auf einer höheren Orientierungsstufe ebenfalls die entsprechenden intellektuellen Fähigkeiten voraussetzt. Die Struktur des moralischen Urteils korreliert also mit der kognitiven Verfassung des Individuums.

2.4 Die »Renaissance des Gefühls« Der zweite Ursprung Linds Theorie der Moralischen Kompetenz begründet sich in der kritischen Gegenbewegung zur kognitiver Entwicklungspsychologie von Kohlberg. Allen voran Autoren wie Blum53 , Peters54 , später Heidbrink55 und Woolfolk56 bemerken in ihren Arbeiten, dass Rationalität, Vernunft und hiernach der Schwerpunkt auf die kognitive Struktur des Handelns nicht

50

51 52 53 54

55 56

Käter, Carolina; Melzer, Conny; Hillenbrand, Clemen (2016). Moralische Urteilsfähigkeit bei Schülerinnen und Schülern an Förderschulen mit dem Schwerpunkt auf Lernen, Empirische Sonderpädagogik (2016) 3: 262–278, S. 264. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 59. Geisler, Anja (2016). Mobbing – eine Frage der Moral? Der Einfluss moralischer Fähigkeiten auf Verhalten in Mobbing-Situationen, S. 22. Vgl. Blum, Lawrence A. (1980). Friendship, Altruism and morality. London: Routledge & Kegan Paul. Vgl. Peters, Richard S. (1979). »Virtues and habits in moral education.« In Donald B. Chochrane/Comel M. Hamm/Anastasios C. Kazepides (Hg.). The domain of moral education (267–287). New York. Vgl. Heidbrink, Horst (2008). Einführung in die Moralpsychologie. Weinheim: Beltz. Woolfolk, Anita (2014). Pädagogische Psychologie. München: Pearson.

37

38

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

ausreichen. Keller spricht von einer limitierten Zugangsweise, die lediglich die »Wahrnehmung und das Verständnis einer Situation ermöglichen«, nicht aber eine »hinreichende Bedingung für moralische Urteile«57 abbilden. »Die Entwicklung der kognitiven Fähigkeit der Perspektivenkoordination allein garantiert nicht die Entwicklung einer moralischen Einstellung«58 , schreibt Keller. Den Autoren zufolge hat jedes moralische Urteil, jedes Handeln sowohl eine kognitive als auch eine affektive Seite. Die zunehmende Verschiebung des Forschungsschwerpunktes in der Moralpsychologie bewertet Heidbrink als eine »Renaissance der Gefühle«59 . So untersuchen beispielsweise Hoffmann60 und Eisenberg61 die Phänomene Empathie und Fürsorge mit Blick auf ihre Rolle in der Moralentwicklung. Hoffmann kommt zu dem Schluss, dass Empathie als eine zentrale Komponente zu begreifen ist: »To me, empathy is the spark of human concer for others, the glue that makes social life possible.«62 Empathie ist Hoffmann zufolge eine »gefühlsmäßige Reaktion auf den Zustand einer anderen Person«. Ihren Ausdruck findet sie wiederum in Sympathie oder zugewandten »prosozialen Handeln«63 . Empathie und Fürsorge sind allerdings nur zwei Formen moralischer Gefühle. Keller erwähnt ebenso »Scham und Schuld«, »Empörung, Ärger und Verachtung« sowie »Stolz, Zufriedenheit und Bewunderung«. »Empathie und Mitgefühl« treten genau dann auf, wenn Leid beobachtet wird und moralische Prinzipien der Gerechtigkeit und Fürsorge verletzt werde. »Scham und Schuld« betreffen das eigene selbstkritische Wahrnehmen von Verfehlungen;

57 58 59 60

61

62 63

Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 153. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation.«, S. 153. Heidbrink, Horst (2008). Einführung in die Moralpsychologie, S. 43. Vgl. zum Beispiel Hoffman, Martin L. (1984). »Empathy, its limitations, and its role in a comprehensive moral theory.« In: William L. Kurtines/Jack L. Gewirtz (Hg.). Morality, moral behavior, and moral development (S. 283–302). New York. Und: Hoffman, Martin L. (1991). »Empathy, social cognition, and moral action.« In: William L. Kurtines/Jack L. Gewirtz (Hg.). Handbook of moral behavior and development (S. 275–301). Bd. 1. Hillsdale, NJ. Und: Hoffman, Martin L. (2000). Empathy and moral development: Implications for caring and justice. Cambridge, MA. Vgl. Eisenberg, Nancy (1982). »The development of reasoning regarding prosocial behavior.« In: Nancy Eisenberg (Hg.). The development of prosocial behavior (S. 219–249). New York. Hoffman, Martin L. (2000). Empathy and moral development: Implications for caring and justice, S. 3. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation«, S. 153.

2. Was ist moralische Kompetenz?

»Empörung, Ärger und Verachtung« entstehen durch das Abgrenzen und Verurteilen von als vermeintlich unpassend oder falsch angesehenen moralischen Handlungen Dritter. »Stolz, Zufriedenheit und Bewunderung« haben mit dem moralischen Gefühl zu tun, etwas richtig gemacht zu haben oder sich angemessen verhalten zu haben. Unterstrichen wird die Bedeutung von Emotionen in der Moralpsychologe zumal durch das Aufkommen der Neurowissenschaften Ende des 20. Jahrhunderts. Mit der so genannten »Intuitionist hypothesis« (Intuitive Hypothese) argumentieren Greene und Haidt vor dem Hintergrund neurowissenschaftlicher Studien, dass Kognition und Emotionen gleicherweise entscheidend sind, »emotions and reasoning both matter«64 . Beiden Autoren zufolge funktioniert moralisches Urteilen ähnlich wie unsere Einschätzung von Kunst oder Musik, also wie bei Geschmacksurteilen: »we see an action or hear a story and we have an instant feeling of approval or disapproval«65 . Moralisches Urteilen ist demnach zuallererst intuitiv und spontan und begründet sich aus der Evolutionsbiologie und kultureller Einflüsse.66 Greene und Haidt stehen ferner für einen reduktiven Ansatz in der Forschung. Gemeint ist, dass beide den Prozess des moralischen Urteilens auf neurobiologische Korrelate im Gehirn zurückführen wollen. Moralische Kompetenz lässt sich in ihren Augen neurobiologisch erklären: »deontological judgments are associated with increasing activity in the dorsolateral prefrontal cortex, a brain region associated with cognitive control«67 . Moralische Kompetenz ist eine grundlegende Eigenschaft des Gehirns, das als »kognitive Maschine« dazu befähigt, aus Erfahrung zu lernen, sich Werte vorzustellen, diese zu verfolgen, zu denken und Impulsen nachzugeben.68

64 65 66 67

68

Greene, Joshua und Haidt, Jonathan (2002). »How (and where) does moral judgment work?« TRENDS in Cognitive Sciences. Bd. 6 Nr.12 December 2002:517-523, S. 517. Haidt and Greene (2002). »How (and where) does moral judgment work?«, S. 517. Haidt and Greene (2002). »How (and where) does moral judgment work?«, S. 517. Greene, Joshua (2009). »Dual-Process Morality and the Personal/Impersonal Distinction: A Reply to McGuire, Langdon, Coltheart, and Mackenzie.« Journal of Experimental Social Psychology. Bd. 45:581-584, S. 582. Vgl. Greene, J. (2015). »The Rise of MoralCognition.« Cognition, Bd. 135: 39–42, S. 40. S. 40. Übersetzt vom Autor: Originales Zitat: moral competence is simply the result of our »brain s general-purpose cognitive machinery – machinery designed to learn from experience, represent value and motivate its pursuit, represent mental states, imagine events, reason, and resist impulses«.

39

40

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

2.5 Linds Zwei-Aspekt-Theorie: Moral ist lehrbar Georg Lind, aber auch Malti & Latzko69 , Nunner-Winkler70 oder Prehn71 verfolgen mit ihrem »Zwei-Aspekt-Modell« respektive mit ihrer »Dual-AspektTheorie« einen integrativen Ansatz beider vorangegangen Strömungen. So verbinden sie Piagets und Kohlbergs kognitive Entwicklungspsychologie mit den Erkenntnissen aus der Emotionsforschung. Dem neuen Theorieverständnis nach sind Gefühle dem moralischen Urteilen ebenbürtig und stellen »eine unersetzliche Basis für moralisches Verhalten«72 dar. Nowak ergänzt diesen Gedanken: »Emotions and affects, in particular the moral ones or morally relevant ones, can be understood by, involved in, and transformed or translated into, the cognitive or just more holistic processes in the human mind.«73 Moralität oder moralisches Urteilen umfasst somit sowohl einen kognitiven als auch einen affektiven Aspekt. Mit dem Begriff »Aspekt« soll dabei verdeutlicht werden, dass es sich um Eigenschaften oder Charakteristika des Moralverhaltens handelt, nicht um Komponenten, wie in der Moralpsychologie von verschiedenen anderen Autoren angenommen wurde.74 Kognition oder Affekt stehen in einer ähnlichen Korrelation wie beispielsweise die Farbe Rot zu einem roten Ball, wie Lind bemerkt.75 Rot ist keine Komponente des Balls, sondern eine Eigenschaft. Das Gleiche gilt für seine Festigkeit oder sein Gewicht. Diese definitorische Unterscheidung ist essentiell, wie wir später

69

70 71

72

73 74 75

Malti, Tina & Latzko, Brigitte (2010). »Children’s moral emotions and moral cognition: Towards an integrative perspective.« In: B. Latzko & T. Malti (Hg.), Children’s moral emotions and moral cognition: Developmental and educational perspectives. New Directions or Child an Adolescent Development (Nr. 129) (S. 1–10). San Francisco: Jossey-Bass. Nunner-Winkler, G. (2009). »Prozesse moralischen Lernens und Entlernens.« Zeitschrift für Pädagogik, 55(4):528-548. Prehn, Kristin; Wartenburger, Isabell; Mériau, Katja; Scheibe, Christina; Goodenough, Oliver R. & Villriner, Arno; Meer, Elke van der & Heekeren, Hauke R. (2008). »Individual differences in moral judgment competence influence neural correlates of socionormative judgments.« SCAN, 3:33-46. Lind, Georg (2010). »Die Förderung moralisch-demokratischer Kompetenzen mit der Konstanzer Methode der Dilemma-Diskussion (KMDD).« In: Malti, Tina & Latzko, Brigitte (Hg.), Moralentwicklung und -erziehung in Kindheit und Adoleszenz (S. 290–302). München: Juventa-Verlag, S. 295. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 327. Vgl. Lind, Georg (2016). How to teach morality, S. 51–52. Vgl. Lind, Georg (2016). How to teach morality, S. 52.

2. Was ist moralische Kompetenz?

am aktuell in der Robotik diskutierten Modell zur moralischen Kompetenz zeigen möchten. Der affektive Aspekt bezieht sich auf die moralischen Orientierungen, »Leitvorstellungen« oder »Werthaltungen«76 , die als Fundament für die Beurteilung und das Lösen moralischer Probleme dienen. Moralische Orientierung umfasst den jeweiligen Ausdruck, Emotionen, Gerechtigkeitsvorstellungen, die Motivation oder Haltung77 , die jemand beim moralischen Urteilen einnimmt. Lind ist in dieser Hinsicht nah bei Habermas, demzufolge Kompetenz nur auf einem Weg in Erscheinung treten kann, nämlich in Gestalt einer konkreten Handlung.78 Dies geschieht Lind zufolge entsprechend des von Kohlberg erarbeiteten Sechs-Stufen-Modells der Moral. Wie Kohlberg ist auch er der Meinung, dass sich moralisches Urteilen zwischen einer präkonventionellen, konventionellen und postkonventionellen Entwicklungsphase bewegt. Abhängig von der jeweiligen moralischen Kompetenz wird eine niedrigere oder höhere Stufe eingenommen. Moralische Orientierungen müssen nicht vermittelt werden, sondern sind laut Lind bereits von Geburt an vorhanden.79 Der kognitive Aspekt wiederum betrifft die moralische Kompetenz und damit die Fähigkeit des Denkens und Urteilens, »normative Orientierungen integriert und differenziert in konkreten Situationen im Urteilsverhalten zur Geltung zu bringen«80 . Der kognitive Aspekt ist definiert als »Struktur, Muster oder Organisation des moralischen Verhaltens in Bezug auf bestimmte moralische Motive oder Prinzipien«81 . Lind entwickelt Kohlbergs Begriff der Moralischen Kompetenz weiter, in dem er diesen um das Paradigma des sozialen Kontextes oder intersubjektiven Diskurses ergänzt, in dem sich jeder Handelnde bewegt. Moralische Kompetenz ist nicht nur das »Vermögen, Entscheidungen und Urteile zu treffen, die moralisch sind, das heißt, auf inneren Prin-

76 77

78 79 80 81

Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 87. Nummer-Winkler spricht beispielsweise von einer »motivationalen Dimension« der Moral. Vgl. Nunner-Winkler, G. (2009). »Prozesse moralischen Lernens und Entlernens«, S. 538. Vgl. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 325. Vgl. Lind, Georg (2019), Moral ist lehrbar. 4. Auflage. Berlin: Logos, S. 24. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 87. Käter, Carolina; Melzer, Conny; Hillenbrand, Clemens 2016. »Moralische Urteilsfähigkeit bei Schülerinnen und Schülern an Förderschulen mit dem Schwerpunkt Lernen und Haupt- und Realschulen. Eine empirische Vergleichsstudie«, S. 264.

41

42

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

zipien beruhen und in Übereinstimmung mit diesen Urteilen zu handeln«82 . Vielmehr ist moralische Kompetenz vor allem laut Lind die Fähigkeit, »Probleme und Konflikte auf der Grundlage universeller Prinzipien durch Überlegung und Diskussion, statt durch Unterdrückung, Gewalt oder Täuschung zu lösen« (übersetz durch den Autor).83 Wesentlich ist also die Betonung, dass moralische Kompetenz ebenfalls eine soziale Dimension beinhaltet. Das Lösen von Konflikten geschieht nicht nur individuell, sondern maßgeblich im Umgang mit anderen Personen in der Gesellschaft. Dieses besondere Merkmal veranlasst Lind zu der Schlussfolgerung, dass moralische Kompetenz gleichfalls eine Schlüsselrolle in Demokratien einnimmt, in denen das Argumentieren, die Kompromissbereitschaft und der Ausgleich zwischen gegensätzlichen Interessen, Meinungen und Standpunkten wichtige Voraussetzungen für ein friedliches Miteinander darstellen. In Demokratien und im »process of participation«84 (im Zuge der Teilhabe an der politisch-gesellschaftlichen Öffentlichkeit, vom Autor sinngemäß übersetzt) kommt es darauf an, andere Personen zu achten und moralisch zu handeln. »It is typical for a democratic lifestyle. Today, people face other human fellows hailing from different cultural, religious, economic contexts«85 , bemerkt Nowak. Inhaltich setzt Lind daher moralische und demokratische Kompetenz gleich: »I use both terms interchangeably.«86 Ähnlich wie bei Kant ist also das oberste Ziel einer Gesellschaft respektive eines Staates die »gute moralische Bildung eines Volks«87 . Bildung, Demokratie und Moral stehen folglich für Lind in einem engen logischen Zusammenhang. Sie bedingen einander. Lind fasst diese Idee unter der kurzen Losung zusammen: »Moral ist lehrbar.« Im Gegensatz zur Vererbungs- und Sozialisationstheorie, vertritt Lind die Bildungstheorie der Moralentwicklung. Ohne Bildung, so die Annahme, kann es keine demokratischen und damit moralischen Bürger geben. Das moralische Urteilen stagniert, wird es nicht durch Bildung stimu-

82 83 84

85 86 87

Lind, G. (2010). »Die Förderung moralisch-demokratischer Kompetenzen mit der Konstanzer Methode der Dilemma-Diskussion (KMDD).«, S. 286. Lind, Georg (2016). How to teach morality, S. 45. Steć, Małgorzata (2017). »Is The Stimulation of Moral Competence with KMDD® Well-suitedfor Our Brain? A Perspective From Neuroethics«. Ethics in Progress (ISSN 2084–9257). Bd. 8 (2017). Nr. 2, Art. #4, S. 44–58. DOI: https://doi.org/10.14746/eip. 2017.2.4, S. 44. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 330. Lind, Georg (2016). How to teach morality, S. 29. Kant, Immanuel (1781). Zum ewigen Frieden, S. 31.

2. Was ist moralische Kompetenz?

liert.88 Hieraus ergeht daher ein pädagogischer Auftrag für Lind, zumindest die Grundlagen in den Bildungs- und Erziehungssystemen zur Förderung der Moralischen Kompetenz bereitzustellen: »Die Gesellschaft scheint noch nicht zu verstehen, wie wichtig die moralischdemokratische Kompetenz aller Bürger für das friedliche Zusammenleben in einer Demokratie ist, und dass daher allen Menschen die Gelegenheit gegeben werden muss, ihre moralisch-demokratische Kompetenz durch Übung und Anleitung zu entwickeln.«89 Das Werkzeug zur Ermittlung der moralischen Kompetenz hat Lind bereits 197890 entwickelt und in seiner Dissertation 1985 experimentell in einem Forschungsprojekt zur Hochschulsozialisation erstmals verwendet. Sein so genannter »Moralische-Urteils-Test« (MUT), später umbenannt in »Moral Competence Test« (MCT), versucht, »als ein Kernelement der demokratischen Persönlichkeit moralische Urteilsfähigkeit zu erfassen«91 . Dabei werden die Probanden mit zwei Dilemma-Geschichten – anders als im »Defining-IssueTest« DIT (hier sind es 5 Dilemma-Geschichten) konfrontiert92 , in denen die darin handelnden Akteure eine Entscheidung treffen. Die Teilnehmer werden gebeten, die Entscheidung auf einer 6-Punkte Skala von richtig (+3) bis falsch (-3) zu bewerten. Im Anschluss werden sie mit verschiedenen Argumenten konfrontiert, die einerseits für, andererseits gegen ihre Bewertung tendieren. Die Teilnehmer entscheiden erneut, welche Argumente sie befürworten (+4) und welche sie ablehnen (-4). Die Argumente entsprechen dem Aufbau des 6-Stufen-Modells der moralischen Orientierung von Kohlberg.93 Im Ergebnis ermittelt der Test einen »C-Score« (einen Zahlwert für die erreichte »competence«) zwischen 0 (=niedrige Moralische Kompetenz) und 100 (=hohe 88

89 90

91 92 93

Schirmacher, Thomas (2012). »Zur Konstanzer Methode der Dilemma-Diskussion (KMDD), S. 131. Link (Stand 23.03.2023): https://www.bundesheer.at/pdf_pool/publi kationen/20121122_et_ethik_individuelle_verantwortung_militaerische_fuehrung_s chirrmacher2.pdf. Lind, Georg (2019). Moral ist lehrbar, S. 24. Lind, Georg (1978). »Wie misst man moralisches Urteil? Probleme und alternative Möglichkeiten der Messung eines komplexen Konstrukts.« In: G. Portele (Hg.) Sozialisation und Moral (S. 171–201). Weinheim: Beltz. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 83. Geisler, Anja (2016). Mobbing – eine Frage der Moral? Der Einfluss moralischer Fähigkeiten auf Verhalten in Mobbing-Situationen, S. 42. Lind, Georg (2016). How to teach morality, S. 67.

43

44

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Moralische Kompetenz). Der »C-Score« ist umso höher, »je differenzierter und universeller die verfügbaren abstrakten moralischen Prinzipien und Strukturen sind, die (bei einem Probanden, vom Autor im Zitat hinzugefügt) kognitiv vorhanden und abrufbar sind«94 . Damit gibt der Test Auskunft darüber, wie stark oder schwach jemand von der eigenen persönlichen Meinung abweichen kann, um eine allgemeine, andere Interessen und Standpunkte berücksichtigende Perspektive einzunehmen. »It (the Moral Judgment Test) allows for independent evaluation and consideration of the normative weight of the reasons necessary of for justifying ethical judgments, regardless of one’s own position regarding the dilemma and the decision made in it.«95 Während also mit dem MUT die moralische Kompetenz getestet wird, ist die »Konstanzer Methode der Dilemma Diskussion« (KMDD) ein Instrument der »Moralerziehung«. Sie soll allerdings nicht ein »moralisch korrektes Verhalten vermitteln«, nicht »Werte« oder »Ideale«96 formulieren, sondern soll dem angesprochenen pädagogischen Anspruch Rechnung tragen, die moralische Urteilsfähigkeit zu fördern. Die KMDD lässt sich in Bildungs- und Ausbildungseinrichtungen, genauso wie in Gefängnissen oder Altersheimen im In- und Ausland praktizieren, wie die bisherigen Studien und Erfahrungen gezeigt haben. Ihre Anwendung findet die KMDD jedoch vor allem in weiterbildenden Schulen, im Justizvollzug97 , in der Sozialarbeit sowie vereinzelt im Rahmen mancher Unterrichtsfächer. Ursprünglich geht die Methode auf Blatt und Kohlberg (1975) zurück. Es handelt sich hierbei um einen Workshop, in dem die Teilnehmer mit einer Dilemmasituation konfrontiert werden.98 Im Vordergrund steht weniger die Suche nach der richtigen Lösung, als vielmehr die Förderung der

94 95 96 97

98

Geisler, Anja (2016). Mobbing – eine Frage der Moral? Der Einfluss moralischer Fähigkeiten auf Verhalten in Mobbing-Situationen, S. 77. Nowak, Ewa (2013). Experimental ethics: a multidisciplinary approach. Wien: LIT, S. 50. Lind, Georg (2011). »Moralerziehung.«, S. 39–40. Vgl. Hemmerling, Kay; Scharlipp, Matthias; Lind, Georg (2009). »Die Konstanzer Methode der Dilemma-diskussion für die Bildungsarbeit mit Riskiogruppen«. In: Klaus Mayer, Huldreich Schild-Knecht (Hg.). Dissozialität, Delinquenz, Kriminalität: Ein Handbuch für die interdisziplinäre Arbeit (S. 303–311). Zürich: Schulthess: 2009. Vgl. Schirmacher, Thomas (2012). »Zur Konstanzer Methode der Dilemma-Diskussion (KMDD), S. 131.

2. Was ist moralische Kompetenz?

»moralischen Urteils-und Diskursfähigkeit«. Als theoretische Grundlagen der KMDD gelten sowohl der Konstruktivismus unter Jürgen Habermas und John Dewey, die kommunikative Ethik von Habermas und der Diskursmethode von Fritz Oser99 , als auch die oben angesprochene Zwei-Aspekt-Theorie des moralischen Verhaltens sowie die Bildungstheorie der Moralentwicklung. Hinzu kommen die vier praktischen Prinzipien der »Gleichwürdigkeit«, des Lernens als Konstruktion, der Affektregulation und der selbstbestimmten Kursevaluation.100

2.6 Warum brauchen Roboter moralische Kompetenz? Moralische Kompetenz ist, wie oben gezeigt, keine Frage der Vermittlung von Werten, Idealen, Orientierungen. Moralische Kompetenz hängt mit der Befähigung zusammen, Konflikte, Probleme und Schwierigkeiten auf der Grundlage von Prinzipien durch Überlegen und Diskutieren aufzulösen. Warum sollten Roboter über diese Fähigkeit verfügen? Reicht es nicht, wenn wir ihnen eine »Liste an Regeln«101 (sinngemäß übersetzt vom Autor) für den Umgang in der Gesellschaft festlegen und einprogrammieren? Mit der Frage hängen, genauer betrachtet, zwei größere philosophische Probleme zusammen, die wir zum einen als »Komplexitätsproblem«, zum anderen als »Risikoproblem« bezeichnen möchten. »Komplexitätsproblem« – hiermit ist gemeint, dass Roboter – ob als Wegbegleiter und Assistent des Menschen im Krankenhaus, im Pflegeheim oder als Industrie- und Militärroboter – mit einer hochgradig durch Komplexität und Zufall bestimmten Welt zurechtkommen müssen. Sie werden in ihrem moralischen Handeln auf vielfältige Weise getestet. Ein autonom fahrendes Auto bei-

Oser, Fritz (1981). Moralisches Urteil in Gruppen – Soziales Handeln – Verteilungsgerechtigkeit. Stufen der interaktiven Entwicklung und ihre erzieherische Stimulation. Frankfurt: Suhrkamp; Sowie: Oser, Fritz; Spychiger, Maria (2005). Lernen ist schmerzhaft. Zur Theorie des Negativen Wissens und zur Praxis der Fehlerkultur, Weinheim: Beltz. Und: Reichenbach, Roland; Oser, Fritz (Hg.) (2002). Die Psychologisierung der Pädagogik. Übel, Notwendigkeit oder Fehldiagnose. Weinheim: Juventa. 100 Lind, Georg (2010). »Die Förderung moralisch-demokratischer Kompetenzen mit der Konstanzer Methode der Dilemma-Diskussion (KMDD).«, S. 285–302. 101 Keith Abney (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed,« In: Robot Ethics: The Ethical and Social Implications of Robotics (S. 35–52), MIT Press, S. 37. 99

45

46

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

spielsweise ist mit einer Reihe »moralischer Unsicherheiten«102 konfrontiert. Im Straßenverkehr können ohne Vorwarnung plötzlich Hindernisse auftauchen, die eine schnelle Entscheidung erfordern. Ist das Fahrzeug eine Sekunde »unachtsam«, kann es zu einem verheerenden Unglück kommen. Kim und Bhargava bewerten daher schon den Prozess des Programmierens als Herausforderung. Wie soll sich ein autonomes Fahrzeug bei einem absehbaren Unfall verhalten? Nach welchen Kriterien soll es urteilen? Soll es so programmiert werden, dass es einen Unfall vermeidet, allerdings riskiert, unbeteiligte Personen auf dem Gehweg zu verletzen? Oder soll es den Unfall zulassen, dafür aber die Insassen gefährden? Dieses moralische Dilemma ist in der Maschinenethik breit unter dem Stichwort »Trolley-Problem« diskutiert worden.103 Eine eindeutige Lösung hierfür ist aktuell nicht in Sicht, zumal die Frage nach der Verantwortung im Falle eines Unfalls ebenfalls unklar zu sein scheint.104 Wer steht in der Verantwortung, wenn ein Fahrzeug einen Unfall begonnen hat: der Autohersteller, der Programmierer oder der Fahrer, der als Insasse den Unfall vielleicht hätte vermeiden können? Am Beispiel des autonomen Fahrens zeigt sich der hohe Grad an Komplexität und Zufall, denen mit einfachen Antworten offensichtlich nicht beizukommen ist. Diese Beobachtung erweist sich als symptomatisch nicht nur in anderen Robotik-Applikationen, sondern auch dann, wenn wir weitere Parameter wie den Kulturraum beispielsweise einbeziehen. Welchen Einfluss haben Sozialisation, Geschichte und Kultur auf die Entwicklung eines Roboters? Aktuellen Studien zufolge zeigt sich, dass zwar die Erwartungen mit Blick auf die funktionellen Eigenschaften eines Roboters im Vergleich zwischen westlichen und asiatischen Kulturräumen ähnlich sind, allerdings die Anforderungen105 102 Bhargava, Vikram und Tae Wan Kim (2017). »Autonomous Vehicles and Moral Uncertainty.« In: Ethics 2.0: From Autonomous Cars to Artificial Intelligence (S. 5–19), S. 6. 103 Vgl. Foot, Philippa (1967). »The problem of Abortion and the Doctrin of the Double Effect in Virtues and Vices.« Oxford Review 5:5-15. Und vgl.: Thomas, Judith. J. (1976). »Killing, Letting Die, and the Trolley Problem.« Monist 59:204-17. Oder vgl.: Millar, Jason (2017). »Ethics settings for autonomous vehicles«, In: Robot Ethics 2.0 (S. 20–34). 104 Loh, Janina und Wulf (2017). »Autonomy and Responsibilty in Hybrid Systems. The Example of Automous Cars«. In: Patrick Lin et al. (Hg.), Robot Ethics 2.0 (S. 35–50). Vgl. auch: Gurney, Jeffrey K. (2017). »Imputing Driverhood. Applying a reasonable driver standard to accidents caused by autonomous vehicles.« In: Robot Ethics 2.0 (S. 51–65). Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 184ff. 105 Lee, Hee Rin; Sung, JaYoung; Šabanović, Selma & Han, Joenghye (2012). »Cultural Design of Domestic Robots: A Study of User Expectations in Korea and the United States.« IEEE RO-MAN: The 21st IEEE International Symposium on Robot and Human In-

2. Was ist moralische Kompetenz?

für ihre soziale Rolle variieren. Eine Kulturgemeinschaft erlaubt beispielsweise einem Roboter weniger, eine andere dagegen mehr. So hat Saudi-Arabien als Staat Sophia, einem humanoiden Roboter der Hongkonger Robotikfirma »Hanson Robotics« die Staatsbürgerschaft im Oktober 2017 verliehen. Ähnlich unterschiedlich sind zudem die Vorstellungen, was das Design, die Nutzung und das Verhalten des Roboters betreffen, wie Samuel herausgearbeitet hat.106 Auf der anderen Seite wird die Einführung von Robotern als »Risikoproblem« diskutiert. Hierbei geht es unter anderem um Roboter, die als physische Gefahr107 , Bedrohung und Konkurrenz für den eigenen Arbeitsplatz108 oder als Einschränkung der Privatsphäre109 , Entzauberung und Kränkung des Menschen110 empfunden werden. Letzteres wird insbesondere im Zusammenhang mit dem wachsenden Angebot an »Love Dolls« und »Sex Robots« thematisiert.111 So gibt beispielsweise Piotr Boltuc in Bezug auf sogenannte »ChurchTuring-Loving Maschinen«, die entsprechend in der Lage sein könnten, jeden gewünschten Liebesdienst auf Knopfdruck und Befehl auszuführen, zu Bedenken, die gegenseitige Anerkennung nicht aus den Augen geraten sollte. In einer Liebesbeziehung geht es nicht um das Befriedigen von Wünschen, sondern ebenso um Fürsorge um das Wohlergehen des Anderen. Maciej Musiał sieht dies ähnlich. Seiner Ansicht nach rückt durch den Einsatz solcher Technologien die Achtsamkeit gegenüber Mitmenschen als Personen (mit Bewusst-

106

107

108 109

110 111

teractive Communication (S. 803–808). Und vgl.: Haring, Kerstin S.; Mougenot, Céline; Ono, Fuminori, & Watanabe, Katsumi (2014). »Cultural Differences in Perception and Attitude towards Robots.« International Journal of Affective Engineering, 13(3):149-57. Vgl. Samuel, Janina L. (2019). »Company from the Uncanny Valley: A Psychological Perspective on Social Robots, Anthropomorphism and the Introduction of Robots to Society«. Vgl. Gless, Sabine; Silverman, Emily; Weigend, Thomas (2016). »If Robots cause harm, Who is to blame? Self-driving Cars and Criminal Liability.« New Criminal Law Review: An International and Interdisciplinary Journal, Bd. 19 Nr. 3, Summer 2016 (S. 412–436) DOI: https://doi.org/10.1525/nclr.2016.19.3.412. Vgl. Lin, Patrick (2014). »Introduction to Robot Ethics«. In: Patrick Lin, Keith Abney und Georgy A. Bekey. Robot Ethics. The Ethical and Social Implications of Robotics, S. 21. Vgl. Lutz, Christoph; Schö ttler, Maren; Hoffmann, Christian Pieter (2019). »The privacy implications of social robots: Scoping review and expert interviews.« Mobile Media & Communication. Bd. 7(3):412-434. Vgl. Bostrom (2014). Superintelligence, S. 5. Danaher, John und McArthur, Neil (2018). Robot Sex. Social and Ethical Implications. Cambridge: MIT Press.

47

48

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

sein) in den Hintergrund. Desensibilisierung, Objektivierung und Verrohung zwischenmenschlicher Beziehungen könnten die Folge sein: »it seems that there are at least three risks connected with emancipation of doll and robot lovers: decreasing level of respect towards human subjectivity in general, reproduction of gender stereotypes and inequalities funded by them and finally the risk of raising tendency of treating people as things, that is objectification.«112 In der Forschungsliteratur finden sich allerdings auch andere Stimmen, die sich deutlich positiver gegenüber »Sexbots« äußern, so beispielsweise David Levy113 , John Danaher und Neil McArthur. So plädiert McArthur beispielsweise dafür, dass Menschen genauso gut Selbstvertrauen und Zuversicht entwickeln könnten, insbesondere zur Überwindung von sexuellen, psychischen Traumata.114 Sie bieten also eine Alternative und möglicherweise ein neues Partnerschaftsmodell, wie Danaher bemerkt.115 Neben der Warnung vor speziellen Roboterarten, die möglicherweise Schaden in der Gesellschaft anrichten können, gibt es noch einen weiteren Aspekt des Risikoproblems, der sich allerdings auf einer höheren Ebene, nämlich jener der Konstruktion und Entwicklung, abspielt und der oben bereits am Beispiel des autonomen Fahrens angeklungen war: Wie können wir garantieren, dass Programmierer und Designer die richtigen Regeln, die Algorithmen und Grundlagen in den Robotern? Was ist die richtige Moral? Was ist die falsche Moral? Die Antworten hierauf entziehen sich einer reinen technischen Analyse und erfordern die Einbeziehung ethische Überlegungen. Matthias Scheutz scheint zu wissen, was womöglich auf dem Spiel steht: Er schreibt: »failing to develop appropriate cognitive architectures for autonomous agents that are sensitive to human ethical and moral concerns as well as our social emotional needs could turn utopia into dystopia«116 Diese von

112

113 114 115 116

Musiał, Maciej (2019). »Loving Dolls and Robots: From Freedom to Objectification, from Solipsism to Autism?« In: John T. Grider und Dionne van Reenen (Hg.), The Inescapable Entanglement of Tradition, Transcendence and Transgression (S. 152–168), Brill | Rodopi: Leiden, Boston. Levy, David (2014). »The Ethics of Robot Prostitutes«, in: Robot Ethics (S. 223–232), S. 226. Vgl. McArthur, Neil (2018). »The Case for Sexbots«, S. 41. Vgl. Danaher, John (2018). »Should We Be Thinking about Robot Sex?«, S. 11. Scheutz, Matthias (2017). »The Case for Explicit Ethical Agents.«, S. 63.

2. Was ist moralische Kompetenz?

Scheutz heraufbeschworene Dystopie ist sicherlich etwas düster und überzeichnet. Im Kern liegt er jedoch mit seiner Einschätzung richtig: Schaffen wir es nicht, Robotern unsere Werte und Normen beizubringen, riskieren wir eine Parallelgesellschaft, die unversöhnlich mit der Welt der Menschen sein wird. Es ist fraglich, ob sich das Komplexitäts- und Risikoproblem bei Robotern vollständig auflösen lässt. Allerdings kann mit Cynthia L. Breazeal festgestellt werden, dass Roboter, die mit uns zusammenleben und zusammenarbeiten, lernfähig sein müssen: »Any robot that co-exists with people as part of their daily lives must be able to learn and adapt to new experiences using social interactions.«117 Diesem Anspruch trägt das Konzept der moralischen Kompetenz von Georg Lind Rechnung. Moral drückt sich nicht in der Programmierung richtiger Werte und Normen aus, Moral muss erworben und erlernt werden. Daher kann man Breazeals Gedanken fortführen: Jeder Roboter, der mit Menschen im Alltag koexistiert, Aufgaben und Entscheidungen für uns übernimmt, sollte über moralische Kompetenz verfügen. Die Autoren Matthias Scheutz und Bertram F. Malle sehen das ähnlich und haben sich bereits verschiedentlich für die Integration von moralischer Kompetenz in Robotern ausgesprochen, insbesondere bei Social Robots. Malle ist allerdings der Auffassung, dass moralische Kompetenz nicht der so genannte Stein der Weisen ist, nicht die Lösung für alle ethischen Bedenken gegenüber Robotern in der Gesellschaft. Allerdings ist moralische Kompetenz ein gutes Instrument respektive eine sinnvolle Voraussetzung, so Malle.118 Im nächsten Kapitel geht es zunächst um die Frage der verschiedenen bislang in der Forschung diskutierten Ansätze zur Realisierung ethischer Maschinen.

117 118

Breazeal, Cynthia L. (2004). Designing Sociable Robots. MIT: Cambridge, S. 16. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 24.

49

3. Ethische Theorien programmieren?

3.1 Welche Ethik ist die Richtige? Die Frage nach der richtigen Ethik für ein artifizielles System, das mit Menschen interagiert, wird in der Forschung keineswegs einheitlich beantwortet und scheint eine größere Herausforderung darzustellen. Einzelne Testversuche und Experimente sind dennoch in den letzten Jahren unternommen worden, Computerprogramme mit ethischen Regeln zu versehen. So haben Michael und Susan Leigh Anderson sowie Chris Armen beispielsweise zwei Prototypen mit den Namen Jeremy und W. D. entwickelt. Während Jeremy auf der Basis von Benthams Utilitarismus Entscheidungen trifft, ist W. D. ein Computerprogramm in Anlehnung an W. D. Ross’ Theorie der Verpflichtung und Rawls Moralphilosophie.1 Versuche wie diese sind von der Idee getragen, dass Roboter eines Tages nicht mehr nur einfache Werkzeuge oder Instrumente für den Menschen darstellen, sondern womöglich selbst als Handlungssubjekte agieren könnten.2 Damit verbunden sind eine Reihe wichtiger Fragen, die ebenfalls weniger technischer Natur sind, sondern den Bereich der Ethik berühren. Für den Fall, dass ein artifizielles System als Handlungssubjekt gilt, wirft das die Frage auf, ob es über die gleichen politischen Rechte und Pflichten wie Menschen verfügen sollte? Können wir einer solchen Maschine Verantwortung und Urheberschaft zuschreiben und gelten für sie vergleichbare moralische Konsequenzen? Hall stellt daher in einem Kommentar provokativ die Frage: if »a computer was as smart as a person, was able to hold long conversations that really convinced you that it understood what you were saying, could read, explain, and compose poetry and music [...] – would it be murder

1 2

Vgl. Anderson, M.; Anderson, S. L. (Hg.) (2011), Machine ethics. S. 17. Vgl. Ebd., S. 1.

52

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

to turn it off«.3 Welche Bedingungen sind erforderlich, damit wir einen Roboter als Mitglied unserer Gesellschaft anerkennen? Roboter benötigen daher ethische Prinzipien oder müssen in einer Weise konstruiert sein, die es uns erlaubt, ihr Verhalten zu berechnen und erklären zu können. In der Wissenschaft finden sich dazu zwei Strategien: Die Top-Down und die Bottom-Up Strategie. Beide Strategien sind mit unterschiedlichen Programmierungsansätzen und ethischen Theorien verbunden.4 Während die Bottom-Up Strategien stärker in der Tradition metaethischer Konzepte, dem moralischen Partikularismus und Tugend basierten Ethiken stehen, beinhalten Top-Down Strategien grundsätzlich Prinzipien-basierte Ethik-Modelle.

3.2 Top-Down Strategien Vermutlich einer der bekanntesten Regel basierten Versuche der Top-Down Strategie stellen die drei Robotergesetze von Isaac Asimov dar, die er in seiner fiktiven Abhandlung mit dem Titel »Runaround« aus dem Jahr 1942. Ein Roboter handelt moralisch, sofern er diesen Gesetzen folgt. Andersherum kann man ihn als unmoralisch einstufen, widerspricht oder widersetzt er sich diesen Prinzipien5 . Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Obgleich Asimovs Robotergesetze klar und präzise sind, eignen sie sich nicht wirklich für die Praxis, weil sie nicht kompatibel mit unserer komplexen Realität sind. Am besten lässt sich das an dem folgenden Beispiel illustrieren: Stellen wir uns vor, wir ließen ein autonomes Auto auf der Grundlage der Robotergesetze über unsere Straßen fahren. Stellen wir uns ferner vor, dass

3 4 5

Hall, J. Storrs (2011), »Ethics for Machines.« In: Anderson, M.; Anderson, S. L. (Hg.). Machine ethics (S. 28–46), S. 32. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 96. Abney, Keith (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed«, S. 36.

3. Ethische Theorien programmieren?

das Auto in einen Unfall verwickelt wird. Hierbei hat das Auto allerdings im Vorfeld die Wahl zu treffen, wie der Unfall ablaufen soll, welches Unfall-Szenario moralisch vertretbar, welches Unfall-Szenario moralisch verwerflich ist. Das Auto muss entscheiden, ob es sich und die Insassen oder Unbeteiligte auf dem Fußgängerweg gefährden will. Das Auto steht also vor einem schwerwiegenden Dilemma, welches sich nicht allein mit Rückgriff auf Asimovs Robotergesetze lösen lässt. Vielmehr scheint es so, dass, unabhängig davon, welche Wahl das Fahrzeug trifft, das eine oder das andere Gesetz zu verletzen. Daher schreibt Jason Miller: »Designing ethics settings for collision management can be ethically challenging since many hard cases are often highly personal.«6 Regeln aufzustellen, die das Verhalten von autonomen Autos in Konfliktsituationen bestimmen, ist ethisch riskant, weil die abstrakten Modelle nicht darüber hinweg täuschen dürfen, dass mit jedem Unfall persönliche Schicksale verbunden sind, Menschenleben auf dem Spiel stehen. Gips schließt daher für sich, dass Asimovs Robotergesetze den hohen Sicherheitsstandards in der Interaktion mit Menschen nicht genügen. Sie sind in seinen Augen mehr Gesetze für Sklaven7 , die näher an einer »Sklavenmoral«8 ausgerichtet sind. »We want our robots to behave more like equals, more like ethical people.«9 Ein weiterer Ansatz der Top-Down Strategie basiert auf der Theorie des Konsequentialismus mit seinem prominenten Schema des Utilitarismus. Die Grundidee des Konsequentialismus ist es, Handlungen nach ihren Konsequenzen zu bewerten. Jeremy Bentham (1806–1873) schlug in seinem Modell des Utilitarismus im 18. Jahrhundert vor, dass eine Handlung dann als moralisch gut eingeordnet werden kann, sofern sie sich an der Regel bemessen lässt: »Das größte Glück der größten Zahl ist der Maßstab für richtig und falsch.«10 Hiernach gilt, dass eine Handlung immer den größten Nutzen, das größte Glück hervorbringen zu bringen hat11 . Die Konsequenz der Handlung ist entscheidend. Ähnlich wie bei den Robotergesetzen stellt sich auch mit der konsequentialistischen Ethik das Problem der definitorischen Unschärfe und 6

7 8 9 10 11

Millar, Jason (2017). »Ethics Settings for Autonomous Vehicles«. In: Lin, Patrick; Abney, Keith und Jenkins, Ryan (Hg.). Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, S. 24. Gips, James (2011). »Towards the ethica robot«. In: Anderson, M.; Anderson, S. L. (Hg.). Machine ethics (S. 244–54),S. 244. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 111. Gips, James (2011). »Towards the ethica robot«, S. 244. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 53. Gips, James (2011). »Towards the ethica robot«, S. 245.

53

54

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

der Frage der Praktikabilität im Alltag. Zum Beispiel erfahren wir aus dem Gesetz nicht, wessen Glück und Nutzen konkret zu berücksichtigen ist. Ist der größte Nutzen für Menschen auch der größte Nutzen für Tiere oder Ökosysteme? Welche Paramater sollen die Handlungsentscheidung bestimmen? Soll ein utilitaristisch handelnder Roboter alle Menschen gleich behandeln, unabhängig ihrer Präferenzen, Biographie und Einstellungen. Wir stimmen daher mit Misselhorn überein, dass ein solcher Ansatz vermutlich weniger sinnvoll und hilfreich für einen kognitives System ist12 . Jedes Mal sind unzählige Informationen gegeneinander abzuwägen, bevor es überhaupt zu einer entsprechenden Handlung kommen kann. Die Frage ist auch, ob ein Roboter nicht durch solch einen einprogrammierten Algorithmus handlungsunfähig werden könnte. Drittens werden deontologische Ethikmodelle der Top-Down Strategie zugeordnet. Im Gegensatz zu konsequentialistischen Theorien bewerten deontologische Ethiken Handlungen nicht nach ihren Konsequenzen, sondern nach der Handlung an sich. Unabhängig von dem zu erwartenden Ergebnis entscheidet allein die intrinsische Motivation einer Handlung darüber, ob wir sie als moralisch oder als unmoralisch klassifizieren können. Wenn zum Beispiel eine Handlung einem universellen Prinzip folgt, kann man die Handlung als moralisch richtig werten. Stellen wir uns wieder das oben bereits angesprochene autonome Auto vor, das wir diesmal mit dem universellen Prinzip ausstatten, keine Menschen zu töten. Würde es ebenfalls in einen Unfall geraten, bei dem unglücklicherweise Menschen getötet werden, kann seine Tat dennoch als moralisch gut bezeichnet werden, wenn es zum Beispiel die Insassen retten wollte. In diesem Fall hätte das Fahrzeug nach dem universellen Prinzip gehandelt. Ein klassisches Beispiel für eine deontologische Ethik liefert Immanuel Kants Kategorischer Imperativ. »Handle nach der Maxime, die sich selbst zugleich zum allgemeinen Gesetze machen kann.«13 Nowak hat eine mögliche Version einer »kantischen Maschine« entwickelt. Sie definiert sechs algorithmische Ebenen für KI14 . Nowaks Idee ist es nun, dass sich der Roboter vor seiner Handlung selbst befragen soll, ob diese zu einem universellen Gesetz für jedermann (menschlich wie artifizieller Akteur) werden könnte, der sich

12 13 14

Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 98. Kant, Immanual (1785). Grundlegung zur Metaphysik der Sitten, (436–437), S. 74. Vgl. Nowak, Ewa (2017). »Can Human and Artificial Agents Share an Autonomy, Categorical Imperative-Based Ethics and ›Moral‹ Selfhood?«, S. 194.

3. Ethische Theorien programmieren?

in dergleichen Situation befindet.15 Nowaks Modell basiert auf der folgenden Annahme, die man sicherlich in Frage stellen kann: Wie Kant geht auch sie davon aus, dass moralisches Urteilen das Resultat rationaler Überlegungen und Denkanstrengungen ist. Korskaard, die Nowak ebenfalls zitiert, hat allerdings das Gegenteil gezeigt. Auf der Grundlage von Kants Transzendentalphilosophie argumentiert Korskaard, dass Menschen, verstanden als Zweck an sich, sowohl in einem aktiven als auch passivem Sinn erscheinen. Kant und Nowak konzentrieren sich primär auf den aktiven Sinn, der besagt, dass ein Lebewesen das Vermögen besitzt, sich selbst Gesetze zu geben und nach diesen rational zu handeln. Korskaard unterscheidet hiervon allerdings den passiven Sinn. Ihr zufolge sind Menschen nicht nur »merely rational beings«16  – also nicht nur rationale Wesen – und zweitens scheint nicht jede Handlung als universelles Prinzip auch für andere zu taugen, wie Ulgen festhält.17 Der passive Sinn versteht Menschen als Wesen mit Bedürfnissen und Interessen, die Essen und Trinken müssen und also auch weniger komplizierte Entscheidungen treffen müssen. Die »kantische Maschine« würde vermutlich nur in einem Umfeld funktionieren, in dem alle anderen moralischen Agenten die gleichen Strategien nutzen. Dieses Umfeld wäre eine ideale Gemeinschaft von rational denkenden und handelnden Wesen. In Bezug auf unsere Realität ist der Vorstoß als ambitioniert einzuschätzen. Die »kantische Maschine« wäre isoliert, da sie den Konflikt zwischen ihr und anderen irrationalen Wesen nicht auflösen kann.18 Zusammengefasst zeigt sich, dass Regelbasierte Ethiken stark vereinfachende Lösungen darstellen, was zu problematischen Effekten in der MenschRoboter-Interaktion führen könnte. Regel basierte Ethiken haben den Nachteil, dass sie statisch angelegt sind und kaum angemessene Reaktionen auf eine dynamische Außenwelt beisteuern können. Bottom-Up Strategien schei-

15 16

17 18

Vgl. Ebd., S. 194. Korsgaard C. M. (2012). »A Kantian Case for Animal Rights«. In: Michel M., Kühne D., & Hänni J. (Hg.), Animal Laws – Tier und Recht. Developments and Perspectives in the 21st Century 1–28). Zürich/St. Gallen: DIKE, S. 11. Ulgen, Ozlem (2017). »Kantian Ethics in the Age of Artificial Intelligence and Robotics.« QIL 43:59-83, S. 64. Unser Einwand ist wahrscheinlich nur halb richtig. Wie Ulgen erklärt, enthält Kants praktische Philosophie das Verständnis und die Einsicht in die Möglichkeit irrationalen Verhaltens und Fehlverhaltens. Vgl. Ulgen, Ozlem. (2017). »Kantian Ethics in the Age of Artificial Intelligence and Robotics.« 64.

55

56

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

nen dagegen vielversprechender zu sein, wie im nächsten Abschnitt zu zeigen sein wird.

3.3 Bottom-Up Strategien Im Gegensatz zu Regel basierten Ethiken handelt es sich bei Bottom-Up Strategien um Versuche, offene Systeme, die ohne feste ethische Prinzipien auskommen können, zu entwickeln. Stattdessen basieren Bottom-Up Strategien auf der Annahme, dass Moral kontextsensitives Vorgehen verlangt19 , also dass jedes moralische Wesen situationsabhängige moralische Entscheidungen treffen muss, die individuell je nach Erfahrung und Wissensstand individuell ausfallen. Im Vordergrund steht nicht so sehr die Richtigkeit oder Falschheit einer Handlung, »the rightness and wrongness of individual acts«, dafür der Charakter der Person: »morality is asserted to be about the character of person«20 Dieses Kriterium steht beispielsweise der Tugendethik nah, die als theoretische Schablone für eine mögliche Bottom-Up Strategie diskutiert wird. Die Tugendethik fragt nicht »Was soll ich tun?«, in Bezug auf vorgeschriebene Regeln, sondern sie betont die Frage »Was soll ich sein?«21 Die Tugendethiker nehmen an, dass sich Tugenden nicht über moralische Prinzipien oder Vorgaben lernen lassen. Damit jemand eine gute Person ist, erfordert es die richtigen Gewohnheiten, Erfahrung und Übungen22 . Außerdem ist der Kontext der jeweiligen Situation entscheidend, ob ich als moralisch gut oder schlecht gelte. Zum Beispiel wäre es moralisch falsch, zu schnell auf einer Straße zu fahren, wenn ich bloß meinen Einkauf erledigen möchte. Andererseits dürfte ein Polizist durchaus schnell fahren, weil er zu einem Einsatz gerufen wurde.23 Er verhielte sich – im Gegensatz zu mir – tugendhaft und moralisch korrekt. Wir müssen annehmen, dass der Polizist im Dienst einer notwendigen Pflicht steht, mithin also jemanden retten oder etwa einen Bankräuber verhaften muss, was in meinen Fall nicht so wäre. Tugendhaft zu sein, wäre demnach 19 20 21 22 23

Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 114. Abney, Keith (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed.«, S. 37. Gips, James (2011). »Towards the ethica robot«, S. 249. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, 114. Abney, Keith (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed.«, S. 37.

3. Ethische Theorien programmieren?

eine Disposition, auf bestimmte Weise, mit Rückgriff auf praktisches Wissen das richtig zu tun, zur richtigen Zeit am richtigen Ort: »in certain way [...] to know by practical wisdom the right thing to do, in the right way, at the right time.«24 Ohne sich auf abstrakte universelle Prinzipien zu berufen, dreht sich die Tugendethik um die Frage der Veränderung von Charakter und Gewohnheiten. Wenn ich etwas tue, wie verändert es mich als Mensch? Bin ich immer noch eine gute Person? Bruce McLaren (2003) hat einen Algorithmus entwickelt, der auf maschinellem Lernen aufsetzt und dem Schema der Bottom-Up Strategie entspricht. Der Name des Programms nennt sich Truth Teller – (zu deutsch: Wahrsager). Seine Maschine nutzt Daten von Gerichtsurteilen hunderter verschiedener Fälle. Truth Teller kommt zu seinem Urteil ähnlich wie ein Arzt oder Richter. Es analysiert einen ihm vorgelegten Fall und vergleicht den Inhalt mit Fällen aus der Vergangenheit, die Parallelen aufweisen.25 Eine Herausforderung, die sich in diesem Zusammenhang ergibt, ist, dass Bottom-Up basierte Ethiken adaptive Systeme erfordern, die über eine ähnliche Form des Lernens wie wir Menschen verfügen. Es erfordert Systeme, die ihre Gewohnheiten und Einstellungen ändern können. Ein Ansatz zur technischen Realisierung einer solchen lernenden künstlichen Intelligenz dürfte der Konnektionismus darstellen. Vertreter dieser Position überlegen, wie sich Wahrnehmung und Kognition auf der Grundlage neuronaler Vorbilder modellieren lassen. »(Connectionism is an) »approach to neural-networks-based cognitive modeling that encompasses the recent deep learning movement in artificial intelligence«26 . Auch sie teilen die Auffassung von Tugendethikern, dass Lernen nicht mit dem Erwerb abstrakter Regelwerke zusammenhängt, sondern das Ergebnis von Training ist. Allerdings gibt es derzeit nur wenige Modelle, die moralisches Lernen durch neuronale Netze erklären, wie Misselhorn bemerkt.27 Letztere kritisiert zudem, dass Bottom-Up basierte Ethiken Vorurteile in den Daten enthalten, die zu ungewollten moralischen Bewertungen führen können wie Diskriminierungen Anderer aufgrund ihrer Hautfarbe

24 25 26 27

Abney, Keith (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed.«, S. 37. Leben, Derek (2019). Ethics for Robtos. How to design a moral algorithm. London/ New York: Routledge, S. 47. Kiefer, Alex B. (2019). A Defense of Pure Connectionism. CUNY Academic Works. https://academicworks.cuny.edu/gc_etds/3036. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 115.

57

58

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

oder Herkunft. Ferner ist bei diesen Systemen oftmals unklar, wie ihre Entscheidungen zustande gekommen sind. Zusammenfassend lässt sich sagen: In der Forschung wird die BottomUp basierte Ethik als vielversprechend bewertet.28 Die Idee, dass moralisches Verhalten weniger eine Frage moralischer Prinzipien als vielmehr eine Frage von Lernen und Erfahrung ist, scheint eine geeignete Grundlage zu sein, handlungsfähige Roboter zu entwickeln und gleichfalls mehr über die Natur unseres moralisches Verhaltens zu erfahren.29 Andererseits legen verschiedene Studien wie von Kohlberg und Lind nah, dass moralisches Verhalten entlang moralischer Prinzipien erfolgt. Wir werden in dieser Arbeit für eine hybride Variante beider Ansätze plädieren. Bevor wir jedoch auf unseren Vorschlag eingehen, möchten wir in den nächsten beiden Paragraphen zum einen eine weitere Variante für ethische Maschinen diskutieren, zum anderen einen skeptischen Einwand gegen die Möglichkeit ethischer Maschinen vorstellen.

3.4 Altruistische und empathische Maschinen Eine Variante, die in der Roboterethik bislang wenig diskutiert wird, ist die eines altruistischen Roboters, obwohl sie neben den Theorien im letzten Kapitel sicherlich ebenfalls diskussionswürdig wäre. Ein Grund dafür mag sein, dass die Debatte unter einem anderen Begriff in der künstlichen Emotionsforschung geführt wird, der dem Altruismus nahesteht. Die Rede ist von Empathie. Entsprechende Überlegungen haben Wallach und Allen (2009)30 , Cramer

28 29 30

Vgl. Ebd., S. 115. Vgl. Ebd., S. 117. Vgl. Wallach, Wendell und Allen, Colin (2009). Moral machines: Teaching robots right from wrong. Oxford University Press. https://doi.org/10.1093/acprof:oso/97801953740 49.001.0001. S. 69.

3. Ethische Theorien programmieren?

et. Al. (2010)31 , Lench et. Al (2013)32 , Fan et al. (2017)33 oder Misselhorn (201834 und 202135 ), Hande Ayanoğlu und João S. Sequeira (2019)36 vorgebracht. Empathie wird in der Psychologie als die Fähigkeit und Bereitschaft verstanden, Empfindungen, Gedanken und Motive anderer Personen zu erkennen, zu verstehen und nachzuvollziehen.37 Altruismus hingegen ist beispielsweise von James R. Orzinga (1999) als ein »sozialer Instinkt«38 oder von Charles D. Batson (2011) als »wichtige Kraft in menschlichen Angelegenheiten« (übersetzt sinngemäß vom Autor, ursprünglich »important force in human affairs«)39 beschrieben worden. Laut Batsons entwickelter »Empathie-Altruismus-Hypothese« setzt wahrer Altruismus Empathie oder empathische Emotionen voraus. Seine Annahme ist, dass Menschen vor allem dann gegenüber anderen Menschen selbstlos handeln, wenn sie für diese Empathie empfinden.40

31

32

33

34 35 36

37

38 39 40

Vgl. Cramer, Henriette S. M.; Goddijn, Jorrit; Wieilinga Bob J.; Evers, Vanessa (2010). »Effects of (in)accurate empathy and situational valence on attitudes towards robots,« 2010 5th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Osaka, Japan, 2010, S. 141–142, DOI: https://doi.org/10.1109/HRI.2010.5453224. Vgl. Lench, Heather C.; Darbor, Kathleen E. und Berg, Logan A. (2013). »Functional Perspectives on Emotion«. Behavior, and Cognition. Bd. 3: 536–540; DOI: https://doi.or g/10.3390/bs3040536. Vgl. Fan, Lisa; Scheutz, Matthias; Lohani, Monika; McCoy, Marissa, Stokes, Charlene (2017). »Do We Need Emotionally Intelligent Artificial Agents? First Results of Human Perceptions of Emotional Intelligence in Humans Compared to Robots.« In: Beskow, J., Peters, C., Castellano, G., O’Sullivan, C., Leite, I., Kopp, S. (Hg.) Intelligent Virtual Agents. IVA 2017. Lecture Notes in Computer Science, Bd. 10498. Springer, Cham. https://doi.o rg/10.1007/978-3-319-67401-8_15. Misselhorn, Catrin (2018), Grundfragen der Maschinenethik, S. 44. Misselhorn, Catrin (2021). Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Stuttgart. Philipp Reclam jun. Verlag GmbH. Ayanoğlu, Hande; Sequeira, João S. (2019). »Human-Robot Interaction.« In: Ayanoğlu, Hande; Duarte Emília (Hg.). Emotional Design in Human-Robot Interaction. Theories, Methods and Applications (S. 39–55), Cham (Schweiz): Springer. Antonius, Markus (2017). »Empathie«. In: Dorsch: Lexikon der Psychologie. Göttingen: Hogrefe Verlag. ISBN 978-3-456-85643-8 (Empathie. Dorsch: Lexikon der Psychologie Online. archiviert (Link: https://dorsch.hogrefe.com/stichwort/empathie; Aufgerufen am 29. 03.2023). Orzinga, James R. (1999). Altruism. Praeger: London, S. 27. Batson, Charles Daniel (2011). Altruism in Humans. Oxford: Oxford University Press: S. 4. Vgl. Ebd., S. 11.

59

60

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Andere Autoren dagegen haben grundsätzlich die Existenz altruistischen Verhaltens beim Menschen angezweifelt. Aus Sicht der Evolutionsbiologie ist Altruismus ein Paradox der menschlichen Natur. Es ist widersprüchlich, so die Annahme, einem anderen Vertreter derselben Spezies Ressourcen ohne Gegenleistung zu überlassen, weil hierdurch der »reproduktive Erfolg« gemindert werden könnte.41 Dagegen gibt es inzwischen verschiedene Studien, die von der Existenz altruistischen Verhaltens in Menschen42 , Bakterien43 oder sogar Pflanzen44 überzeugt sind. Vermutlich ist jedoch Svec mit ihrer These Recht zu geben, dass es eine genauere Spezifizierung des Begriffs braucht, bevor man eine Aussage über dessen Existenz in der Natur treffen kann. So unterscheidet die Autorin in nepotistischen, reziproken und genetischen Altruismus.45 Altruismus befähigt Orzinga zufolge beim Menschen dazu, sich mit anderen in der Gesellschaft zu arrangieren, befördert Gemeinschaft (»togetherness«), Bindung (»bonding«) und Partnerschaft. Das Philosophische Lexikon definiert Altruismus als Selbstlosigkeit und Uneigennützigkeit im Fühlen, Denken und Handeln. Wesentlich ist dabei der Blick auf das Wohl der Mitmenschen, in letzter Instanz auf das Wohl der Menschlichkeit als Ganze. In der Soziobiologie ist ein Altruist daher ein »beliebiges Lebewesen«, »welches seine Eignung zugunsten eines oder mehrerer anderer Lebewesen reduziert«46 ,

41

42

43

44

45 46

Svec, Bettina (2012). »Existiert echter Altruismus?« In: Sociology in Switzerland: Sociology of Health and Social Welfare. Zürich. (Link zur Online Version: http.//socio.ch/health/t_bsvec.pdf, abgerufen am 29.03.2023), S. 2. Und: Vgl. Fetchenhauer, Detlef & Bierhoff, Hans-Werner (2004). »Altruismus aus evolutions-theoretischer Perspektive«. Zeitschrift für Sozialpsychologie 35 (3):131-141, S. 131. Dawkins, Marian Stamp (1994). Die Entdeckung des tierischen Bewusstseins. Berlin: Rowohlt. Frans de Waal (1997). Der gute Affe. Der Ursprung von Recht und Unrecht bei Menschen und anderen Tieren. München: Hanser (ISBN 3–446-18962-9). Sowie: Ben-Ami Bartal, Inbal; Decety, Jean und Mason, Peggy (2011). »Empathy and Pro-Social Behavior in Rats«. Science Magazine. Bd. 334, Issue 6061:1427-1430. DOI: https://doi.org/10.1126/s cience.1210789. Lee, Henry H.; Molla, Michael N.; Cantor, Charles R.; Collins, James J. (2010). »Bacterial charity work leads to population-wide resistance«. Nature. Bd. 467, S. 82–85 (2. September 2010; DOI: https://doi.org/10.1038/nature09354). Murphy, Guillermo P.; Dudley, Susan A. (2009). »Kin recognition: Competition and cooperation in Impatiens (Balsaminaceae)«. American Journal of Botany. Bd. 96:19901996. Vgl. Svec, Bettina (2012). »Existiert echter Altruismus?«, S. 21. Svec, Bettina (2012). »Existiert echter Altruismus?«, S. 3.

3. Ethische Theorien programmieren?

wie Bettina Svec anfügt. Altruistische Ethiken finden sich in der Geschichte der Philosophie sowohl bei Locke, Hume, als auch Feuerbach und Comte. Der Altruismus wurde von den Denkern als Gegenmodell zum Egoismus der Menschen in der bürgerlichen Gesellschaft entworfen. Wie oben bereits angemerkt, wird in der Roboterethik weniger von altruistischen, dafür von empathischen Robotern gesprochen. Wallach und Allen heben hervor, dass die Realisierung von empathischen Robotern davon abhängt, ob diese überhaupt eigene Emotionen haben können: »Without emotions, empathic behavior by robots will largely be the result of rational responses.«47 Diesen Zusammenhang stellt auch Misselhorn heraus. Sie verweist auf derzeitige Versuche in der Robotik, künstliche Systeme mit Emotionen auszustatten.48 Ausgehend von den vier Grundemotionen (Frustration, Erleichterung, Angst und Hoffnung) könnte ein künstliches System in der Interaktion mit Menschen »moralische Emotionen wie Schuld und Scham entwickeln und empathisch reagieren«49 . Obgleich die Forschung hierzu nach wie vor am Anfang steht, verbunden mit einigen offenen philosophischen Problemen, etwa der Frage nach der Entwicklung von künstlichem Bewusstsein, kann man mit Misselhorn vermuten, dass der moralische Status einer empathischen, emotionalen Maschine entschieden aufgewertet sein würde. Ein Roboter, der mitfühlend ist und auf der Grundlage eigener Emotionen handelt, wäre wahrscheinlich vergleichbar mit einem Tier, wenn nicht sogar mit einem Menschen.50 Hande Ayanoğlu und João S. Sequeira ergänzen, dass Empathie eine tragende Rolle in der Mensch-Roboter-Interaktion und Kommunikation zukommt. Einige Studien legen sogar den Schluss nahe, dass Roboter mit Empathie von Menschen als vertrauensvoller eingestuft werden.51 Empathie ist folglich eine Voraussetzung für eine höhere Akzeptanz von Robotern in der Gesellschaft. Überdies, folgen wir Batsons »EmpathieAltruismus-Hypothese«, kann durch empathische Emotionen der Weg zu einem altruistisch-handelnden Roboter geebnet werden. Eine Untersuchung über die Richtigkeit dieser Annahme steht bislang aus. 47 48 49 50 51

Wallach, Wendell, & Allen, Colin (2009). Moral machines, S. 165. Vgl. Misselhorn, Catrin (2021). Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, S. 11ff. Misselhorn, Catrin (2018), Grundfragen der Maschinenethik, S. 44. Misselhorn, Catrin (2018), Grundfragen der Maschinenethik, S. 45. Cramer et al. (2010). »Effects of (in)accurate empathy and situational valence on attitudes towards robots.«; Fan et al. (2017). »Do We Need Emotionally Intelligent Artificial Agents?«

61

62

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

3.5 Superintelligenz Neben den verschiedenen in der Forschung diskutierten Ansätzen zur Implementierung von ethischen Modellen in Robotern gibt es ebenso skeptische Haltungen gegenüber diesem Vorhaben. Der Einwand der Kritiker zielt insbesondere auf den Begriff der starken Künstlichen Intelligenz ab. Hiernach gibt es grundsätzliche Bedenken, dass eine solche KI noch die Werte, Normen und folglich Regeln des ethischen Zusammenlebens mit uns Menschen begreifen und teilen wird. Hintergrund dieses Arguments ist eine Überlegenheitsannahme der KI, die nicht nur in der Literatur, sondern ebenso in der ScienceFiction üblicherweise mit den Schlagworten Singularität oder Superintelligenz in Verbindung gebracht wird. Der Wahrheitsgehalt dieser Annahme lässt sich dabei weniger mit wissenschaftlichen Methoden falsifizieren. Es handelt sich vielmehr um eine spekulative, metaphysische Annahme über die Zukunft der Technologie und ihre möglichen Folgen für die Menschheit. Die Überlegenheitsannahme der KI lässt sich im Großen und Ganzen mit der nicht wirklich klar umrissenen Idee umschreiben, dass eine starke Künstliche Intelligenz den Menschen in sämtlichen kognitiven Fähigkeiten nicht nur ebenbürtig sein könnte, sondern gänzlich übertreffen wird. Die Entwicklung einer starken KI stellt also womöglich eine neue Stufe der Evolution dar. Diese Strömung fasst Janina Loh auch als »technologischen Posthumanismus«52 zusammen. Ihre Vertreter glauben, dass der Mensch über kurz oder lang in »seiner Rolle als Krone der Schöpfung abgelöst« werden könnte. Kennzeichnend ist also eine Glorifikation der Technik, der alles andere Menschliche nachgestellt wird. Erste posthumanistische Gedanken finden sich Loh zufolge bereits bei René Descartes, später in Thomas Blounts Glossographia (1656) und Ihab Hassans Prometheus as Performer: Towards a Posthumanist Culture (1977). Zu den populärsten Vertretern des modernen Posthumanismus rechnet sie den KI-Forscher und Informatiker Marvin Lee Minsky (etwa The Society of Mind 1986), den Physiker Frank Tipler (Physics of Immortality 1994) sowie den Science Fiction Autor Vernor Vinge (The Coming Technological Singularity 1993) als auch Ray Kurzweil und dessen zahlreiche Publikationen wie The Age of Intelligent Machines (1990), The Age of Spiritual Machine (1999) und The Singularity is Near (2005). Dazu zählen muss man auch Nick Bostrom, der den Begriff der Superintelligenz (Superintelligence 2014) eingeführt hat. Er unterscheidet in mehrere Formen,

52

Loh, Janina (2018). Trans- und Posthumanismus. Hamburg: Junius Verlag, S. 92ff.

3. Ethische Theorien programmieren?

in denen sich die Superintelligenz ausdrücken würde: Geschwindigkeit, Kollektivismus, Qualität.53 Steve Petersen hat Bostroms Ausführungen einer Superintelligenz zum Anlass genommen, die Frage in einem Aufsatz 2017 zu diskutieren, ob man einer solchen Superintelligenz ethische Regeln beibringen könne oder ob dies ein hoffnungsloses Unterfangen wäre. Petersen stimmt Bostrom zu, dass einer Superintelligenz keine ethischen Ziele oder Prinzipien (»final goals«) einprogrammiert werden können, sondern dass diese ihre Prinzipien erlernen müssen und zwar in Form von Nachdenken.54 Übrigens zeigt sich hier eine Parallele zu Linds Konzept der moralischen Kompetenz. Auch Lind ist der Meinung, dass wir moralisches Verhalten und damit das Verstehen und Anwenden von universellen Prinzipien erlernen müssen. Dieser Prozess erfordert Nachdenken und die Fähigkeit zu diskutieren. Eine Superintelligenz müsste in diesem Fall genau wie wir Menschen üben, moralisch zu handeln. Allerdings bleibt die Frage offen, wie wir uns mit einer solchen Superintelligenz verständigen sollen? Wird eine Superintelligenz unsere Sprache sprechen? Besitzt eine Superintelligenz eine Identität oder etwa mehrere Identitäten?

53 54

Bostrom, Nick (2014). Superintelligence, S. 63. Petersen, Steve (2017). »Superintelligence as superethical«. In: Robot Ethics 2.0.

63

4. Moralische Kompetenz in Robotern

4.1 Moralische Kompetenz in Robotern: Wie ist der Stand der Forschung? In der Roboterethik gibt es inzwischen verschiedene interdisziplinäre Studien von Kognitionswissenschaftlern, Ingenieuren, Linguisten, Psychologen und Philosophen, die Computermodelle (Scheutz, 20171 ; McLaren, 20112 ; Guarini, 20113 ; Bringsjord et al., 20114 ; Andreae, 19875 ) und Experimente (Scheutz et al., 20136 ) zur Realisierung von nicht biologischen kognitiven Systemen entwickelt haben. Vor allem dank des Universitäts- und Forschungsnetzwerkes (Multidisciplinary University Research Initiative, kurz »MURI«) konnten wichtige Grundlagen zur Erforschung von moralischer Kompetenz in computationalen Architekturen für Roboter »Moral competence in Computational Architec-

1 2

3 4

5 6

Scheutz, Matthias (2017). »The Case for Explicit Ethical Agents.« McLaren, Bruce. M. (2011). »Computational Models of Ethical Reasoning. Challenges, Initial Steps, and Future Directions.« In: M. Anderson & S. L. Anderson (Hg.), Machine Ethics (S. 297–315). Cambridge: University Press. Guarini M. (2011). »Computational Neural Modeling and the Philosophy of Ethics: Reflections on the Particularism-Generalism Debate.« In: Machine Ethics (S. 316–334). Vgl. Bringsjord S., Taylor J., Van Heuveln B., Arkoudas K., Clark M., & Wojtowicz R. (2011). »Piagetian Roboethics via Category Theory: Moving beyond Mere Formal Operations to Engineer Robots Whose Decisions Are Guaranteed to Be Ethically Correct.« In: Machine Ethics (S. 361–374). Vgl. Andreae John H. (1987). »Design of Conscious Robots.« Metascience 5:41-54. Vgl. Scheutz, Matthias; Briggs, Gordon; Cantrell, Rehji.; Krause, Evan; Williams, Tom & Veale, Richard (2013). »Novel Mechanisms for Natural Human-Robot Interactions in the DIARC Architecture.« Intelligent Robotic Systems: Papers from the AAAI 2013 Workshop: 66–72.

66

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

tures for Robots« (Malle 20147 , 20168 ; Scheutz, 20169 ; Scheutz et al., 201710 ; Scheutz und Malle 201411 , 201912 , 202013 ; Scheutz et al. 201514 ) gelegt werden. Wie Scheutz anmerkt, soll mittels moralischer Kompetenz der Rahmen für autonom handelnde künstliche Systeme geschaffen werden, um den Anforderungen in der menschlichen Welt gerecht zu werden.15 Er verspricht sich von einer moralisch kompetenten Maschine einen konfliktfreieren Umgang mit Menschen, mehr Verständnis und Sensibilität für ihre Normen und Werte. Eine ähnliche Motivation findet sich auch bei Malle. Moralische Kompetenz versteht dieser als Voraussetzung für eine Mensch-Roboter-Beziehung. »What we need to examine is not one ›true‹ moral competence but the competences that people expect of one another. For people will expect at 7

8 9

10 11

12

13

14

15

Vgl. Malle, Bertram F. (2014). »Moral Competence in Robots?.« In: J. Seibt, R. Hakli, & M. Nørskov (Hg.), Sociable Robots and the Future of Social Relations: Proceedings of Robo-Philosophy (S. 189–198). Amsterdam, Netherlands: IOS Press. DOI: https://doi.o rg/10.3233/978-1-61499-480-0-189. Vgl. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.« Vgl. Scheutz Matthias. (2016). »The Need for Moral Competency in Autonomous Agent Architectures.« In: V. C. Müller (Hg.). Fundamental Issues of Artificial Intelligence (S. 517–527). Heidelberg: Springer. Vgl. Scheutz, Matthias; Baral, Chitta, & Lumpkin, Barry (2017). »A High Level Language for Human Robot Interaction.« Advances in Cognitive Systems 5:1-16. Vgl. Scheutz, Matthias. & Malle, Bertram F. (2014). »Think and Do the Right Thing‹: A Plea for Morally Competent Autonomous Robots.« Presented at the 2014 IEEE Ethics Conference, Chicago, IL. DOI: https://doi.org/10.1109/ETHICS. 2014.6893457. Vgl. Scheutz, Matthias & Malle Bertram. F. (2019). »Learning How to Behave. Moral Competence for Social Robots«. In: Bender, Oliver (Hg.). Handbuch der Maschinenethik (S. 255–278). Wiesbaden: Springer Nature. Genutzte Version: https://www.cogsci.msu.edu/DSS/2019-2020/Malle/Malle%20&%20Scheutz%20 2019%20LearningHowToBehave.pdf (abgerufen zuletzt am 30.03.2023). Vgl. Scheutz, Matthias. & Malle, Bertram F. (2020). »Moral competence in social robots.« In: Wallach, Wendell und Asaro, Peter (Hg.). Machine Ethics and Robot Ethics (S. 225–230). Routledge. Vgl. Scheutz, Matthias; Malle, Bertram F. & Briggs, Gordon (2015). »Towards Morally Sensitive Action Selection for Autonomous Social Robots.« Proceedings of the International Symposium on Robot and Human Interactive Communication (RO-MAN'15). Originalzitat: »agent designers (need to) to ensure that autonomous artificial agents are equipped with the moral and ethical competence to negotiate human societies in order to prevent the harm they could otherwise cause by being oblivious to ethics and morality«. (Vgl. Scheutz (2017). »The Case for Explicit Ethical Agents.«, S. 57).

4. Moralische Kompetenz in Robotern

least some of these competences of social robots—any robots with which they are willing to form social relationships.«16 Dem Wunsch nach moralisch kompetenten Robotern liegt also ein anthropozentrischer Ansatz zugrunde. Es geht darum, Roboter menschlicher und damit sozialer werden zu lassen. Anthroprozentrismus bzw. Anthropomorphismus zielt üblicherweise auf das »Design« und die »äußerlich wahrnehmbaren Kriterien wie Form, Sprachfähigkeiten und Gesichtsausdruck«17 ab. Gemeint ist zudem die Interaktion zwischen einem Roboter und einem Nutzer oder einer Nutzerin. Im Fall der moralischen Kompetenz beschränkt sich die Diskussion allerdings in erster Linie auf die innere Architektur des Roboters. Was ist moralische Kompetenz und wie lässt sie sich in einem Roboter implementieren? Danach ist die Perspektive des Nutzers und dessen Interaktion mit einem moralisch kompetenten Roboter zu betrachten. Daher schreibt Malle: »we must continuously gather empirical evidence to ensure that the emerging morally competent robots are in fact suitable for and accepted as social partners.«18 Die von Scheutz und Malle nunmehr entwickelte Theorie geht von einem funktionalistischen Ansatz aus, der im Ergebnis auf ein Komponenten-Modell für moralische Kompetenz hinausläuft. Bevor wir uns jedoch dem funktionalistischen Konzept zuwenden, wollen wir im nachfolgenden Abschnitt zunächst erklären, was mit »funktionalistisch« gemeint ist.

4.2 Funktionalismus Das Adjektiv »funktionalistisch« bezieht sich auf ein klassisches Erklärungsmodell aus der Philosophie des Geistes oder »philosophy of mind«: dem so genannten Funktionalismus. Vertreter dieser Strömung wie Fodor oder der frühe Putnam (»Machine-State-Functionalism«) sind der Auffassung (Put-

16 17 18

Malle, Bertram. F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 245. Vgl. Loh, Janina (2019), Roboterethik, S. 76. Malle B. F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 245.

67

68

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

nam, 196019 ; 196720 ; 196721 ; Fodor, 196822 ; Beckermann, 200123 ), dass sich der menschliche Geist ähnlich wie ein Automat oder eine Maschine verhält. In den letzten Jahrzehnten hat es verschiedene Varianten des Funktionalismus gegeben.24 Die Grundthese des Funktionalismus ist, dass mentale Zustände ihrer Natur nach funktionale Zustände sind. Der Geist verhält sich folglich laut dieser Theorie funktional zum Gehirn. Der mentale Zustand erhält seine Bedeutung nicht durch seine ontologische Beschaffenheit, sondern durch seine kausale Funktion oder Rolle im System. Einfach gesprochen: gibt man dem Geist einen Input über das Gehirn, erfolgt ein Output über den Geist, zum Beispiel in Form eines Gedankens oder Schmerzes. Angenommen wir können eine charakteristische neuronale Aktivität im Gehirn ausmachen, die für das Auftreten eines Schmerzes verantwortlich ist (z.B. C-Faser Stimulierung – assoziiert mit Schmerzwahrnehmung), dann könnten wir den mentalen Zustand des Schmerzes hervorrufen, in dem wir ihn durch C-Faser Stimulierung anregen. Für den Funktionalismus ist dabei zunächst irrelevant, ob die C-Faser biologischer Natur sind oder aus einem anderen Stoff bestehen. Entscheidend ist allein die kausale Rolle. Theoretisch gesehen können also sogar Aliens, die mit unserer physikalischen Zusammensetzung wenig gemein haben, Schmerzen aufzeigen, wie Misselhorn richtigerweise bemerkt.25 Obwohl der Funktionalismus in den letzten Jahrzehnten viel Kritik erfahren musste und auf dem Rückzug war26 , scheint er in der Robotik und konkret in der Diskussion um die Integration von moralischer Kompetenz in Robotern eine Renaissance zu erfahren.

19 20 21 22 23 24 25 26

Vgl. Putnam, Hilary (1960). »Minds and Machines.« In: Hook, S. (Hg.). Dimensions of Mind (S. 362–385). New York: Collier Books. Vgl. Ders. (1967). »The mental life of some machines.« In: Castañeda, Hector-Neri (Hg.). Intentionality. Mind and Perception. Detroit: Wayne State University Press. Vgl. Ders. (1967). »Psychological Predicates.« In: Capitan, W.H. und Merrill, D. (Hg.). Art, Mind and Religion (S .37-48). Pittsburg PA: University of Pittsburgh Press. Fodor, Jerry A. (1968). Psychological Explanation. New York: Random House. Beckermann, Ansgar (2001). Analytische Einführung in die Philosophie des Geistes, 2. überarbeite Auflage. Berlin/New York: de Gruyter. Beckermann, Ansgar (2001). Analytische Einführung in die Philosophie des Geistes, S. 142. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 84. Vgl. etwa durch Putnam, Hilary (1991). Repräsentation und Realität. Frankfurt a.M.: Suhrkamp. Searle. »Is the brain’s mind a computer program?« Scientific American 262 1 (1990): 26–31. Und vgl. Block, Ned (1995). »On a confusion about a function of consciousness.« Brain and Behavioral Sciences 18 (2):227-–247.

4. Moralische Kompetenz in Robotern

4.3 Der funktionalistische Ansatz: Moralischen Kompetenz als Komponenten-Modell Angelehnt an verschiedene Untersuchungen aus der Psychologie, Neurowissenschaften und der Philosophie wie Kohlberg27 , Greene28 , Antaki29 ; McCullough30 schlagen Malle und Scheutz et al.31 in mehreren Aufsätzen fünf Komponenten vor, die ihrer Meinung nach moralische Kompetenz in Robotern fundieren. Hierzu zählen fünf Bausteine: Moralisches Handeln und Entscheiden, moralische Kognition und Affekt, moralische Kommunikation, ein System aus Normen sowie ein moralisches Vokabular. Moralisches Vokabular: Im Alltag ist es wichtig, dass die in einer Gesellschaft vorhandenen Normen und Werte von jedem moralisch handelnden Wesen erlernt, weitergegeben und diskutiert werden können. Werte und Normen sind in unserer Sprache fest eingeschrieben und werden von Generation zu Generation weitergegeben. Wer Teil einer bestimmten Gesellschaft und einem Kulturkreis angehört, der braucht das moralische Vokabular der Sprachgemeinschaft, um Regeln zu verstehen und festzulegen oder Verstöße zu tadeln. Ein moralisches Vokabular ist daher in den Augen von Malle und Scheutz eine essentielle Voraussetzung für jedes menschliche oder artifizielle Wesen. Ein System aus Normen regelt das angemessene Verhalten von Menschen im Umgang mit anderen. Malle betont, dass jede Untersuchung mit dem Begriff der Moral im Grunde eine Untersuchung des vorherrschenden NormenSystems darstellt. »Any analysis of morality, and therefore of moral competence, must fundamentally be anchored in the concept of norms.«32 Weiter

27 28

29 30

31 32

Vgl. Kohlberg, Lawrence (1984). The psychology of moral development: The nature and validity of moral stages. San Francisco, CA: Harper& Row. Vgl. Greene, Joshua D.; Nystrom, Leigh E.; Engell, Andrew D.; Darley, John M. & Cohen, Jonathan D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron, 44: 389–400. DOI: https://doi.org/10.1016/j.neuron.2004.0 9.027. Vgl. Antaki, Charles (1994). Explaining and arguing: The social organization of accounts. London: Sage. Vgl. McCullough, Michael E.; Kurzban, Robert & Tabak, Benjam A. (2013). Putting revenge and forgiveness in an evolutionary context. Behavioral and Brain Sciences 36: 41–58. DOI: https://doi.org/10.1017/S0140525X12001513. Vgl. siehe oben. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 246.

69

70

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

heisst es bei ihm: »Morality is at its heart a system of norms that a community adopts to regulate individual community members’ behaviors and thus bring them in line with community interests.«33 Moral oder moralische Kompetenz ist für Malle das Handeln entlang von Normen. Dieses Verständnis von Moral ist nicht ungewöhnlich, allerdings sehr limitiert. Lind unterscheidet insgesamt vier gebräuchliche Definitionen für Moral.34 Moral kann als Verhalten gelten, das sich an den herrschenden Gesetzen und Normen orientiert, als Gesinnungsmoral, als Unternehmen zur Glücksmaximierung oder als Fähigkeit, auf der Grundlage von moralischen Prinzipien zu urteilen. Lind, wie wir gesehen haben, ist Anhänger der letzten Definition. Moralische Kognition und Affekt untersucht Malle richtigerweise im Zusammenhang mit unserem moralischen Urteilsvermögen. Mensch oder Maschine müssen schnell dazu in der Lage sein einzuschätzen, ob ein Verhalten normkonform abläuft oder nicht. Darin sieht Malle das Wesen der moralischen Urteilsfähigkeit. »Human moral cognition encompasses processes of perception and judgment that allow people to detect and evaluate norm-violating events and respond to the norm violator.«35 Im Gegensatz zu Lind spielt für Malle dabei der affektive Aspekt der Moral keine Rolle. Er untersucht Moral allein unter dem kognitiven Aspekt. Auch das in der kognitiven Entwicklungspsychologie hervorgebrachte Stufenmodell der moralischen Orientierung bleibt in diesem Ansatz unberücksichtigt und beruft sich auf die Arbeiten von Avramova and Inbar (2013)36 ; Huebner et al. 200937 . Malle schreibt: Clearly, affective phenomena can influence moral judgments, often accompany moral judgments, and probably facilitate learning and enforcing moral norms. But there is little evidence for the claim that affective phenomena are necessary or constitutive of those judgments.«38

33 34 35 36

37

38

Ebd., S. 246. Lind, Georg (2019). Moral ist lehrbar, S. 43. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 248. Avramova, Yana R. & Inbar, Yoel (2013). »Emotion and moral judgment.« Wiley Interdisciplinary Reviews Cognitive Science, 4:169-178. DOI: https://doi.org/10.1002/wcs.1 216. Huebner, Bryce; Dwyer, Susan, & Hauser, Marc (2009). The role of emotion in moral psychology. Trends in Cognitive Sciences 13: 1–6. DOI: https://doi.org/10.1016/j.tics.200 8.09.006. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 248.

4. Moralische Kompetenz in Robotern

Moralisches Entscheiden und Handeln werden in Malles Theorie unter den Gesichtspunkten des freien Willens, dem Egoismus und der Empathie, den Grenzen der Entscheidungskapazität und Dilemmasituationen thematisiert. Moralische Kompetenz setzt nach Kohlberg und Lind die Fähigkeit voraus, Konflikte und Probleme zu lösen bzw. eine Strategie für den Umgang mit dilemmatischen Situationen zu entwickeln. Dabei zeigt Lind in der Praxis und Theorie seiner KMDD, dass es beim Lösen von Dilemmata nicht zwingend auf die Kriterien richtig oder falsch ankommt. Entscheidend ist vielmehr das Urteilen auf der Grundlage von moralischen Prinzipien. Dieser Ansatz könnte von strengen kalkulatorischen Modellen wie beispielsweise utilitaristischen Ethiken befreien, die das korrekte moralische Verhalten anhand von Zahlenwerten messen. Das allerdings scheint für Malles Vermutung zu sprechen, dass es ein anthropozentrisches Vorgehen in der Konfrontation mit Dilemmata erfordert. »From an HRI (Human-Robot-Interaction) perspective, a critical question is how humans want robots to handle such dilemmas. Exactly the same way as humans do? Or do people impose different permissions and obligations on robots?«39 Schließlich bietet Malle mit der Moralischen Kommunikation einen letzten Baustein für moralische Kompetenz an. Ausgehend von der Theorie, dass moralische Kompetenz mit dem Feststellen von Normabweichungen einhergeht, muss ein Roboter oder Mensch dazu in der Lage sein, das Fehlverhalten gegenüber anderen zu kommunizieren. Moralische Kommunikation meint hierbei mehr als die Verwendung des oben angesprochenen moralischen Vokabulars. Es setzt erstens voraus, das eigene moralische Verhalten für sich selbst und andere erklärbar zu machen, zweites die Fähigkeit, die eigenen Absichten und Ziele zu kennen und drittens (aus Sicht eines Roboters) in einer natürlichen Sprache für andere Gesprächspartner aufzubereiten. »The challenge is that the robot must articulate ist meta-reasoning in humanly comprehensible ways (e.g., as belief and desire reasons that were the grounds for a particular decision), regardless of the formalism in which it performs the reasoning [...]. This amounts to an additional form of simulation: modeling what a human would want to know so as to understand (and accept) the robot’s decision in question.«40

39 40

Ebd., S. 250. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 252.

71

72

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Moralische Kommunikation zielt also auf den diskursiven Bereich von moralischer Kompetenz ab, jenen Bereich, den Lind auch als »sozial-kommunikativ«41 beschreibt und der entscheidend in Demokratien ist. Mit Blick auf die besprochenen Bausteine der moralischen Kompetenz fällt nun auf, dass Malle und Scheutz eine ähnliche Strategie wie der Funktionalismus anbieten: Gibt man einem Roboter einen Input, etwa in Gestalt der fünf Komponenten »Moralisches Handeln« und »Entscheiden«, »moralische Kognition« und »Affekt, moralische Kommunikation«, ein »System aus Normen« sowie ein »moralisches Vokabular«, erfolgt ein Output-Zustand, den wir als moralische Kompetenz verstehen dürfen. Die einzelnen Elemente haben nicht für sich betrachtet eine ontologische Bedeutung, sondern nur im Rahmen ihrer kausalen Funktion für den Mechanismus, zur Realisierung von moralischer Kompetenz. Daraus folgt, dass sich die vorgeschlagene Zusammensetzung mit dem Einwand der Beliebigkeit konfrontiert sehen muss. Interessant sind in diesem Zusammenhang daher auch die Begriffe »Komponenten« (Malle, 201442 , Scheutz, 201743 ) und »Elemente« (Malle 201644 ), die zumindest mit Blick auf die Terminologie an das in der Psychologie lange Zeit geläufige Komponenten-Modell erinnern. Laut diesem Modell können wir moralisches Verhalten als das Ergebnis mehrerer »Komponenten« bzw. moralische Kompetenz selbst als eine »Komponente« begreifen. So spricht beispielsweise Ahmad M. Mahasneh davon, dass moralisches Verhalten mindestens auf vier Komponenten aufbaut: »(1) identifying a situation as a moral problem, (2) figuring out what one ought to do and evaluating possible plans of action, (3) evaluating how the various courses of action serve moral and no moral values and deciding which action will be pursued, and (4) executing the plan of action.«45 Für Thomas Lickona dagegen sind es lediglich drei Elemente, die in Betracht zu ziehen sind. Er schreibt, dass sich der Charakter einer jeden Person aus drei 41 42 43 44 45

Lind, Georg (2019). Moral ist lehrbar, S. 31. Malle, Bertram F. (2014). »Moral Competence in Robots?«, S. 189. Scheutz Matthias (2017). »The Case for Explicit Ethical Agents.«, S. 61. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 243. Mahasneh, Ahmad M. (2014). »The Level of Moral Competence among Sample of Hashemite University Students.« Middle-East Journal of Scientific Research 19 (9):12591265, S. 1259.

4. Moralische Kompetenz in Robotern

Teilen »moral knowing«, »moral feeling« und »moral behaviour« zusammensetzt.46 James Rest et al. wiederum argumentiert für ein »Vier-KomponentenModell«, bestehend aus: »Moral sensitivity«, »Moral judgement«, »Moral Motivation« und »Moral Character«.47 Was sich hier nun am Beispiel der aufgeführten Modelle aus der Psychologie und eben auch bei Malle und Scheutz zeigt und bestätigt, ist, dass sich die für den Begriff der moralischen Kompetenz oder moralisches Verhalten vorgeschlagenen Terminologie von »Elementen« und »Komponenten« als problematisch erweist. Sie suggeriert, dass wir moralische Kompetenz beliebig verändern und je nach Applikation des Roboters anpassen können. Damit stellt sich jedoch die Frage, welche Komponenten notwendig, welche nur hinreichend für die Integration moralischer Kompetenz sind. Malle thematisiert dieses Problem (2016) selbst: »Moreover, different applications (e.g., for health and social assistance or for safety and security) may call for implementing robots with different competences, and what is an adequately moral agent in one application may look different from one in another application.«48 Was aber passiert zum Beispiel, wenn wir nur drei oder vier der vorgeschlagenen Komponenten in einem Roboter verwirklichen? Was bedeutet das für den Roboter? Welche Einschränkungen ergeben sich? Stellen wir uns vor, wir bauten einen Pflegeroboter, der über alle genannten Elemente verfügt, bis auf die Fähigkeit des moralischen Handelns und Entscheidens. Können wir dann noch von moralischer Kompetenz sprechen oder nicht? Der Roboter wäre in einer für sein Aufgabengebiet zentralen Funktion beeinträchtigt. Er könnte nichts entscheiden und keine Handlungen ausführen. Sicherlich ist es richtig, dass nicht jeder Roboter über die Fähigkeit verfügen muss, moralische Entscheidungen zu treffen. Ein autonomer Staubsauger zum Beispiel braucht aufgrund seiner eher trivialen Aufgabenstellung vermutlich keine moralische Kompetenz (wobei auch ein autonomer Staubsauger in moralische Dilemmata geraten kann, wie Misselhorn sehr gut verdeutlicht49 ), der angesprochene Pflegeroboter dagegen schon. 46 47

48 49

Lickona, Thomas (1991). Educating For Character: How Our School Can Teach Respect And Responsibillity. New York: Bantan Books, S. 52. Vgl. Rest, J., Narvaez, Darcia; Bebeau, Muriel L.; & Thoma, Stephen (1999). Postconventional moral thinking: A Neo-Kohlbergian Approach. Mahwah, NJ: Lawrence Erlbaum Assciates, S. 101. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 245. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 8.

73

74

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

4.4 Dual-Aspekt-Dual-Ebenen Modell Im Gegensatz zur oben ausgeführten Komponenten-Theorie werden wir einen anderen Ansatz zur Integration von moralischer Kompetenz in Robotern im Folgenden vorschlagen, der auf den Überlegungen von Georg Lind basiert, nämlich auf seiner Dual-Aspekt-Theorie. Dabei wird sich herausstellen, dass Linds Theorie auch mit einigen von Scheutz und Malle festgehaltenen Punkten im Einklang steht. Wie im vorangegangenen Kapitel gezeigt, versteht Lind moralische Kompetenz als eine Fähigkeit, moralische Probleme und Konflikte auf der Grundlage moralischer Prinzipien durch Denken und Diskutieren zu lösen, statt durch Gewalt, Betrug oder Unterwerfung unter die Führung durch Andere.50 Lind entspricht mit dieser Definition Scheutz’ eigenem Anspruch, wonach Roboter über eine ähnliche Grundausrüstung und Werkzeuge zur Bewältigung von alltäglichen Situationen verfügen sollten wie wir Menschen: »robots will need mechanisms analogous to humans to deal with the situational openness and unpredictability of human societies: they need to be explicit ethical agents, able to represent, learn and reason with norms and values in much the same way humans do«51 . Linds Theorie basiert auf den Vorarbeiten von Piaget und Kohlberg52 . Ähnlich wie sie konzentriert sich seine Untersuchung auf die kognitiven Strukturen des moralischen Verhaltens, die im menschlichen Geist verankert sind.53 Diese lassen sich unmittelbar im individuellen Umgang mit unserem sozialen Umfeld aufdecken und feststellen.54 Linds Begriff der moralischen Kompetenz steht im engen Zusammenhang mit seiner Dual-Aspekt-Theorie oder Zwei-Aspekt Theorie. Moralische Kompetenz ist hiernach nur ein Aspekt des moralischen Selbst. Sie repräsentiert den kognitiven Aspekt. Demgegenüber stellt Lind den affektiven Aspekt, der auf die moralische Orientierung beim Menschen abhebt. Im Vergleich zum Komponenten-Modell folgt aus der Dual-Aspekt-Theorie also ein hybrider Ansatz aus Top-Down und Bottom-Up Strategie. Moralische Orientierung (affektiver Aspekt) äußert sich in Gestalt der von Menschen bevorzugten moralischen

50 51 52 53 54

Lind, Georg (2016). How to teach morality?, S. 13. Scheutz, Matthias (2017). »The Case for Explicit Ethical Agents.«, S. 62. Lind, Georg (2016). How to teach morality?, S. 45. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 322. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 43.

4. Moralische Kompetenz in Robotern

Prinzipien, die sich im Verhalten ausdrücken.55 Moralische Orientierung ist demnach, wenn man so will, ein Raster an menschlichen Ausdrucksformen, dessen Grundlage moralische Prinzipien darstellen. Dabei fällt auf, dass der Aspekt der moralischen Orientierung vergleichbar mit der Top-Down Strategie ist, bei der es darum geht, eine Regel basierte Ethik für das Verhalten eines Roboters zu entwickeln.56 In diesem Fall steht allerdings nicht nur eine Regel, ein Prinzip zur Verfügung, sondern eine Reihe qualitativ voneinander zu unterscheidenden Regeln, die je nach Situation, je nach Konfliktlage abgerufen werden können. Malles Idee eines Systems aus Normen scheint sich mit diesem Ansatz zu decken. Er spricht sogar von einem flexiblen Netzwerk an Normen, das durch die Einflüsse aus der Umgebung aktiviert wird, welches man in die Roboterarchitektur integrieren könnte. Normen sind ihm zufolge eine Art Repräsentation, die ähnlich wie Ziele funktionieren und durch den Erwerb der natürlichen Sprache mitgegeben werden. »But if norms are kinds of representations that are connected in some flexible network and activated by perceived features of the environment, then there is no principled reason why they could not be implemented in a computational robotic system.«57 Außerdem verteidigt auch Malle – ähnlich wie Lind und Kohlberg – ein hierarchisches Konzept für Normen, aufsteigend von konkreten zu eher abstrakten Normen, obwohl ihm ganz offensichtlich nicht ein systematisches Stufenmodell der Moral vorschwebt: »Learning a hierarchy of norms, from very concrete (›When a person stretches out their sideways turned hand towards you, grab it and shake it‹) to very abstract (›Respect other people‹), is a substantial challenge, and it may take into young adulthood to properly link open classes of behavior to the most abstract of norms: human values.«58 Das entscheidende Kriterium, damit eine Maschine Normen verarbeiten kann, ist allerdings, dass wir einen anderen Modus der Implikation finden müssen. Normen lassen sich nicht einfach einprogrammieren, sondern müssen erlernt werden. Das allerdings legt den Gedanken nah, dass wir einen Roboter anhand unserer Wertvorstellungen erziehen müssen. Nichts

55 56 57 58

Vgl. Lind, Georg (2016). How to teach morality?, S. 184. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 96; Aber auch: Scheutz, Matthias (2017). »The Case for Explicit Ethical Agents.«, S. 60. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 247. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 246.

75

76

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

anderes vermutet jedenfalls Malle: »However, for a robot to build up a network of this type it might have to receive similar learning opportunities as human children receive, be exposed to repeated physical and communicative interactions in a human community, perhaps even alongside human children. These kinds of robots would be raised, not programmed.«59 Ein Roboter müsste also lernen wie ein Kind und könnte womöglich in ähnlichen Bildungskontexten beschult werden. Roboter müssten eine Art »childhood«60 erfahren. Studien wie beispielsweise von Schmidt et al. (2016)61 deuten an, dass Kinder bereits sehr früh über die Fähigkeit verfügen Regelverstöße aufzuspüren. Tanaka et al. (2007) zeigt darüber hinaus, dass Roboter und Kinder, etwa in einer Schulsituation, positiv miteinander interagieren können, Kinder den Roboter als Gleichrangigen akzeptieren.62 Übrigens hat schon Turing auf diese Idee einer »child machine« 1950 hingewiesen. Es wäre, so der Autor, wesentlich klüger, einen Roboter zu entwickeln, der wie ein Kind erst lernen müsste, sich in der Welt zurechtzufinden und der sich zu einem Erwachsen ausgeprägt: »Instead of trying to produce a programm to simulate the adult mind, why not rather try to produce one which simulates the child’s? If this were then subjected to an appropriate course of education one would obtain the adult brain.«63 Mit dem zweiten kognitiven Aspekt der Moral, der moralischen Kompetenz, stellen Menschen ihr Können und ihre Kunstfertigkeit unter Beweis, in manchmal herausfordernden, schwierigen Umständen neue Entscheidungen zu treffen.64 Er ist von seiner inhaltlichen Ausrichtung der Bottom-Up Strate59 60

61

62

63 64

Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 248. Irrgang, Bernhard (2014). »On the Consciousness of Robots.« International Journal of Applied Research on Information Technology and Computing (IJARITAC). Bd. 5, Issue 2, May-August: 142–153, hier: 150. Schmidt, Marco F. H.; Butler, Lucas P.; Heinz, Julia und Tomasello, Michael (2016). »Young Children See a Single Action and Infer a Social Norm: Promiscuous Normativity in 3-Year-Olds.« In Psychological Science. Bd. 27(10) 1360–1370. (https://www.e va.mpg.de/documents/Sage/Schmidt_Young_PsychScience_2016_2351116.pdf, abgerufen am 30.03.2023). Tanaka, Fumihide; Cicourel, Aaron und Movellan, Javier R. (2007). »Socialization between toddlers and robots at an early childhood education center.« PNAS. Bd. 104: Nr. 46:17954-17958. Turing, Alan (1950). »Computing Machinery and Intelligence.« Mind, Volume 49, Issue 236: 433–460, hier: 456. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 324.

4. Moralische Kompetenz in Robotern

gie zuzuordnen. Moralische Kompetenz ist die Fähigkeit nach Prehn et al., eine moralische Orientierung in einer konsistenten Weise auf unterschiedliche soziale Situationen anzuwenden.65 Sie beinhaltet Urteilsvermögen und Denken, dessen Ergebnis in ein konkretes moralisches Urteil oder eine Entscheidung gipfelt.66 Außerdem ist Lind davon überzeugt, dass Menschen lernen können, ihr Urteilsvermögen zu verbessern und zu schärfen.67 Die Voraussetzung hierfür ist Bildung. Malles Theorie der moralischen Kompetenz ist in ihren Grundzügen vergleichbar angelegt. Er definiert moralische Kompetenz zunächst etwas allgemein als Eignung, Fähigkeit oder als Disposition, um mit verschiedenen Aufgaben umzugehehen: »moral competence is an aptitude, a qualification, a dispositional capacity to deal adequately with certain tasks.«68 Wie im vorherigen Paragrafen ausgeführt, differenziert sich dieser Ansatz bei Malle und Scheutz in Form eines Komponenten-Modells aus. Sie sind der Überzeugung, dass sich moralische Kompetenz nicht auf eine Fähigkeit reduzieren lässt. »One thing is clear: moral competence is not a single capacity.«69 Bei den einzelnen Komponenten wie dem Moralischen Entscheiden und Handeln und der Moralischen Kognition und Affekt ergeben sich weitere Parallelen zu Linds Theorie. So versteht Malle beispielsweise moralische Kognition als einen Prozess der Wahrnehmung und des Urteilens in Bezug auf das Registrieren und Bewerten von Normverletzungen.70 Ferner bemerkt Malle, dass Moralisches Entscheiden und Handeln nicht immer das Resultat vollständig rationaler Abwägungen ist. Sowohl affektive Zustände, persönliche Dispositionen, Heuristiken als auch äußere Ein-

65

66 67 68 69 70

Prehn, Kristin; Wartenburger, Isabell; Mériau, Katja; Scheibe, Christina; Goodenough, Oliver R. & Villriner, Arno; Meer, Elke van der & Heekeren, Hauke R. (2008). »Individual Differences in Moral Judgment Competence Influence Neural Correlates of Socio-normative Judgments.«, 44. Lind, Georg (2016). How to teach morality?, S. 57. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 329. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 245. Scheutz Matthias & Malle, Bertram F. (2019). »Learning How to Behave. Moral Competence for Social Robots«. S. 3. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 248.

77

78

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

flüsse wie Gruppenzwang determinieren unmoralisches wie moralisches Verhalten.71 Lind sieht beide angesprochene Punkte ähnlich. Er definiert moralische Kompetenz als ein Vermögen, dass es jemanden erlaubt, Probleme zu erkennen und sie durch Überlegung und Diskussion zu lösen. Je komplizierter und größer das Problem ist, desto besser muss dieses Vermögen ausgebaut sein.72 Im Umkehrschluss bedeutet dies, dass jemand mit einer gering ausgeprägten Moralischen Kompetenz vermutlich beim Erkennen und Lösen komplizierter Dilemmata passen muss. Trotzdem erfordern nicht alle Probleme eine hohe moralische Kompetenz. Im Gegenteil ist eine solche vermutlich eher störend und kontraproduktiv, wenn wir an eine triviale Situation denken wie beispielweise die Entscheidung, ob wir eine Cola oder ein Wasser bestellen möchten.73 In diesem Fall würde es sicherlich genügen, wenn die Reaktion auf der zweiten Stufe der Moral erfolgt (Type 2: Acquire benefits and rewards). Situatives Urteilen und adaptives Verhalten eines kognitiven Systems sind Eigenschaften, die wir Bottom-Up Strategien zurechnen.74 Moralische Kompetenz, integriert in einem Roboter, erfordert genau jene Flexibilität, um mit dynamischen neuen Situationen umzugehen und Entscheidungen und Urteile auf der Grundlage gelernter Prinzipien, Regeln und Normen anzuwenden. Darüber hinaus muss der Roboter in der Lage sein, die Informationen in seinem Umfeld zu verstehen. Der Roboter muss die verbalen und nonverbalen Reaktionen auf sein Verhalten interpretieren können, andernfalls kann er sich nicht orientieren. Daher sind die von Malle und Scheutz vorgeschlagenen Komponenten Moralisches Vokabular und Moralische Kommunikation als »cognitive tools«75 erforderlich. Scheutz betont, dass jedes Modell der moralischen Kompetenz eine Fülle an Kriterien berücksichtigen und erklären muss, etwa wie das Lernen oder normative Begründen beim Menschen funktionieren, bevor es in eine Roboterarchitektur übertragen werden kann. »A model of moral competence requires a sufficient computational understanding (how)

71 72 73 74 75

Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 249. Lind, Georg (2016). How to teach morality?, S. 45. Lind, Georg (2016). How to teach morality?, S. 45. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 114. Malle B. F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 251.

4. Moralische Kompetenz in Robotern

humans learn, represent, and reason with moral norms, and how they detect, violate norms themselves, and respond to norm violations from others.«76 In diesem Paragraphen haben wir Linds Dual-Aspekt Theorie als Alternative zum Komponenten-Modell vorgestellt und sind auf Überschneidungen zwischen den beiden Ansätzen eingegangen. Beide Theorien schließen sich keinesfalls aus, sondern ergänzen sich. Am besten zeigt dies ein Kommentar von Scheutz, den Lind vermutlich unterstützt hätte: »The goal is to develop explicit representations of social and moral norms, as well as inference, decision-making, and action-execution algorithms, that will allow robots (1) to detect morally charged situations, (2) reason through them based on their ethical rules, norms, obligations and permissions, and (3) find the best action that meets their obligations while minimizing harm to humans.«77 Die Dual-Aspekt Theorie liefert die Grundlage für ein hybrides Modell aus Top-Down und Bottom-Up Strategie. Demnach setzt die Integration von Moral bei einem künstlichen System zwei Aspekte, nämlich moralische Orientierung auf der einen Seite und moralische Kompetenz auf der anderen Seite, voraus. Es handelt sich also um einen anthropozentrischen Modellansatz, den Lind ursprünglich mit seiner Theorie nicht thematisiert hat. Moralische Kompetenz ist keine Komponente und auch nicht ein Zusammenspiel mehrerer Komponenten, sondern ein Aspekt. Damit ergeben sich jedoch eine Menge grundsätzlicher Fragen: Wie viele Typen der moralischen Orientierung braucht ein Roboter? Ist es sinnvoller, eventuell die erste präkonventionelle Hauptebene auszusparen? Außerdem werden philosophische Probleme aufgeworfen: Wie kann ein Roboter unsere Sprache verstehen? Braucht ein Roboter Identität, um als moralischer Agent in Diskussionen mit uns Menschen zu bestehen? Wie wichtig ist Bewusstsein für einen Roboter? Die erste Frage zur moralischen Orientierung werden wir im nächsten Paragrafen diskutieren, die anderen später im Zusammenhang mit den philosophischen Vorbetrachtungen.

76 77

Scheutz Matthias (2017). »The Case for Explicit Ethical Agents.«, S. 61. Scheutz Matthias (2017). »The Case for Explicit Ethical Agents.«, S. 63.

79

80

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

4.5 Die Stufen der moralischen Orientierung Moralische Orientierung gilt als zweiter wichtiger Aspekt des moralischen Verhaltens.78 Wir werden im Folgenden in einem ersten Schritt etwas detaillierter auf die verschiedenen Stufen der moralischen Orientierung eingehen, was bisher nur angerissen werden konnte, und in einem zweiten Schritt hypothetische Szenarien für eine ethische Maschine durchspielen, in der wir die verschiedenen moralischen Orientierungen realisieren. Lind klassifiziert die Breite möglicher Reaktionen moralischen Urteilens entsprechend Kohlbergs Sechs-Stufen-Modell.79 Die Stufen der moralischen Orientierung lassen sich formell in drei Typen oder Phasen clustern: präkonventionell (Stufen 1 und 2), konventionell (Stufen 3 und 4) und post-konventionell (Stufen 5 und 6). Kohlberg spricht allerdings nicht von Typen, vielmehr von »Hauptebenen« oder »Niveaus«.80 Jede Phase oder jeder Typ ist mit einer bestimmten Art und Weise verbunden, wie wir moralische Urteile treffen und uns moralisch gegenüber anderen Menschen und Dingen in der Welt verhalten. In der ersten Entwicklungsphase dominiert eine stark egozentrierte Sicht. Dem präkonventionellen Selbst sind »gesellschaftliche Regeln und Erwartungen«81 unwichtig. Das moralische Verwalten auf dieser Ebene orientiert sich an Bestrafen und Gehorsam (Stufe 1). Die Einschätzung, ob eine Handlung als gut oder böse zu bewerten ist, hängt von den physischen Konsequenzen und nicht von ihrer »sozialen Bedeutung oder Bewertung«82 ab. Der Handelnde erkennt nicht die Interessen seiner Mitmenschen oder kann nicht nachvollziehen, warum sie sich von den seinen Interessen unterscheiden.83 Es fehlt das Verständnis, Handlungen mit Intentionen und Motiven zu verbinden.84 Andererseits kann auf dieser Ebene (Stufe 2) eine instrumentell-relativistische Orientierung festgestellt werden.85 Als gut und richtig gilt jene Handlung, wel78 79 80 81 82 83 84 85

Lind, Georg (2019). Moral ist lehrbar, S. 55. Lind, Georg (2016). How to teach morality?, S. 53. Und: Kohlberg, Lawrence (1964). »Development of Moral Character and Moral Ideology.«, S. 400. Kohlberg, Lawrence (1996). Die Psychologie der Moralentwicklung. Hg. von Wolfgang Althof. Frankfurt a.M.: Suhrkamp, S. 126. Kohlberg, Lawrence (2017/1996). Die Psychologie der Moralentwicklung, S. 127. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 61. Vgl. Nowak, Ewa (2013). Experimental ethics: a multidisciplinary approach, S. 48. Vgl. Kohlberg, Lawrence (2017/1996). Die Psychologie der Moralentwicklung, S. 128. Garz, Detlef (2009). Lawrence Kohlberg. An Introduction, S. 41.

4. Moralische Kompetenz in Robotern

che die eigenen Bedürfnisse und die der Anderen instrumentell befriedigt. Das menschliche Miteinander gleicht auf dieser Stufe einer »Markt«-Situation, auf dem die Interessen wie Waren getauscht, aber nicht in ihren Intentionen verstanden werden. Der eigene Vorteil ist entscheidend. Auf der konventionellen Hauptebene (Stufe 3) werden die Personen aus dem näheren Umfeld in die moralische Entscheidung einbezogen. Es geht darum, den Erwartungen und Ansprüchen, die beispielsweise durch Familie oder Freunde geäußert werden, gerecht zu werden. »Richtiges Verhalten ist, was anderen gefällt.«86 Die interpersonelle Konformität prägt das konventionelle Selbst. Die Ebene zeichnet sich außerdem dadurch aus, dass die Handelnden Recht und Ordnung befolgen und ihre Pflichten erfüllen wollen, die sie übernommen haben (Stufe 4).87 Es gibt einen hohen Grad an Übereinstimmung mit dem Standpunkt des Systems, in dem Rollen und Regeln festgelegt sind. »Richtiges Verhalten« bedeutet, den Autoritäten zu folgen und die mit der sozialen Rolle verankerten Aufgaben auszuführen. Die postkonventionelle Ebene basiert auf der Idee einer »idealen Gesellschaft«88 . Der Unterschied zum konventionellen Moralniveau besteht darin, dass der Handelnde zwar grundsätzlich mit den Konventionen der Gesellschaft übereinstimmt und die geltenden Gesetze wie Regeln anerkennt, allerdings gelegentlich ebenso in Konflikt mit diesen geraten kann. Dann orientiert sich das postkonventionelle Individuum nicht mehr an den Vorgaben des Systems, sondern an den »selbstgewählten Prinzipien«89 . Recht ist eine Frage persönlicher Wertsetzungen und Meinungen.90 Es wird akzeptiert (Stufe 5), dass es keine Homogenität unter Menschen, sondern eine Vielzahl an Meinungen und Werte gibt, die zudem gruppenspezifisch ausfallen können. Auch wenn Regeln relativ sein mögen, sollten sie im Allgemeinen jedoch im Interesse der Gemeinschaft und des sozialen Kontrakts befolgt werden. Werte wie Leben und Freiheit gelten universell und sind absolut, unabhängig von der jeweils vorherrschenden Meinung in der Gemeinschaft. Folglich ist die Möglichkeit von Gesetzesänderungen keinesfalls ausgeschlossen, sofern rationale Gründe dafürsprechen. »On the post-conventional level there is a strict ethical reflection on the principles and practical choices with respect

86 87 88 89 90

Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 61. Garz, Detlef (2009). Lawrence Kohlberg. An Introduction, S. 42. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 61. Kohlberg, Lawrence (1996). Die Psychologie der Moralentwicklung, S. 127. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens, S. 61.

81

82

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

to the necessity of perfecting norms in a democratic culture.«91 Die höchste Stufe des Moralniveaus (Stufe 6) ändert die Hierarchie zwischen Individuum und Gemeinschaft. Das postkonventionelle Individuum folgt lediglich universellen, eher abstrakten ethischen Prinzipien und erkennt die soziale Ordnung deshalb als gültig an, weil sie auf diesen universellen Prinzipien aufbauen. Ein universelles Prinzip ist beispielsweise das Prinzip der Gerechtigkeit, der zufolge alle Menschen die gleichen Rechte haben und die Würde des Einzelnen zu achten ist.92 Weitere Beispiele für universelle Prinzipien wären Kants Kategorischer Imperativ oder die Goldene Regel. Laut Kohlberg ist die präkonventionelle Ebene die »moralische Denkebene« der meisten Kinder bis zum 9. Lebensjahr sowie einiger jugendlicher und erwachsener Straftäter. Die Mehrzahl der Erwachsenen dagegen ist der konventionellen Hauptebene zuzuordnen. Nur eine Minderheit von Erwachsenen erreiche dem Psychologen zufolge nach dem 20. Lebensjahr die postkonventionelle Ebene. Dies hat nicht zuletzt zu Kritik an Kohlbergs Stufenmodell geführt, das insbesondere mit der sechsten Stufe eine stark »philosophische Orientierung« vorschlägt. Das moralische Verhalten nur nach universellen ethischen Prinzipen auszurichten, scheint wenig realistisch und der Erwerb der sechsten Stufe kaum erreichbar.93 Der Einwand lässt sich natürlich ebenfalls bei Lind anbringen, der Kohlbergs Modell übernimmt. Wenn wir Lind zugestehen, dass moralische Orientierungen ein »notwendiger Bestandteil«94 eines jeden moralischen Verhaltens darstellen, lässt sich die Frage aufwerfen, ob Roboter hierüber auch verfügen sollten? Man kann die Frage sogar etwas eingrenzen und präzisieren: Ist es sinnvoll, dass ein Roboter über alle Stufen und Typen der moralischen Orientierung verfügen muss? Oder sollte das moralische Verhalten eines Roboters auf nur bestimmte moralische Typen eingegrenzt werden?95 Wäre es nicht wünschenswerter, die präkonventionellen Stufen bei einem Roboter zum Schutz anderer Menschen auszusparen? 91 92 93 94 95

Nowak, Ewa (2013). Experimental ethics: a multidisciplinary approach, S. 49. Kohlberg, Lawrence (1996). Die Psychologie der Moralentwicklung, S. 132. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation«. S. 151. Lind, Georg (2019). Moral ist lehrbar, S. 55. Diese Frage stellte sich im Rahmen des internationalen Symposiums im Jahr 2019 in Konstanz. Wir sind sehr dankbar für die Anregung, weil sie tatsächlich auf ein interessantes Problem aufmerksam macht, das mit unseren eigenen Vorstellungen und Erwartungen an moralisch handelnde Roboter eng verknüpft ist. Bietet eine Limitation der moralischen Orientierungen mehr Sicherheit?

4. Moralische Kompetenz in Robotern

Nehmen wir zum Beispiel an, wir wären technisch in der Lage, die verschiedenen Typen der moralischen Orientierung in eine Maschine zu übertragen. Nehmen wir weiter an, wir würden die einzelnen Typen separieren und damit drei verschiedene Modelle entwickeln können, sodass wir schließlich eine postkonventionelle, eine konventionelle und eine präkonventionelle Maschine hätten. Wie würden solche Maschinen reagieren und welche Reaktionen wären aus dem Umfeld zu erwarten? Wir wollen auf diese beiden Fragen mit drei hypothetischen Beispielen antworten, um zu verdeutlichen, dass keine der genannten Varianten einzeln betrachtet hilfreich wäre. Stattdessen argumentieren wir dafür, dass ein inklusiver Ansatz aller moralischen Orientierungstypen praktikabler wäre. Postkonventionelle Maschine: Ein künstliches kognitives System hätte vermutlich kein Problem die letzte Stufe des Moralniveaus zu erreichen, wenn wir den Algorithmus entsprechend programmieren. Zum Beispiel könnten wir – hypothetisch gedacht – das System so konfigurieren, dass es letztlich nur nach universellen Prinzipien handelt. Wir hätten es also mit einer »postkonventionellen Maschine« zu tun. Wie ich weiter oben bemerkt habe, gibt es bereits erste Modelle von Nowak (2017) und Powers (2018), die in diese Richtung zeigen: »Rule-based ethical theories like Immanuel Kant’s appear to be promising for machine ethics because they offer a computational structure for judgement.«96 Fraglich ist, ob solche Handlungssysteme mit den manchmal eher banalen Situationen im Alltag umgehen können, wenn sie sich nur zum Beispiel nach dem Kategorischen Imperativ orientieren. Andererseits käme eine postkonventionelle Maschine gut für Bereiche in Betracht, die ein hohes Maß an Rationalität und Reflexion erfordern, in denen Entscheidungen auf gesamthaften Zusammenhängen fußen müssen. Vorstellbar wären Anwendungen im Rechtswesen, in der Medizin, Forschung oder Raumfahrt. Trotzdem bleibt offen, ob wir einer »postkonventionellen Maschine« zutrauen, die richtigen moralischen Entscheidungen in Bezug auf unser Leben und unser Ökosystem zu treffen? »Postkonventionelle Maschinen« würden in erster Linie nach ihren abstrakten Prinzipien handeln und die Regeln der Gemeinschaft und der soziale Vertrag wären nachrangig. Konventionelle Maschine: Weniger problematisch dürfte hingegen eine Maschine sein, die ihr moralisches Verhalten in den Grenzen der konventionellen moralischen Orientierung ausrichtet. Eine »konventionelle Maschine« 96

Powers, Thomas M. (2011). »Prospects for Kantian Machine«. In: Machine Ethics (S. 464–475), S. 464.

83

84

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

würde sich nach den Regeln der Allgemeinheit orientieren, würde die ihm aufgetragenen Pflichten erledigen und versuchen, den Ansprüchen und Erwartungen Anderer zu entsprechen. Vermutlich würde eine »konventionelle Maschine« für eine Breite unterschiedlicher Applikationen in Frage kommen, etwa in der Pflege, in der Polizei und Justiz. Der Nachteil einer nur »konventionellen Maschine« besteht darin, dass sie ähnlich wie die »postkonventionelle Maschine« auf niedrigschwellige Entscheidungen der Stufen 1 und 2 vergleichsweise komplizierte Strategien anwenden würde, in diesem Fall auf Strategien, die mit den Zielen der Gesellschaft kohärent sind. Anders als bei einer »postkonventionellen Maschine« würden allerdings universelle, unveräußerliche Prinzipien im moralischen Handeln keine Berücksichtigung finden. Präkonventionelle Maschine: Eine Maschine, die sich ausschließlich auf die eigenen Interessen besinnt, nicht dazu fähig ist, andere Standpunkte und Meinungen zu akzeptieren, wäre eine Gefahr für die Interaktion mit Menschen oder Tieren. Zwar könnte eine »präkonventionelle Maschine« einfache Dilemma schnell auflösen (»Will ich Wein oder Sprudel zum Essen trinken?«97 ), verhielte sich allerdings sonst asozial und destruktiv. Konflikte wären vorprogrammiert, da die einfachsten »Regeln, Erwartungen und Konventionen der Gesellschaft«98 nicht verstanden werden. Die einzelnen Varianten verdeutlichen, dass es nicht viel Sinn haben dürfte, einen Roboter auf einen einzigen moralische Orientierungstyp festzulegen. In jedem der Fälle würde es zu Widersprüchlichkeiten kommen. Außerdem könnten sich sowohl mit der präkonventionellen als auch postkonventionellen Ebene Gefahrenquellen auftun, die mit dem konkreten Zusammenleben konfligieren oder das Leben der Menschheit bedrohen. Ein Roboter muss folglich erstens über alle drei Typen der moralischen Orientierung verfügen und zweitens lernfähig sein. Gerade der letzte Punkt ist nicht trivial. Damit ein System eine höhere moralische Orientierungsstufe erreichen kann, muss es neuem Wissen offen gegenüber sein. Es muss die Fähigkeit besitzen, sich in seiner moralischen Kompetenz weiterzubilden. Diesen wichtigen Aspekt betonen Malle und Scheutz ebenfalls in Bezug auf das Erlernen von Normen: »A robot’s learning of a community’s norm system must be an iterative process, relying on initial constraints that limit learning of unacceptable lessons and relying on multiple checks and balances (such as the robot consulting a panel of trusted 97 98

Lind, Georg (2019). Moral ist lehrbar, S. 55. Kohlberg, Lawrence (2017/1996). Die Psychologie der Moralentwicklung, S. 127.

4. Moralische Kompetenz in Robotern

community members when updating its norm system).«99 Folglich kann man Linds Annahme hinzuziehen, dass der Grad der moralischen Kompetenz von der jeweiligen Bildung abhängt.100 Bislang ist allerdings völlig unklar, wie man Roboter in dieser Fähigkeit ausbilden soll, wobei es inzwischen verschiedene Ansätze zu lernenden Robotern gibt wie Kotani und Tellex (2019)101 , Lourenço et al. (2020)102 oder She et al. (2014)103 . Für Speicher sowie Lind und Nowak steht allerdings fest, dass sich moralische Kompetenz bereits einfachen Diskussionen beispielsweise in der Familie, mit Nachbarn, am Arbeitsplatz oder in öffentlichen Versammlungen fördern lässt.104 In diesem Abschnitt haben wir das Stufenmodell der moralischen Orientierung näher erklärt und hypothetische Szenarien für Roboter mit unterschiedlichen moralischen Orientierungsstufen diskutiert. Dabei bleiben im Wesentlichen zwei Fragen offen: Kann man Robotern moralische Kompetenz beibringen und wenn ja wie? Welche philosophischen und ggf. technischen Voraussetzungen sind für die Integration von moralischer Kompetenz in Robotern entscheidend? Beide Fragen werden wir mit dem nächsten Kapitel untersuchen.

99 100 101

102

103

104

Scheutz M. & Malle B. F. (2019). »Learning How to Behave. Moral Competence for Social Robots«, S. 14. Schirmacher, Thomas (2012). »Zur Konstanzer Methode der Dilemma-Diskussion (KMDD), S. 131. Kotani, Atsunobi und Tellex, Stefanie (2019). »Teaching Robots To Draw,« 2019 International Conference on Robotics and Automation (ICRA), Montreal, QC, Canada, 2019, S. 4797–4803. DOI: https://doi.org/10.1109/ICRA.2019.8793484. Lourenço, Inês; Ventura, Rodrigo und Wahlberg, Bo (2020). »Teaching Robots to Perceive Time: A Twofold Learning Approach,« 2020 Joint IEEE 10th International Conference on Development and Learning and Epigenetic Robotics (ICDL-EpiRob), Valparaiso, Chile, 2020, S. 1–7, DOI: https://doi.org/10.1109/ICDL-EpiRob48136.2020. 9278033. She, Lanbo; Cheng, Yu; Chai, Joice Y.; Jia, Yunyi; Yang, Shaohua & Xi, Ning (2014). »Teaching Robots New Actions through Natural Language Instructions,« The 23rd IEEE International Symposium on Robot and Human Interactive Communication, Edinburgh, 2014, S. 868–873. DOI: https://doi.org/10.1109/ROMAN.2014.692636 2 URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6926362&isnum ber=6926219. Lind, Georg (2019). Moral ist lehrbar, S. 27.

85

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

In diesem Kapitel beschäftigen wir uns mit den philosophischen Fragen, die sich auftun, sofern wir über moralische kompetente Roboter nachdenken. Der Übersichtlichkeit halber werden wir die Fragen in drei größeren Themenfeldern Sprache, Identität und (Unter-)Bewusstsein gruppieren und behandeln. Die Wahl auf diese Themenfelder begründet sich damit, dass die Fähigkeit der moralischen Kompetenz eng mit ihnen verknüpft ist. Man kann die Themenfelder daher auch als Grundlagen verstehen, auf denen die Entwicklung moralischer Maschinen aufsetzt: Um ein moralisches Dilemma lösen zu können, müssen wir es erstens sprachlich erfassen und mit unseren Mitmenschen diskutieren und auswerten können. Moralische Urteile und Entscheidungen werden zweitens von handelnden Subjekten getroffen, die sich identifizieren lassen müssen, um ggf. Verantwortung für ihre Entscheidung übernehmen zu können. Drittens kann Verhalten im Alltag »überwiegend automatisiert« ablaufen und »von unbewussten Entscheidungen« bestimmt sein, andererseits genauso gut durch den bewussten Teil unseres »moralischen Selbst« erfolgen.1 Wir werden die Abschnitte so aufbauen, dass wir mit den einleitenden zentralen Fragen und Problemen in den einzelnen Themenfeldern beginnen und anschließend Ansätze vorstellen, die in der Robotik aktuell diskutiert werden. Das Ziel ist es, die Themenfelder von einem eher abstrakten und metaphysisch anspruchsvollen Standpunkt hin zu ersten Lösungsansätzen für den Gegenstand der vorliegenden Untersuchung zu erschließen.

1

Lind, Georg (2019). Moral ist lehrbar, S. 58.

88

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

5.1 Sprache 5.1.1 Warum brauchen Roboter eine Sprache? Moralische Kompetenz hatten wir gemäß Lind als die Fähigkeit definiert, Konflikte und Probleme auf der Grundlage von Prinzipen durch Denken und Diskussion zu lösen. Insbesondere der letzte Aspekt setzt voraus, dass wir unsere moralischen Entscheidungen anderen gegenüber mitteilen und die Meinung und das moralische Handeln anderer verstehen können. Das Instrument hierfür ist die Sprache. Ein Roboter, der über moralische Kompetenz verfügen soll, muss daher mit einem Sprachmodul für die ihn jeweils in Frage kommende Sprachgemeinschaft ausgestattet werden, andernfalls könnte er sich mit seinem Umfeld nicht verständigen und Entscheidungen seiner Mitmenschen nicht nachvollziehen. Der Begriff »Sprachgemeinschaft« taucht bei Putnams deutscher Übersetzung seines berühmten Doppelgänge-Arguments auf.2 Gemeint ist, dass es bestimmte Konventionen bei der Grammatik und Bedeutung von Worten gibt, die Sprecher einer Sprache teilen und aktualisieren. »Die Dinge, die üblicherweise mit einem allgemeinen Namen verknüpft werden, sind alle in der Sprachgemeinschaft als Kollektiv betrachtet zu finden; nur teilt sich dieses Kollektiv die ›Arbeit‹ auf, die verschiedenen Teile der Bedeutung von »Gold« zu beherrschen und anzuwenden.«3 Man könnte sicherlich überlegen, ob Roboter ohne eine natürliche Sprache auskommen würden. Zum Beispiel ist es vorstellbar, dass Roboter ihre moralischen Entscheidungen nur über binäre Codes kommunizieren. Das Problem hiermit ist allerdings denkbar einfach. Ein Roboter, der seine moralischen Handlungen nur in Nullen und Einsen ausdrücken kann, wäre für eine Mehrheit der Menschen ein Rätsel. Ein solcher Roboter wäre aus der Sprachgemeinschaft vermutlich sogar ausgeschlossen oder hätte zumindest erhebliche Widerstände zu bestehen. Die Intentionen, Motive und Gründe seines Handelns blieben den meisten Menschen verborgen. Seine Entwickler, die als Informatiker oder Roboteringenieure binären Code lesen können, müssten als Übersetzer fungieren und bei jeder moralischen Handlung des Roboters eine Übersetzung in eine natürliche Sprache vornehmen und anbieten. Das dies allein problematisch werden könnte, weil Übersetzungen 2 3

Vgl. Putnam, Hilary (1990). Die Bedeutung von ›Bedeutung‹. 3. ergänzte Aufbau Auflage von 2014. Klostermann: Frankfurt a.M., S. 38. Ebd., S. 38.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

mit einer gewissen Unschärfe und Interpretation einhergehen können, hat Quine in »Word and Object« (1960) umfassend herausgearbeitet. Ein Roboter, der die Werte und Normen einer Sprachgemeinschaft verstehen soll, muss Teil der Sprachgemeinschaft werden.4 Malle und Scheutz stimmen dem zu: »But a morally competent human needs a vocabulary to represent a myriad of social and moral norms, to express moral judgments, and to instantiate moral practices such as blaming, justifying, and excusing.«5 Der späte Wittgenstein schreibt über den Gebrauch der Sprache in den Philosophischen Untersuchungen, dass der Erwerb von Worten wie in einem Spiel erfolgen würde. Ohne den Bezug zu einer Handlung, ohne den Bezug zu einer Anwendung, kann die Referenz von Worten und ihren Bedeutungen nicht gelingen. »Wir können uns auch denken, daß der ganze Vorgang des Gebrauchs der Worte in (2) eines jener Spiele ist, mittels welcher Kinder ihre Muttersprache erlernen. Ich will diese Spiele »Sprachspiele« nennen. Und man könnte die Vorgänge des Benennens der Steine und des Nachsprechens des vorgesagten Wortes auch Sprachspiele nennen.«6 Worte sind mit Tätigkeiten verbunden. Die Forschung ist hierzu übrigens nicht sehr klar. Wittgenstein dürfte man mit seiner Theorie zum »von-Außen-nach-Innen-Ansatz« zählen. Danach ist für den Erwerb einer Sprache maßgeblich die Umgebung und die Bezugspersonen ausschlaggebend. Andererseits argumentieren Vertreter des »von-Innen-Außen-Ansatzes« dafür, dass der Erwerb von Sprache durch eine spezifisch angeborene menschliche Fähigkeit erfolgt.7 Diesem Ansatz liegt die Annahme zugrunde, dass es eine Art Universalgrammatik, einen »universellen Bauplan für alle Sprachen der Welt«8 gibt. Erst eine Universalgrammatik garantiert uns das Erlernen von Sprachen. Hannah Arendt folgt Wittgenstein zumindest insofern, als sie Sprechen und Handeln zusammendenkt. In der Gesellschaft von Menschen zu wirken, heisst, sich in ihr zu offenbaren, sich als Person in seiner Widersprüchlichkeit

4

5 6 7 8

Müller, Anja; Schulz, Petra und Tracey, Rosemarie (2018). »Spracherwerb«. In: Titz, Cora (Hg.). Konzepte zur Sprach- und Schriftsprachförderung entwickeln (S. 53–68). Stuttgart: Kohlhammer, S. 54. Scheutz, Matthias & Malle, Bertram F. (2019). »Learning How to Behave. Moral Competence for Social Robots«, S. 11. Wittgenstein, Ludwig (1967). Philosophische Untersuchungen. Frankfurt a.M.: Suhrkamp, S. 17. Müller, Anja; Schulz, Petra und Tracey, Rosemarie (2018). »Spracherwerb«, S. 54. Müller, Anja; Schulz, Petra und Tracey, Rosemarie (2018). »Spracherwerb«, S. 54.

89

90

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

und Gesamtheit zu erkennen zu geben. In ihrer »Vita Activa« (1972) schreibt sie: »Handeln und Sprechen sind so nahe miteinander verwandt, weil das Handeln der spezifisch menschlichen Lage, sich in einer Vielheit einzigartiger Wesen als unter seinesgleichen zu bewegen, nur entsprechen kann, wenn es eine Antwort auf die Frage bereithält: Wer bist Du? Aufschluss darüber, wer jemand ist, geben implizit sowohl Worte wie Taten;« Und weiter führt sie aus: »Handelnd und sprechend offenbaren die Menschen jeweils, wer sie sind, zeigen aktiv die personale Einzigartigkeit ihres Wesens, treten gleichsam auf die Bühne der Welt, auf der sie vorher so nicht sichtbar waren.«9 Sprache ist für Arendt nicht nur ein bloßes Werkzeug der Kommunikation. Sie ist vielmehr eine Form der Kultur, wie Cassirer schreibt, hervorgebracht von Menschen, die wir nicht nur als animal rationale, sondern eben auch als animal symbolicum definieren dürfen.10 Mithin ist zu schließen, dass das Sprechen ein Produzieren bedeutet. Der Ursprung des Sprechens ist im Handeln zu verorten. Dieser Gedanke findet sich bereits bei Heidegger, auf den Arendt in ihrer Schrift rekurriert und auch nicht widerspricht: »Das Denken ist das eigentliche Handeln, wenn Handeln heißt, dem Wesen des Seins an die Hand gehen. Dies sagt: dem Wesen des Seins inmitten des Seienden jene Stätte bereite (bauen), in die es sich und sein Wesen zur Sprache bring. Die Sprache gibt allem Überlegenwollen erst Weg und Steg.«11

9 10 11

Arendt, Hannah (1972). Vita Activa. Oder vom tätigen Leben. Überarbeitete Ausgabe von 2005. München/Zürich: Piper, S. 218 und 219. Cassirer, Ernst (1944). Ein Versuch über den Menschen. Einführung in eine Philosophie der Kultur. Überarbeitet Ausgabe von 2007. Hamburg: Meiner, S. 51. Heidegger, Martin (1962). Die Technik und die Kehre. Tübingen: Verlag Günther Neske, S. 40. (Online-Ausgabe, Link abgerufen am 20.4.2023: https://www.bard.edu/library/a rendt/pdfs/Heidegger-TechnikundKehre.pdf)

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Eine begriffliche Symbiose aus Handeln und Sprechen finden wir in John Searles Theorie der Sprechakte. Ihm zufolge ist Sprechen eine Form des Handelns.12 Zusammenfassung: Aus den angeführten Zitaten von Wittgenstein, Arendt und Heidegger lassen sich zwei Schlussfolgerungen für unsere Thematik ziehen: Handeln und Sprache sind erstens stark miteinander verzahnt. Ein Roboter, der moralisch handelt oder als moralischer Akteur anerkannt werden will, braucht zweitens das Vokabular der Sprachgemeinschaft. In der Forschung ist dieser Standpunkt nicht unwidersprochen geblieben, zumindest hat es verschiedene grundsätzliche Zweifel darangegeben, dass Roboter jemals über ähnliche menschliche Intelligenz und damit Fähigkeiten wie das Denken oder Sprechen verfügen werden. Der prominenteste Einwand hierzu ist von John Searle mit dem Chinesischen Zimmer Argument formuliert worden, das sich zunächst gegen Alan Turings »Imitation Game« wendet und allgemein die Möglichkeit starker artifizieller Intelligenz in Frage stellt. Wir werden im nächsten Abschnitt kurz auf Turing und im Anschluss auf das Chinesische Zimmer von Searle eingehen.

5.1.1 Turing-Test Die britische Mathematikerin Augusta Ada Byron King, Countess of Lovelace, Tochter des Dichters Lord Byron, wird mit der Aussage in Verbindung gebracht, dass einer Maschine erst dann menschliche Intelligenz zugesprochen werden könne, wenn sie etwas Kreatives, vollkommen Neues erschaffen habe. »Computers can’t create anything. For creation requires, minimally, originating something. But computers originate nothing; they merely do that which we order them, via programs, to do.«13 Wenn eine Maschine zu einer kreativen Handlung in der Lage wäre, die uns überrascht und überzeugt, könnte man ferner annehmen, dass sie über einen Geist verfügen und gar

12 13

Vgl. Searle, John R. (2004). Geist, Sprache und Gesellschaft. Frankfurt a.M.: Suhrkamp, S. 162. Das Zitat findet sich so in einem Aufsatz von Selmer Bringjord et al., in dem er, basierend auf Turings Vorarbeiten, eine Modifikation des Tests vorschlägt, den sogenannten »Lady Lovelace-Test«. Vgl. Bringsjord, Selmer; Bello, Paul & Ferrucci, David (2001). »Creativity, the Turing Test, and the (Better) Lovelace Test.« Minds and Machines 11: 3. https://doi.org/10.1023/A:1011206622741.

91

92

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

denken können.14 »Only when computers originate things should they be believed to have mind.«15 Wir werden in diesem Abschnitt zeigen, dass Turings »Imitationsspiel«, seit den 70er Jahren auch als »Turing-Test« bekannt, einen Versuch darstellt, zumindest einen Teil Lovelaces Aussage zu belegen, jene nämlich, dass Maschinen intelligentes Verhalten von Menschen simulieren können. Über den zweiten Teil der Aussage, über das (Nicht)-Vorhandensein von Geist und die Fähigkeit des Denkens, sagt der Test wiederum nichts aus, obwohl er sehr häufig auf dieses Ziel in der Forschung festgelegt wurde.16 Turing entwickelt seine Idee vom Imitationsspiel 1950 in einem für die Philosophie der Künstlichen Intelligenz herausragenden und seither viel diskutierten Aufsatz »Computing Machinery and Intelligence« in der Fachzeitschrift Mind. In der ursprünglichen Form des Tests gibt es drei Teilnehmer: Einen Fragesteller, eine Frau und einen Mann. Der Fragesteller wird mit der Aufgabe vertraut, das Geschlecht der beiden Gesprächspartner zu ermitteln, ohne dass er beide sieht. Das Gespräch findet nur über einen Bildschirm und eine Tastatur statt. Der Mann versucht den Fragesteller in die Irre zu führen.17 Turing schlägt vor, den Mann durch einen Computer zu ersetzen. Beide sollen den Fragesteller davon überzeugen, so die Idee, dass sie menschlich sind. Kann der Fragesteller die Maschine vom menschlichen Gesprächspartner nach der Befragung nicht unterscheiden, so hat die Maschine laut Turing unter Beweis gestellt, dass sie einem Menschen in dieser Disziplin ebenbürtig ist. Im Original heisst es dazu: »We now ask the question, ›What will happen when a machine takes the part of A (Ersatz für einen der Gesprächspartner) in this game?« Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, ›Can machines think?‹«18 Turings raf-

14 15

16 17 18

Bringsjord, Selmer; Bello, Paul & Ferrucci, David (2001). Creativity, the Turing Test, and the (Better) Lovelace Test.«, S. 1. Turing hat Lovelaces historischen Gedanken 1950 aufgegriffen und mit dieser Aussage antizipiert. Siehe: Turing, Alan (1950). »Computing Machinery and Intelligence.« Mind, Volume 49, Issue 236: 433–460, S. 450. Vgl. Warwick, Kevin & Huma Shah (2016). Turing’s Imitation Game. Conversations with the Unknown. Cambridge: University Press, S. 59. Vgl. Warwick, Kevin & Huma Shah (2016). Turing’s Imitation Game. Conversations with the Unknown, S. 2. Dresler, Martin (2009). Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«, S. 36. Turing, Alan (1950). »Computing Machinery and Intelligence«, S. 434.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

finiertes Manöver besteht darin, statt eine eigene Definition für den Begriff des »Denken« auszuformulieren, den Test als Kriterium für die Denkfähigkeit von Maschinen zu verwenden. »Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words.«19 Aufgrund der ausgesparten Definition ist in der Forschung verkürzt oft zu lesen, dass der Erfolg oder Misserfolg des »Turing-Tests« gleichzeitig Gradmesser dafür ist, ob eine Maschine über menschliche Intelligenz verfügt und ähnlich wie Menschen denken könne.20 Zum Teil führte diese Interpretation zu düsteren Zukunftsprognosen für die Menschheit wie bei Kurzweil21 und anderen22 . Diese Schlussfolgerung ist jedoch mit Vorsicht zu bewerten: »Let us be clear, the Turing test is not, never was and never will be a test for human-level or human-like intelligence.«23 Der »Turing-Test« gibt bestenfalls Auskunft darüber, ob eine Maschine in einem eingrenzten Testfeld – also etwa als Chatprogramm – über genügend sprachliche Fähigkeiten verfügt, (1) flüssig und konsistent wie ein Mensch zu kommunizieren und (2) einen Dritten in den Zustand versetzt, den Unterschied zu einem Menschen nicht mehr wahrnehmen zu können. »In the imitation game a machine is interrogated by a human and is directly compared, with regard to its ability to communicate, with another human who is interrogated in parallel. If a machine passes the Turing test it exhibits a capability in communication.«24 Diese Beobachtung lässt sich ebenfalls bei anderen, modifizierten Fassungen des »Turing-Tests« feststellen, von denen es bereits einige in der Literatur gibt, etwa den »qualia Turing Test« von Plebe und Perconti (2010)25 , der »Lady 19 20

21 22 23 24 25

Ebd., S. 433. Ingram, Royston (2014). »DoC Professor disputes whether computer ›Eugene Goostman‹ passed Turing test.« Veröffentlicht als Blogbeitrag auf Imperial College (zuletzt abgerufen am 20.04.2023): http://www3.imperial.ac.uk/newsandeventspggrp/imperi alcollege/engineering/computing/newssummary/news_11-6-2014-11-33-32. Kurzweil, Ray (2006). The singularity is near. London: Duckworth. Vergleiche hierzu ausführlich: Warwick, Kevin & Huma Shah (2016). »Passing the Turing Test Does Not Mean the End of Humanity.« Cognit Comput. 8:409-419. Ebd., S. 2. Vgl. Warwick, Kevin & Huma Shah (2016). Turing’s Imitation Game. Conversations with the Unknown, S. 3. Vgl. Plebe, Alessio und Perconti, Pietro (2010). »Qualia Turing test: Designing a test for the phenomenal mind«. In Proceedings of the First International Symposium Towards

93

94

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Lovelace Test« (2001) von Bringsjord et al.26 oder der »Lovelace 2.0« (2014) von Riedl27 . In allen genannten Versionen besteht ein Programm oder eine Maschine erfolgreich den Test, wenn es eine spezifische menschliche Fähigkeit simulieren (1) und einen Beobachter, eine menschliche Jury von der Echtheit (2) dieser simulierten Fähigkeit überzeugen kann. Da der letzte Aspekt primär einer subjektiven Wahrnehmung unterliegt, ist nicht verwunderlich, dass die Meinungen über das Bestehen oder nicht-Bestehen des Tests häufig variieren. Als die Royal Society in 2014 verkündete, dass das russischen Chatprogramm Eugene erstmals den »Turing-Test« bestanden hat, wurden in der Folge erhebliche Zweifel an der korrekten Durchführung, der Unbestimmtheit und dem Urteil der Jury laut.28 Vergleichbar differenziert und unklar fallen die Reaktionen bei »Iamus« aus, einem Supercomputer der Universität Málaga. »Iamus« ist in der Lage, klassische Musik in weniger als acht Minuten zu komponieren. Er ist ein Kandidat für den von Riedl entwickelten »Lovelace Test 2.0.« Während der »Lovelace Test« von Bringsjord vordergründig die Fähigkeit des Storytellings abruft, mit dem Kriterium, dass die Entwickler die vom Programm formulierte Geschichte nicht aus der Biographie oder Architektur des Programms ableiten können, muss beim »Lovelace Test 2.0« ein Kunstwerk erschaffen werden. Wichtig ist, dass die Schöpfung bestimmte künstlerische Bedingungen erfüllt, die von einem menschlichen Kunstexperten vorgegeben werden. Der Journalist Max Hübner konfrontierte 2017 die Violinistin Caroline Kurkowski-Perez mit dem Stück »Ad sum« von »Iamus«, welches einem Stück vom Komponisten Luciano Berio stilistisch ähnelt. Sie sollte nach dem Hören die Werke dem Supercomputer und Berio zuordnen.29 Obwohl sie das Werk »Ad sum« richtigerweise auf den Supercomputer als Komponisten zurückführen konnte, fiel ihr die Begründung ihrer Entscheidung nicht leicht.

26 27 28 29

a Comprehensive Intelligence Test (TCIT), Reconsidering the Turing Test for the 21st Century, 16–19. Vgl. Bringsjord, Selmer; Bello, Paul & Ferrucci, David (2001). »Creativity, the Turing Test, and the (Better) Lovelace Test. Vgl. Riedl, Mark O. (2014). »The Lovelace 2.0 Test of Artificial Creativity and Intelligence.« ArXivabs/1410.6142. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 31. Vgl. Dramigia, Joe (2019). Computer, die wie Menschen Kunstwerke schaffen: Der Lovelace 2.0 Test. Veröffentlicht auf: https://scilogs.spektrum.de/die-sankore-schriften/der-lov elace-2-0-test/(zuletzt abgerufen am 20.04.2023).

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Das besondere Merkmal des klassischen »Turing-Tests« und seiner Nachfolge ist also, dass sie mehr über den Betrachter, den Urteilenden und damit über uns Menschen verraten, die wir ein Urteil zu fällen haben. Es geht weniger um die Frage, ob eine Maschine denkt, sondern ob wir bereit wären, unter bestimmten Umständen der Maschine die Fähigkeit des Denkens (oder einer anderen Fähigkeit) zuzuschreiben. Kracht et al. (2008) gründen ihre neurowissenschaftliche Studie auf diesem Ansatz und kommen zu dem Ergebnis, dass je menschenähnlicher Maschinen werden, desto mehr werden sie als denkend von uns empfunden.30 Leider berücksichtigen sie hierbei nicht den oben bereits angesprochenen sogenannten »Uncanny Valley« Effekt, der zu einer anderen Auslegung kommt. Trotzdem scheint ihre Vermutung nicht von der Hand zuweisen zu sein. Auch Misselhorn stellt fest, dass der »Erfolg (eine Maschine besteht den Turing-Test) auf die dem Menschen innewohnende Tendenz zurückzuführen ist, unbelebte Gegenstände zu vermenschlichen«31 . Shah und Warwick führen daher aus, dass der Test mehr Einblicke darüber gibt, wie wir Menschen kommunizieren. Er enthüllt unsere Vorurteile, Neigungen und Leichtgläubigkeit.32 Andere haben in der Forschung grundsätzlich kritisiert, dass der »Turing-Test« zu schwach oder zu stark betrachtet wird und nur auf reines Verhalten aufsetzt, folglich nur ein behavioristisches Phänomen analysiert.33 Der letzte Einwand wurde von John Searle prominent mit seinem Gedankenexperiment, dem »Chinesischen Zimmer«, vorgebracht, dass wir im nächsten Abschnitt diskutieren werden. Zusammenfassung: Bis hierhin lässt sich festhalten, dass der »Turing-Test« natürliche Grenzen hat. Er gibt keine Antwort auf die Frage der Denkfähigkeit einer Maschine. Er gibt lediglich Aufschluss über das Misslingen oder Gelingen einer bestimmten simulierten menschlichen Fähigkeit und ob wir gewillt sind, der Fähigkeit Echtheit zu zubilligen.

30

31 32 33

Vgl. Krach, Sören; Hegel, Frank; Wrede, Britta; Sagerer, Gerhard; Binkofski, Ferdinand; Kircher, Tilo (2018). »Can Machines Think? Interaction and Perspective Taking with Robots Investigated via fMRI.« In PLoS ONE 3(7):3-11. Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 32. Vgl. Warwick, Kevin & Huma Shah (2016). Turing’s Imitation Game. Conversations with the Unknown, S. 2. Vgl. Dresler, Martin (2009). Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«, S. 37.

95

96

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

5.1.2 Das Chinesische Zimmer Der »Turing-Test« ist, wie im letzten Abschnitt gezeigt, nicht frei von Widersprüchen und wirft eine Vielzahl philosophischer Fragen auf. Der amerikanische Philosoph John Searle kritisiert mit seinem 1980 entwickelten Gedankenexperiment34 , dem »Chinesischen Zimmer«, (chinese room argument) besonders einen neuralgischen Punkt: die behavioristische Struktur des Tests. Wir werden diesen Abschnitt dazu nutzen zu zeigen, dass Searles Gedankenexperiment zwar einen berechtigten Einwand gegen Turing stark macht, allerdings ebenfalls auf fragwürdige Annahmen zurückgreift. Searle bleibt hinter seinen selbst gesteckten Erwartungen zurück: Sein Gedankenexperiment schließt nicht aus, dass eine starke KI mit dem entsprechenden Rüstzeug über eine menschenähnliche Denkfähigkeit verfügen könnte. Wir werden unseren Gedanken der Reihe nach entwickeln und zunächst mit der ursprünglichen Intention des Experiments beginnen. Der Anstoß für das »Chinesische Zimmer« ist nicht allein Turings Imitationsspiel zu verdanken. Auch die Vorarbeiten von Schank, Abelson35 und Block36 haben Searle beeinflusst und sind hier zu nennen.37 Das Gedankenexperiment geht sinngemäß so: Nehmen wir an, eine Person, zum Beispiel John Searle, befindet sich in einem abgeschlossenen Zimmer. In dem Zimmer befinden sich zwei Schlitze. Durch den einen Schlitz werden Karten mit chinesischen Schriftzeichen gereicht. Die Person im Zimmer versteht jedoch kein Chinesisch und hat auch sonst keinen Bezug zur Sprache, kann sich folglich nichts ableiten oder erklären. Durch einen anderen Schlitz soll die Person ihrerseits ihre Antwortkarte mit chinesischen Schriftzeichen nach draußen geben.38 Dazu hilft ihr eine Anleitung, die in der Muttersprache der Person verfasst ist und der Person Regeln gibt, welche Ausgabezeichen auf welche 34 35

36 37 38

Vgl. Searle, J. R. (1980). »Minds, brains and programs.« Behavioral and Brain Sciences. Vgl. Schank, Roger C., & Abelson, Robert P. (1977). Scripts, plans, goals and understanding: An inquiry into human knowledge structures. Washington: American Psychological Association. Vgl. Block, Ned (1978). Troubles with functionalism. Minnesota Studies in the Philosophy of Science 9:261-325. Vgl. Dresler, Martin (2009). Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«, S. 59. Searle, John R. (1990). »Is the Brain’s Mind a Computer Program? No. A program merely manipulates symbols, whereas a brain attaches meaning to them.« SCIENTIFIC AMERICAN, January 262: 26–31. S. 26.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Eingabezeichen anzuwenden sind. Somit kann die Person die einzelnen chinesischen Schriftzeichen zusammensetzen. Für jemanden außerhalb des Zimmers würde es so aussehen, als verstünde der Zimmerinsasse Chinesisch. Searle meint nun, dass sich ein Computerprogramm analog verhält. Das Computerprogram, wenn es Chinesisch spricht, simuliert unser Sprachverhalten. Es versteht die Bedeutung der Zeichen nicht. Die Grundidee des Arguments soll also zeigen, dass der menschliche Geist nicht wie ein Computerprogramm funktioniert. Der menschliche Geist ist grundverschieden. Damit widerspricht Searle der Auffassung, dass eine starke KI den Zustand der reinen Simulation menschlichen Denkens jemals überwinden könne. Ein Computerprogram kann nicht denken.39 Demzufolge lehnt Searle auch den »Turing-Test« ab, unabhängig davon, ob eine Maschine oder ein Programm den Test erfolgreich bestehen könnte. Dafür sind zwei Gründe relevant: Der Test ist ausschließlich äußerlich und urteilt auf der Grundlage des beobachteten Verhaltens. Der Test sagt nichts darüber aus, was in dem Programm vor sich geht. Er sagt nichts darüber aus, ob die Maschine oder das Programm beispielsweise Bewusstsein oder Intentionalität besitzen. Beides, Bewusstsein und Intentionalität, sind allerdings essentiell für unser Denken, so Searle. Dazu muss man sagen, dass Searle zwischen intrinsischer und abgeleiteter Intentionalität unterscheidet. Das Chinesische Zimmer besitzt nur abgeleitete Intentionalität, die von dem Beobachter und dessen Sprachpraxis abhängt. Intrinsische Intentionalität zeigt sich in einer Unabhängigkeit von der Verwendung der Zeichen in der Sprachpraxis.40 Hierzu braucht es Bewusstsein, was dem Chinesischen Zimmer fehlt. Der Computer hat nicht die Fähigkeit, sich mit den Zeichen auf die Dinge in der Welt zu beziehen. Bei Putnam gibt es dazu eine passende Anmerkung: »Würde man zwei dieser Maschinen verbinden und miteinander das Imitationsspiel (von Turing) spiele lassen, würden sie sich ewig zum ›Narren halten‹, auch wenn sich die übrige Welt in nichts auflöste!«41 Der zweite Kritikpunkt am TuringTest hängt mit Searles Verständnis von einem Computer ab. Computer sind ihm zufolge syntaktisch. Sie verarbeiten Zeichen entsprechend vorgegebener

39 40 41

Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 33. Vgl. Ebd., S. 35. Vgl. Putnam, Hilary (1982). Vernunft, Wahrheit und Geschichte. Frankfurt a.M.: Suhrkamp, S. 27.

97

98

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Regeln, die sie nicht verstehen. Die Ebene der Semantik erreichen Computer nicht.42 In der Forschung sind Searles Annahmen in den letzten Jahrzehnten nicht unwidersprochen geblieben. In der Folge hat es verschiedene Repliken wie beispielsweise den »System-Einwand«43 , »Roboter-Einwand«44 , »Gehirn-Simulationseinwand«45 oder »Kombinationseinwand«46 gegeben. Grundsätzlich wird der starke biozentrische Fokus des Gedankenexperiments kritisiert, der mit Searles eigener Position, dem sogenannten »Biologischen Naturalismus«, zusammenhängt. Denken und Verstehen werden primär als Resultat neurobiologischer Prozesse interpretiert.47 Vor allem die Konsistenz48 und Kompatibili-

42 43

44

45

46

47

48

Vgl. Dresler, Martin (2009). Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«, S. 62. Vgl. Dennett, Daniel C. (1993). »Review of Searle, the rediscovery of the mind [Book Review].« Journal of Philosophy, 60(4): 93–205. Und vgl. Miłkowski, Marcin (2013). Explaining the Computational Mind. Cambridge. MA: MIT Press. Vgl. Lenzen, Wolfgang (1997). »Searles Chinesischer Zauber Oder Wahrnehmung, Sprachverständnis und Der Turing-Test«. In: Burri, Alex (Hg.). Sprache und Denken/ Language and Thought (S. 93–111). Berlin, Boston: De Gruyter. Vgl. Churchland, Paul M. & Patricia S. (1990). »Could a Machine think?« Scientific American, 262(1): 32–37. Und: Churchland, Paul M. (1992). A Neurocomputational Perspective. The Nature and the Structure of Science. Massachusetts: MIT. Aber auch: Copeland, Brian Jack. (1998). »Turings O-machines, Searle, Penrose and the brain.« Analysis 58.2:128-186. Vgl. Dennett, Daniel C. (1990). »The Myth of Original Intentionality.« In: K. A. Mohyeldin Said, W. H. Newton-Smith, R. Viale und K. V. Wilkes (Hrsg). Modelling the Mind (S. 43–62). Oxford: Clarendon Press. Erneut veröffentlicht von Eric Dietrich (Hg.) (1995). Thinking Computers and Virtual Persons: Essays on the Intentionality of Machines (S. 91–107). San Diego, CA and London: Academic Press. Vgl. Searle, John R. (2017). Biological Naturalism. In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (S. 327–336). Oxford: Blackwell, S. 330. Und: Searle, John R. (1994). The Rediscovery of the Mind. Cambridge, MA: MIT Press. Vgl. beispielsweise: Fodor, Jerry A. (1980). »Searle on what only brains can do.« Behavioral and Brain sciences 3, 1980, S. 431–32. Und: Block, Ned (1995). The mind as the software of the brain. In: E. E. Smith & D. N. Osherson (Hg.). Thinking: An invitation to cognitive science (S. 377–425). The MIT Press. Oder: Chalmers, David (1995). »Facing up to the problem of consciousness.« Journal of Consciousness Studies 2 (3):200-19. Und: Collins, Corbin (1997). »Searle on Consciousness and Dualism.« International Journal of Philosophical Studies, 5(1):15-33. Auch: Corcoran, Kevin J. (2001). »The trouble with Searle’s biological naturalism.« Erkenntnis 55(3):307-324.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

tät49 dieser Annahmen wird bezweifelt. Misselhorn hat schließlich recht, wenn sie schreibt, dass die chinesischen Zeichen nicht »bedeutungslose Kritzeleien«50 darstellen. Im Grunde haben sie Bedeutung und werden auf der Grundlage von Regeln vernetzt, wenn vielleicht auch ohne Bewusstsein. Für Hobbes entspricht diese Fähigkeit genau dem, was wir unter Denken verstehen können. »Vernunft (ist) eine Art von Rechnen; man mag dabei allgemeine Begriffe zusammensetzen oder abziehen, und diese mögen nun dazu dienen, daß wir unsere eigenen Gedanken ordnen oder anderen vorlegen.«51 Außerdem gibt Searle an einer anderen Stelle durchaus zu, dass möglicherweise andere künstliche Lebewesen Bewusstsein haben und folglich denken könnten. »The fact that brain processes cause consciousness does not imply that only brains can be conscious. The brain is a biological machine, and we might build an artificial machine that was conscious; just as the heart is a machine, and we have built artificial hearts. Because we do not know exactly how the brain does it we are not yet in a position to know how to do it artificially.«52 Für Searle ist also keinesfalls ausgeschlossen, dass wir irgendwann eine KI entwickeln, die genau über jenes Rüstzeug verfügt, um Denken zu können. Im Chinesischen Zimmer bleibt Searle allerdings bei einer stark klassisch definierten Interpretation von Computerprogrammen stehen, die John Haugelang liebevoll als »Good Old- Fashioned Artificial Intelligence« (GOFAI)53 beschrieben hat. Warwick und Shah kritisieren sogar vollständig die Methodik des Gedankenexperiments. Den beiden Autoren zufolge könnte man die Rollen in dem Experiment ebenso vertauschen, nämlich zugunsten der Maschine mit genau demselben Argumentationsstil. Nehmen wir an, eine Person müsste eine Reihe verschiedener Instruktionen auf der Grundlage eines binären 49

50 51 52 53

Haugeland J. (1980). »Programs, Causal Powers, and Intentionality.« Behavioral and Brain Sciences, 3:432-433. DOI: https://doi.org/10.1017/S0140525X00005835. Vgl. auch: Palmer, Daniel. E. (1998). »Searle on consciousness: Or how not to be a physicalist.« Ratio, 11(2):159-169. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 34. Hobbes, Thomas (1651). Leviathan oder Materie, Form und Gewalt eines kirchlichen und staatlichen Gemeinwesens, S. 36. Searle, John R. (2017). Biological Naturalism. In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness, S. 330. Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass: MIT Press, S. 112.

99

100

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Codes – nicht Chinesisch – befolgen. Unabhängig davon, was die Person lernt oder tut, der Code der Maschine bleibt ihr ein Rätsel und ist ihr unzugänglich. Für die Person hat der Code keine Bedeutung. Die Person kann den Code nicht verstehen. Andererseits – sofern wir das aus unserer Sicht sagen können – sind Computerprogramme in der Lage, den Code zu lesen und zu verstehen. Folglich bieten Warwick und Shah den Schluss an, müssten Computer über Bewusstsein verfügen, Menschen dagegen nicht.54 Zusammenfassung: Das Chinesische Zimmer erhebt zwar einen nachvollziehbaren Einwand gegen den »black-box« Charakter des »Turing-Tests«, ist aber in seiner grundsätzlichen Ausrichtung fragwürdig stark biozentrisch angelegt. Mithin schließt das Experiment nicht aus, dass die Denkfähigkeit von einem Computerprogramm eines Tages nachgebildet werden könnte. Entsprechende computationale Theorien zur Erklärung von Bewusstsein liegen bereits vor.55 Im nächsten Abschnitt werden wir ein anderes Manöver von Stevan Harnad vorstellen, der mit seinem »Symbol-Grounding-Problem« einen Ausweg aus der dilemmatischen Situation im Chinesische Zimmer formuliert hat.

5.1.3 Das »Symbol-Grounding-Problem« In dem vorherigen Abschnitt ist eine zentrale Frage unbeantwortet geblieben, die Stevan Harnad 1990 mit seinem Aufsatz über das »Symbol-GroundingProblem«56 erneut aufgestellt und weiterentwickelt hat: Wie können Symbole in einem Computer Bedeutung erlangen? Die Frage lässt sich auch so stellen: Wie können Computer verstehen, was wir ihnen sagen? Worauf beziehen sich die Symbole in einem Computer, wenn nicht wieder auf Symbole? Können Computer über eine Art von Intentionalität – Searle spricht oben von intrinsischer Intentionalität – verfügen? Bei dem »Symbol-GroundingProblem« (SGP) handelt es sich also um eine Umformulierung des Chinesischen Zimmers, wobei Harnad keine biozentrische Position wie Searle 54 55

56

Warwick, Kevin & Huma Shah (2016). Turing’s Imitation Game. Conversations with the Unknown, S. 46. Siehe etwa: Baars, Bernard J. (1988). A Cognitive Theory of Consciousness. Cambridge/ New York: Cambridge University Press. Oder vgl.: Rosenthal, David (2005). Consciousness and Mind. Oxford, New York: OxfordUniversity Press. Sowie: Tononi, Giuliu (2004). An Information Integration Theory of Consciousness. BMC Neuroscience, 5(1). DOI: https://doi.org/10.1186/1471-22025-42. Harnad, Stevan (1990). »The Symbol Grounding Problem.« Physica D 42:335-346.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

einnimmt.57 Harnad entwickelt eine hybride nicht-symbolische/symbolische Theorie. Sein vielbeachteter Vorschlag, so die These hier, stellt zumindest einen Ausweg aus der dilemmatischen Situation im Chinesischen Zimmer dar, wenngleich diese sowie spätere Abwandlungen58 und Lösungen wie von Floridi und Taddeo (2005 und 2007)59 Menant (2013)60 für das SGP in der Forschung beispielsweise von Müller (2013)61 , Miłkowski (2013)62 , Bringsjord (2013)63 oder Bielecka (2015)64 aus unterschiedlichen Gründen kritisiert und zurückgewiesen wurden. Von einem Ausweg aus dem Chinesischen Zimmer kann trotzdem aus zwei Gründen die Rede sein: Erstens berücksichtigt Harnad ein wichtiges Kriterium in seiner Theorie, das für Searles Gedankenexperiment keine Relevanz hat. Hierbei handelt es sich um den Kontakt zur Außenwelt oder den sensorischen Input aus der Umwelt. Damit die Bedeutung eines Wortes im Kopf verankert

57 58

59

60

61

62 63

64

Miłkowski, Marcin (2017). »Why think that the brain is not a computer?«, APA Newsletter on Philosophy and Computers, 16(2):22-28, S. 23. Vgl. Coradeschi, S.; Lout, A.; Wedre B. (2013). »A Short review of Symbol Grounding in Robotic and Intelligent Systems.« KI – Künstliche Intelligenz. DOI: https://doi.org/1 0.1007/s13218-013-0247-2. Vgl. Taddeo, Mariarosaria und Floridi, Luciano (2005). »Solving the Symbol Grounding Problem: A Critical Review of Fifteen Years of Research (December 01, 2005)«. Online-Version Verfügbar auf SSRN: https://ssrn.com/abstract=3845295 or http://dx. doi.org/10.2139/ssrn.3845295 Und: Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem.« Minds and Machines. Volume 17:369-389. Vgl. Menant, Christophe (2013). »Turing Test, Chinese Room Argument, Symbol Grounding Problem. Meanings in Artificial Agents.« American Philosophical Association Newsletter on Philosophy and Computers 13 (1):30-34. Vgl. Müller, Vincent C. (2015), »Which symbol grounding problem should we try to solve?«, Journal of Experimental and Theoretical Artificial Intelligence, 27 (1, ed. D. Jones & A. Beavers), 73–78. http://dx.doi.org/10.1080/0952813X.2014.940143. Vgl. Miłkowski, Marcin (2013). Explaining the Computational Mind. Vgl. Bringsjord, Selmer (2015). The Symbol Grounding Problem … Remains Unsolved. Journal of Experimental & Theoretical Artificial Intelligence. Bd. 27:63-72, (zitiert nach Online-Fassung, abgerufen am 27.04.2023: http://kryten.mm.rpi.edu/SB_on_LF_on_SGP _123013.pdf). Vgl. Bielecka, Krystyna (2016). »Symbol Grounding Problem and causal theory of reference.« New Ideas in Psychology 40:77-85. Und: Bielecka, Krystyna (2015). »Why Taddeo and Floridi did not solve the symbol grounding problem?« Journal of Experimental & Theoretical Artificial Intelligence, 27(1):79-93, DOI: https://doi.org/10.1080/0 952813X.2014.940138.

101

102

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

(Harnad spricht von »grounded«) sein kann, braucht es eine nicht-symbolische Ebene. Zweitens strebt Harnad keine inklusive Theorie der Bedeutung an, was die Hürde für eine mögliche Übertragung seines Modells auf die Robotik geringer ausfallen lässt und bisweilen überzeugend von Taddeo und Floridi (2009)65 illustriert wurde. Harnad selbst formuliert Bedingungen, die ein Roboter für das SGP erfüllen müsste. »I should probably confess, however, that I don’t believe that I have really provided a theory of meaning here at all.«66 Der Begriff »Ausweg« ist an dieser Stelle jedoch sicherlich etwas zu euphemistisch, da eine Lösung für das SGP bislang in der Forschung nicht in Sicht ist.67 Wir werden das SGP in den wesentlichen Grundzügen im ersten Teil dieses Abschnitts skizzieren und im zweiten Teil eine Einordnung in die Forschungsliteratur vornehmen. Wir nehmen an, dass der Leser mit den zentralen Inhalten vertraut sein wird, daher wollen wir es bei wenigen Anmerkungen belassen. Erster Teil: Das SGP wird von Harnad in seinem »Merry-go-round«- Argument mit zwei Varianten des Chinesischen Zimmers eingeführt: mit einer, wie er sagt, schwierigen und einer unmöglichen Variante. In der ersten Variante soll Chinesisch als Zweitsprache erlernt werden. Einziges Hilfsmittel ist dazu ein chinesisches Wörterbuch. Um sich die Bedeutungen eines Wortes zu erschließen, ist es vonnöten, die Erklärung des Wortes zu verstehen, die ihrerseits auf Chinesisch verfasst ist. Das Erlernen von Wörtern gliche Harnad zufolge einer Endlosschleife, da die Bedeutung der Wörter von der Bedeutung anderer Worte abhinge. Das Problem ist allerdings aus Sicht des Philosophen

65 66

67

Vgl. Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem.« Vgl. Harnad, Stevan (2002). »Symbol Grounding and the Origin of Language«, In: Scheutz, Matthias (Hrsg). Computationalism (S. 143–158). New Directions. Cambridge/ London: MIT Press, S. 155. Menant, Christophe (2013). »Turing Test, Chinese Room Argument, Symbol Grounding Problem. Meanings in Artificial Agents«, S. 4. Durch die jüngste Entwicklung von Large Language Models wie ChatGPT wird diese Aussage wieder stark diskutiert bzw. hat einen neuen Schwung bekommen. Reto Gubelmann z.B. meint, dass wir schon bald mit Computern rechnen können, die menschliche Sprache verstehen: Vgl. Gubelmann, Reto (2023). »A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT-3, and ChatGPT.« In Grazer Philosophische Studien (Online Link verfügbar, abgerufen am 7. Juni 2023: https://brill.com/view/jour nals/gps/99/4/article-p485_2.xml?ebody=metrics-63181).

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

lösbar, da der Sprecher bereits durch seine Erstsprache über ein Grundverständnis und ein Symbolsystem verfügt. Somit könnte man sehr mühevoll Chinesisch lernen. Die unmögliche Variante des Chinesischen Zimmers hingegen nimmt an, dass eine Person Chinesisch als Erstsprache erlernen muss, ebenfalls wieder nur mit einem Wörterbuch. Dieses Unterfangen ist für Harnad aussichtslos und offenbart gleichfalls das, was er als SGP beschreibt. Wir hätten es in diesem Fall mit einem System (der Person) zu tun, dessen Symbole (Wörter) nirgendwo in der Umwelt verankert wären. Das System würde versuchen, sich die Bedeutung eines Wortes nur über andere bedeutungslose Symbole desselben Systems zu erschließen. Um aus diesem Dilemma herauszukommen, ist ein zusätzlicher Schritt nötig, der eine Antwort darauf gibt, wie sich Symbole mit ihrer jeweiligen Bedeutung aus der Umwelt verknüpfen lassen, ohne externe Interpretationsprozesse zu beanspruchen.68 Zwei Begriffe sind dazu für das Verständnis von Harnads Theorie zunächst zu klären: Der Begriff »Symbol« und der Begriff »Symbolsystem«. Ein Symbol ist bei ihm gemäß Newell und Simon ein physikalisches Zeichen.69 Das können Striche auf einem Papier oder Löcher auf einem Band sein. Ein Symbolsystem besteht aus einer Menge zufälliger Symbole und expliziten Regeln, nach denen sie verarbeitet bzw. manipuliert werden können. In der Forschung wird zum Teil angenommen, dass die Bedeutung der Symbole durch ihre richtige Verbindung mit der Außenwelt zustande kommt, durch die Referenz der Repräsentation.70 Putnam spricht zum Beispiel von einer »magischen Theorie der Bezugnahme«71 zwischen den Repräsentationen im Kopf und den Dingen außerhalb, Fodor von dem »richtigen Weg« der Verknüpfung. Harnad schlägt dagegen ein hybrides Modell vor, wonach ein kognitives System über eine nicht-symbolische und eine symbolische Ebene der Verarbeitung verfügen muss. »What will be proposed is a hybrid nonsymbolic/symbolic system, a »dedicated« one, in which the elementary symbols are grounded in two kinds of nonsymbolic representations that pick out, from their proximal sensory projections, the distal object categories to which

68 69 70 71

Harnad, Stevan (2002). »Symbol Grounding and the Origin of Language«, In: Scheutz, Matthias, Computationalism, S. 146. Vgl. Newell, Allen & Simon, Herbert A. (1976). »Computer Science as empirical inquiry: symbols and search.« Communications of the ACM 19 (3):113-126, hier: S. 117. Vgl. Fodor, Jerry A. (1987). Psychosemantics. Cambridge MA: MIT Press, S. 17. Putnam, Hilary (1982). Vernunft, Wahrheit und Geschichte. S. 27 S. 17.

103

104

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

the elementary symbols refer.«72 Man kann sich Harnads Idee am besten so vorstellen, in dem man eine weitere Annahme von ihm hinzufügt: Menschen verfügen über die Fähigkeit, Objekte zu diskriminieren, zu identifizieren und zu beschreiben.73 Als Ursache für diese Fähigkeit sind Harnad zufolge drei Formen der Repräsentation anzunehmen: die ikonische, kategoriale und symbolische Form.74 Ikonische Repräsentationen sind Abbilder oder Kopien der sensorischen Objekte in der Welt. Eine Ikone kann beispielsweise ein visuelles Bild eines Objektes sein. Mittels ikonischer Repräsentationen lassen sich visuelle oder sensorische Ähnlichkeiten und Unterschiede von Sachverhalten und Objekten feststellen. Damit wir ein Pferd in der Welt erkennen, braucht es eine Vorstellung in unserem Kopf darüber, was ein Pferd ist. Objekte anhand eines visuellen oder sensorischen Inputs zu diskriminieren, geschieht Harnad unabhängig davon, ob wir die Objekte auch identifizieren können. Ikonische Repräsentationen reichen allerdings in manchen Fällen nicht aus, um Sachverhalte von anderen Sachverhalten zu unterscheiden. Hier kommen schließlich kategoriale Repräsentationen ins Spiel. Bei diesen handelt sich um ikonische Repräsentation, bei denen allerdings die Objekte einer Kategorisierung respektive qualitativen Bewertung anhand von Invarianten, Merkmalen oder Essenzen unterzogen wurden. In beiden Fällen, der ikonischen und kategorialen Repräsentation, bewegen sich dabei auf der rein sensorischen, nicht symbolischen Ebene Harnads Modell. Erst auf der symbolischen Ebene können durch Kombinationen und Manipulation der kategorischen Repräsentation neue Bedeutungen entstehen. Harnad führt hierzu das Beispiel des Zebras an. Das Ebenen-Modell der Repräsentation ist schließlich in Harnads Theorie der Sprache eingebettet. Danach gilt, dass Kategorien und damit das Begreiflichmachen der Welt auf zwei Wegen ablaufen kann: zum einen über die etwas schwierigere, mühselige Methode des sogenannten »honest toil«75 , sinngemäß, der ehrlichen Arbeit und Mühe, zum anderen über das Übernehmen der Kategorien durch bereits erworbenes, erarbeitetes sprachliches Wissen.

72 73 74 75

Harnad, Stevan (1990). »The Symbol Grounding Problem.«, S. 340. Weber, Arne M. (2017). Die Körperliche Konstitution von Kognition, Dissertation an der Heinrich-Heine-Universität Düsseldorf, Wiesbaden: Springer, S. 53. Vgl. Harnad, Stevan (1990). »The Symbol Grounding Problem.«, S. 355. Harnad, Stevan (2002). »Symbol Grounding and the Origin of Language«, In: Scheutz, Computationalism, S. 148.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Sowohl die erste als auch die zweite Variante setzen einen Lernprozess voraus. Zur Erklärung hierfür greift Harnad auf Erkenntnisse des Konnektionismus zurück, wobei dieser keine Symbole annimmt und folglich für ihn nicht ausreichend ist. Im Konnektionismus werden künstliche Netze nach dem Vorbild des menschlichen Gehirns mit seinem komplexen neuralen Netzwerk nachgebildet, welche die Fähigkeit besitzen, Muster zu erkennen.76 Während im ersten Fall – »honest toil« – allerdings das sprachliche Wissen, die Invarianten der Objekte, erst über Ausprobieren und Fehlermachen erworben werden muss77 , liegt das sprachliche Wissen im zweiten Fall innerhalb der Sprachgemeinschaft vor. Man muss es nur noch annehmen und ergreifen. Harnad bezeichnet diese, »bequemere« Form auch als das Verhalten eines »symbolic theft«. »In the case of symbolic theft, where someone else who has earned the category by sensorimotor toil simply tells you what’s what, whoever tells you has saved you a lot of work. The essential point is that categories can be acquired by ›nontoil‹ through the receipt of verbal information (hearsay) as long as the symbols in the verbal message are already grounded (either directly, by sensorimotor toil or, indirectly and recursively, by previously grounded verbal message).«78 Zweiter Teil: In der Forschung ist Harnads SGP breit diskutiert und in zahlreichen neuen Lösungsansätzen spezifiziert worden. Coradeschi et al. (2013)79 nennt allein von 2000 bis zum Jahr 2012 diverse weiterführende Strategien

76 77

78 79

Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 22. »Connectionism, with its general pattern learning capability, seems to be one natural candidate (though there may well be others): Icons, paired with feedback indicating their names, could be processed by a connectionist network that learns to identify icons correctly from the sample of confusable alternatives it has encountered by dynamically adjusting the weights of the features and feature combinations that are reliably associated with the names in a way that (provisionally) resolves the confusion, thereby reducing the icons to the invariant (confusion-resolving) features of the category to which they are assigned.« Vgl. Harnad (1990). »The Symbol Grounding Problem.«, (Link abgerufen am 27.04.2023: https://arxiv.org/html/cs/9906002). Harnad, Stevan (2002). Symbol Grounding and the Origin of Language, In: Scheutz Computationalism, S. 151. Vgl. Coradeschi, Silvia; Loutfi, Amy; Wrede, Britta. (2013). »A Short review of Symbol Grounding in Robotic and Intelligent Systems.«

105

106

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

wie beispielsweise das »Physical Symbol Grounding«80 oder »Social Symbol Grounding«81 , auf die wir an dieser Stelle nicht näher eingehen werden. Die Kritik an Harnads eigenem Lösungsvorschlag für das SGP ist vielfältig. So bemängelt Jackson (1996) zum einen, dass Tiere wie Schimpansen, die nicht über eine natürliche Sprache wie wir Menschen verfügen, kaum nur auf zwei basale Fähigkeiten wie das Diskriminieren und Identifizieren zu beschränken wären. Zum anderen stellt er grundsätzlich die Frage, warum Bedeutungsgenerierung nur über symbolische Repräsentationen in einer KI funktionieren soll. Ihm zufolge sind »connectionist representations« vergleichbar geeignet.82 Miłkowskis Kritik an Harnad fällt ähnlich aus. Er bezweifelt die Annahme, dass Symbole in einem Computer überhaupt eine Bedeutung haben können. »If symbol grounding problem makes any sense, then one cannot simply assume that symbols in computers mean something just by being parts of computers, or at least they cannot mean anything outside the computer so easily (even if they contain instructional information).«83 Insgesamt führen Taddeo und Floridi (2005) inzwischen acht Strategien an Lösungen für Harnads SGP auf, die sie wiederum in drei Typen unterscheiden: Repräsentations-Modelle (Harnad, 1990; Mayo, 2003; Sun, 2000), sensomotorische KI Modelle (Varshavskaya, 2002) und semi- Repräsentations-Modelle (Cohen, Sutton, & Burns, 2002; Davidsson, 1993).84 Vertreter des Repräsentations-Modell wie Harnad betonen, dass Repräsentationen der Ausgangspunkt für das Verankern von Symbolen seien, anders als in semi- Repräsentations-Modellen. Hier haben Repräsentationen nur eine beschränkte Funktion im Rahmen des kognitiven Systems. In sensomotorischen KI Modellen bleiben Repräsentationen unberücksichtigt. Ihnen zufolge braucht es keine semantischen Ressourcen für intelligentes Verhalten. Taddeo und Floridi sind der Auffassung, dass keine der genannten Strategien das SGP löst. Ihre Position be80 81 82

83 84

Vogt, Paul (2002). »The physical symbol grounding problem.« Cognitive Systems Research 3(3):429-457. DOI: https://doi.org/10.1016/S1389-0417(02)00051-7. Vogt, Paul und Divina, Federico (2007). Social symbol grounding and language evolution. Interaction Studies 8(1):31 – 52. DOI: https://doi.org/10.1075/is.8.1.04vog. Jackson, Stuart A. (1996). Connectionism and Meaning: From Truth Conditions to Weight Representations. Norwood, New Jersey: Library of Congress in Publicatio Data, S. 255ff. Miłkowski, Marcin (2017). »Why think that the brain is not a computer?«, S. 23. Vgl. Floridi, Luciano und Taddeo, Mariarosaria (2005). »Solving the symbol grounding problem: a critical review of fifteen years of research«, S. 19. Und: Bielecka, Krystyna (2016). »Symbol Grounding Problem and causal theory of reference.«, S. 79.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

gründen sie mit der von ihnen entwickelten »Z-Bedingung« (»zero semantical commitment condition«), die wir im nächsten Abschnitt analysieren werden. Zusammenfassung: Es lässt sich festhalten, dass Harnad eine Erweiterung des Chinesischen Zimmers mit dem SGP formuliert hat. Der Vorteil an seiner Theorie besteht darin, dass sie komplizierte metaphysische Fragestellungen, etwa nach der Möglichkeit von artifiziellem Bewusstsein und Identität, ausklammert. Dieser Verzicht auf eine inklusive Theorie der Bedeutung erlaubt es, sein Modell auf Roboterapplikationen anzuwenden. Taddeo und Floridi haben diesen Versuch mit ihrer »Action-based Semantics« (AbS) unternommen, die allerdings genau wegen ihrer vereinfachenden Darstellung zugunsten der Praxisnähe kritisiert wurde.

5.1.4 »Action-based Semantics« (AbS) Aufbauend auf Harnads SGP haben Taddeo und Floridi die »Z-Bedingung« (»zero semantical commitment condition«) formuliert, an der sich jedes KI Modell messen lassen müsste, sofern das SGP umgegangen werden soll. Beide Autoren haben dazu einen Vorschlag entwickelt, den wir im Folgenden skizzieren möchten. Unsere These ist dabei, dass ihr Modell der »Action-based Semantics« (AbS) sehr nah an Arendts und Heideggers Überlegungen aus den Vorbetrachtungen dieses Kapitels heranreicht, die Sprache und Handeln zusammendenken. Lässt man die grundsätzliche Kritik aus der Forschung vorerst beiseite, könnte sich hiermit eine Option ergeben, einer KI Sprache und womöglich darüber hinaus moralische Kompetenz beizubringen. Die »Z-Bedingung« (»zero semantical commitment condition«) definieren Taddeo und Floridi so: »The requirement to be satisfied by any strategy seeking to solve the SGP is the zero semantic commitment condition (henceforth Z condition). According to the Z condition, no valid solution of the SGP can rely on forms of a) innatism, since no semantic resources (some virtus semantica) should be presupposed as already pre-installed in the AA; and b) externalism, since no semantic resources should be uploaded from the

107

108

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

»outside« by some deus ex machina that is already semantically-proficient.«85 Nach der »Z-Bedingung« gilt, dass einer KI keine semantischen Grundlagen vorinstalliert werden dürfen (a). Um in Harnads Terminologie zu bleiben: Die KI erhält kein elementares Symbolsystem. Zweitens dürfen keine semantischen Ressourcen von außen auf die KI eingespielt oder übertragen werden, beispielsweise von einer anderen KI, die bereits ein gewisses sprachliches Wissen erworben hat. Es darf keine Instruktionen geben. Die »Z-Bedingung« verlangt also von einer KI, dass sie die Verankerung – den Prozess des »Groundings« der Symbole vollständig autonom erledigt, ohne Einwirkung von außen: »The SGP concerns the possibility of specifying precisely how an AA can autonomously elaborate its own semantics for the symbols that it manipulates and do so from scratch, by interacting with its environment and other AAs. This means that, as Harnad rightly emphasises, the interpretation of the symbols must be intrinsic to the symbol system itself, it cannot be extrinsic, that is, parasitic on the fact that the symbols have meaning for, or are provided by, an interpreter.«86 Die »Z-Bedingung« ist von manchen in der Forschung auch als zu stark formuliert empfunden worden.87 Andererseits haben Taddeo und Floridi (2007)88 einen eigenen, wie sie sagen, praxistauglichen (»praxical«) Lösungsvorschlag entwickelt, den sie »Action-based Semantics« (AbS) nennen und der beiden Autoren zufolge mit der »Z-Bedingung« in Einklang zu bringen sei. Ihr Vorschlag läuft auf ein funktionales KI-Modell hinaus, das eng an der zwei Ebenen-Theorie von Harnad (sensormotorisch-symbolisch) orientiert ist und durch Evolutionsmechanismen Bedeutung zu entwickeln vermag. Taddeo und Floridi postulieren ein zwei Maschinen-Modell, »a two-machine AA (AM2)«, das über über seine Handlungen (etwa navigieren, Objekte erkennen und ihnen ausweichen) Bedeutung entwickelt. Während die eine Maschine (M1) – einfach gesprochen – sämtliche sensorische Daten aus der Umgebung aufnimmt, die bei jeder Handlung anfallen, ordnet die andere 85 86 87 88

Floridi, Luciano und Taddeo, Mariarosaria (2005). »Solving the symbol grounding problem«, S. 5. Floridi, Luciano und Taddeo, Mariarosaria (2005). »Solving the symbol grounding problem«, S. 5. Bielecka, Krystyna (2016). »Symbol Grounding Problem and causal theory of reference.«, S. 78. Siehe oben.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Maschine (M2) jeder neuen Information ein Symbol zu. M2 verfügt über ein Symbolsystem und einen Speicher. Taddeo und Floridi stützen dazu ihr Modell auf Erkenntnisse der so genannten »reflective architecture«, konkret auf »upward-reflection« Prozesse, wie sie bei (Barklund et al., 200089 ; Brazier et al., 199990 ; Cointe, 199991 ) beschrieben worden sind. Kennzeichnend für »upward-reflection«-Prozesse ist eine Metaprogrammierung auf zwei Level: einem Objekt- (OL) und einem Meta-Level (ML). Beide Ebenen interagieren miteinander. M1 operiert auf dem Objekt-Level, M2 auf dem Meta-Level. Jede neue Handlung, die von M1 durchgeführt, ist an einen bestimmten internen Zustand (Sn)92 geknüpft. »So actions and internal states are causally coupled: for any different action in M1 there is a different internal state Sn and for all similar actions in M1 there is the same Sn.«93 Taddeo und Floridi liefern für ihre Theorie ein fiktives Beispiel anhand der Geschichte von FOTOC, einem Roboter, der in einem Labor navigiert und über Sensoren verfügt, die ihn mit seiner Außenwelt verbinden. Wenn FOTOC eine beliebige Handlung a und danach eine weitere beliebige Handlung b ausführt, korrespondieren a und b mit entsprechenden Zuständen Sa und Sb. Wenn FOTOC also einen dunklen Raum wahrnimmt, ist M1 durch einen internen Zustand Sdunkel spezifiziert. Nimmt FOTOC einen hellen Raum wahr, ist sein Zustand hingegen Shell. Taddeo und Floridi nehmen weiter ihre Theorie der »levels of abstraction« (LoA) (Floridi et al., 2004)94 an. Danach erschließt sich M1 in FOTOC seine Umgebung durch einen bestimmten Abstraktionsgrad. Das soll heißen: Es ist im Vorfeld festgelegt, wie feingliederig die Wahrnehmung von FOTOC sein soll und wie viele Details der Umgebung zu erschließen sind. Man kann sich

89

90 91 92 93 94

Barklund, Jonas; Dell’Acqua, Pierangelo; Costantini, Stefania und Lanzarone, Gaetano Aurelio (2000). »Reflection Principles in Computational Logic.« Journal of Logic and Computation, 10:743-786. Brazier, Frances M. T. & Treur, Jan (1999). »Compositional Modelling of Reflective Agents.« International Journal of Human-Computer Studies, 50:407-431. Cointe, Pierre (Hg.) (1999). Meta-Level Architectures and Reflection, Second International Conference on Reflection. Saint-Malo, France: Springer-Verlag. Wir übernehmen an dieser Stelle die englische Formel. Bedingt durch die Übersetzung aus dem Englischen (»internal states«) müsste man richtigerweise von Zn schreiben. Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem.«, S. 375. Floridi, Luciano & Sanders, Jeff W. (2004). »The method of abstraction.« In: Negrotti, Massimo (Hg.). Yearbook of the artificial, dedicated to ›models in contemporary sciences‹ (S. 177–220). Berna: P. Lang.

109

110

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

LoA vielleicht als eine Art Vorsprache vorstellen, auf der eine Selektion der Daten stattfindet. »M1 accesses the environment at a LoA that allows only a specific granularity of detection of its features. Thus, through M1’s perception, FOTOC can only obtain approximate (to whatever degree of granularity is implemented) data about its external environment.«95 Die Daten aus M1 werden an M2 kommuniziert. M2 besitzt ihre eigene LoA (LoA2), in der die Daten wiederum in eine Symbolsprache übersetzt werden. M2 verbindet mit jedem internen Zustand genau ein Symbol. Wird ein Symbol bereits verwendet, darf es nicht mit einem anderen Zustand verknüpft werden. Der Prozess der Symbolvergabe ist also beliebig, aber nicht chaotisch. M2 legt daraufhin eine Speicherregel und Handlungsregel für das verknüpfte Symbol fest. Die Speicherregel archiviert den internen Zustand aus M1 und das Symbol. Die Handlungsregel überprüft, ob das Symbol bereits im Speicher durch einen anderen internen Zustand belegt ist.96 Taddeo und Floridi beschreiben AM2 wesentlich ausführlicher, als hier gezeigt. Wir wollen nur auf zwei weitere Aspekte ihrer Theorie verweisen, die wir für diesen Abschnitt der Arbeit für relevant erachten: zum einen ihr Rekurs auf Hebbs Lerntheorie (1) und zum anderen ihre Sprachtheorie (2). (1) Beide Autoren halten es für möglich, dass ein AM2 mit der Fähigkeit des Lernens ausgestattet werden könnte. Sie entwickeln dazu eine Lerntheorie, die auf die Vorarbeiten von Donald O. Hebb über neuronale Netze zurückgreift und kombinieren diese mit modernen Erkenntnissen zu lernenden Algorithmen wie »local selection (LS)« Algorithmen und ELSA (»Evolutionary Local Selection Algorithm«)97 . Hebb bemerkte in seinem Buch »The Organization of

95 96 97

Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem«, S. 376. Vgl. Ebd., S. 378. Menczer, Filippo; Degeratu, Melania; Street, Nick W. (2000). »Efficient and Scalable Pareto Optimization by Evolutionary Local Selection Algorithms.« Evolutionary Computation 8: 223–247. Und: Menczer, Filippo; Degeratu, Melania; Street, Nick W. (2001). »Evolving Heterogeneous Neural Agents by Local Selection.« (In M. Patel, et al. (Hg.), Advances in the Evolutionary Synthesis of Intelligent Agents (S. 337–366). Cambridge, MA: MIT Press).

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Behavior« (1949), dass je häufiger ein Neuron A mit einem anderen Neuronen B aktiv ist, umso bevorzugter werden beide Neuronen aufeinander reagieren. »Wenn ein Axon der Zelle A […] Zelle B erregt und wiederholt und dauerhaft zur Erzeugung von Aktionspotentialen in Zelle B beiträgt, so resultiert dies in Wachstumsprozessen oder metabolischen Veränderungen in einer oder in beiden Zellen, die bewirken, dass die Effizienz von Zelle A in Bezug auf die Erzeugung eines Aktionspotentials in B größer wird.«98 Seine Vermutung hat die Neurowissenschaftlerin Carla Shatz später auf die prägnante Regel »Neurons that fire together, wire together«99 zugespitzt. Hebbs Theorie wurde in späteren Studien von Terje Lømo100 bestätigt. Taddeo und Floridi übertragen die Hebbsche Lernregel auf ihr AM2 Modell. Ihnen zufolge könnte die Zuordnung von Symbolen durch M2 auf interne Zustände in M1 nach einem ähnlichen Prinzip ablaufen. »Suppose that, after a finite number of runs, it turns out that an association between the same symbol and the same internal state has been used more than the other ones. According to Hebb’s rule, the associations that are most used will be further privileged until they become stable.«101 Je öfter ein Symbol mit einem internen Zustand verbunden wird, desto wahrscheinlicher ist dessen Privilegierung bei zukünftigen Zuordnungen. Dadurch können stabile Verbindungen entstehen, ähnlich wie in einem Verbund von Neuronen. Den Einwand, dass durch die Hebbsche Lernregel eine Vorannahme in AM2 hinzugefügt wird und damit die »Z-Bedingung« zu Beginn des Abschnitts verletzt werden könnte, bewerten

Hebb, Donald O. The organization of behavior: A neuropsychological theory. New York: John Wiley and Sons, Inc., 1949. Online-Fassung, Link abgerufen am 27.04.2023: htt ps://pure.mpg.de/rest/items/item_2346268_3/component/file_2346267/content. Und Übersetzung aus: Online Lexikon für Psychologie & Pädagogik (Stangl, 2023). Verwendete Literatur: Stangl, W. (2023, 27. April). Hebb-Regel – Online Lexikon für Psychologie & Pädagogik. https://lexikon.stangl.eu/17945/hebb-regel). 99 Taylor, Annette Kujawski (Hg.) (2013). Encyclopedia of Human Memory. 3. Ausgabe. Westport: Greenwood Publishing Group Inc, S. 534. 100 Bliss, T. V. und Lomo, T. (1973). »Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path«. J Physiol 232(2):331-356. 101 Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem, S. 382.

98

111

112

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

beide Autoren als haltlos, da keine Parameter vorinstalliert werden.102 Die Begründung von Taddeo und Floridi scheint allerdings nur bedingt schlüssig zu sein, da natürlich mit der Regel, wenn auch nicht in Form von semantischen Grundlagen, essentiell Einfluss auf das Verhalten von AM2 genommen wird. Die Frage an dieser Stelle ist, was mit »semantischen Grundlagen« (semantic resources) gemeint ist. Kann man die Hebbsche Lernregel als eine solche Grundlage womöglich verstehen? (2) Der Erwerb von Sprache bei AMs2 soll Taddeo und Floridi zufolge losgelöst von Wittgensteins Sprachspiel-Theorie erfolgen. Nicht der Gebrauch der Worte formt die Bedeutung, sondern die Bedeutung ist bereits im Vorfeld festgelegt und also intrinsisch gemäß Harnad charakterisiert. »In the Wittgensteinian theory, meaning arises from the communications among the agents; the agents play in order to reach some agreement about the meaning. In praxical semantics, the meaning does not arise from the communication processes, but it is already defined, or at least well-sketched, when the AM² starts to communicate. What is shared in the communication process are the grounded symbols, not the meanings.«103 Diese Argumentation ist allerdings nur teilweise nachvollziehbar, vor allem wenn man sich das Beispiel vergegenwärtigt, dass Taddeo und Floridi für den Spracherwerb anführen.104 Zum Verständnis werden wir dieses nachfolgend grob skizzieren: Angenommen, so ihre Idee, es gäbe eine heterogene Population aus AMs2, die eine ökologische Nische bewohnen und durch zwei Verhaltensformen gekennzeichnet sind: füttern und sich verstecken vor anderen Raubtieren. Ferner nehmen sie an, dass die AMs2 in ein adaptives Sprachspiele involviert werden, in dem sich über die Begriffe »füttern« und »sich verstecken vor Feinden« austauschen. Eines dieser Sprachspiele ist das sogenannte »guess game« (sinngemäß übersetzt: Erraten-Spiel), dass von Steels und Vogt entwickelt wurde.105 Im »guess game« gibt es zwei Roboter mit zwei unterschiedlichen Rollen: einer der Robot fungiert als »Sprecher«, der 102 Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem, S. 383. 103 Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem, S. 386. 104 Vgl. Ebd., S. 384. 105 Steels, Luc & Vogt, Paul A. (1997). »Grounding adaptive language games in robotic agents. In P. Husbands, & I. Harvey (Hg.). Advances in artificial life: Proceedings of the Fourth European Conference on Artificial Life (ECAL 97), Brighton, 28–31 July, 1997 (Band 4, S. 474–482). (Complex adaptive systems; Bd. 4). MIT Press.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

andere als »Zuhörer«. Der Sprecher nennt ein Wort für ein Objekt, das dieser wahrnimmt. Der Zuhörer muss das Objekt durch Ausprobieren finden. Das Spiel endet erfolgreich, wenn sich beide teilnehmenden Roboter auf ein gemeinsames Lexikon verständigt haben, das in der wahrgenommenen Umgebung und in dem Verhalten der Roboter begründet ist.106 Übertragen auf das Szenario der AMs2 bedeutet dies, dass ein AM2 als Sprecher ein Symbol kommuniziert und sich in dem entsprechenden internen Zustand befindet, der mit dem Symbol zusammenhängt. Die andere – als Hörer fungierende – AM2 muss herausfinden, ob nun die Handlung »füttern« oder »sich verstecken vor Feinden« gemeint war. Garant für das richtige Feststellen zwischen Symbol und Handlung ist Taddeo und Floridi folgend eine Form der »natürlichen Selektion«, wie sie in Darwins Evolutionstheorie umfangreich beschrieben wird. Nur diejenige AM2 kann sich in der Population durchsetzen, die den Zusammenhang schnell verinnerlicht. Alle anderen AMs2 blieben der Gefahr durch die Raubtiere weiterhin ausgesetzt. Taddeo und Floridi heben auf ein Phänomen ab, dass Searle in seiner Sprechakt-Theorie mit dem Begriff der »Absicht« verbindet. »Wenn der Hörer die Sprache beherrscht, meine Absicht, einen Satz dieser Sprache hervorzubringen, erkennt, und erkennt, daß ich diesen Satz nicht nur äußere, sondern auch meine, was ich sage, dann ist es mir gelungen, dem Hörer zu übermitteln, daß (zum Beispiel, vom Autor hinzugefügt) es regnet.«107 Inwiefern natürlich bei einer AM2 von Absicht die Rede sein kann, bleibt an dieser Stelle offen und wäre eine interessante Frage (die allerdings hier zu weit führen würde). Entscheidend ist der zweite Punkt in Searles Anmerkung darüber, dass die Worte, um bei Harnad zu bleiben, in ihrer Bedeutung beim Sprecher verankert sein müssen. Wenn ein Sprecher sagt »Es regnet!«, basiert der Satz auf einer Erfahrung, die der Sprecher irgendwann gemacht hat und beliebig immer dann wiederholen kann, nämlich, wenn es regnet. Ähnlich verhält es sich mit den AMs2 im oberen Beispiel. Die vom AM2 (Sprecher) geäußerten Symbole sind in der Erfahrung mit der Umwelt verankert. Trotzdem ist Wittgensteins Sprachspiel-Theorie nicht vollständig aus dem beschriebenen Szenario von Taddeo und Floridi ausgeklammert. Schließlich entscheidet am Ende der richtige Gebrauch der Symbole über den Fortbestand der Population.

106 Vgl. Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem, S. 385. 107 Searle, John R. (2004). Geist, Sprache und Gesellschaft, S. 173.

113

114

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Mit Blick auf die Grundidee der AbS und der Ausführungen zum Spracherwerb bei AMs2 lässt sich feststellen, dass Taddeo und Floridi – ohne dass sie diesen Bezug selbst herstellen – in eine inhaltliche Nähe zu Arendts Anthropologie rücken. Wie oben gezeigt, postuliert Arendt in der Tradition von Heidegger einen engen Zusammengang zwischen Sprache und Handeln. Für sie ist Sprechen und Handeln elementar für die Konstruktion der menschlichen Wirklichkeit: »Ein Leben ohne alles Sprechen und Handeln andererseits […] wäre buchstäblich kein Leben mehr. […] Sprechend und handelnd schalten wir uns in die Welt der Menschen ein.«108 Insbesondere der letzte Punkt ist für die Theorie der moralischen Kompetenz von großer Bedeutung. Sprache bietet Teilhabe an einer gemeinsamen Kultur, der Werte und Normen. Sie fungiert als »praktisches Verfahren«109 , um etwa »Auseinandersetzungen mit anderen Personen und anderen Meinungen«110 zu lösen. Im Handeln dagegen drücken sich die »moralischen Orientierungen« aus. Eine KI, die wie bei Taddeo und Floridi über das Handeln zum Sprechen gelangt, lässt vermuten, dass es ebenfalls möglich sein könnte, einer solchen moralische Kompetenz beizubringen. Bislang gibt es hierzu keine Untersuchungen, daher ist diese Bewertung mit Vorsicht zu betrachten. Erschwerend kommt hinzu, dass der Ansatz der AbS grundsätzlich in der Forschung in Frage gestellt wird. Bielecka etwa kritisiert die Unschärfe zwischen LoA (Abstraktionslevel) und der Symbolvergabe. Ihr zufolge würde alles und nichts als Repräsentation gelten. »The definition of symbols that are characterized as arbitrary elements could theoretically correlate not only with the physical environment but also with some fictional or abstract objects. Even not-denoting is a kind of LoA.«111 Was ihr fehlt, ist eine genauere Angabe zu den Bedingungen für Korrelation mit der physischen Außenwelt. Zweitens – was damit einhergeht – ist eine Form von Perfektionismus-Annahme, wonach die Fähigkeit, falsch zu liegen, irren zu können und damit die fehlerhafte Repräsentation (auf Englisch: misrepresentation) in der Theorie der AbS nicht vorgesehen. Zu Irrtümern kann es jedoch ihr zufolge immer wieder kommen, zumal diese erheblich, wenn nicht sogar notwendigerweise zum Lernverhalten beitragen. »Without misrepresentation, however,

108 109 110 111

Arendt, Hannah (1972). Vita Activa. Oder vom tätigen Leben, S. 215. Nagel, Thomas (1999). Das letzte Wort. Stuttgart: Reclam, S. 57. Lind, Georg (2019). Moral ist lehrbar, S. 31. Bielecka, Krystyna (2016). »Symbol Grounding Problem and causal theory of reference.«, S. 84.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

one cannot account for learning (and that’s why learning is reduced to correlation).«112 Bringsjord weist den Versuch von Taddeo und Floridi prinzipiell zurück. Das SGP bleibt weiterhin ungelöst. Sein Einwand ist epistemischer Natur und lautet, dass AbS vielleicht theoretisch für manche Roboter funktionieren könnte, aber keinesfalls eine angemessene Lösung für das SGP darstellt. »[…] their proposal, while certainly innovative and interesting, merely shows that a class of robots can in theory connect, in some sense, the symbols it manipulates with the external world it perceives, and can, on the strength of that connection, communicate in sub-human fashion. Such a connection-communication combination is routinely forged (by e.g. the robots in my laboratory (by the robot PERI in Bringsjord & Schimanski 2003) and in countless others, and indeed by robots now on the market).«113 Ferner kritisiert Bringsjord den Rückgriff auf Darwins Evolutionstheorie (»evolution got the job done«114 ) mit seinem »Wallace Paradox-Einwand«. Die natürliche Selektion ist auf kein Ziel festgelegt, so die Kritik, sie ist nicht teleologisch. Keinesfalls muss die Evolutionsgeschichte der AMs2 so verlaufen, wie von Taddeo und Floridi beschrieben. Außerdem gibt es manche Fähigkeiten, die überflüssig für den Selektionsdruck sind, dennoch im Evolutionsprozess ausgebildet werden können. Bringsjords Beispiel ist die Tensoranalyse, die für das reine Überleben der Menschheit sicherlich keine Rolle spielt, obwohl sie für die Differentialgeometrie sinnvoll ist. Zusammenfassung: Das Modell der »Action-based Semantics« (AbS) als Lösungsstrategie für das SGP ist zunächst ein interessanter theoretischer Ansatz, um eine KI auf die Ebene menschlichen Verstehens zu heben. Der Ansatz ist auch insofern interessant, weil er erstens mit philosophischen Überlegungen wie beispielsweise von Arendt in Einklang zu bringen ist und zweitens

112 113

114

Bielecka, Krystyna (2016). »Symbol Grounding Problem and causal theory of reference.«, S. 84. Bringsjord, Selmer (2015). The Symbol Grounding Problem … Remains Unsolved. Bd. 27: 63–72, hier: S. 1. (zitiert nach Online-Fassung, abgerufen am 27.04.2023: http://kr yten.mm.rpi.edu/SB_on_LF_on_SGP_123013.pdf). Bringsjord, Selmer (2015). »The Symbol Grounding Problem … Remains Unsolved«, S. 11.

115

116

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

einen möglichen Weg aufzeigen könnte, einer KI moralische Kompetenz beizubringen. Gleichwohl sind wesentliche Annahmen der Argumentation zweifelhaft wie beispielsweise die Kompatibilität der Hebbschen Regel mit der »Z-Bedingung«, die Konsistenz der Spracherwerbs-Theorie ohne Rückgriff auf Wittgensteins »Sprachspiel«-Ansatz sowie die Perfektionismus-Annahme, die sowohl beim Repräsentationsbegriff, als auch beim EvolutionstheorieGedanken mitschwingt.

5.1.5 Zwischenbilanz zum Themenfeld Sprache In diesem Kapitel haben wir das Themenfeld »Sprache« untersucht. Die Zwischenbilanz fällt überwiegend negativ aus: Die bisher diskutierten Strategien geben keine klare Antwort, ob ein Roboter menschliche Sprache verstehen kann. • • •



Der Turing-Test stellt nur eine Simulation der menschlichen Intelligenz dar und klammert die Realisierung von Denk- oder Sprachfähigkeit aus. Searles Einwand mit dem Chinesischen Zimmer ist zu stark am menschlichen Vorbild ausgerichtet. Harnads hybrides Repräsentations-Modell hat hingegen der Forschung einen pragmatischen Weg aus der dilemmatischen biozentrischen Position Searles aufgezeigt, verzichtet dabei allerdings auf eine inklusive Theorie der Bedeutung, die zu zentralen philosophischen Fragen nach der Rolle von Identität oder Bewusstsein bei einer KI hätte Stellung beziehen können. Die Weiterentwicklung zugunsten einer handlungsbasierten Semantik in den Arbeiten von Taddeo und Floridi ist vielversprechend, wenn man die von beiden formulierten Annahmen in Kauf nimmt.

Kurzum: Das Projekt eines moralisch handelnden Roboters, der Konflikte und Probleme durch Sprache löst, scheint fürs Erste in einer Sackgasse zu stecken. Neuere Arbeiten wie beispielsweise von Khayrallah et al. (2015)115

115

Vgl. Khayrallah, Huda; Trott, Sean und Feldman, Jerome (2015). »Natural Language For Human Robot Interaction.« Proceedings of the Workshop on Human-Robot Teaming at the ACM/IEEE conference on Human-Robot Interaction (HRI). https://www.bradhaye s.info/hri15/papers/2.pdf.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

und Manfred Eppe et al. (2016)116 weisen einen möglichen Ausweg. Das erste Forschungsteam um Khayrallah hat eine Strategie zum Verstehen natürlicher Sprache, »Natural Language Understanding« (NLU), bei einer KI entwickelt, basierend auf »Embodied Construction Grammar« (ECG) und »simulation semantics«. Ihr System könnte eine Grundlage für eine basale Dialogform zwischen einem Menschen und einer Maschine darstellen. Nach eigener Aussage kann ihr System sogar Metaphern analysieren, die in der alltäglichen Kommunikation mit Menschen häufig Verwendung finden. Eppe et al. stützen sich ebenfalls auf die Methode des ECG und präsentieren einen Ansatz, der eine semantische Analyse von Sätzen erlauben soll. In beiden Fällen bleibt allerdings der Lernaspekt weitestgehend unberücksichtigt, der bei Erdem Bıyık et al. (2019) zum Beispiel elementar ist, wenn es um das korrekte Verhalten im Umgang mit Menschen geht.117 Mit der Entwicklung von großen Sprachmodellen (Large Language Models, kurz: LLMs) auf dem Feld der generativen KI wie GPT ist der Forschung zudem ein Meilenstein in der Maschinenkommunikation in letzter Zeit gelungen. Die von der Maschine generierten Texte lassen sich kaum mehr von Menschen unterscheiden, werden als intuitiv und originell empfunden. Das System basiert auf künstlichen neuronalen Netzwerken (wie bspw. Modelle mit Transformer-Architektur oder Generative Adversarial Networks, kurz GANs), die in einem ersten Schritt mit großen Datenmengen trainiert werden, bevor sie einem zweiten Schritt feinabgestimmt werden. Nach der Feinabstimmung ist das System in der Lage, auf Basis der im Training gelernten Informationen neue Inhalte, etwa Bilder oder Texte, gemäß einer vorgegebenen Aufgabenstellung zu erzeugen. Möglich ist es ebenfalls, die Systeme z.B. durch menschlichen Input nachzutrainieren und für bestimmte Aufgaben anzupassen.118 Die Daten stammen dabei etwa aus Wikipedia-Artikeln, Nachrichtenseiten, Internetforen, sozialen 116

117

118

Vgl. Eppe, Manfred; Trott, Sean und Feldman, Jerome (2016). »Exploiting Deep Semantics and Compositionality of Natural Language for Human-Robot-Interaction«. arXiv:1604.06721v1 [cs.AI]. Bıyık, Erdem; Palan, Malayandi; Landolfi, Nicholas C.; Losey, Dylan P.; Sadigh, Dorsa (2020). »Asking Easy Questions: A User-Friendly Approach to Active Reward Learning.« Proceedings of the Conference on Robot Learning, PMLR 100:1177-1190. https://arxiv.org/pdf/1910.04365.pdf. Vgl. Burchardt, Aljoscha; Büttner, Jochen und Renn, Jürgen (2023). KI-basierte Vorausschau für nachhaltige transformative Resilienz. Demokratisierung durch individualisierte Zukunftsnarrative und Rückkopplung in die Modellbildung. Die Studie wurde für CO:DINA als Auftragsarbeit vom Deutschen Forschungszentrum für Künstliche Intelligenz erstellt.

117

118

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Netzwerken, Bücher-, Bild- oder Videodatenbanken und anderen Quellen.119 Eingesetzt werden solche großen Sprachmodelle momentan für Chatbots, Frage-Antwort-Systeme oder automatische Übersetzungen. Darüber hinaus gibt es erste Versuche, LLMs für Robotikanwendungen nutzbar zu machen. Zu nennen sind hier die Arbeiten von Yang Ye et al. (2023)120 , Vemprala (2023)121 oder Hongmei He (2023)122 . Entscheidend ist, dass auch diese neuen Systeme mit dem heutigen Stand der Technik keinesfalls Sprache so verstehen können wie wir Menschen. Die produzierten Texte simulieren menschliche Sprache. Verstehen können die künstlichen Systeme die Texte nicht. Einige Autoren wie Reto Gubelmann (2023)123 sind aber bereits heute davon überzeugt, dass dies nur eine Frage der Zeit ist. Ihm zufolge kommen heutige Technologien wie transformatorbasierte Neural Natural Language Processing (NNLP)-Modelle, zum Beispiel BERT und GPT-3, menschlichen Sprachverständnis sehr nah, nimmt man die von ihm vorgeschlagenen konzeptionellen Kriterien entlang Hans-Johann Glocks Konzept der Intelligenz, Taylors Konzept der intrinsischen Richtigkeit sowie Wittgensteins Überlegungen zur Regelbefolgung in Kauf. Inwiefern die genannten Referenzen tatsächlich für die Realisierung eines echten Sprachverständnisses in Frage kommen, bleibt abzuwarten und zu klären. Wir möchten es bei diesen ersten sehr skizzenhaften Anmerkungen belassen und zum nächsten Kapitel überleiten. Moralische handelnde Roboter benötigen neben der Fähigkeit zur Sprache, mit der sie sich ausdrücken und die sie verstehen müssen, eine Form von Identität, um ggf. Verantwortung

Die Studie ist online verfügbar, abgerufen am 11.08.2023: https://pure.mpg.de/rest/it ems/item_3519487/component/file_3519488/content), S. 14. 119 Vgl. Bundesamt für Sicherheit in der Informationstechnik (2023). Große Sprachmodelle. Chancen und Risiken für Industrie und Behörden. Link online abgerufen 11.8.2023: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Grosse_KI_Sp rachmodelle.pdf?__blob=publicationFile&v=2). 120 Vgl. Ye, Yang; You, Hengxu und Du, Jing (2023). »Improved Trust in Human-Robot Collaboration With ChatGPT,« in IEEE Access, Bd. 11, S. 55748–55754, 2023, DOI: https://doi.org/10.1109/ACCESS.2023.3282111. 121 Vemprala, Sai; Bonatti, Rogerio; Bucker, Arthur und Kapoor, Ashish (2023). »ChatGPT for Robotics: Design Principles and Model Abilities.« 122 He, Hongmei (2023). »RobotGPT: From ChatGPT to Robot Intelligence.« OpenReview. Eingereicht zum ICRA-23 Workshop Pretraining4Robotics. https://openreview.net/f orum?id=wWe_OqpCcU8. 123 Gubelmann, Reto (2023). »A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT-3, and ChatGPT.«

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

für ihre Entscheidung übernehmen zu können und um von anderen moralischen Akteuren identifiziert zu werden. Es wird sich hierbei zeigen, dass ein Großteil der Forschung das Diskussionsfeld des »technologisch Machbaren« gern hinter sich lassen würde, um den Weg für das »(moralisch) Wünschbare«124 frei zu machen. Letzteres wären Roboter, die den Status von Personen zugesprochen bekommen können, weil sie über etwas Vergleichbares wie personale Identität verfügen.

5.2 Identität 5.2.1 Einleitende Fragestellungen und Problemstellung Können Roboter Identität, vielleicht sogar personale Identität besitzen? Die Antwort darauf, ist mit einer Vielzahl anderer komplizierter Fragen verbunden, die einerseits grundsätzlicher Natur sind (Was können wir uns unter (personaler) Identität und was unter einer Person vorstellen?), andererseits einen Bereich berühren, der in der Robotik bislang vor allem auf dem Gebiet des technischen Posthumanismus125 diskutiert wird (Können Roboter artifizielle Identität besitzen? Sind Artifizielle Personen denkbar?). Die Frage nach der Identität stellt sich vor dem Hintergrund der Zuweisung von Verantwortung. Ihr Gegenstandsbereich reicht dabei weiter als das üblicherweise in der Forschung unterschiedene Begriffspaar von Verantwortungssubjekt und -objekt.126 Autoren wie Petersen (2014)127 , Veruggio und Abney (2014)128 aber auch Putnam (1964)129 , Parfit (1971)130 , Midgley (1985)131 nehmen an, dass

124 Loh, Janina (2019). Roboterethik, S. 211. 125 Loh, Janina (2018). Trans- und Posthumanismus. Zur Einführung. Hamburg: Junius Verlag, S. 99ff. 126 Vgl. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 121. 127 Vgl. Petersen, Steve (2014). »Designing People to Serve«, In: Patrick Lin, K. Abney, & G. A. Bekey (Hg.). Robot Ethics. The Ethical and Social Implications of Robotics. 128 Vgl. Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.« In: Lin, P.; Leith, A., Bekey G. A. (Hg.), Robot Ethics. The ethical and social implications of robotics. 129 Vgl. Putnam, Hilary (1964). »Robots: Machines or Artificially Created Life?« 130 Vgl. Parfit, Derek (1971). »Personal Identity«. Philosophical Review 80:3-27. 131 Vgl. Midgley, Mary (1985). »Persons and Non-Person.« In: Singer, Peter (Hg.). In Defense of Animals, Peter Singer (S. 52–62). New York: Basil Blackwell.

119

120

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Roboter unter bestimmten Voraussetzungen Personen oder sogar »SupraPersonen«132 sein können. Wir werden diesem Standpunkt widersprechen und auf den Arbeiten von Christine Korsgaard133 einen weniger metaphysisch anspruchsvollen Gegenvorschlag entwickeln. Wir begründen unsere Position mit der negativen These, dass das Argument zugunsten Artifizieller Personen auf drei starken, fragwürdigen Annahmen basiert, die sich schwer aufrechterhalten lassen: Erstens wird ein reduktionistischer Personenbegriff favorisiert, der in der Tradition von Derek Parfit (1984)134 zu stehen scheint. Das Personensein kann auf eine Menge beliebiger Bedingungen zurückgeführt werden, ohne dass notwendige oder hinreichende Kriterien hierfür entscheidend sind. Zweitens wird ein uneingeschränkter Materialismus postuliert, wonach alle organischen Bestandteile des Menschen durch artifizielle Bestandteile substituiert werden können. Drittens wird das Personensein als eine System-Eigenschaft verstanden, die sich aus den Bestandteilen des Organismus zusammensetzt. Ungeachtet der vielen Schwierigkeiten, die mit diesen drei Annahmen verbunden sind, wird jedoch ein wichtiges Problem dabei vollständig vernachlässigt, dass für die Zuweisung von Verantwortung entscheidend ist – das Problem der personalen Identität. Wir beginnen mit der Analyse des Begriffspaars Verantwortungssubjekt und -objekt, untersuchen im Anschluss zwei geläufige Theorien zum Personensein, bevor wir unseren Einwand gegen das Argument für Artifizielle Personen und unseren Lösungsansatz skizzieren.

5.2.2 Roboter als Verantwortungssubjekte und -objekte In der Forschung hat es sich etabliert, Roboter zum einen als Verantwortungssubjekte, zum anderen als Verantwortungsobjekte zu unterscheiden –  neben der bereits angesprochenen Differenzierung als moralische Handlungssubjekte – und Handlungsobjekte (»moral agents« und »moral patients«). Im folgen132 133

134

Vgl. Douglas, Thomas (2013). »Human Enhancement and Supra-Personal Moral Status.« Philosophical Studies 162:473-97. Vgl. Korsgaard, Christine M. (2012). »A Kantian Case for Animal Rights«. Vgl. ebenfalls: Korsgaard, Christine. M. (2009). Self-Constitution. Agency. Identity and Integrity. Oxford and New York: Oxford University Press. Und: Korsgaard, Christine. M. (2004). Fellow creatures: Kantian ethics and our duties to animals. Tanner Lectures on Human Values, Band 24:77-110. Sowie: Korsgaard, Christine. M. (2018). Fellow creatures: Our obligations to the other animals. Oxford: University Press. Vgl. Parfit, Derek (1984). Reason and Person. Oxford: University Press.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

den Abschnitt werden wir den Unterschied beider Begriffe erläutern, uns allerdings kurzfassen, da inzwischen einige sehr gute und umfangreiche Untersuchungen wie beispielsweise von Janina Loh (2019), Catrin Misselhorn (2018) oder von Oliver Bendel (2019)135 zu diesem Thema vorliegen. Loh unterscheidet außerdem in Verantwortungsadressaten und Verantwortungsinstanzen, die wir in dieser Studie nicht berücksichtigen. Wir werden uns der Übersichtlichkeit halber bei jeder Variante (Verantwortungssubjekt und Verantwortungsobjekt) auf zwei aktuelle Beispiele beschränken. Zudem scheint es uns angebracht, zunächst mit ein paar wenigen Bemerkungen zum Begriff der Verantwortung zu beginnen. Geschichtlich ist das Verb »verantworten« bereits im 12. Jahrhundert nachzuweisen. Das Substantiv »Verantwortung« lässt sich dagegen erst etwas später im 15. Jahrhundert belegen. Im wissenschaftlichen Diskurs hat sich der Begriff »Verantwortung« seit Beginn des 19. Jahrhunderts etabliert.136 Otfried Höfe beschreibt Verantwortung als einen mehrstufigen Prozess. So gibt es ihm zufolge die Primär-Verantwortung (»Aufgabenverantwortung«), »die jemand trägt«137 , etwa für bestimme Aufgaben, Rollen oder Funktionen. Diese ist zu unterscheiden von der Sekundär-Verantwortung, »zu der man gezogen wird«, die Rechenschaft einfordert und mit einer Anschuldigung oder Verdächtigung einhergeht (»Rechenschaftsverantwortung«) sowie schließlich die Tertiär-Verantwortung (»Haftungsverantwortung«), die eine Haftung für ein moralisches Verfehlen oder Vergehen, etwa in Gestalt einer Wiedergutmachung oder Strafe einfordert. Nietzsche wird zu den ersten Philosophen im deutschsprachigen Raum gezählt, die den Begriff der Verantwortung in ihrem Werk thematisieren. So konstruiert dieser beispielsweise aus der von ihm angenommenen Gottlosigkeit der Menschheit, dem Ausbleiben von übergeordneten Instanzen einen Appell zur Selbstverantwortung. »Sobald man nicht mehr an Gott und an die Bestimmung für ein Jenseits glaubt, wird der Mensch verantwortlich für alles Lebendige«138 . Der Mensch trägt Verantwortung für sein Schicksal. Der fran-

135 136 137 138

Vgl. Bendel, Oliver (2019). Handbuch Maschinenethik. Wiesbaden: Springer. Vgl. Loh, Janina (2019). Roboterethik, S. 126. Höffe, Otfried (1977). »Verantwortung«, In: Höffe, Otfried (Hg.). Lexikon der Ethik. 7. Auflage erschienen 2008. Nördlingen: C. H. Beck, S. 326. Vgl. Nietzsche, Friedrich (1881). Kritische Studienausgabe (KSA). Nachlass, Herbst 1881. 15 [49]. KSA 9/651. München/Berlin/New York: Deutscher Taschenbuchverlag/Walter de Gruyter.

121

122

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

zösische Philosoph Jean-Paul Sartre bietet eine ähnliche Annäherung an den Begriff. Aus Sicht des Existentialismus ist Verantwortung das Resultat einer absoluten Freiheit. Der Mensch ist frei und müsse folglich für sein Handeln einstehen. »Wenn jedoch die Existenz wirklich dem Wesen vorausgeht, ist der Mensch für das, was er ist, verantwortlich. So besteht die erste Absicht des Existentialismus darin, jeden Menschen in den Besitz seiner selbst zu bringen und ihm die totale Verantwortung für seine Existenz aufzubürden.«139 Jonas, der anknüpfend an Kant einen abgewandelten Kategorischen Imperativ vorschlägt, spricht von Verantwortung als kausale Zurechnung und Verantwortung für Zu-Tuendes.140 Verantwortung kann für gute wie für schlechte Handlungen übernommen werden. Sie lässt sich – erster Fall – auf eine Ursächlichkeit zurückführen, die dann in Folge im positiven Sinne Lob, Anerkennung, im negativen Sinne Verurteilung und Strafe hervorbringen kann. Im zweiten Fall richtet sich der Verantwortungsbegriff auf die Zukunft und nimmt den Blick für das Wohl anderer auf. Verantwortung meint hier, sich über die Folgen seiner jetzigen Handlungen insbesondere für spätere Generationen bewusst zu sein. »Aber der neue Imperativ sagt, daß wir zwar unser eigenes Leben, aber nicht das der Menschheit wagen dürfen; […].« Bei Nida-Rümelin wird die Voraussetzung für das Übernehmen von Verantwortung auf die Befähigung zurückgeführt, auf der Grundlage von Gründen zu handeln. »Verantwortung ist […] ein Aspekt – neben der Freiheit und dem der Rationalität – der besonderen menschlichen Fähigkeit, sich von Gründen leiten zu lassen.«141 Roboter als moralische Verantwortungssubjekte: Die Forschung ist darüber im Unklaren, welche genauen Bedingungen erfüllt sein müssen, um einen Roboter als moralisches Verantwortungssubjekt zu verstehen. Als Voraussetzung und damit Minimalkonsens gilt zumindest, dass ein Konzept für Akteursschaft sowie eine Definition für Verantwortung benötigt wird, die man auf artifizielle Systeme übertragen könne.142 Von Robotern, denen wir eine Akteursschaft zu schreiben, nehmen wir allgemein an, dass sie über Autonomie und Urteilskraft verfügen, moralisch handeln können, mithin in der Lage sind, ihre moralischen Entscheidungen zu kommunizieren.143 Sie gelten

Sartre, Jean-Paul (2005). Der Existentialismus ist ein Humanismus. Hamburg: Rowohlt, S. 150. 140 Vgl. Jonas, Hans (2017). Das Prinzip Verantwortung. Frankfurt a.M.: Suhrkamp, S. 174ff. 141 Nida-Rümelin, Julia (2011). Verantwortung. Stuttgart: Reclam, S. 12. 142 Vgl. Loh, Janina (2019). Roboterethik, S. 48. 143 Loh, Janina (2019). Roboterethik, S. 133ff. 139

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

dann als sogenannten moralische Handlungssubjekte. Sicherlich gibt es über die genauen Kriterien für moralische Akteursschaft bisweilen differenzierte Auffassungen in der Literatur. Die Perspektive, dass sich das Zuschreiben von Verantwortung auf der Grundlage von sogenannten »Kompetenzgruppen«144 (Autonomie, Handlungsfähigkeit und Kommunikationsfähigkeit) abspielt und abhängt, wird beispielsweise in der Literatur von Floridi und Sanders (2004)145 , Sullin (2006) und Loh (2019) geteilt. Beschränken möchten wir uns auf die beiden letztgenannten Autoren. (1) John P. Sullin: In seinem Aufsatz »When Is a Robot a Moral Agent?« (2006)146 benennt Sullin drei Komponenten für Akteursschaft: Autonomie, Intentionalität und Verantwortung. Sein Verständnis von Verantwortung bewegt sich hierbei vor allem zunächst auf der von Höffe definierten Primärstufe. Verantwortung wird als Aufgabenverantwortung verstanden. Verantwortung ergibt sich im Zusammenhang mit der Wahrnehmung bestimmter »sozialer Rollen«147 und dem Glauben, die Pflicht zu haben, sich um ein Gegenüber »kümmern« zu müssen. Sofern ein Roboter Aufgaben erfüllt, die von ihm erwartet werden, können wir dem Roboter Verantwortung zuschreiben. Die zwei anderen charakteristischen Typen der Verantwortung, die Höffe nennt, bleiben bei Sullin unberücksichtigt. Dabei wäre es sicherlich relevant, ob ein Roboter in Sullins Theorie auch zur Rechenschaft gezogen und damit für das Gelingen oder Misslingen seiner Aufgaben haftbar gemacht werden kann. Das Problem hängt erstens an der auch von Loh kritisierten unscharfen Konstruktion des Begriffs »Gegenüber« ab, der mehrdeutig ist.148 Sullin spezifiziert an der genannten Stelle nicht weiter, welche Verantwortungsbeziehung vorliegen muss. Zweitens ist für die Verantwortungszuschreibung unerheblich, ob der Roboter über innere, geistige Zustände wie etwa ein Bewusstsein oder einen Verstand verfügt, um das eigene Handeln reflektieren zu können. Dies wären sicherlich Kandidaten, die bei einem Sekundär- und Tertiärverantwortungsbegriff anzusetzen wären, allerdings in Sullins Theorie ausgespart bleiben. Sul-

144 Loh, Janina (2019). Roboterethik, 128. 145 Floridi, Luciano und Sanders, J. W. (2004). »On the morality of artificial agents.« Minds and Machines 14(2004):349–379. 146 Sullin, John P. (2006). »When is a Robot a Moral Agent?«. 147 Sullin, John P. (2006). »When is a Robot a Moral Agent?«, S. 28. 148 Loh, Janina (2019). Roboterethik, S. 143.

123

124

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

lins eigenes Beispiel für einen verantwortungsbewussten Roboter hebt entsprechend nur auf die Pflichterfüllung in einem festdefinierten Aufgabenbereich ab. So kann ein Pflegeroboter nur dann Verantwortung zugesprochen werden, wenn er die gleichen Aufgaben imstande ist zu verrichten, wie ein menschlicher Pfleger oder eine Krankenschwester und seine »soziale Rolle« im Gesundheitssystem versteht, innerhalb dessen er operiert.149 Die vollständige moralische Akteursschaft des artifiziellen Systems wiederum erfordert außerdem Autonomie und Intentionalität. Sullin verliert kein Wort darüber, wie der Pflegeroboter seine Aufgaben und seine Rolle »verstehen« soll, wenn nicht einmal klar ist, ob er dazu in der Lage ist. Scheinbar wird dies von Sullin einfach postuliert. Wir haben jedoch im letzten Kapitel gezeigt, dass die Fähigkeit zur Bedeutungsverarbeitung nicht so ohne Weiteres in einem Roboter möglich ist. (2) Janina Loh: Der von Loh in mehreren Aufsätzen (etwa 2016150 , 2017151 , 2018152 ) entwickelte Ansatz für ein Verantwortungssubjekt knüpft an das Argument der funktionalen Äquivalenz von Wallach und Allen (2009) an, dass beide Autoren für den Begriff des Handlungssubjekts bzw. der moralischen Akteursschaft bei Robotern in ihrem Buch entwickeln. Hiernach gibt es operationale moralische Akteure, die vollständig von ihren Designern und Nutzern kontrolliert werden.153 Hingegen ermöglicht funktionale Moralität, dass Roboter selbst auf »moralische Herausforderungen«154 reagieren und diese bewerten können. Bei funktionalen moralischen Robotern handelt es sich um lernfähige Systeme, die sich außerdem weiterentwickeln können.155 149 Vgl. Sullin, John P. (2006). »When is a Robot a Moral Agent?«, S. 29. 150 Vgl. Loh, Janina (2016). »Zur Verantwortung in der Mensch-Maschine-Interaktion. Herausforderungen für das klassische Verantwortungskonzept«. In: Offenwanger, David, J und Quandt, Jan Hendrik (Hg.). #sustainability. Wirtschaftsethische Herausforderung Digitalisierung (S. 29–39). München: Mehring. 151 Vgl. Loh, Janina (2017). »Verantwortung und Roboterethik. Ein kleiner Überblick. Teil 1. Zeitschrift zum Innovations- und Technikrecht, 4(2017):220-226. 152 Vgl. Loh, Janina (2018). »On building responsible robots.« In: Karafillidis, Athanasiois dun Weidner, Robert (Hg.), Developing support technologies, integrating multiple perspectives to create assistance that people really want. Wiesbaden: Springer. Und: Loh, Janina (2018). Verantwortung und Roboterethik. Ein kleiner Überblick. Teil 2. Zeitschrift zum Innovations- und Technikrecht, 1(2018):29-35. 153 Wallach, Wendell, & Allen, Colin (2009). Moral machines: Teaching robots right from wrong. 154 Wallach und Allen (2009). Moral Machines, S. 9. 155 Vgl. Loh, Janina (2019). Roboterethik, S. 59.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Funktionale Äquivalenz ist allerding nicht mit menschlicher moralischer Akteursschaft gleichzusetzen. Funktionale Äquivalenz bedeutet, dass ein Roboter – ähnlich wie eine »Turing Maschine« – menschliche Fähigkeiten wie Kognition, Emotion oder Kommunikation simuliert.156 Von einer starken KI wird also in der Theorie von Wallach und Allen offensichtlich nicht ausgegangen. Loh schlägt nun vor, dass man das Konzept der operationalen und funktionalen Akteursschaft auch auf Verantwortungssubjekte übertragen könne. Die von ihr als zur Verantwortung zählenden Kompetenzen wie Autonomie oder Urteilskraft sowie Handlungs- und Kommunikationsfähigkeit lassen sich ihr zufolge in einem operationalen oder funktionalen Sinne realisieren. Nehmen wir den ersten Fall eines operationalen Verantwortungssubjekts an, dann wären also sämtliche Kompetenzen unter Kontrolle des Designers. Anders formuliert: nach dieser Logik sind der Designer und Nutzer in die Verantwortungszuschreibung des Roboters hinzuzufügen. Der Roboter hat nur abgeleitete Verantwortung. Die kausale Zurechnung, um mit Jonas zu sprechen, ist nicht auf ihn zurückzuführen. Im zweiten Fall der funktionalen Verantwortungssubjekte verhält es sich etwas komplizierter, weil das artifizielle System zumindest eigenständig moralische Situationen beurteilt. Das Simulationsargument – es handelt sich nicht um reale, nämlich menschliche Kompetenzen beim Roboter– würden wir nicht als Einwand verstehen. Selbst wenn es sich bei Robotern nicht um eine biologische Form des Lernens handelt, Kognition und Kommunikation künstlich sind, schließt das nicht aus, dass Roboter im Sinne der von Höffe angenommen Verantwortungstypen handeln könnten. Problematisch sehen wir nur in diesem Zusammenhang, dass Loh den Aspekt des Spracherwerbs und damit schließlich die Grundlage für die moralische Urteilsfähigkeit bei artifiziellen Systemen eher voraussetzt, nicht verrät, wie ein Roboter zur Sprachfähigkeit gelangt. Gleichwohl bemerkt sie – ähnlich wie Wallach und Allen, dass ein artifizielles System immer im Vergleich mit einem Menschen das Nachsehen haben muss: »Wann immer Menschen und Roboter in einem spezifischen Kontext gemeinsam agieren, ›sticht‹ sozusagen, die menschliche Fähigkeit, Verantwortung wahrzunehmen.«157 Roboter als moralische Verantwortungsobjekte: Während es bei Robotern als moralische Verantwortungssubjekte um die Voraussetzungen geht, die ein artifizielles System zu erfüllen hat, um Verantwortung für sein Verhalten 156 157

Vgl. Loh, Janina (2019). Roboterethik, S. 59. Loh, Janina (2019). Roboterethik, S. 145.

125

126

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

übernehmen zu können, dreht sich der Blickwinkel bei Robotern als moralische Verantwortungsobjekte. Im Vordergrund steht hier die Frage, welche moralische Verantwortung wir als Außenstehende für Roboter zu übernehmen haben, die nicht die Kriterien für ein moralisches Verantwortungssubjekt erfüllen (also nicht über Autonomie, Handlungs- und Kommunikationsfähigkeit verfügen). Verantwortungsobjekte respektive Verantwortungsgegenstände sind grundsätzlich nach Loh immer »vergangene oder zukünftige, sind Teil retrospektiver oder prospektiver Verantwortungskonstellation«158 . So kann man beispielsweise für einen Diebstahl, der in der Vergangenheit liegt, zur Verantwortung gezogen werden. Als Verantwortungsobjekt können allerdings auch weniger zeitlich verortbare Sachverhalte subsumiert werden.159 Loh nennt als Beispiel den Klimawandeln, für den die Menschen sowohl in der Vergangenheit – retrospektiv – als auch in der Zukunft – prospektiv in der Verantwortung stehen, ohne dass sich ein genauer Stichtag für die Verantwortlichkeit ausmachen lässt. Jonas’ zweiter Verantwortungstyp – Verantwortung für Zu-Tuendes – reiht sich in diese Interpretation ein. Als Menschen übernehmen wir grundsätzlich immer Verantwortung nicht nur für uns, sondern für alle unsere Nachfahren.160 Die Dimension des jetzigen und zukünftigen Gemeinwohls als Verantwortungsgegenstand ist implizit bei jeder moralischen Handlung anzulegen. Loh zählt einige Autoren wie Hans Lenk (1994), Friedman und Kahn (1992), Neuhäuser (2014), Marino und Tamburrini (2006) auf, die Roboter als Verantwortungsobjekte thematisieren.161 Hinzufügen könnte man schließlich außerdem Hans Jonas (1973162 , 1991163 )

158 Loh, Janina (2019). Roboterethik, S. 130. 159 Loh, Janina (2019). Roboterethik, S. 130. 160 Vgl. Jonas, Hans (1979). Das Prinzip Verantwortung. Versuch einer Ethik für de technologische Zivilisation. 6. Ausgabe, herausgegeben 2017. Frankfurt a.M.: Suhrkamp, S. 174ff. 161 Vgl. Loh, Janina (2019). Roboterethik, S. 162. 162 Vgl. Jonas, Hans (1973). »Kybernetik und Zweck. Eine Kritik.« In: Ders. Organismus und Freiheit. Ansätze zu einer philosophischen Biologie. Göttingen: Vandenhoeck & Ruprecht. 163 Vgl. Ders (1991). »Maschinen werden niemals ein Bewußtsein haben können. Gespräch mit Norbert Lossau.« In: H. Jonas. Das Prinzip Verantwortung. Erster Teilband: Grundlegung, Hg. D. Böhler, B. Böhler, KGA, Bd. I/2, Rombach, Freiburg am Br. 2015. (Online Link, abgerufen am 27.04.2023: https://detopia.de/J/Jonas-Hans/1993-Dem-boesen-E nde-naeher/s049-04-DieWelt-Maschinen.htm).

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

und Markus Gabriel (2013164 , 2015165 , 2018166 ). Wir beginnen zunächst mit dem klassischen Literaturbespiel von Hans Jonas und schließen mit Gabriel. (1) Hans Jonas: In einem Gespräch mit Norbert Lossau aus dem Jahr 1991167 , später abgedruckt in der Zeitschrift »Die Welt«, argumentiert Jonas grundsätzlich dagegen, dass Menschen Verantwortung für Roboter zu übernehmen haben. Selbst wenn es uns gelingen würde, ein künstliches System zu entwickeln168 , das menschenähnliche Aufgaben übernimmt, vielleicht sogar menschliche Züge besitzt, bleibt es dennoch nur eine Maschine, die »fest umrissene Zweckvorgänge mechanisch ausführen«169 würde. Entscheidend dafür, dass wir ein Wesen als Verantwortungssubjekt akzeptieren, sind nämlich zwei Voraussetzungen: Erstens benötigt ein verantwortungsbewusstes Wesen Bewusstsein und zweitens muss es sich selbst einen Zweck setzen können. Auf die Frage von Lossau, ob eine Maschine ein bloßer »Erfüllungsgehilfe« ohne Bewusstsein sei, antwortet Jonas: »Ja, es muß zu Anfang Bewußtsein dasein, um dem Automaten Instruktionen, eine Aufgabe einzuspeisen, und ebenso Bewußtsein zum Schluß, um ihm das Ergebnis, die Lösung, abzunehmen.«170 An anderer Stelle bemerkt Jonas, dass der Unterschied zwischen einem Menschen und einer Maschine darin besteht, dass erster »einen Zweck bilden kann« und zweite nur einem »Zweck dient«, »ziel-blind«171 ist. Jonas’ Bedenken erinnern stark an Searles biologischen Naturalismus, der die These einer starken KI ablehnt. Auch Jonas unterstellt, dass eine KI auf symbolverarbeitenden Prozessen basiert, und ohne eine zusätzliche Instanz (bei Jonas:

164 Vgl. Gabriel, Markus (2013). Warum es die Welt nicht gibt? Berlin: Ullstein. 165 Vgl. Ders. (2015). Ich ist nicht Gehirn. Philosophie des Geistes für das 21. Jahrhundert. Berlin: Ullstein. 166 Vgl. Ders. (2018). Der Sinn des Denkens. 167 Vgl. Jonas, Hans (1991). »Maschinen werden niemals ein Bewußtsein haben können. Gespräch mit Norbert Lossau«. 168 Vgl. Nowak, Ewa. »Can human and artificial agents share an autonomy, categorical imperative-based ethic«, S. 179. 169 Jonas, Hans (1991), »Maschinen werden niemals ein Bewußtsein haben können.« Gespräch mit Norbert Lossau, S. 609. 170 Jonas, Hans (1991), »Maschinen werden niemals ein Bewußtsein haben können.« Gespräch mit Norbert Lossau, S. 610. 171 Ders. (1973). »Kybernetik und Zweck. Eine Kritik.« In: Ders. Organismus und Freiheit. Ansätze zu einer philosophischen Biologie. Göttingen: Vandenhoeck & Ruprecht, S. 224.

127

128

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Subjektivität) nicht auf das Niveau menschlicher Intelligenz gelangt.172 Eine KI kommt also für Jonas nur als Verantwortungsobjekt in Frage. Es liegt an uns Menschen, so Jonas, Computer zu nutzen, um »vor möglichen ökologischen Katastrophen zu warnen«173 Interessant ist, dass Jonas trotz einer eher skeptischen Position gegenüber Computern, dennoch nicht umhinkommt, ihnen einen Nutzen für die Menschheit einzuräumen. Computer bleiben in Jonas Theorie auf dem Status eines intelligenten Werkzeuges, das bestenfalls in der Realisierung seines Verantwortungstypus, Verantwortung für Zu-Tuendes – behilflich zu sein vermag. (2) Markus Gabriel: Der Bonner Philosoph Markus Gabriel nähert sich dem Thema der Verantwortung und KI von einer zunächst destruktiven Haltung in seinen Werken »Ich ist nicht Gehirn« (2015)174 und »Der Sinn des Denkens« (2018)175 , von denen er in späteren Veröffentlichungen Abstand zu nehmen scheint (2019)176 . Gabriel vertritt einen biozentrischen Standpunkt, der sämtliche Kompetenzen einer künstlichen Intelligenz skeptisch bewertet. Einer KI Verantwortung wie bei Menschen zuzugestehen, wäre aus seiner Sicht vermutlich absurd. Der Grund dafür ist Gabriels Begriff des Denkens. Denken ist bei ihm eine genuin menschliche Fähigkeit. Der Mensch hat einen »Denksinn«, neben seinen anderen fünf Sinnen. Interessant ist sein Komplexitäts-Argument (Terminologie der Autoren) zur Abwehr von KI-Modellen. »Unser Denken lässt sich nicht nachbauen, weil es in Wirklichkeit prinzipiell für immer komplexer als jedes auf einem binären Zahlencode bestehendes Denkmodell sein wird, das wir von ihm anfertigen.«177 Sein Argument hat zwei Teile. Erstens nimmt es an, dass die Wirklichkeit zu komplex ist, als dass

172 173 174 175 176

177

Ders. (1991). »Maschinen werden niemals ein Bewußtsein haben können.« Gespräch mit Norbert Lossau, S. 610. Ebd., S. 611. Vgl. siehe oben. Vgl. siehe oben. Cremers, Armin B.; Gabriel, Markus et al. (2019). Vertrauenswürdiger Einsatz von Künstlicher Intelligenz. Handlungsfelder aus philosophischer, ethischer, rechtlicher und technologischer Sicht als Grundlage für eine Zertifizierung von Künstlicher Intelligenz. Zusammenarbeit mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS. Online verfügbar unter dem Link, abgerufen am 27.04.2023: https://www.iais.fra unhofer.de/content/dam/iais/KINRW/Whitepaper_KI-Zertifizierung.pdf. Gabriel, Markus (2018). Der Sinn des Denkens, S. 124.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

sie von irgendeinem künstlichen Denksystem erfasst werden könnte. Zweitens ist Denken zu komplex, als dass man es nachbilden könnte. Den ersten Teil des Arguments würden wir nicht als Einwand gegen KI verstehen, da auch Menschen und Tiere hervorragend in der Welt zurechtkommen, obwohl beide nur über begrenzte Wahrnehmungsapparate verfügen. Der zweite Teil des Arguments ist bedingt zulässig, da inzwischen eine Vielzahl verschiedener Computer-Modelle existieren, die Ansätze zur Erklärung menschlichen Denkens liefen (etwa Miłkowski 2013). In einer jüngeren Veröffentlichung zusammen mit dem Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (2019) wird ein philosophisches Grundgerüst, »Standards« und »Leitlinien« für den Umgang mit derzeit existierenden KI-Systemen entwickelt. Genannt werden die Prinzipien »Fairness«, »Transparenz« »Verlässlichkeit« und »Sicherheit«, die zu einem »Menschenbild der Digitalisierung«178 auszuformulieren sind. Die Studie geht sogar über den Bereich, der Roboter als Verantwortungsobjekt versteht, hinaus, da sie annimmt, dass auch KI-Systeme irgendwann entlang der genannten Grundprinzipien als Verantwortungssubjekte operieren könnten. »Schließlich sollte die Anwendung »by-design« so konstruiert werden, dass sie in dem festgelegten Umfang auditierbar und prüfbar ist.«179 Zusammenfassung: Dieser Abschnitt hatte vor allem einen einführenden Charakter, um die Unterscheidung des wichtigen Begriffspaars Verantwortungssubjekt und Verantwortungsobjekt herauszuarbeiten. Dabei folgt die Untersuchung der Forschungsmeinung, dass Autonomie und Urteilsfähigkeit, Handlungs- und Kommunikationsfähigkeit als zentrale Kriterien für ein Verantwortungssubjekt gelten. Diese widersprechen sich auch nicht mit dem in (5.2.6) vorgestellten, auf Korsgaards Philosophie aufbauenden Lösungsansatz. Im nächsten Abschnitt diskutieren wir jedoch zunächst ein weiteres Kriterium, das bei Menschen sehr häufig als Hinweis auf ein Verantwortungssubjekt angebracht wird, allerdings bei artifiziellen Systemen unangebracht ist: das Kriterium, eine Person zu sein. Dazu beschränken wir uns auf zwei geläufige Theorien zum Personenbegriff, auf denen aufbauend schließlich das anspruchsvolle metaphysische Argument der »Artifiziellen Person« ruht.

178 179

Cremers, Armin B.; Gabriel, Markus et al. (2019). Vertrauenswürdiger Einsatz von Künstlicher Intelligenz, S. 12. Cremers, Armin B.; Gabriel, Markus et al. (2019). Vertrauenswürdiger Einsatz von Künstlicher Intelligenz, S. 15.

129

130

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

5.2.3 Zwei Theorien der Person Das Argument, dass Roboter Personen sein könnten, hat seinen philosophiegeschichtlichen Ursprung in einer Personen-Theorie, die das »PersonenSein« auf eine Menge hinreichender und notwendiger Eigenschaften zurückführt. Zu dieser Theorie zählen unter anderem John Locke (1689), Daniel Dennett (1976)180 oder Dieter Sturma (1995)181 . Sie grenzt sich von einer anderen Theorie ab, der zufolge das Personensein an der biologischen Spezies der Menschen hängt. Zu finden ist dieser Standpunkt etwa bei Boethius, Thomas von Aquin oder später Robert Spaemann (2006)182 und Heinrich Schmidinger (1994)183 . Wir werden in diesem Abschnitt zeigen, dass beide Ansätze in ihrer Verwendung nicht unproblematisch sind, weil sie im ersten Fall zu einer definitorischen Beliebigkeit, im zweiten Fall zu einer Form von Essentialismus führen. Begriffsgeschichtlich leitet sich der Ausdruck »Person« vom lateinischen Wort »persona« ab, was sinngemäß mit »Theatermaske« übersetzt wird. Gemeint ist, dass eine Person eine Rolle oder eine Funktion innehat und diese – vergleichbar mit einem Theaterstück – spielt.184 Gemäß Sturma lassen sich in der Begriffsgeschichte mehrere Etappen erkennen. Die »philosophische Erfindung« des Begriffs ist ihm zufolge den Stoikern zu verdanken. Durch die christliche Trinitätslehre folgte eine »substanzphilosophische Neudeutung und ethische Auszeichnung«, die später von Locke aufgelöst und von Kant moralphilosophisch weiterentwickelt wurde. In der analytischen Philosophie rückte die »semantische Präzisierungen« in den Vordergrund. Moderne Studien hingegen stellen den Personenbegriff in größere Zusammenhänge und untersuchen zusätzlich epistemische und moralische Aspekte

180 Dennett, Daniel C. (1976). »Conditions of personhood.« In Rorty, Amelie Oksenberg (Hg.), The Identities of Persons. University of California Press. https://dl.tufts.edu/pdfviewer/w0892p348/sf268h06v. 181 Sturma, Dieter (1997). Philosophie der Person. Die Selbstverhältnisse von Subjektivität und Moralität. Paderborn, München, Wien, Zürich: Mentis. 182 Spaemann, Robert (2006). Personen. Versuche über den Unterschied zwischen ›etwas‹ und ›jemand‹. Stuttgart: Klett-Cotta. 183 Schmidinger, Heinrich (1994). Der Mensch ist Person. Ein christliches Prinzip in theologischer und philosophischer Sicht. Innsbruck: Innsbruck-Wien-Tyrolia. 184 Horn, Christoph (1977). »Person«, In: Lexikon der Ethik, S. 238.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

unter Einbeziehung in eine »ethische, politische und interkulturelle Gerechtigkeitstheorie«185 . Theorie (1): Personen sind Menschen: Der Gelehrte Boethius aus dem sechzehnten Jahrhundert ist einer der Ersten, der den Personenbegriff semantisch an den Begriff des »Menschen« koppelt. Boethius begreift eine Person als eine vernunftbestimmte, individuelle Substanz: »Persona est naturae rationabilis individua substantia.«186 Seinem Verständnis nach sind Menschen Personen, die über die Eigenschaften der Individualität und Vernünftigkeit verfügen. Auch Thomas von Aquin behandelt den Personenbegriff nicht losgelöst von der menschlichen Natur.187 Die Person ist »substantia prima«, also erste Substanz. Daneben charakterisiert er eine Person als frei, vernünftig und individuell. In der gegenwärtigen Forschung führen Heinrich Schmidinger und Robert Spaemann die substanzontologischen Überlegungen von Boethius und von Aquin weiter. Schmidinger leitet sein Prinzip »der Mensch ist Person«188 aus der christlichen Anthropologie ab. Als Person kennzeichnen den Menschen Selbstbestimmung, Individualität, Personalität und Gottesebenbildlichkeit. Die Frage ist an dieser Stelle berechtigt, ob Schmidingers Prinzip grundsätzlich gilt oder ob nicht durch die vier Charakteristika eine Einschränkung vorgenommen wird, die sein Prinzip relativiert. Uns scheint, Letzteres der Fall zu sein. Spaemann umgeht dieses Dilemma, in dem er eine »Personengemeinschaft« postuliert, der alle Menschen qua Geburt angehören.189 Das Personensein basiert also nicht auf einzelnen instanziierten Eigenschaften, sondern wird durch eine Gemeinschaft zuerkannt. »Nichts anderes ist es mit der Anerkennung von Personen. Sie ist Anerkennung des Anspruchs auf einen Platz in der bereits existierenden Personengemeinschaft, nicht Kooptation nach Kriterien, die von den bereits Anerkannten definiert werden.190 Personen sind Menschen, ungeachtet des jeweiligen physischen und kognitiven Ent-

185

186 187 188 189 190

Sturma, Dieter (2005). »Person und Menschenrechte«, e-Journal Philosophie und Psychologie, S. 3. Online verfügbar unter dem folgenden Link, abgerufen am 27.04.2023: http s://www.phps.at/texte/SturmaD1.pdf). Vgl. Sturma, Dieter (1997). Philosophie der Person, S. 49. Mack, Elke (2001). »Ist der Mensch immer zugleich Person? Zu anthropologischen Prämissen Christlicher Sozialethik.« Die Neue Ordnung 55 (4/2001):268-281, hier: 270. Schmidinger, Heinrich (1994). Der Mensch ist Person, S. 125. Spaemann, Robert (2006). Personen, S. 263. Vgl. Ebd., S. 253.

131

132

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

wicklungsstadiums. »Das Sein der Person ist das Leben eines Menschen«191 Das philosophische Grundproblem der hier dargelegten Position ist, dass sie auf einen biologischen Essentialismus hinausläuft. Es wird postuliert, dass das Wesen einer Person darin besteht, Mensch zu sein. Wenn man so will, gilt dieses Postulat als absolut und ist in den jeweiligen Theorien unhinterfragbar. Sicherlich müsste man etwas feiner unterscheiden, da Boethius, von Aquin und Schmidinger weitere Kriterien anführen. In diesen Fällen könnte man vielleicht von primären und sekundären Essenzen sprechen. Die primäre Essenz für das Personensein ist der Mensch. Als sekundäre Essenzen kämen Individualität, Vernünftigkeit etc. hinzu. In der modernen Forschung ist dieser Ansatz stark kritisiert worden, da es sich beim biologischen Essentialismus mehr um ein »kontingentes Faktum«192 handelt. Horn bemerkt, dass sich die Existenz nicht-menschlicher Personen wie Außerirdischer, Engel, uns unbekannter Tiere oder künftig konstruierbarer Maschinen nicht von vornherein ausschließen lassen würde.193 Außerdem werden durch das Gleichsetzen der Semantik der Begriffe »Person« und »Mensch« »systematische und philosophiegeschichtliche Sachverhalte«194 ausgeblendet. Kritisiert wird, dass auch solche Lebewesen Rechte besitzen, die keine Personen sind. Theorie (2): Personen haben bestimmte Eigenschaften bzw. Fähigkeiten: Vertreter der zweiten Theorie der Person sind der Auffassung, dass der Grund, warum wir jemanden als Person bezeichnen, mit einer Menge bestimmbarer hinreichender bzw. notwendiger Eigenschaften oder Fähigkeiten zusammenhängt, die unabhängig vom Menschsein Gültigkeit besitzen. Der Urheber für diese Neubegründung in der Begriffsgeschichte ist John Locke. Dessen Analyse in die Begriffe Substanz, Mensch und Person führte zu einer »Emergenz der Person«195 . Locke definiert die menschliche Person als »a thinking intelligent being, that has reason and reflection, and can consider itself as itself, [...]«196 . Er versteht eine Person als ein intelligentes, denkendes Wesen, das über Vernunft

191 192 193 194 195 196

Vgl. Ebd., S. 264. Horn, Christoph (1977). »Person«, In: Lexikon der Ethik, S. 238. Vgl. Ebd., S. 238. Sturma, Dieter (2005). »Person und Menschenrechte«, S. 3. Sturma, Dieter (2005). »Person und Menschenrechte«, S. 3. Locke, John (1689). »An Essay Concerning Human Understanding«, Buch 2, Aalen, Ausgabe von 1963, Kap. 27, §9.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

und Reflexionsvermögen, Selbstbewusstsein verfügt. Zusätzlich sind Personen in der Lage, ihr Leben über die Zeit hinweg planen und führen zu können.197 Sie können sich erinnern. Dieses psychologische Kriterium wird später im Abschnitt um die personale Identität vor allem relevant, das von John Perry beispielsweise später erneut aufgegriffen und modifiziert wird.198 Für Dieter Sturma sind die zentralen Eigenschaften einer Person, ein selbstbestimmtes Leben zu führen, moralische Entscheidungen zu treffen und den eigenen Plänen und Ideen zu folgen.199 Harry G. Frankfurt hingegen bringt ein weiteres Merkmal in die Diskussion. Für ihn besitzt eine Person das Vermögen, »Volitionen« zweiter Ordnung, also über Wünsche, Absichten, Entschlüsse usw., die sich Volitionen erster Ordnung beziehen können.200 Daniel Dennett hat in seinem Aufsatz »Conditions of personhood« (1976) nennt sogar sechs Bedingungen, die für eine Person konstitutiv sind: (1) Vernunft, (2) Bewusstseinszustände, (3) die Haltung, welche der Person gegenüber eingenommen wird, (4) Reziprozität: personale Haltung kann erwidert werden, (5) verbale Kommunikation und (6) Selbstbewusstsein in der Form kritischer Selbstbewertung.201 Michael Quante (2012) hat Dennetts Modell in notwendige (1. 2, 3) und hinreichende Vorschläge (4, 5, 6) gegliedert.202 Die verschiedenen bis zu dieser Stelle genannten Ansätze, die hier nur exemplarisch aufgeführt wurden, haben eine Gemeinsamkeit, die man auch gleichfalls als ihre offenkundige Schwierigkeit interpretieren kann: sie alle postulieren eine andere Menge an Eigenschaften oder Fähigkeiten für den Personenbegriff. Hierdurch ergibt sich eine gewisse Unschärfe und definitorische Beliebigkeit. Dieses Problem wird sich auch im nächsten Abschnitt beim Argument der »Artifiziellen Person« zeigen. In der Roboterethik sind die Meinungen keinesfalls klar, ab wann ein Roboter als Person zu bezeichnen ist. Für den Anspruch des Arguments, Roboter können Personen sein, wäre es jedoch zentral, dieses Problem aufzulösen. 197 Sturma, Dieter (2005). »Person und Menschenrechte«, S. 3. 198 Perry, John (2002). Identity, Personal Identity and The Self. Indianapolis/Cambridge: Hacket Publishing Company. 199 Sturma, Dieter (1997). Philosophie der Person, S. 348. 200 Frankfurt, Harry G. (1971). »Freedom of the Will and the Concept of a Person.« Journal of Philosophy, 68(1): 5–20, hier: 6. 201 Dennett, Daniel C. (1976). »Conditions of personhood.«, S. 177. 202 Quante, Michael (2012). Person. 2. erweiterte Auflage. Berlin/Boston: Walter de Gruyter, S. 24.

133

134

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Zusammenfassung: Misselhorn hält fest, dass es philosophisch umstritten ist, ab wann ein Mensch genau eine Person sei.203 Diese Beobachtung scheint in jedem Fall zu zutreffen, wenn man sich beide in diesem Abschnitt diskutierten Theorien zum Personenbegriff vergegenwärtigt. Die biozentrische Position gründet sich auf ein unverrückbares Postulat, das durch die semantische Verengung auf den Begriff »Mensch« zu einem fragwürdigen Ausschluss anderer Lebewesen führt, denen wir möglicherweise unter Umständen Personenrechte zugestehen würden. Mit der zweiten Theorie wird der Begriff »Person« nicht mehr auf den Menschen, stattdessen auf kognitive Eigenschaften und Fähigkeiten von Lebewesen reduziert. Dieses Manöver hat in der Forschung die Meinung begünstigt, dass auch grundsätzlich Roboter Personen sein könnten, ein Irrtum, wie wir im nächsten Abschnitt verdeutlichen möchten.

5.2.4 Das Argument der »Artifiziellen Person« Selmer Bringsjord hat Anfang der 1990er in seinem Buch »What robots can and can’t be?«204 die rhetorische Frage aufgestellt, ob Roboter möglicherweise im nächsten Jahrzehnt den Status einer Person erreichen könnten. »Will robots in the coming age […] be persons?«. Seine Antwort hierauf fällt negativ aus: »Robots will get very flashy, but […] they’ll never be people.«205 Roboter werden, so der Autor, vieles sein können, aber sicherlich keine Personen. Seither hat sich an diesem Zustand nicht viel geändert, zumindest ist in der Forschung der entsprechende Beweis bislang nicht erbracht worden. Zwar hat es in den letzten Jahren einige spektakuläre Entwicklungen auf dem Feld der Künstlichen Intelligenz und Robotik gegeben wie beispielsweise die Konstruktionen der Roboter KISMET, BlessU-2, Paro, Cog oder iCUB, nur sind diese Modelle weit davon entfernt, als Personen bezeichnet zu werden.206 Dennoch finden sich nach wie vor einige Autoren, die die Idee »Artifizieller Personen« nicht aufgeben wollen. Petersen (2014)207 , Veruggio und Abney (2014)208 aber auch

203 Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 118. 204 Bringsjord, Selmer (1992). What robots can and can’t be? Luxemburg: Springer Science+Business Media S.A. 205 Bringsjord, Selmer (1992). What robots can and can’t be?, S. 6. 206 Vgl. Loh, Janina (2019). Roboterethik, S. 73. 207 Vgl. Petersen, Steve (2014). »Designing People to Serve«. 208 Vgl. Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.«

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Putnam (1964)209 , Parfit (1971)210 , Midgley (1985)211 halten es für realistisch, dass Roboter unter bestimmten Voraussetzungen Personen oder sogar »Supra-Personen«212 sein können. In diesem Abschnitt werden wir begründen, warum dieses Argument zurückzuweisen ist. Unsere These lautet, dass das Argument der »Artifiziellen Personen« auf zu starken metaphysischen Annahmen aufbaut, die sich schwer validieren lassen. Die aus unserer Sicht wichtigsten drei Annahmen werden wir dazu im Folgenden diskutieren. (1) Annahme »Menschsein konstituiert nicht notwendigerweise Personensein: Wie schon im letzten Abschnitt vorausgeschickt, folgen Vertreter des »Artifiziellen Personen«-Arguments der Annahme, dass der Personenbegriff nicht auf den Begriff »Mensch« semantisch eingeschränkt werden kann. »The word ›person‹ means a human being. I think that this is a very natural view but not actually a true one […].«213 Entsprechend unterschiedliche Fähigkeiten und Eigenschaften werden angeführt, die eine Person konstituieren. Abney beschreibt beispielsweise eine Person als ein »deliberative system capable of agency«214 . Einer Person kann aus seiner Sicht der Personenstatus zugesprochen werden, sobald sie erstens über Akteursschaft und zweitens über Denkfähigkeit – »a deliberative system« – verfügt. Diese Fähigkeiten versetzen eine Person in die Lage, moralisch zu handeln, Regeln in der Gesellschaft zu befolgen sowie Zukunftspläne von sich zu entwerfen und in die Tat umzusetzen.215 Ihm zufolge spielen nicht einmal Emotionen für den Personenbegriff eine Rolle. So argumentiert er, dass Psychopathen oder Soziopathen nicht ihren Personenstatus verlieren und für ihre Straftaten rechtlich und moralisch verantwortlich

209 210 211 212 213 214 215

Vgl. Putnam, Hilary (1964). »Robots: Machines or Artificially Created Life?«. Vgl. Parfit, Derek. (1971). »Personal Identity«. Vgl. Midgley, Mary (1985). »Persons and Non-Person«. Douglas, Thomas (2013). »Human Enhancement and Supra-Personal Moral Status.« Midgley, Mary (1985). »Persons and Non-Person.«, S. 52–53. Abney, Keith (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed,«, S. 47. Vgl. Ebd., S. 47.

135

136

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

gemacht werden können, obwohl sie emotional eingeschränkt sind.216 »But is the ancestral emotional system needed as well? What of hypothetical creatures that could rationally deliberate, yet lack emotions? Would they have morality? In other words – could (emotionless) robots be moral persons? Yes, they could«217 Diese zusätzliche Anmerkung ist bedingt richtig, da, wie Ayanoğlu & Sequeira (2019)218 einwenden, Emotionen einen beträchtlichen Einfluss auf unser menschliches Handeln haben. In welchem Umfang Emotionen in einem Roboter zum Tragen kommen sollen und in welcher Applikation, bleibt sicherlich nach wie vor zu diskutieren.219 An anderer Stelle bemerken wiederum Veruggio und Abney, dass sich eine Person über die »Erste Person-Perspektive«, ähnlich wie bei Searle, allerdings ohne den nicht-reduktiven Anspruch, auszeichnet. Moralische Akteursschaft und Denkfähigkeit reichen nicht aus. Die Person hat sich ebenfalls als Selbst wahrzunehmen220 , was an Dennetts und Quantes Kriterium der kritischen Selbstbewertung erinnert. Schließlich ergänzen beide Autoren einen vierten Aspekt: Bedeutung, den auch Putnam für wichtig erachtet.221 Alle genannten Fähigkeiten sind wenig wert, wenn der Roboter nicht versteht, was er tut. Auffallend ist in beiden zitierten Texten der Autoren, dass die Realisierung einer starken KI grundsätzlich angenommen wird. Welche Bedingungen hierfür erforderlich sind, bleibt unerwähnt. Midgley wiederum nennt keine spezifischen Fähigkeiten und Eigenschaften, betont allerdings, dass Intelligenz als ein mögliches Kriterium herhalten könnte:

216

An dieser Stelle ist zu bemerken, dass die Begriffe Psychopath bzw. Soziopath stigmatisiert sind und oftmals mißverstanden werden. Daher ist das Beispiel von Abney möglicherweise nicht sehr gelungen. Den Diskurs zu diesem wichtigen Aspekt haben beispielsweise Sheehan, Nieweglowski und Corrigan herausgearbeitet: Vgl. Sheehan, Lindsey, Nieweglowski, Katherine & Corrigan, Patrick (2016). The Stigma of Personality Disorders. Curr Psychiatry Rep 18, 11. https://doi.org/10.1007/s11920-015-0654-1. 217 Abney, Keith (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed,«, S. 47. 218 Vgl. Ayanoğlu, Hande; Sequeira, João S. (2019). »Human-Robot Interaction.« 219 Vgl. Villaronga, Eduard F. »›I love you‹, said the the robot: Boundaries of the Use of Emotions in Human-Robot-Interactions.« In: Ayanoğlu, Hande; Duarte Emília (Hg.). Emotional Design in Human-Robot Interaction. Theories, Methods and Applications (S. 93–110), S. 106. 220 Vgl. Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.«, S. 354. 221 Vgl. Putnam, Hilary (1964). »Robots: Machines or Artificially Created Life?«. S. 673.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

»If we ask what elements in ›persons‹ are central in entitling them to moral consideration, we can, I think, cast some light on the point by contrasting the claim of these sensitive social creatures with that of a computer, of the present generation, programmed in a manner which entitles it, according to current controversial usage, to be called ›intelligent‹.«222 Die Schwierigkeit an diesem Ansatz ist, dass Midgley den Leser im Unklaren darüber lässt, was er unter »Intelligenz« versteht. (2) Annahme »Der uneingeschränkte Materialismus«: Das Argument, dass Roboter Personen sein können, hängt mit einer weiteren, in diesem Fall metaphysischen Prämisse zusammen. Es wird ein uneingeschränkter Materialismus postuliert, demzufolge alles Biologische, jedes noch so kleine Teil des Menschen durch ein artifizielles Äquivalent substituiert werden kann. Dies umfasst ebenso den menschlichen Geist einschließlich seiner kognitiven und mentalen Fähigkeiten, die man durch Algorithmen nachbilden könne. Der Materialismus ist eine philosophische Spielart, die durch den Positivismus und Szientismus beeinflusst wurde. Die Idee ist, dass die Welt als ein nomologisch miteinander verbundenes Ganzes existiert.223 Alles, was in der Welt vorkommt, ob es biotisch (menschlich, tierisch oder pflanzlich) oder abiotischen (unbelebte Vorkommnisse) ist, hat einen materiellen Ursprung. In der Welt gibt es nur materielle Gegenstände. Aufbauend auf diesem ontologischen Argument teilen die Autoren eine überwiegend positive Haltung, dass mit den Mitteln der Wissenschaft und Technik alle materiellen Gegenstände und die mit ihnen verbunden Naturgesetze in der Welt entschlüsselt und erklärt werden können, um sie auf künstlichem Weg zu erzeugen. In einer frühen Fassung hat Julien Offray de La Mettrie, französischer Arzt und Philosoph im 18. Jahrhundert, einen vergleichbaren Standpunkt in seinem Werk »L’homme machine« (1748) verteidigt. »Der Mensch ist eine Maschine […]. Also kann man nur praktisch, oder durch einen Versuch der Zergliederung der Seele, nach Art der Aufklärung über die körperlichen Organe, ich will nicht sagen mit Sicherheit die Natur des Men-

222 Midgley, Mary (1985). »Persons and Non-Person.«, »Persons and Non-Person.«, S. 52–53. 223 Gabriel, Markus (2013). Warum es die Welt nicht gibt?, S. 16.

137

138

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

schen enträtseln, aber doch wenigsten den möglichst höchstens Grad von Wahrscheinlichkeit über diesen Gegenstand erreichen.«224 In der zitierten Textstelle wird der Unterschied zwischen Mensch und Maschine in Gänze aufgehoben. Alles Menschliche ist oder funktioniert zumindest wie bei einer Maschine, so lautet die verkürzte These von Julien Offray de La Mettrie. Die Begründung dahinter könnte man vielleicht so rekonstruieren: Mensch und Maschine bestehen erstens aus ein und derselben Materie. Hat man zweitens erst einmal die Funktionsweise und Natur der menschlichen (materiellen) Bestandteile verstanden, wird man feststellen, dass diese der Funktionsweise und Natur der maschinellen (materiellen) Bestandteile entsprechen. Das Argument der »Artifiziellen Person« scheint in gewisser Weise eine moderne Variante von La Mettries historischen Vorbild zu sein. Veruggio und Abney nehmen an: »If we could gradually replace all of our higher brain biological functions with mechanical, robotic replacements, until we had a completely robotic brain, with no interruption in first-person self-consciousness, why would the result not qualify as a moral person, even if no longer completely a biological human?«225 Ferner schlussfolgern beide Autoren, dass es keinen nennenswerten respektive relevanten Unterschied zwischen Lebewesen mit biologischen und artifiziellen Organen gibt, auch nicht in Hinblick auf ihren moralischen Status. »And, if so, why would biological arms, or legs or digestive tract be morally crucial? Surely those humans with artificial arms, legs, and so forth, are full moral persons.«226 Seine Zuspitzung findet die Annahme eines uneingeschränkten Materialismus in Petersens Gedankenexperiments des »Person-on-Matic«. Das Gedankenexperiment lautet wie folgt: Nehmen wir an, wir könnten eine Maschine – einen »Person-on-Matic« – entwickeln, mit der sich der vollständige Zyklus einer menschlichen befruchteten Eizelle bis hin zur Geburt künstlich

224 La Mettrie J. O (1774). Der Mensch eine Maschine. (org. L’homme Machine). Übersetzt von Adolf Ritter, Ausgabe 4 von 2016. Berlin: Holzinger, S. 12. 225 Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.«, S. 353. 226 Ebd., S. 353–54.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

nachbauen lässt.227 Der »Person-on-Matic« erhält dazu alle notwendigen Erbgutinformationen, kombiniert diese und startet eine künstliche Schwangerschaft in einem »artificial uterus« – einem künstlichen Uterus – »much later producing an infant, exactly as might have been produced by the more traditional route«228  – das Ergebnis ist also eine »Artifizielle Person«, die wie ihr biologisches Pendant zu betrachten ist.229 »We should treat APs (Artifizielle Personen) well, whether organic or inorganic, not because they could be mistaken for people, but because they are people.«230 Petersens Gedankenexperiment basiert ebenfalls auf der Annahme, dass sich sämtliche Bausteine des Menschen, in diesem Fall sogar bis hin zur molekularen Ebene, identifizieren und künstlich herstellen lassen. Gegen diese Annahme wendet beispielsweise Nagel ein, dass der Materialismus letztendlich nichts anderes als eine Form von Idealismus darstellt.231 Das Modell des Materialismus postuliert absolute Objektivität, in welcher der Geist als Subjektivität kaum eine Rolle spielt, bestenfalls als ein Epiphänomen deklassiert wird. »[…] we will not know exactly how scrambled eggs taste to a cockroach even if we develop a detailed phenomenology of the cockroach sense of taste«232 . Ferner begehen Materialisten einen Fehlschluss, weil sie den ontologischen Status beispielsweise von Autos, Atomen mit Gefühlen, Gedanken undifferenziert gleichsetzen.233 (3) Annahme »Person ist eine System-Eigenschaft«: Die dritte und letzte Annahme ist inhaltlich eng mit der ersten Annahme verzahnt. Die biologische Natur des Menschen ist höchstens ein hinreichendes, allerdings kein notwendiges Kriterium dafür, dass wir einem Lebewesen den Personenstatus zubilligen. Stattdessen wird angenommen, dass eine »Person« eine emergente SystemEigenschaft eines Organismus ist. Die Voraussetzung hierfür ist, dass nur die richtigen Bausteine zusammengeführt werden. Welche das sein sollen, 227 228 229 230 231 232 233

Petersen, Steve (2014). »Designing People to Serve«, S. 286. Petersen, Steve (2014). »Designing People to Serve«, S. 286. Vgl. Ebd. S. 286. Ebd., S. 294. Nagel, Thomas (1986). The view from nowhere, S. 26. Ebd., S. 25. Gabriel, Markus (2013). Warum es die Welt nicht gibt?, S. 43.

139

140

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

darüber besteht bislang, wie in (1) gezeigt, keine Einigkeit. Bei Veruggio und Abney stellt sich die Emergenz-Annahme so dar: »The foregoing considerations suggest that biological humanity is not morally crucial if robots could attain first-person self-consciousness and deliberative agency, the usual requirements for moral responsibility and the hallmark for moral personhood«234 Sollte es gelingen, so die Idee, die für das Personensein relevanten Fähigkeiten wie Selbstbewusstsein, Akteursschaft, Verantwortungsfähigkeit in einem Roboter zu entwickeln, sollte es aus Sicht der Autoren ebenso möglich sein, dem Roboter den Personenstatus zu attestieren. Petersen wiederum bleibt bei seiner Beschreibung vage. Alles, was es braucht, damit jemand (oder etwas) zur »Person« wird, sind »higher complicated organizational patterns«.235 Diese höheren, komplizierten Verhaltensmuster oder Eigenschaften können Petersen zufolge nicht nur Menschen, sondern theoretisch auch Außerirdische oder künstliche Lebensformen ausprägen, die dann vollumfänglich »ethically valuable«236 wären. Problematisch auch an diesem Ansatz ist, dass Petersen – ähnlich wie Veruggio und Abney – die Möglichkeit einer starken KI für seinen Standpunkt einfach voraussetzt und zweitens die Realisierung der Person als System-Eigenschaft offenlässt. Dabei wäre es denkbar, dass Petersen auf in der Philosophie bekannte Erklärungsmodelle wie auf den nicht-reduktiven Physikalismus oder die Supervenienz-Theorie zurückgreift. So bleibt sein Plädoyer für Artifizielle Personen eher eine originelle Fiktion, die auf starken metaphysischen Postulaten aufbaut. Zusammenfassung: Der Begriff »Person« eignet sich nicht für eine Übertragung auf das Feld der Roboter. Aktuell diskutierte Versuche in der Forschung, die dennoch die Idee »Artifizieller Personen« für realistisch halten, arbeiten mit zweifelhaften Annahmen, die man nicht unbedingt teilen muss. Wir werden im nächsten Abschnitt außerdem einen weiteren Einwand von James Digiovanna (2017) beleuchten, der auf ein Kriterium hinweist, das in der bisherigen Debatte noch gar nicht angesprochen wurde: gemeint ist das Kriterium der personalen Identität.

234 Abney, Keith und Veruggio, Gianmarco (2014). »Roboethics: The Applied Ethics for a new Science.«, S. 354. 235 Petersen, Steve (2014). »Designing People to Serve«, S. 285. 236 Ebd., S. 285.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

5.2.5 Können Roboter personale Identität besitzen? Selbst wenn wir den Vertretern des Arguments für »Artifizielle Personen« einen Moment zugestehen würden, dass sie – ungeachtet ihrer Annahmen – Recht haben, bliebe das wichtige, von Ihnen nicht angesprochene Merkmal der personalen Identität ungeklärt. Das Merkmal der personalen Identität betrifft die Frage, was eine Person über einen Zeitraum ausmacht und stabil zusammenhält.237 Die von Petersen, Veruggio und Abney aufgeführten Kandidaten (Akteursschaft, Denkfähigkeit, Erste Person-Perspektive, Intelligenz etc.) scheinen hierfür zumindest nicht geeignet zu sein. Gleichwohl sind auch die Strategien, die als Vorschläge für personale Identität in der Forschung aktuell diskutiert werden, nicht vorbehaltlos auf artifizielle Systeme zu übertragen, obwohl es sicherlich gute Gründe hierfür gäbe. Zur Begründung dieser These, beginnen wir zunächst mit einer kurzen Einführung in den Begriff und in die Forschung, bevor wir auf den aus unserer Sicht interessanten Einwand von James DiGiovanna eingehen. In seinem Aufsatz »Artificial Identity«238 (2017) spricht der Autor künstlichen Systemen die Fähigkeit zur Formung einer Person ab. Allerdings basiert auch sein Argument auf zwei Annahmen, die seinen Einwand relativieren. Wir beschränken uns in diesem Abschnitt auf den von John Locke (1689), Derek Parfit (2017) und John Perry (2002) entwickelten Vorschlag der psychologischen Kontinuität. Die anderen Vorschläge der physischen Kontinuität, Körperlichkeit, (etwa Williams, 1973239 ; Olson, 1997240 ) sowie neuere Ansätze in der Forschung (Identität als personales Narrativ oder soziales Konstrukt) lassen wir außen vor, wobei man sie mit Sicherheit ebenfalls hier diskutieren könnte. (1) Zum Begriff der personalen Identität: Woher wissen wir, dass eine Person, die wir gestern im Supermarkt getroffen haben, heute, wenn wir sie wieder auf der Straße sehen und ins Gespräch kommen, dieselbe ist? Das Beispiel lässt sich genauso gut aus der Ersten Person-Perspektive erzählen. Woher weiß ich,

237 Horn, Christoph (1977). »Person«. In: Höffe, Otfried (Hg.). Lexikon der Ethik, S. 238. 238 DiGiovanna, James, ›Artificial Identity‹, in Patrick Lin, Keith Abney und Ryan Jenkins (Hg.), Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence (S: 307–321). 239 Vgl. Williams, Bernard (1973). Problems of the Self. Cambridge: Cambridge University Press. 240 Vgl. Olsen, Eric T. (1997). The Human Animal. Personal Identity without Psychology. Oxford: Oxford University Press.

141

142

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

dass mein gestriges Ich identisch ist mit meinem heutigen Ich? Bin ich heute für die Person derselbe, die mich gestern beim Einkaufen erkannt hat? Sowohl in der ersten als auch in der zweiten Variante des Beispiels handelt es sich um das philosophische Problem der personalen Identität. Aufgrund der zeitlichen Dimension, die hier zum Tragen kommt, spricht man in der Forschung auch von diachroner Identität, im Gegensatz zur synchronen Identität, die nach der Beschaffenheit einer Entität zu einem Zeitpunkt fragt. Die diachrone Identität betrachtet, wenn man so will, die Beständigkeit einer Entität im Wandel der Zeit. John Locke war einer der ersten Philosophen, der sich mit der Diachronie der Identität beschäftigte. In seinem Buch Essay Concerning Human Understanding (1689) weist Locke psychologische Kontinuität als Bedingung für personale Identität aus. Psychologische Kontinuität umfasst einerseits ein stabiles Bewusstsein sowie andererseits ein intaktes Erinnerungsvermögen. Um im oberen Beispiel zu bleiben: Kann ich mich heute daran erinnern, dass ich gestern im Supermarkt war, ich jemanden traf, dann ist das hinreichend für die Annahme, dass meine Person dieselbe ist. Bei Locke heisst es dazu im Original: »As far as this consciousness can be extended backwards to any past action or thought, so far reaches the identity of that person […]«241 . Locke begrenzt mit dieser Definition das Phänomen der Identität auf die Vergangenheit, die Zukunft nimmt er nicht in den Blick, eine Schwierigkeit, die bereits Butler (1736)242 anmerkte. Als Person, wie Frankfurt kritisiert, richten wir uns mit unseren Absichten und Plänen auf die Zukunft, entwerfen von uns und der Gegenwart Vorstellungen, die wir realisiert haben wollen. Der menschliche Geist besteht darin, schreibt Gabriel in Anlehnung an das Original bei Hegel, »sich ein Bild von sich selbst und seiner Stellung in der Wirklichkeit zu machen, die weit über ihn hinausgeht.«243 Des Weiteren hat Butler bemängelt, dass Lockes Argument auf einen Zirkelschluss hinauslaufen würde, bei dem sich die erinnernde Person jedes Mal selbst voraussetzen müsse.244 Ich muss davon ausgehen, dass mein zukünftiges ich eine Erinnerung von meinem jetzigen ich haben wird. Das dies nicht notwendiger so sein muss, leuchtet ein, wenn sich mein zukünftiges

241 242 243 244

Vgl. Locke, John (1689). »An Essay Concerning Human Understanding«, Kap. 27, §9. Vgl. Perry, John (2002). Identity, Personal Identity and the Self, S. 145. Gabriel, Markus (2015). Ich ist nicht Gehirn, S. 57. Vgl. Perry, John (2002). Identity, Personal Identity and the Self , S. 135.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Ich – im besten Fall – nicht mehr an mich erinnern kann oder – im schlechtesten Fall – einen Unfall mit irreparablen kognitiven Schäden erleidet. Den letzten Punkt hat insbesondere Reid bemängelt, der das Transitivitätsgesetz durch Lockes Argumentation verletzt sehen will.245 Das Argument von Locke hat eine weitere Schwachstelle: Wenn nur als Bedingung gilt, dass die Psyche eines Menschen Konsistenz aufweisen soll, dann könnte man rein theoretisch, vorausgesetzt es stünden die technischen und medizinischen Möglichkeiten zur Verfügung, die Psyche in einen anderen Körper transferieren oder gar auf ein Computer-Programm uploaden246 . Wichtig wäre dann allerdings außerdem, dass sich die transferierte oder geuploadete Psyche an seine vergangenen Taten und Erlebnisse erinnern kann. In diesem Fall könnte man im Sinne von Locke nach wie vor von ein und derselben Person sprechen. Derek Parfit hat dieses Problem erkannt und daher vorgeschlagen, Lockes Theorie um das Kriterium der physischen Kontinuität auszubauen: »Personale Identität über die Zeit hinweg besteht lediglich in physischer und/oder psychologischer Kontinuität.«247 Parfit räumt gleichwohl ein, dass es sich hierbei nur um eine »grobe Skizze«248 seiner reduktionistischen Position handeln könne, da man sich auch mit seinem Manöver metaphysischen Ballast einhandeln würde. Zum Beispiel müsste man auf physischer Ebene voraussetzen, dass der Körper exakte »Duplikate«249 aller Zellen in Zukunft anlegt, um die Bedingung der Kontinuität zu erfüllen. Wenn dem Körper allerdings ein Schmerz zugefügt wird (dem Körper wird ein Bein gebrochen), ändern sich auch die Zellen des Körpers. Die Kontinuität wäre somit aufgehoben. Auf psychologischer Ebene ließe sich ein ähnliches Gedankenexperiment, nur mit mentalen Ereignissen, rekonstruieren. Manche sprechen daher in der Forschung lieber von quasi psychologischen und quasi physischen Zuständen, die in einer logischen Abfolge zueinanderstehen.250 Worauf es ankommt, ist schließlich nur eine kausale Relation. Eine Variante dieser Strategie hat John Perry (2002) vorgelegt, der Lockes Argument auf diesem Weg verteidigen möchte. Seine Idee ist, dass personale Identität 245 246 247 248 249 250

Vgl. Ebd., S. 84–85. Vgl. Loh, Janina (2018). Trans- und Posthumanismus, S. 100ff. Parfit, Derek (2017). Personen, Normativität und Moral. Frankfurt a.M.: Suhrkamp, S. 76. Ebd., S. 77. Parfit, Derek (2017). Personen, Normativität und Moral, S. 77. Vgl. Roache, Rebecca (2016). Memory and mineness in personal identity. Philosophical Psychology, 29(4): 479–489. https://doi.org/10.1080/09515089.2015.1102216, S. 479.

143

144

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

dann vorliegt, wenn ein Mensch, der sich in einem beliebigen biologischen Zustand (»human stage«) befindet, sowohl eine bestimmte Theorie über seine Körperlichkeit oder sein Menschsein (»H-related«) als auch eine bestimmte Vorstellung von sich als Person (»P-related«) verfügt. Dabei setzt er voraus, dass beim Menschen die Vorstellung von sich als Person mit einer Theorie des Menschseins einhergehen muss.251 Sein Vorschlag hebt also Parfits Kriterien der psychologischen und physischen Kontinuität auf eine neue Reflexionsebene, ohne dass Parfits Bedenken selbst ausgeräumt werden können. Fraglich sind zudem Perrys Voraussetzungen für das Argument. So nimmt er an, dass es einen Konsens über eine bestimmte Theorie der Körperlichkeit sowie ein einheitliches Verständnis für die Vorstellung einer Person gibt. Wie wir in den vorherigen Abschnitten gesehen haben, kann hiervon alles andere als die Rede sein. Perrys Ausführungen sind zu diesen zentralen Punkten jedenfalls vage: »The human-theory tells us how human may be expected to think and act; it does not tell us why humans to think and act that way.« Zur Personen-Vorstellung schreibt er: »A philosophical theory about the mind […] will generate views about what the P-relation turns out to be.«252 Wichtig ist Perry, dass personale Identität nicht an biologische Körperlichkeit gebunden ist. Bei diesem Punkt würde Parfit sicherlich nicht widersprechen. (2) DiGiovannas Einwand der »Para-Persons«: Die Theorien aus dem ersten Abschnitt lassen vermuten, dass auch artifizielle Lebensformen personale Identität unter Umständen entwickeln könnten, wenn man das Kriterium der psychologischen Kontinuität in Anschlag bringt. Diese Schlussfolgerung ist DiGiovanna zufolge falsch, weil sie unterschlägt, dass artifizielle Lebensformen über eine Eigenschaft verfügen, die jegliche Fähigkeit der Personenbildung kompromittiert. Artifizielle Lebensformen, so die Annahme von ihm, neigen dazu, ihre Identität augenblicklich ohne einen erkennbaren Grund zu ändern. »I’ll call these beings ›para-persons‹. These would be any being that meets all the positive requirements of personhood (self-awareness, ethical cognition, intentionality, second-order desires etc.), but has an additional quality that disqualifies it for personhood: […] the ability to change instantly and without effort.«253 DiGiovannas Modell einer (artifiziellen) »Para-Person«

251 Perry, John (2002). Identity, Personal Identity and the Self , S. 148ff. 252 Ebd., S. 149–50. 253 DiGiovanna, James (2017). Artificial Identity, S. 308.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

unterscheidet einerseits in positive Eigenschaften wie Selbstbewusstsein, Kognition sowie Intentionalität, die man auch bei jeder anderen Person antreffen kann, sowie anderseits in eine negative Eigenschaft, zu der eine chaotische, unberechenbare Selbstaufhebung und -zerstörung gezählt wird. Aus diesem Grund leitet der Autor seine weiteren Konsequenzen für die Anwendbarkeit von Konzepten der psychischen, physischen Kontinuität oder anderen Formen der personalen Identität ab. Psychische Kontinuität, die als Bedingungen »causal connection« und »continuous content«254 erfordert, würde durch eine »Para-Person« unterlaufen, weil sie ihren Erinnerungsspeicher löschen oder ihre mentalen Dispositionen bzgl. ethischer Werte, ihr Empathievermögen überschreiben könnten. DiGiovannas Argument, obwohl sehr originell und überlegenswert, ist bereits in seiner Grundstruktur problematisch, wodurch DiGiovannas Ziel einer Abwehrstrategie gegen die Möglichkeit artifizieller Personen gefährdet ist. Erstens wird die Annahme der »Para-Person« für die ganze Argumentation unkritisch vorausgesetzt, die wiederum ebenfalls eine starke KI These impliziert. Es fragt sich natürlich, warum eine artifizielle Person ausgerechnet eine Fähigkeit ausbilden sollte, die ihr im Umgang mit Menschen einen eklatanten Nachteil verschaffen würde. Es könnte genauso gut Steve Petersens Paradigma eintreffen, wonach eine »Superintelligence« auf das Produzieren von Büroklammern als Ziel festgelegt wäre.255 Zudem richtet sich die Frage an den Designer einer solchen KI, warum er einen selbstzerstörerischen, dekonstruktiven Algorithmus überhaupt entwickeln sollte? Zweitens ist das Phänomen der »Para-Person« nicht nur bei artifiziellen Systemen anzutreffen, sondern, wenn wir es genau nehmen, ebenfalls in vergleichbarer Form bei Menschen mit Multipler Persönlichkeitsstörung anzutreffen. So schreibt Warwick 1991: »The original personality has no conscious memory of what may be multiple other personalities emerging during this period.«256 Auffällige Symptome einer solcher Multiplen Persönlichkeitsstörung sind ferner unter anderem »subjective dividedness of self-concept«, »age regression« oder »amnesia«.257 In der neueren Forschung spricht man

254 255 256 257

DiGiovanna, James (2017). Artificial Identity, S. 310. Petersen, Steve (2017). »Superintelligence as superethical«, S. 322. Middleton, Warwick (1991). Multiple Personality Disorder. Balance March 12–16, S. 13. Vgl. Loewenstein, Richard J. und Donald Ross (1992). »Multiple Personality and Psychoanalysis: An Introduction.« In: Psychonalic Inquiry. 12:1, 3–48, DOI: https://doi.or g/10.1080/07351699209533881, S. 10.

145

146

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

daher passender von »dissoziativer Identitätsstörung«. Gemeint ist das Auseinanderfallen und damit die Desintegration der üblicherweise integrierten Funktionen des Gedächtnisses, des Bewusstseins, der Identität sowie der Wahrnehmung der eigenen Person und der Umwelt.258 Auch Personen mit einer dissoziativen Identitätsstörung würden demnach das Kriterium der psychischen Kontinuität nicht erfüllen, könnten allerdings genauso für ihre Handlungen moralisch verantwortlich gemacht werden, wie Stephen E. Braude herausgearbeitet hat.259 Diese Möglichkeit lässt DiGiovanna in seiner Betrachtung aus. Wenn man die starke negative Prämisse für artifizielle Personen aufgeben würde, die uns bei DiGiovanna sehr konstruiert erscheinen, sollte der Weg für die Realisierung von personaler Identität theoretisch möglich sein. Allerdings wäre dann natürlich offen, wie dies gelingen kann. Zusammenfassung: Das Prinzip der personalen Identität handelt von der Beständigkeit einer Entität über die Zeit. Das hier besprochene Konzept der psychischen Kontinuität als Kriterium für personale Identität ist nicht nur auf Menschen beschränkt und könnte ebenfalls in künstlichen Systemen realisiert werden, wobei unklar ist, welche Bedingungen dafür erbracht werden müssen. DiGiovannas Einwand einer »Para-Person« ist zurückzuweisen, obwohl wir seine Grundannahme, dass Roboter keine Personen sein können, teilen. Wir werden im nächsten und letzten Abschnitt das Kapitel mit unserem bereits angekündigten alternativen Ansatz für den Begriff der Person abschließen, den wir uns von Christine Korsgaard entleihen.

5.2.6 Roboter als Zweck an sich Auf der Grundlage von Kants Transzendentalphilosophie entwickelt Christine Korsgaard (2004, 2009, 2012, 2018)260 ihren Standpunkt, warum wir Tiere nicht als bloße Mittel oder Werkzeuge für menschliche Zwecke verstehen sollten. Sie widerspricht damit Kant, der für die gegenteilige Ansicht bekanntlich eintrat.

258 Wallis, Hannah, Vogel, Matthias, Junne, Florian et al. (2023). »Dissoziation: ein transdiagnostisches Phänomen.« Psychotherapie 68, 141–154. https://doi.org/10.1007/s002 78-022-00641-7. 259 Vgl. Braude, Stephen E. (1996). »Multiple Personality and Moral Responsibility.« Philosophy, Psychiatry & Psychology 3(1):37-54. 260 Siehe oben.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

»Die Wesen, deren Dasein zwar nicht auf unserem Willen, sondern der Natur beruht, haben dennoch, wenn sie vernunftlose Wesen sind, nur einen relativen Wert, als Mittel, und heißen daher Sachen, dagegen vernünftige Wesen Personen genannt werden, weil ihre Natur sie schon als Zwecke an sich selbst, d. i. als etwas, das nicht bloß als Mittel gebraucht werden darf, auszeichnet […].«261 Wir werden in diesem Abschnitt für die These argumentieren, dass sich Korsgaards tierethisches Plädoyer auch auf die Roboterethik anwenden lässt. Die Idee hierzu findet sich bereits grob skizziert in einem Aufsatz von Ewa Nowak (2017) und soll hier ausgebaut werden.262 Durch diesen Schritt ergibt sich eine Alternative zum stark metaphysisch aufgeladenen Begriff der »Person«, die sich außerdem mit bereits etablierten Konzepten für moralische Handlungund Verantwortungssubjekte in Einklang bringen lässt. Den ersten Teil des Abschnitts werden wir dazu nutzen, Korsgaards wesentliche Annahmen zu skizzieren, bevor wir im zweiten Teil unsere These mit Gründen unterfüttern. (1) Korsgaards Plädoyer für Tiere: Die erste Annahme in der Argumentation von Korsgaard ist, dass Tieren eine einfache Form von Akteursschaft zugestanden werden kann. Dabei beschränkt sie sich auf eine Minimaldefinition des Begriffs. Akteursschaft beinhaltet Korsgaard zufolge Autonomie und Verursachung (»efficacy«). In diesem Sinn handelt beispielsweis ein Tier als Akteur, insofern es selbstbestimmt – ohne fremden, äußeren Einfluss, folglich autonom – im Rahmen seiner Instinkte und biologischen Art handelt und in seiner Umgebung Veränderungen herbeiführt. In der originalen Textstelle heißt es hierzu: »When an animal acts, he is determined by his form, by his instincts, to produce a change in the world, guided by his conception or representation of the world. But an animal’s form is what gives him his identity, what makes him the animal he is […] Action is self-determination, and, to that extent, it is autonomous that the question of its efficacy can come up. If one thing causes another, there is no room for success or failure. But if an animal determines herself to be the cause of something, and yet does

261 Kant, Immanual (1785). Grundlegung zur Metaphysik der Sitten, (428), S. 62. 262 Nowak, Ewa (2017). »Can human and artificial agents share an autonomy, categorical imperative-based ethics and ›moral‹ selfhood?«.

147

148

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

not bring that thing about, then she has failed. Autonomy and efficacy are the properties of agents – all agents, not just human agents.«263 Ausgestattet mit Akteursschaft schlussfolgert Korsgaard – Kant widersprechend – in ihrer zweiten Annahme, dass Tiere für sich genommen einen Selbstzweck oder Zweck an sich (»ends in themselves«) darstellen. Kant hingegen glaubte, dass es Menschen gestattet sei, Tiere zu töten. So rät er dazu, diese schnell zu töten, damit sie keinen Schmerz erleiden. Zudem sollte das Töten von Tieren, so der Philosoph, nicht aus trivialen Gründen wie des Sports erfolgen.264 Der Begriff »Selbstzweck« beschreibt bei Kant etwas, das nicht mehr als Mittel für einen Zweck herangezogen werden kann, sondern sich selbst Zweck genug ist. »Der Mensch und jedes vernünftige Wesen existiert als Zweck an sich selbst, nicht bloß als Mittel zum beliebigen Gebrauche für diesen oder jenen Willen, sondern muß in alle seinen sowohl auf sich selbst, als auch auf andere vernünftige Wesen gerichteten Handlungen jederzeit zugleich als Zweck betrachtet werden.«265 Ein Wesen, dass als Selbstzweck gilt, erzeugt aus sich heraus eigene Motive, Ziele und Gründe. Kant betont, dass lediglich Menschen als Selbstzweck in Frage kämen. Dies erklärt er damit, dass Menschen über die Fähigkeit verfügen, rationale Entscheidungen zu treffen. Sie können »kraft ihrer Vernunft«266 nach Gründen handeln. Dieses Kriterium macht Menschen in Kants Augen zu Personen. »[…] die vernünftige Natur existiert als Zweck an sich selbst. So stell sich notwendig der Mensch sein eigenes Dasein vor.«267 Die zitierten Textstellen zeigen, dass Kant auf einen stärkeren Autonomiebegriff als Korsgaard hinauswill.268

263 Korsgaard, Christine. M. (2009). Self-Constitution. Agency. Identity and Integrity, S. 106–107. 264 Korsgaard, Christine. M. (2018). Fellow creatures: Our obligations to the other animals. S. 99. 265 Kant, Immanuel (1785). Grundlegung zur Metaphysik der Sitten, (428), S. 62. 266 Rössler, Beate (2019). Autonomie, S. 32. 267 Kant, Immanuel (1785). Grundlegung zur Metaphysik der Sitten, (429), S. 63. 268 Remmers, Peter (2018). Mensch-Roboter-Interaktion. Berlin: Logos Verlag, S. 34.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Korsgaard ist mit ihrer Definition näher bei dem, was Remmers »technische Autonomie«269 , Loh als »schwache oder negative Autonomie«270 nennen und Sullin unter »autonomous robots«271 subsumiert. Nach Kant kann Autonomie allerdings nicht nur als das Ausbleiben äußerer Einflüsse verstanden werden, sondern Autonomie umfasst ebenso die Idee des Selbstzwecks und somit die Fähigkeit, rationale Entscheidungen zu treffen. Diese sind das Ergebnis von Abwägungsprozessen und Überlegungen entlang verfügbarer Gründe.272 Rationale Entscheidungen liefern somit Handlungsanweisungen.273 Außerdem haben sie gemäß Kant den Charakter eines Gesetzes, vergleichbar einem Prinzip, Wert oder absolutem Gut. Personen, die rational entscheiden, geben sich Gesetze, nach denen sie handeln wollen und von denen sie meinen, dass sich alle anderen Personen ebenfalls danach verhalten sollten (universelles Gesetz).274 Während Kant Rationalität als Kriterium für ein Lebewesen als Zweck an sich begreift, schlägt Korsgaard eine zweite Interpretation vor. Ihrer Auffassung nach kann der Begriff »Selbstzweck« oder »Zweck« an sich sowohl einen aktiven als auch einen passiven Sinn besitzen. Kant nimmt in seiner Transzendentalphilosophie ausschließlich auf den aktiven Sinn Bezug, wonach ein Lebewesen als Selbstzweck gilt, wenn es als Gesetzgeber (»law-maker«) fungiert und rationale Entscheidungen zu treffen vermag. Korsgaard wendet dagegen ein, dass Menschen nicht nur rationale Wesen sind – »merely rational beings«275 . Die Idee, dass rationale Entscheidungen Menschen als Selbstzweck voraussetzen, ist nicht identisch mit der Idee, dass rationale Entscheidungen ein rationales Wesen als Selbstzweck voraussetzen. Menschen verhalten sich oft irrational.276 Nicht jede Entscheidung oder von Menschen getroffene Wahl kann auf Rationalität zurückgeführt werden. Aus diesem Grund schlussfolgert Korsgaard einen passiven Sinn für Lebewesen als Selbstzweck, unabhängig davon, ob das Vermögen zur rationalen Entscheidung vorliegt. So nimmt sie an, dass es viele Dinge gibt, die für Menschen gut und nützlich sind, ohne dass der Status als rationales Wesen von Belang 269 270 271 272 273 274 275 276

Ebd., S. 34. Loh, Janina (2019). Roboterethik, S. 52. Sullin, John P. (2006). »When is a Robot a Moral Agent?«, S. 26. Korsgaard, Christine M. (2012). »A Kantian Case for Animal Rights«, S. 9. Vgl. Ebd., S. 9. Vgl. Ebd., S. 8. Korsgaard, Christine M. (2012). »A Kantian Case for Animal Rights«, S. 11. Vgl. Ebd., S. 11.

149

150

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

wäre.277 »Food, sex, comfort, freedom from pain and fear affect us insofar as we are animate beings.«278 Ähnlich verhält es sich bei Tieren laut Korsgaard, die als Selbstzweck im passiven Sinn interpretiert werden können, weil sie Wesen mit Interessen sowie Bedürfnissen sind und über (negative) Autonomie verfügen. Tiere sind in der Lage, Dinge zu mögen oder abzulehnen; können leiden oder glücklich bzw. zufrieden sein. Hiermit wird Korsgaards Plädoyer für Tiere verständlich, dass Menschen nicht nur anderen Menschen gegenüber in der Pflicht stehen, sondern ebenfalls Tieren. Im Gegensatz zu Kant, von dem zu lesen ist: »Nun kennen wir aber mit aller unserer Erfahrung kein anderes Wesen, was der Verpflichtung (der aktiven und passiven) fähig wäre, als bloß den Menschen. Also kann der Mensch sonst keine Pflicht gegen irgend ein anderes Wesen haben also bloß gegen den Menschen.«279 Korsgaards Verständnis von Tieren ist positiv konnotiert, ähnlich wie bei Drestke (2005).280 Ihrer Meinung nach sind Tiere, wenn auch nicht rational, so doch lernfähig und intelligent. (2) Roboter als Zweck an sich: Fassen wir die Ergebnisse aus dem ersten Teil des Abschnitts zusammen, dann können mit Korsgaard zwei Formen von Lebewesen als Selbstzweck oder Zweck an sich angenommen werden: Lebewesen als Zweck an sich, die rational Entscheidungen treffen und insofern auf der Grundlage von moralischen Prinzipen handeln können (aktiver Sinn). Lebewesen als Zweck an sich, die Interessen und Bedürfnisse haben und für die sich die Umgebung gut oder schlecht gestalten kann (passiver Sinn). Korsgaards Terminologie lässt sich aus unserer Sicht ebenfalls für die Roboterethik nützlich machen, ohne dass wir den Begriff der »Person« in Anspruch nehmen müssen. In beiden Fällen (aktiver wie passiver Sinn) würden Roboter als Selbstzweck gelten, wodurch sich theoretisch betrachtet – ähnlich wie bei Tieren – Ansprüche auf Achtsamkeit, Respekt und Pflichten gegenüber diesen 277 Vgl. Ebd., S. 13. 278 Korsgaard, Christine M. (2012). »A Kantian Case for Animal Rights«, S. 13. 279 Kant, Immanuel (1797). Die Metaphysik der Sitten. Herausgegeben von Hans Ebeling. Stuttgart: Reclam, (442), S. 329. 280 Dretske, Fred (2005). »Minimale Rationalität.« In: Wild, Markus & Perler, Dominik. (Hg.). Der Geist der Tiere. Frankfurt a.M.: Suhrkamp (S. 213–222), Hier: S. 213–15.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

neuen Lebensformen ergeben würden. Inwiefern und in welchem Umfang dies zu geschehen hat, bleibt zu erforschen (Welche Rechte könnten Roboter im aktiven oder im passiven Sinn zugestanden werden?). Die beiden Rubriken erlauben außerdem eine allgemeine Klassifizierung von Robotern nach ihren jeweiligen technischen Fähigkeiten. Sie dienen, wenn man so will, als Metakategorien. Sofern Roboter in der Lage sind, eigene Interessen und Bedürfnisse auszuprägen und zu verfolgen, könnten wir Ihnen den Status als Selbstzweck im passiven Sinne attestieren. Wären Roboter hingegen weiterentwickelter und könnten auf der Grundlage von moralischen Prinzipen handeln, wäre es möglich, sie als Selbstzweck im aktiven Sinn definieren. Die in der Forschung bereits vorliegenden Konzepte für moralische Handlung- und Verantwortungssubjekte lassen sich den beiden Formen genauso gut zu ordnen, wobei die Ansätze in den einzelnen Fällen – wie gezeigt – zum Teil differenzieren. So wären beispielsweise Misselhorns Kriterien für moralische Handlungssubjekte wie »Selbstursprünglichkeit«281 und die Fähigkeit, nach Gründen zu handeln282 , eher dem aktiven Sinn zu zuschreiben, ähnlich wie Wallachs und Allens Kriterium der »funktionalen Moralität«283 . Ebenso passt Lohs Vorschlag der funktionalen Verantwortung als Kriterium für moralische Verantwortungssubjekte zum aktiven Sinn. Für den passiven Sinn ließe sich auf Seiten der moralischen Verantwortungssubjekte Floridi und Sanders Ansatz für moralische Akteursschaft mit den Bedingungen der (negativen) Autonomie, Interaktivität und Anpassungsfähigkeit284 anfügen. Andererseits sind Sullins Begriff der Verantwortung285 und Lohs schwach funktionaler Sinn von Verantwortung (ohne Urteilskraft)286 mögliche Kandidaten für die Seite der moralischen Verantwortungssubjekte (im passiven Sinn). Ungeachtet dessen bringt der Vorschlag jedoch keine Erklärung dafür, was Robotern in beiden Sinnen als Selbstzweck ihre personale Identität sichert. Bei 281 Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 76ff. 282 Misselhorn, Catrin (2013). »Robots as Moral Agents?« In: Frank Rövekamp, Friederike Bosse (Hg.). Ethics in Science and Society. German and Japanenes Views. München: Iudicium, S. 42–56. 283 Wallach, Wendell und Allen, Colin (2009). Moral machines: Teaching robots right from wrong, S. 26. 284 Floridi, Luciano und Sanders, J. W. (2004). »On the morality of artificial agents.«, S. 351. 285 Sullin, John P. (2006). »When is a Robot a Moral Agent?«, S. 29. 286 Loh, Janina (2019). Roboterethik, S. 145.

151

152

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Korsgaard (1989)287 findet sich hierfür jedoch eine mögliche Erwiderung auf dieses Problem. Parfits reduktionistischem Personenbegriff hält sie entgegen, dass die Kontinuität der personalen Identität zum einen durch das Handeln des Individuums selbst (»You are a unified person at any given time because you must act, and you have only one body with which to act.«288 ), zum anderen durch den Standpunkt, den es einnimmt und von dem aus es überlegt sowie entscheidet, gewährleistet wird (pragmatische Vernunft). Das Individuum gibt sich eigene Gesetze und identifiziert sich mit moralischen Prinzipien, nach denen es handeln möchte. Das Individuum ist nicht, wie bei Parfit, ein »locus of experience, and agency as a form of experience«289 . Beide Merkmale werden vom passiven und aktiven Sinn des Selbstzwecks erfüllt, sodass ein Roboter hiernach personale Identität besitzen könnte. Zusammenfassung: In diesem Abschnitt haben wir eine Alternative zur Verwendung des Begriffs der »Person« auf Roboter herausgearbeitet, die auf Christine Korsgaards Plädoyer für Rechte und Pflichten gegenüber Tieren zurückgeht. Damit kann das metaphysisch anspruchsvolle Argument der »Artifiziellen Personen« vermieden werden. Das Modell erlaubt überdies eine Zuordnung der einzelnen Konzepte für moralische Handlungs- und Verantwortungssubjekte in der Forschung. Im Einzelfall kann entlang der technischen Eigenschaften eines Roboters eine Einteilung in einen passiven und aktiven Sinn erfolgen.

5.2.7 Zwischenbilanz zum Themenfeld Identität In diesem Kapitel wurde die Frage diskutiert, ob und unter welchen Umständen Robotern eine Form von Identität attestiert werden kann. Wir hatten festgehalten, dass moralisch handelnde Roboter neben der Fähigkeit zur Sprache ebenfalls Identität benötigen, um die Übernahme der Verantwortung in Hinblick auf ihre Entscheidungen zu gewährleisten. Die Zwischenbilanz fällt zu diesem Themenfeld konstruktiv aus, wobei weiterführende Überlegungen notwendig sind:

287 Korsgaard, Christine (1989). »Personal identity and the unity of agency: A Kantian response to Parfit.«, S. 101–132. 288 Ebd., S. 9. 289 Ebd., S. 10.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern











Autonomie und Urteilsfähigkeit, Handlungs- und Kommunikationsfähigkeit wurden als zentrale Kriterien für ein Verantwortungssubjekt herausgearbeitet und gegenüber Verantwortungsobjekten abgrenzt. Ein einheitliches Verständnis darüber, was eine Person ausmacht und definiert, liegt in der Forschung nicht vor. Das Feld der Meinungen differenziert zwischen einer biozentrischen und einer anti-biozentrischen Position. Letztere begünstigt die Sichtweise, dass Person eine Emergenz oder emergente Eigenschaft ist. Das Argument der »Artifiziellen Person« ist aufgrund seiner metaphysisch aufgeladenen Annahmen weniger zielführend und eher dem Bereich der Fiktion zuzuordnen. Die vorliegende Studie weist den Anspruch zurück, Roboter könnten Personen sein. Psychische Kontinuität als Kriterium für personale Identität ist nicht auf Menschen beschränkt und könnte daher als ein weiterer möglicher Kandidat genannt werden, um Verantwortungszuschreibung bei einem artifiziellen System zu erlauben. Statt den Begriff der »Person« zu verwenden, schlägt die Studie vor, Korsgaards Modell eines aktiven und passiven Sinnes für Lebewesens, die als Selbstzweck gesetzt werden, zu nutzen. Hierdurch gewinnt die Forschung ein weiteres Raster, mit dem sie Roboter klassifizieren kann. Zudem ist die Frage nach der Gewährleistung von Rechten und Pflichten nicht mehr auf die unlösbare Diskussion beschränkt, ab wann Roboter als Personen gelten.

Wir werden im nächsten Kapitel einen letzten Aspekt für ein moralisch handelnden Roboter untersuchen, der sich zum Teil beim Themenfeld der Sprache bereits ankündigte. Können Roboter Bewusstsein haben? Warum ist Bewusstsein für einen Roboter überhaupt wichtig? Könnte es bei Robotern sogar eine Form von »Vor-Bewusstsein« geben, wie es Kahnemann (2011)290 beim Menschen annimmt.

290 Vgl. Kahneman, Daniel (2011). Schnelles Denken, Langsames Denken. München: Pantheon.

153

154

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

5.3 Bewusstsein 5.3.1 Begriffsgeschichte und Forschungstand In der Forschung und speziell in der Geschichte der Philosophie gibt es vermutlich keinen Gegenstand, über den so differenziert nachgedacht und geforscht wurde, wie über den Gegenstand des Bewusstseins. Charakteristisch für das Spannungsfeld der Forschungsmeinungen ist seither eine Gruppierung in eine naturalistisch-materialistische, idealistische oder kompatibilistische Position. Eine einheitliche Definition liegt dabei bislang nicht vor.291 In der naturalistisch-materialistischen Position wird Bewusstsein als »Epiphänomen«292 (Huxley, 1874293 ; später W. v. Quine, 1953294 ; P. Feyerabend, 1963295 ; Rorty 1965296 und Churchland, 1981297 , 1992), »Ergebnis des Gehirns in Zusammenarbeit mit den Sinnesorganen«298 (Diderot, 1875) an anderer Stelle als »Evolutionsprodukt«299 , »Metarepräsentation«300 , »Bewusstheit«301

291

292 293

294

295 296 297 298 299

300 301

Vgl. Frith, Chris D. und Rees, Geraint (2017). »A Brief History of the Scientific Approach to the Study of Consciousness.« In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (3–16), S. 11. Beckermann, Ansgar (2001). Analytische Einführung in die Philosophie des Geistes, S. 46. Vgl. Huxley, Thomas H. (1874). On the hypothesis that animals are automata. In: Huxley, Thomas H. (1904). Colleges Essays. Band 1. Methods and Results (S. 199–250), 4. Auflage. London: Macmillan. Vgl. Quine, Willard V. (1953). »On Mental Entities.« Proceedings of the American Academy of Arts and Sciences. Bd. 80, Nr. 3, 1953:198-203. JSTOR, https://doi.org/10. 2307/20023652. Vgl. Feyerabend, Paul (1963). »Materialism and the Mind-Body Problem. Review of the Metaphysics 17:49-67. Vgl. Rorty, Richard (1965). »Mind-Body Identity, Privacy, and Categories. Review of Metaphysics 19:24-54. Vgl. Churchland, Paul M. (1981). »Eliminative Materialism and the propositional attitudes. Journal of Philosophy 78:67-90. Vgl. Buhr, Manfred und Klaus, Georg (1971). »Bewusstsein«. In: Philosophisches Wörterbuch (S. 194–198). Bd. 1., Auflage 8. Leipzig: VEB Verlag der Enzyklopädie, S. 197. Janich, Peter (2006). »Der Streit der Welt- und Menschenbilder in der Hirnforschung.« In: Sturma, Dieter (Hg.) Philosophie und Neurowissenschaften (S. 75–96), Frankfurt a.M.: Suhrkamp, S. 79. Prinz, Wolfgang (2006). Vom Gehirn zum Bewusstsein. Frankfurt a.M.: Suhrkamp, S. 41. Libet, Benjamin (2007). Mind Time. Wie das Gehirn Bewusstsein produziert. Frankfurt a.M.: Suhrkamp, S. 34.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

oder »Aufmerksamkeit«302 beschrieben. Die idealistische Position hingegen begreift das Psychische und damit das Bewusstsein als unabhängig von der Materie. Psychische Tätigkeiten sind das Werk einer »immateriellen und unsterblichen Seele«303 (Platon, Phaedon), sie sind das Werk einer »Denkseele«304 (Aristoteles, »Über die Seele«) oder »res cogitans« (Descartes), ausgestattet mit der Fähigkeit, »sich ein Bild von sich selbst zu machen«305 und eine »Weltöffentlichkeit«306 herzustellen. Kompatibilistische Positionen zielen auf eine Kombination beider vorherigen Strategien ab, in dem sie Bewusstsein beispielsweise als »höher-stufige Ebene« oder »System-Eigenschaft«307 im Rahmen einer Supervenienz- (etwa Kim, 1993,1999)308 oder Emergenz-Theorie (John Stuart Mill, Samuel Alexander, C. D. Board)309 erklären. Die moderne Bewusstseinsforschung hat sich gegenüber dieser klassischen Einteilung emanzipiert und weiter ausdifferenziert. So unterscheiden aktuelle Untersuchungen in Bewusstsein, Vorbewusstsein (Roth, 2014)310 und Unterbewusstsein (Sid Kouider und Nathan Faivre, 2017311 ; John F. Kihlstrom, Jennifer Dorfman und Lillian Park, 2017312 ). Durch das Aufkommen der Informationstheorie Anfang des letzten Jahrhunderts durch Hartley (1928), Weaver

302 Roth, Gerhard (2006). Das Gehirn und seine Wirklichkeit. Frankfurt a.M.: Suhrkamp, S. 214. 303 Buhr, Manfred und Klaus, Georg (1971). »Bewusstsein«. In: Philosophisches Wörterbuch, S. 196. 304 Ebd., S. 196. 305 Gabriel, Markus (2015). Ich ist nicht Gehirn, S. 156. 306 Gerhardt, Volker (2012). Öffentlichkeit. Die politische Form des Bewusstseins. München: C. H. Beck. 307 Searle, John R. (1998). Mind, language and society. New York: Basic Books, S. 57. 308 Kim, Jaegwon (1993). Supervenience and Mind. Cambridge: Cambridge University Press. Jaegwon (1999). »Making Sense of Emergence.« Philosophical Studies, 95(1/2):336. 309 Vision, Gerald (2017). »Emergentism«. In: The Blackwell Companion to Consciousness (337–341), S. 338. 310 Vgl. Roth, Gerhard (2014). Wie das Gehirn die Seele macht? Stuttgart: Klett-Cotta, S. 200. 311 Kouider, Sid und Faivre, Nathan (2017). »Conscious and Unconscious Perception.« In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (S. 551–561). 312 Kihlstrom, John F.; Dorfman, Jennifer und Park, Lillian (2017). »Conscious and Unconscious Memory.« In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (S. 562–575).

155

156

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

(1949), McCulloch und Pitts (1943) sowie durch die Etablierung der Kognitionswissenschaften313 hat sich die Bewusstseinsforschung zudem für das Feld der Computerwissenschaften und Kybernetik bzw. Robotik geöffnet. Gleichwohl gestaltet sich die Basis der Literatur zum Thema Bewusstsein in künstlichen Systemen übersichtlich. Zuletzt haben Antonio Chella, Angelo Cangelosi, Giorgio Metta und Selmer Bringsjord (2019)314 einen umfangreichen Band herausgegeben, der den Stand der aktuellen Forschung zusammenbringt. Das vorliegende Kapitel wollen wir dazu nutzen, einen letzten Aspekt in den philosophischen Vorbetrachtungen zu moralisch handelnden Robotern zu untersuchen. Zu fragen wird sein, wie sich die Forschung dem Thema Bewusstsein nähert, welche Vorteile (und möglicherweise Nachteile) mit der Entwicklung von künstlichem Bewusstsein einhergehen sowie welche Voraussetzung für künstliches Bewusstsein vorliegen müssen. Wir beschränken uns in diesem Kapitel auf das Gebiet der Bewusstseinsforschung, wobei für Georg Linds Modell der moralischen Kompetenz Unterbewusstsein sicherlich relevanter wäre.315 Es ist jedoch zu berücksichtigen, dass die Forschung zum künstlichen Unterbewusstsein bislang nur wenige Studien (Minsky, 1986316 ; Mlodinow, 2012317 ; Piletsky, 2019318 ; Nedashkivsky, 2019) hervorgebracht hat. Außerdem führt Lind selbst aus, dass dem bewussten Teil des moralischen Subjekts (»conscious layer«) ebenfalls eine wichtige Rolle einzuräumen sei, so zum Beispiel für Vernunftentscheidungen, zur Korrektur und Übung von moralischen Emotionen oder der Ausprägung von Empathie gegenüber Mitmenschen.319 Wenn es gelingt, die theoretischen Grundlagen zu skizzieren,

313 314

315 316 317 318

319

Vgl. Münch, Dieter (1992). »Computermodelle des Geistes«. In: Ders. (Hg.). Kognitionswissenschaft, Grundlagen, Probleme, Perspektiven, S. 8. Chella, Antonio; Cangelosi, Angelo; Metta, Giorgio; Bringsjord, Selmer (2019). Consciousness. in Humanoid Robots. Lausanne: Frontiers Media. DOI: https://doi.org/10.3389/978-2-8 8945-866-0. Lind, Georg (2019). Moral ist lehrbar, S. 58. Vgl. Minsky, Marvin (1986). The Society of Mind. New York: Simon & Schuster. Vgl. Mlodinow, Leonard (2012). Subliminal: How Your Unconscious Mind Rules Your Behavior. New York: Pantheon Books (Random House). Vgl. Piletsky, Eugene (2019). »Consciousness and Unconsciousness of Artificial Intelligence«. Future Human Image, Volume 11, 2019: 66–71. https://doi.org/10.29202/fhi/ 11/7. Lind, Georg (2016). How to teach Moral Competence, S. 48.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

mit denen ein künstliches Bewusstsein moralische Kompetenz entwickeln könnte, wäre mit dieser Untersuchung bereits viel gewonnen. Um sich diesem Ziel anzunähern, kann auf die sechs Kriterien von Igor Aleksander320 (2017) zurückgegriffen werden, die allerdings, so die These hier, um ein siebtes Kriterium erweitert werden müssen, sofern das künstliche System über moralische Kompetenz verfügen soll. Als ergänzendes Kriterium für Aleksanders Liste schlägt die Arbeit daher den Begriff des Selbstbewusstseins oder »self-awareness« vor, der etwa bei Selmer Bringsjords et al. (2015)321 sowie Chatila et al. (2018) bereits diskutiert wird322 . Es handelt sich hierbei jedoch um ein Kriterium, dass Misselhorn zurecht als »harte philosophische Nuss«323 bezeichnet, das auf eine lange Tradition bis zurück auf Fichtes idealistische Konzeption des Ich zurückweist. Bevor wir auf unser Argument zurückkommen, wollen wir im nächsten Abschnitt zunächst zwei in der Literatur klassische Strategien zur Erforschung von Bewusstsein vorstellen.

5.3.2 Bewusstsein als Erfahrung und Funktion Der Philosoph Ned Block bezeichnet in einem viel beachteten Aufsatz »On a confusion about a function of consciousness« (1995) Bewusstsein als »mongrel concept«324 , also als »Hybrid« oder »Mischling«. In der Literatur werden gemeinhin zwei systematische Methoden zur Erforschung von Bewusstsein unterschieden: Bewusstsein als Erfahrung und Bewusstsein als Funktion. In diesem Abschnitt werden wir beide Strategien untersuchen, die für die weiteren Betrachtungen in diesem Kapitel hilfreich sind. Sollte der Leser bereits ver-

320 Vgl. Aleksander, Igor (2017). »Machine Consciousness«. In: The Blackwell Companion to Consciousness (93–105). 321 Vgl. Bringsjord, Selmer; Licato, John; Govindarajulu, Naveen S.; Ghosh, Rikhiya, und Sen, Atriya (2015). »Real robots that pass tests of self-consciousness.« Proccedings of the 24th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN 2015) (New York, NY: IEEE), 498–504. DOI: https://doi.org/10.1109/ROMA N.2015.7333698. 322 Vgl. Chatila, Raja; Renaudo, Erwan; Andries, Mihai; Chavez-Garcia, Ricardo-Omar; Luce-Vayrac, Pierre; Gottstein, Raphael; Alami Rachid; Clodic, Aurélie; Devin, Sandra; Girard, Benoit und Khamassi, Mehdi (2018). »Toward Self-Aware Robots.« Front. Robot. AI 5:88. DOI: https://doi.org/10.3389/frobt.2018.00088. 323 Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 120. 324 Vgl. Block, Ned (1995). »On a confusion about a function of consciousness.«, S. 227.

157

158

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

traut mit diesen Begrifflichkeiten sein, kann er diesen Abschnitt gern überspringen. Im Themenfeld der Sprache haben wir bereits mit Searles »Chinesischem Zimmer« einen Standpunkt kennengelernt, der die Wichtigkeit von Bewusstsein für den Prozess des Verstehens bei Menschen und künstlichen Lebensformen unterstreicht. Searle vertritt im »Chinesischem Zimmer« allerdings die Meinung, dass vorrangig Menschen bewusste Zustände zugeschrieben werden können. Sollte eine Maschine jemals Bewusstsein besitzen, so wäre dies für ihn der Ausweis einer starken KI, im Gegensatz zu einer schwachen KI. Merkmale für Bewusstsein sind eine nicht weiter reduzierbare »Erste-Personen-Ontologie«, Subjektivität und intrinsische Intentionalität. Nur unter der Bedingung, dass künstliche Systeme über eine vergleichbare »causal brain power«325 wie Menschen verfügen, könnten diese unter Umständen Bewusstsein entwickeln. In der Erklärung seines Programms zum »Biologischen Naturalismus« erfährt man folgendes dazu: »The fact that brain processes cause consciousness does not imply that only brains can be conscious. The brain is a biological machine, and we might build an artificial machine that was conscious; just as the heart is a machine, and we have built artificial hearts. Because we do not know exactly how the brain does it we are not yet in a position to know how to do it artificially.«326 In der zitierten Textstelle spricht Searle sogar vom Gehirn als »biological machine«. Offensichtlich will der Autor mit dieser Metapher andeuten, dass der Fortschritt der Wissenschaft darüber entscheidet, ob wir künstliches Bewusstsein realisieren können oder nicht. Seine Annahmen aus dem »Chinesischem Zimmer« werden zurückgestellt. Am Beispiel von Searle verdeutlichen sich die beiden oben angekündigten Strategien, die symptomatisch für das aktuelle Bild in der Forschung sind: Auf der einen Seite betont Searle den phänomenalen Charakter des Bewusstseins (Subjektivität etc.) und auf der anderen Seite schlägt er einen potentiellen Ansatz vor, wie künstliches Bewusstsein möglich sein könnte. Ähnlich verhält es sich in der Forschung. Hier folgt man

325 Searle, John R. (1984). Minds, Brains and Science. 13. Ausgabe. Cambridge MA: Harvard University Press, S. 41; Und: Searle, J. R. (1994). The Rediscovery of the Mind. Cambridge, MA: MIT Press, S. 92. 326 Searle, John R. (2017). Biological Naturalism, S. 330.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

im Großen und Ganzen Blocks epistemologischer Differenzierung in »phänomenales Bewusstsein« und »Zugangsbewusstsein« (access-consciousness), wobei die Terminologien mitunter abweichen und variieren. Chella et al. (2019) sprechen zum Bespiel von »Bewusstsein als Erfahrung« und »Bewusstsein als Funktion«, Begrifflichkeiten, die wir hier übernehmen.327 (1) Bewusstsein als Erfahrung: Eines der berühmtesten Beispiele für die erste Strategie hat Thomas Nagel in seinem Aufsatz »What is it like to be a bat?«328 (1974) formuliert. Nach dieser Auffassung werden Bewusstseinszustände mit einer Form von subjektiver Erlebensqualität begleitet, die auf eine »bestimmte Einzelperspektive«329 gebunden sind. Chalmers bezeichnet dies auch als »hard problem of consciousness«330 . Jedes Lebewesens – ob eine Fledermaus, ein Delfin oder Mensch – besitzt einen individuellen Wahrnehmungsapparat, mit dem es seine Umwelt begreift. Wie es ist, dieses oder jenes Lebewesen zu sein, weiß letztlich nur das Lebewesen selbst. Die Sinneseindrücke aus der Umgebung haben den Charakter von »Qualia«331 , womit sie aus einer »Dritten-Personen-Perspektive« nicht nachvollzogen werden können. (2) Bewusstsein als Funktion: Vertreter dieser Position sind der Meinung, dass es einen Zugang zum Bewusstsein gibt, unabhängig von der subjektiven Perspektive eines jeden Einzelnen. Bewusstseinszustände eines Lebewesens sind auch für Außenstehende nachvollziehbar. Nach Block (1995) drückt sich ein Bewusstseinszustand durch rationales Nachdenken, Handeln und Sprechen – also durch »reasoning and behavior«332  – aus. Für Miłkowski (2013), aber auch Dehaene et al. (2017)333 sind Bewusstseinszustände zunächst das Resultat einer Informationsverarbeitung (»information process«) im Gehirn,

327 Vgl. Chella, Antonio; Cangelosi, Angelo; Metta, Giorgio; Bringsjord, Selmer (2019). Consciousness in Humanoid Robots. 328 Nagel, Thomas (1974). »What Is It Like to Be a Bat?«, siehe oben. 329 Beckermann, Ansgar (2001). Analytische Einführung in die Philosophie des Geistes, S. 386. 330 Chalmers, David (2017). »The Hard Problem of Consciousness«. In: The Blackwell Companion to Consciousness (32–42), S. 33. 331 Jackson, Frank (1982). »Epiphenomenal Qualia.« Philosophical Quarterly 32, 127–136. 332 Block, Ned (1995). »On a confusion about a function of consciousness.«, S. 229. 333 Dehaene, Stanislas; Lau, Hakwan; Kouider, Sid (2017 (2017). »What is consciousness, and could machines have it?« Science:358, 486–492. DOI: https://doi.org/10.1126/science.aan88 71

159

160

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

die sich objektiv beschreiben lässt. Informationen, die vom Gehirn verarbeitet werden, sind allgemein und von jedermann zugänglich. Das Gehirn funktioniere, Miłkowski zufolge, wie ein Computer. Bewusstseinszustände beschreibt Tononi wiederum als »integrierte Informationen«334 , die durch ein »physikalisches Substrat«335 realisiert werden. Floridi schlägt einen »informative test« (»knowledge test«336 ) vor, auf dessen Grundlage Subjekte durch Introspektion herausfinden können, ob sie Bewusstsein besitzen oder eine Variante von Dretskys »Zombie« darstellen. Bringsjord hält demgegenüber den Begriff »cognitive consciousness«337 entgegen, mit dem er das Bewusstsein durch formale Axiome beschreibt. Ein künstliches System besitzt »cognitive consciousness«, wenn es Floridis Selbstbewusstseins-Test besteht.338 Irrgang (2014) definiert Selbstbewusstsein als die Fähigkeit, sich selbst als »linguistic subject«, als »Denkenden« und »Handelnden« zu identifizieren.339 In der Forschung besteht dennoch der Konsens, dass aktuellen Robotermodellen bislang kein Bewusstsein attestiert werden kann.340 Zusammenfassung: Dem Gegenstand »Bewusstsein« kann man sich auf zwei Wegen nähern, zum einen als phänomenales Bewusstsein, das einen subjektive Erfahrungshorizont besitzt, zum anderen lässt sich Bewusstsein als Funktion betrachten. Während man bei der ersten Variante schnell einen Punkt erreicht, der keine weitere Analysierbarkeit zulässt, können über die zweite Variante objektive Kriterien für die Realisierung von Bewusstsein ergründet werden. Die vorliegende Studie wird für den weiteren Verlauf den zweiten Weg wählen. Im nächsten Abschnitt soll kurz begründet werden, warum Roboter 334 Tononi, Giulio (2008). »Consciousness as integrated information: a provisional manifesto.« Biol. Bull 215(3): 216–242. DOI: https://doi.org/10.2307/25470707. 335 Tononi, Giulio (2017). »Integrated Information Theory of Consciousness. Some Ontological Considerations.« In: The Blackwell Companion to Consciousness (S. 621–633). 336 Floridi, Luciano (2005). »Consciousness, agents and the knowledge game.« MindMach. 15:415-444. DOI: https://doi.org/10.1007/s11023-005-9005-z. 337 Bringsjord, Selmer; Bello, Paul und Govindarajulu, Naveen S. (2018). »Toward axiomatizing consciousness,« In: Jacquette, Dale (Hg.). The Bloomsbury Companion to the Philosophy of Consciousness (S. 289–324). London: Bloomsbury Academic. 338 Chella, Antonio; Cangelosi, Angelo; Metta, Giorgio; Bringsjord, Selmer (2019). »Editorial: Consciousness in Humanoid Robots.« Front. Robot. AI 6:17. DOI: https://doi.o rg/10.3389/frobt.2019.00017, S. 5. 339 Irrgang, Bernhard (2014). »On the Consciousness of Robots.«, S. 144. 340 Hildt, Elisabeth (2019). »Artificial Intelligence: Does Consciousness Matter?« Front. Psychol. 10:1535. DOI: https://doi.org/10.3389/fpsyg.2019.01535, S. 2.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

überhaupt Bewusstsein benötigen, wenn das ganze Unterfangen schier unmöglich zu sein scheint.

5.3.3 Warum brauchen wir bewusste Roboter? Wir werden in diesem Abschnitt den Faden zur moralischen Kompetenztheorie wieder aufnehmen und für die folgende These argumentieren, die wir auf Linds psychologischen Erkenntnissen aufbauen: Der Vorteil von Robotern, die über Bewusstsein verfügen, bestünde darin, dass sie erstens ihr Verhalten (bewusst) nach moralischen Prinzipien ausrichten, also Vernunftentscheidungen treffen, und zweitens zur Selbstkorrektur sowie Empathie gegenüber Mitmenschen fähig sein könnten. Damit würden sie zumindest den Kriterien der »bewussten Schicht«341 eines moralischen Selbst gemäß der Dual-Aspekt Theorie von Lind entsprechen. Die These setzt allerdings gleich auf mehreren Annahmen auf, die vom Leser zurecht angezweifelt werden können. Sie geht davon aus, dass die Uneinigkeit über die Realisierung von künstlichem Bewusstsein in der Forschung irgendwann überwunden werden kann, was mit dem heutigen Datum keinesfalls ausgemacht ist. Es werden außerdem weitere Vermögen wie die Fähigkeit zum Urteilen, zur Selbstkorrektur und Empathie (Emotionen) postuliert, deren Integration in Robotern mindestens genauso differenziert diskutiert wird wie die Integration von Bewusstsein. Drittens wird angenommen, dass sich Linds Erkenntnisse vorbehaltlos auf künstliche Systeme übertragen lassen und also ähnliche Phänomene wie bei einem menschlichen Selbst zu erwarten sind. Mit Blick auf die Annahmen ist daher festzustellen, dass die nachfolgenden Betrachtungen mehr einen spekulativen Charakter haben und sich kaum validieren lassen. Sie liefern allerdings aus Sicht der vorliegenden Studie zumindest gute Gründe, das Projekt, Roboter mit Bewusstsein auszustatten, weiter in der Forschung zu verfolgen. (1) Vernunftentscheidungen, ethische Reflexion: In Star Trek Picard (2020) hat die Menschheit ein Zeitalter erreicht, in der das Argument von Steve Petersen von »Artifiziellen Personen« real geworden ist. Humanoide Roboter stehen Menschen in nichts nach. Der Unterschied zwischen Menschen und Maschinen ist in den Figuren Dr. Soji Asha und Data vollständig aufgehoben. Allerdings stehen intelligente künstliche Lebensformen mit Bewusstsein im Verdacht, ihren 341

Lind, Georg (2019). Moral ist lehrbar, S. 58.

161

162

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

menschlichen Designer zu gefährden oder gar auslöschen zu wollen, weshalb sie in der Darstellung zumeist negativ konnotiert sind. Dieses Paradigma findet sich auch bei Alien The Covenant (2017) oder im Roman von Frank Schätzing Die Tyrannei des Schmetterlings (2018) und fällt unter das Stichwort der technologischen Singularität342 . Danach haben Maschinen unter Zuhilfenahme künstlicher Intelligenz eine neue Generation von Maschinen geschaffen, die dem Menschen weit überlegen ist.343 Abseits von Geschichten und Erzählungen aus der Welt der Science-Fiction nehmen einige Autoren in der Forschung an, dass moralisches Entscheiden Bewusstsein verlangt – jedenfalls bei einem Menschen, der als »explicit ethical agent«344 gilt. Würde es theoretisch gelingen, Bewusstsein in einem Roboter zu generieren, könnte dieser entlang moralischer Prinzipien sein Verhalten ausrichten. Moralische Prinzipien können, wie oben im Abschnitt zu »moralischen Orientierungen« Regeln oder Gesetze sein. Künstliches Bewusstsein könnte also einen Roboter, wie Aleksander schreibt, zu mehr »autonomy, freedom from pre-programming«345 befähigen. »This brings the autonomy of machines closer to that of living organisms.«346 Diese Einschätzung wird nicht von allen in der Forschung geteilt. Malle (2016)347 sowie Malle und Scheutz (2019)348 etwa verzichten in ihrem Modell zur moralischen Kompetenz (2016) ganz auf die Einbeziehung von Bewusstsein (oder gar Unterbewusstsein), obwohl sie scheinbar auf etwas Vergleichbares für Roboter hinauswollen. »In addition to causal analysis and simulation, explanations of one’s own intentional actions require access to one’s own reasoning en route to action and accurate memory for this reasoning.«349 Der Roboter soll über eine Art

342 Loh, Janina (2018). Trans- und Posthumanismus, S. 99. 343 Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 205. 344 Vgl. Wallach, Wendell und Allen, Colin (2009). Moral machines: Teaching robots right from wrong, S. 34. 345 Aleksander, Igor (2017). »Machine Consciousness«, S. 95. 346 Aleksander, Igor (2017). »Machine Consciousness«, S. 95. 347 Malle B. F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 244. Und: Malle und Scheutz (2019). »Learning How to Behave: Moral Competence for Social Robots.« 348 Malle und Scheutz (2019). »Learning How to Behave. Moral Competence for Social Robots.« 349 Malle B. F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.«, S. 252.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

»reliable access to its own reasoning«350 auf einer Metaebene verfügen. Diese Strategie ähnelt dem Vorschlag von Dehaene et al. (2017)351 , aber auch Floridi (2005)352 , wonach Bewusstsein eine selbstreferentielle Beziehung beinhaltet, »in which the cognitive system is able to monitor its own processing and obtain information about itself.«353 In der moralische Kompetenztheorie von Lind hingegen wird explizit von einem »bewussten Teil unseres moralischen Selbst«354 gesprochen, dass über seine Urteile reflektieren kann. Lind erwähnt allerdings noch einen weiteren Aspekt für die »bewusste Schicht« des moralischen Selbst, die wir im zweiten Teil des Abschnitts erläutern möchten. (2) Selbstkorrektur des Verhaltens und Empathie: John H. Andrea bemerkt in seinem Aufsatz »Design of a Conscious Robot« (1987), dass bewusste Roboter über die Fähigkeit verfügen müssten, die eigenen Fehler und Fehler anderer festzustellen, sich angemessen in schwierigen Situationen zu verhalten und sich selbst sowie andere Menschen oder Roboter nicht zu gefährden.355 Nowak stellt dagegen klar, dass moralische Kognition beim Menschen manchmal bewusst, andere Male unbewusst abläuft. Nicht immer sind dabei bewusste Entscheidungen rational, unbewusste Entscheidungen irrational. Es kann sich genauso gut andersherum zeigen: »For example, instincts, emotions, and intuitions might be an evolutionary inheritance in human minds, of an »unconscious« character. However, humans learn and develop some conscious tools to understand their natural impulses and to navigate them.«356 Insbesondere der zweite, von Nowak angesprochene Punkt ist wichtig und wird auch von Aleksander als »inner contemplative acitivity«357 herausgestellt. Bewusstsein ermöglicht einen kritischen Selbstbezug oder, um mit Lind zu

350 Ebd., S. S. 252. 351 Dehaene, Stanislas, Lau, Hakan und Kouider, Sid. (2017). »What is consciousness, and could machines have it?«. 352 Floridi, L. (2005). Consciousness, agents and the knowledge game. 353 Dehaene, Stanislas, Lau, Hakan und Kouider, Sid. (2017). »What is consciousness, and could machines have it?«, S. 486–487. 354 Lind, Georg (2019). Moral ist lehrbar, S. 58. 355 Andrea, John H. (1987). »Design of a Conscious Robot«. METASCIENCE 5: 42–54, hier: S. 42. 356 Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 325. 357 Aleksander, Igor (2017). »Machine Consciousness«. In: The Blackwell Companion to Consciousness, S. 95.

163

164

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

sprechen, unsere moralischen Gefühle und die unserer Mitmenschen »erkennen, korrigieren und trainieren zu können«358 . Nowak fügt in Anlehnung an Habermas hinzu: »Basing decisions to act only on emotions (without reflection) is not possible, and can certainly be misleading and quite dangerous for a number of social relationships.«359 Moralische Gefühle sind nach Lind in unseren moralischen Orientierungen verankert, die sich insbesondere in moralischen Konfliktsituationen zeigen. Lind gibt in seiner Studie keine weitere Definition für moralische Gefühle, lässt jedoch durchblicken, dass hierunter auch Empathie fällt.360 Sofern Bewusstsein ein Schlüssel für Empathie ist, wäre dies aus Sicht der Studie ein weiteres Argument dafür, an der Umsetzung von bewussten Maschinen zu arbeiten. Zusammenfassung: Angesichts der Vielzahl unterschiedlicher Forschungsmeinungen scheint das Projekt einer mit Bewusstsein ausgestatteten Maschine in weite Ferne gerückt zu sein, zumal es bislang keinen Nachweis für eine bewusste Maschine gibt. Dennoch darf aus dieser destruktiven Bewertung über den Stand der Forschung nicht geschlussfolgert werden, dass der Bau einer bewussten Maschine prinzipiell unmöglich ist. Aus Sicht der moralischen Kompetenztheorie gibt es, wie in diesem Abschnitt ausgeführt wurde, gute Gründe, das Projekt nicht fallen zu lassen. Bewusste Roboter, so die Theorie und Annahme, könnten einmal mehr ihr Handeln nach Prinzipen ausrichten, die sie für richtig erachten, und die eigenen moralischen Entscheidungen sowie die von anderen hinterfragen. Eine erste Skizze, welche Kriterien erfüllt sein müssen, um in einem Roboter Bewusstsein zu entwickeln, soll im nächsten Abschnitt unternommen werden

5.3.4 Wann ist ein Roboter bewusst? Im Frühling 2001 organisierten der Philosoph David Chalmers, der Computerwissenschaftler und Ingenieur Rod Goodman sowie Neurologe Christof Koch ein informelles Treffen von Forschern verschiedener Disziplinen in New York. Dabei wurde der Grundstein für die Modellierung maschinellen

358 Lind, Georg (2019). Moral ist lehrbar, S. 58. 359 Nowak, Ewa (2013). Experimental ethics: a multidisciplinary approach, S. 21. 360 Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 325.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Bewusstseins (»Machine modeling consciousness«) gelegt.361 In der Folge haben sich sechs Kriterien für maschinelles Bewusstsein etabliert, die Igor Aleksander in seinem Aufsatz über »Machine Consciousness« (2017) zusammengefasst hat und im ersten Teil dieses Abschnitts diskutiert werden sollen. Die Liste ist allerdings unvollständig, wie hier argumentiert wird. Es wird im zweiten Teil vorgeschlagen, die Fähigkeit zum Selbstbewusstsein oder »selfawareness« als siebtes Kriterium aufzunehmen. Dass dieser Vorschlag nicht frei von metaphysischem Ballast ist und einige philosophische Probleme auf die Tagesordnung ruft, soll in dieser Studie nicht vernachlässigt werden. Wir werden auf die Schwierigkeiten ebenso eingehen müssen, die sich mit dem siebten Kriterium ergeben, wie auf dessen Chancen. Eine Schlussfolgerung wird unter anderem sein, dass die aktuellen Konzepte für Handlungssubjekte in der Robotik bislang nur bedingt mit dem hier diskutierten Modell für bewusste Roboter in Einklang stehen. Daher ergeben sich zwei mögliche Wege für die Zukunft: entweder wir geben das anspruchsvolle Projekt für bewusste Maschinen auf362 oder wir integrieren es in bestehende Konzepte. Die Studie wird für den zweiten Weg optieren. (1) Sechs Kriterien für bewusste Maschinen: Aleksander merkt an, dass die von ihm zusammengetragenen Kriterien keinesfalls mit dem Anspruch auf Vollständigkeit verbunden sind, da die Forschung zum Teil andere Ansätze für richtig hält. Wir werden im Folgenden die einzelnen Punkte vom ihm erläutern: •

»There needs to be a demonstrable representation of a multi-featured world with the organism within it.« Hiermit sind Methoden angesprochen, mit denen ein künstliches System in die Lage versetzt werden kann, Repräsentationen von sich und seiner Umwelt zu entwickeln. An oberer Stelle ist bereits auf den Vorschlag einer »Action-based Semantic« von Taddeo und Floridi (2005, 2007)363 eingegangen worden, bei der sich über einen auf der Evolutionstheorie basierenden Algorithmus ein stabiles semantisches Feld über die Umwelt und das eigene Selbst einstellt. Holland und Maques (2009,

Aleksander, Igor (2017). »Machine Consciousness«. In: The Blackwell Companion to Consciousness, S. 93. 362 Otte, Ralf (2021). Maschinenbewusstsein. Frankfurt a.M.: Campus Verlag. 363 Vgl. Siehe oben. 361

165

166

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter



2010)364 schlagen stattdessen eine Architektur vor, mit dessen Hilfe ein künstliches System episodisches Bewusstsein entwickeln kann. Episodisches Bewusstsein wird als ein Beleg für personale Identität verstanden. Es befähigt ein Lebewesen dazu, sich an Ereignisse, Personen etc. zu erinnern. Damit erfüllt es wiederum das Kriterium der psychischen Kontinuität. Beide Autoren entwickeln ein mehrstufiges Experiment anhand von zwei komplexen humanoiden Robotern CRONOS und SIMNOS. Ihr Vorschlag eines Systems für »functional embodied imagination« soll einen Roboter dazu befähigen, seine eigenen Handlungen und sein Verhalten zu simulieren und deren Konsequenzen auf der Basis von sensorischen Daten zu bewerten.365 »The Machine must show a sufficient understanding of its human interlocutors to be judged to be potentially conscious.« In der Mensch-Roboter-Interaktion ist es zudem von Belang, ob der Roboter von seinem Gesprächspartner als bewusst wahrgenommen wird. Diese Diskussion haben wir im Abschnitt zum »Turing -Test« bereits vertieft, wobei es um simulierte menschliche Fähigkeiten geht. Scheutz et al. (2013)366 , Schermerhorn et al. (2006)367 sowie Franklin (2003)368 haben sich hier zum Beispiel mit ihren Methoden wie der Plattform »DIARC« (»Distributed Integrated Affect, Reflection,

364 Vgl. Marques, Hugo Gravato und Holland, Owen (2010). »Functional embodied imagination and episodic memory.« International Journal of Machine Consciousness. Bd. 02(2):245-259. DOI: https://doi.org/10.1142/S1793843010000473. Und: Marques, Hugo Gravato und Holland, Owen (2009). »Architectures for functional imagination.« Neurocomputing 72:743-759. 365 Marques, Hugo Gravato und Holland, Owen (2010). »Functional embodied imagination and episodic memory.« International Journal of Machine Consciousness, S. 246ff. 366 Vgl. Scheutz, Matthias; Briggs, Gordon; Cantrell, Rehji.; Krause, Evan; Williams, Tom & Veale, Richard (2013). »Novel Mechanisms for Natural Human-Robot Interactions in the DIARC Architecture.« In Intelligent Robotic Systems: Papers from the AAAI 2013 Workshop: 66- 72. Und: Scheutz, Matthias; Schermerhorn, Paul; Kramer, James und Anderson, David (2007). »First steps toward natural human-like HRI.« Autonomous Robots 22(4):411-423. 367 Vgl. Schermerhorn, Paul; Kramer, James; Brick, Timothy; Anderson, David; Dingler, Aaron. & Scheutz, Matthias (2006). »Diarc: A testbed for natural humanrobot interactions.« In Mobile Robot Competition and Exhibition – Papers from the 2006 AAAI Workshop, Technical Report (S. 45–52). (AAAI Workshop – Technical Report; Bd. WS-06-15). 368 Vgl. Franklin, Stan (2003). »IDA: A Conscious Artifact?« Journal of Consciousness Studies 10:47-66.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern





and Cognition«) oder »IDA« (»intelligent distribution agent«) verdient gemacht, mit denen künstliche Systeme einerseits natürliche Sprache verstehen, anderseits selbst auf natürlichem Weg kommunizieren können. »Reactive, contemplative, and supervisory levels of reasoning must be discernible in the architecture that links perception to internal processing and to action.« – Erinnern wir uns an das von Harry G. Frankfurt im Zusammenhang seines Begriffs der Personen herausgestellten Merkmal der zwei Ebenen eines Bewusstseins, die er mit »Volitionen« erster und zweiter Ordnung beschreibt. Ein künstliches System benötigt die Fähigkeit zu einer »reflective self-evaluation«369 , die ihre sensorischen Umgebungsinformationen einbindet. Aleksander verweist in diesem Zusammenhang auf die Arbeiten von Aaron Sloman und Ron Chrisley (2003)370 , die in einem vergleichbaren Sinne ein Modell für eine virtuelle Maschine entworfen haben. Diese soll auf einer minimalen Stufe reaktives Bewusstsein haben, ähnlich wie Insekten. »Insects perceive things in their environment, and behave accordingly.«371 Auf den weiteren Stufen sind ein »deliberative mechanism« sowie ein »meta-management« angesiedelt. Während Ersteres dazu dient, Pläne zu konzipieren (um etwas Bestimmtes zu erreichen), hinterfragt das übergeordnete System die Sinnhaftigkeit der Methodik innerhalb der Pläne (ist also die Wahl meiner Werkzeuge für das, was ich beabsichtige, zielführend). Das Modell von beiden Autoren ist natürlich wesentlich komplexer, als hier vereinfacht dargestellt. »The machine could be characterized by lowel-level mechanism that are equivalent to those known to be crucial to consciousness in the neurology of living organisms.« Dieses Kriterium untersucht insbesondere die Realisierung von bewussten Zuständen in Anlehnung an das menschliche Vorbild. Die Philosophie, wie wir gesehen haben, hat hierzu mit der Emergenz- oder SupervenienzTheorie erste Strategien hervorgebracht, die inzwischen etwa durch Tononis »Integrated Information Theory of Consciousness«372 (2017) oder Cotte-

369 Frankfurt, Harry G. (1971). »Freedom of the Will and the Concept of a Person.« Journal of Philosophy 68(1):5-20, hier: 7. 370 Vgl. Sloman, Aaron und Chrisley, Ron (2003). »Virtual Machines and Consciousness.« Journal of Consciousness Studies 10(4-5):133-172. 371 Sloman, Aaron und Chrisley, Ron (2003). »Virtual Machines and Consciousness.« (Zitiert nach Online-Version, Link abgerufen a, 7. Juni 2023, S. 22. http://users.sussex.ac. uk/~ronc/papers/Sloman-Chrisley.pdf). 372 Vgl. Tononi, Giulio. (2017). »Integrated Information Theory of Consciousness. Some Ontological Considerations.«

167

168

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter





373

rills »Cyberchild« (2003)373 starke Konkurrenz bekommen haben. Auch das von Gualtiero Piccinini (2003, 2010)374 und Miłkowski (2013, 2018)375 unter anderem verfolgte Programm der sogenannten »new mechanists« kann hierzu gezählt werden. Diesen zufolge liegen beobachtbaren Naturphänomen Mechanismen – also »orgnanized systems of components and acitvities«376 zugrunde, die sich explizieren und darüber hinaus in computationale Modelle überführen lassen. »The machine must have means of demonstrably depicting and using the outherness of the perceived world and be able to use such depictions to imagine worlds and the effects of its actions.« – Das zitierte Kriterium ist von Aleksander (2005, 2017)377 selbst in die Diskussion eingebracht worden. Es umfasst fünf Bedingungen, die aus seiner Sicht Bewusstsein ausmachen. Die Bedingungen entsprechen im Wesentlichen den vorangegangenen Betrachtungen, weshalb sie hier nicht weiter vertieft werden sollen. Demnach sind es »perception of oneself in an »out-there-world«, »imagination of past events and fiction«, »inner and outer attention«, »volition and planning« und »emotion«. Allein zu bemerken ist, dass das Kriterium »perception« bei Aleksander darauf abhebt, dass das künstliche Bewusstsein über seinen Wahrnehmungsapparat einen Unterschied zwischen sich als Gegenstand und der Außenwelt feststellt. Ob Aleksander hier schon die Idee eines erkennenden Selbst (als Selbstbewusstsein) im Blick hat, bleibt offen. »Having adhered to some of the criteria above, the design must qualify what is meant by an emotional evaluation of the content of consciousness.« – Mit diesem letzten

Vgl. Cotterill, Rodney M. J. (2003). »CyberChild A Simulation Test-Bed for Consciousness Studies.« Journal of Consciousness Studies 10(4-5):31-45. 374 Vgl. Piccinini, Gualtiero (2003). Computations and Computers in the Sciences of Mind and Brain. Doctoral Dissertation. Pittsburg. PA: University of Pittsburgh. Und: Piccinini Gualtiero und Scarantino, Andrea. (2010). »Computation vs. information processing: why their difference matters to cognitive science.« Studies in History and Philosophy of Science, 41, 237–246. 375 Vgl. Miłkowski, Marcin (2013). Explaining the Computational Mind. Cambridge. Und: Miłkowski, Marcin (2018). »Mechanisms and the Mental.« In: S. S. Glennan & P. Illari (Hg.) The Routledge Handbook of Mechanisms and Mechanical Philosophy (S. 74–88). New York: Routledge (Taylor & Francis Group). 376 Vgl. Piccinini Gualtiero. (2018). »Computational Mechanism.« In: S. S. Glennan & P. Illari (eds.) The Routledge Handbook of Mechanisms and Mechanical Philosophy (S. 435–446). New York: Routledge (Taylor & Francis Group), S. 440–441. 377 Aleksander, Igo. (2005). The World in My Mind: Five Steps to Consciousness.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Punkt schließt sich der Kreis auch zu Linds moralischen Gefühlen, die Bewusstseinszustände begleiten würden. Die vorliegende Studie hat bereits an anderer Stelle bemerkt, dass die Implikation von Gefühlen in Robotern von vielen Autoren als zentral angesehen wird, die Forschung hierzu allerdings weitestgehend in den Anfängen steckt. Bei den sechs besprochenen Kriterien handelt es sich weniger, wie auch Aleksander bemerkt, um Kriterien, mit denen sich Bewusstsein in einem künstlichen System feststellen lässt, dafür vielmehr um Handlungsfelder für die Wissenschaft, welche Methoden und Richtlinien für die Realisierung von Bewusstsein nötig wären. Dabei fällt auf, dass ein Handlungsfeld jedoch vernachlässigt wird, das für moralisch handelnde Roboter wichtig ist. Hiervon wird im zweiten Teil des Abschnitts die Rede sein. (2) Selbstbewusstseins oder »self-awareness«: Der Philosophisch Friedrich W. J. Schelling (1775–1854) stellt in seiner Abhandlung »Vom Ich als Prinzip der Philosophie oder über das Unbedingte im menschlichen Wissen« (1795) heraus, dass Persönlichkeit eine »Einheit des Bewußtseyns«378 verlangt. Später in seinen »Stuttgarter Privatvorlesungen« (1810) ergänzt er diesen Gedanken um das »Selbst« als »erstes Prinzip des Wissens«. Das Selbst gilt ihm als Ausgangspunkt für alle weiteren Erkenntnisse für den Menschen und ist wesentlicher Bestandteil der Persönlichkeit.379 Schellings Begriffs des Selbst umfasst hierbei noch keine soziale Dimension (anders als bei seinem Tübinger Stiftskollegen Hegel) oder versteht das Selbst als ein moralisches Wesen. Gleichwohl ist bemerkenswert, dass bereits Schelling erstens für eine Art von psychischer Kontinuität beim Bewusstsein plädiert und zweitens das »Selbst« als Merkmal des Bewusstseins annimmt. Heutige Autoren folgen im Großen und Ganzen dieser Linie und deuten Selbstbewusstsein als eine »Form des Bewusstseins«380 oder »Reflexivität der Geistestätigkeit«381 , die 378 Schelling, F. W. J. (1795). »Vom Ich als Prinzip der Philosophie oder über das Unbedingte im menschlichen Wissen«. In: Ausgewählte Werke, hg. von Manfred Frank 1985, Frankfurt a.M.: Suhrkamp, SW I, 200. 379 Shiebuya, Rie (2005). Individualität und Selbstbildung. Schellings Weg zur Selbstbildung der Persönlichkeit (1801–1810), Paderborn: Schoeningh, S. 19. 380 Pauen, Michael (2007). Was ist der Mensch? Die Entdeckung der Natur des Geistes. München: DVA, S. 143. 381 Arendt, Hannah (1971), Vom Leben des Geistes. Das Denken. Das Wollen. 3. Auflage von 2006, Hamburg: Piper, S. 46.

169

170

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

sich auf den Inhaber oder das Subjekt »dieses Bewusstseins« bezieht (»aktuales Bewusstsein«382 ). Irrgang sieht darin außerdem die Fähigkeit, sich selbst als ein »linguistic subject«, »thinker« und als Handlungssubjekt (»subject of being able to behave«383 ) zu bestimmen. Gerade der letztgenannte Punkt ist für die Moralphilosophie konstitutiv. Bei Kant ist das Selbst verantwortlich für das »moralische Gesetz in mir«384 , Kohlberg und Lind sprechen später einvernehmlich von einem »moralischen Selbst«385 und Habermas wiederum von einem »moralischen Bewusstsein«386 . Korsgaard definiert das Selbst als Prozess des Handelns und (sich selbst-)Entwerfens, wodurch sich eine »pracitical identity«387 ausformt. Das Selbst ist Rössler zufolge in der Literatur oft auch als ein Garant für »positive Freiheit« interpretiert worden, »das machen zu können«, was Ausdruck »seines wesentlichen Selbst«388 ist. Die bisherigen Ausführungen legen die These nah, dass moralisches Handeln, insbesondere moralische Kompetenz »self-representation«389 , »selfawareness«390 einschließen. Ohne ein Selbst, so ließe sich argumentieren, entfällt die Fähigkeit, als moralisches Wesen zu wirken. Aleksanders im ersten Teil des Abschnitts besprochenen Kriterien erfassen diese Dimension nicht. Wir schlagen daher vor, Aleksanders Liste zu erweitern. Ein künstliches System, will es über moralische Kompetenz verfügen, benötigt ein Selbst oder Selbstbewusstsein. Diese These wird in der Forschung etwa von Bringsjords et al. (2015)391 diskutiert. »Self-consciousness would seem to be a sine qua non for moral competence in a social world.« Allerdings ist bislang unklar, wie ein künstliches Bewusstsein Selbstbewusstsein entwickeln soll, vor allem weil es nur wenige Studien auf diesem Feld gibt. So haben Bringsjord und

382 383 384 385 386 387 388 389 390 391

Pauen, Michael (2007). Was ist der Mensch? Die Entdeckung der Natur des Geistes, S. 143. Irrgang, Bernhard (2014). »On the Consciousness of Robots.«, S. 144. Kant, Immanuel (1788). Kritik der praktischen Vernunft, S. 215, AA 289. Kohlberg, Lawrence (1996). Die Psychologie der Moralentwicklung, S. 117. Lind, Georg (2019). Moral ist lehrbar, S. 58. Habermas, Jürgen (1983). Moralbewusstsein und kommunikatives Handeln. 13. Auflage erschienen in 2018. Frankfurt a.M.: Suhrkamp, S. 131. Korsgaard, Christine. M. (2009). Self-Constitution. Agency. Identity and Integrity, S. 42–43. Rössler, Beate (2019). Autonomie. S. 37. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?«, S. 323. Ebd., S. 329. Vgl. Bringsjord, Selmer; Licato, John; Govindarajulu, Naveen S.; Ghosh, Rikhiya, und Sen, Atriya (2015). »Real robots that pass tests of self-consciousness«.

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

Govindarajulu (2013)392 einen Roboter (Cogito) konstruiert, der aus ihrer Sicht den Spiegeltest bestehen kann. Der Spiegeltest wird in der Psychologie vor allem bei höher entwickelten Primaten verwendet, um das Vorhandensein eines Selbstbewusstseins oder einer »Ich-Konstruktion« nachzuweisen. In dem Experiment wird ein roter Punkt auf die Stirn eines Teilnehmers geklebt. Der Test ist erfolgreich, wenn der Teilnehmer den roten Punkt entfernt. Nach Govindarajulu (2011)393 benötigt ein künstliches System zum Bestehen des Tests die Fähigkeit, die eigenen Vorstellungen nach Ihrem Informationsgehalt auseinanderzuhalten. So macht es einen Unterschied, ob das System Vorstellungen unmittelbar von sich als Selbst (de se) und als Objekt in der Welt (de re) hat oder ob es die Vorstellung lediglich äußert (de dicto). Bringsjords et al. (2015) schlagen an anderer Stelle eine komplizierte Testvariante vor, in der sie auf Floridis »informative test« (»knowledge test«394 ) zurückgreifen. Den Autoren zufolge wäre es aus theoretischer Sicht durchaus denkbar, dass zukünftige Robotermodelle den Test bestehen können. Chatila et al. (2018)395 setzen demgegenüber in ihrem Konzept auf die Fähigkeit der »self-awareness«. Dem System kann Selbstbewusstsein zugesprochen werden, wenn es sich als Akteur von der Umgebung als verschieden begreift. Der Ansatz erinnert in seiner Ausrichtung an Aleksanders Punkt der »perception of oneself in an »out-there-world«, wobei sie zentrale Aspekte wie »selfevaluation« und »meta-reasoning« berücksichtigen. Die Schwierigkeit, die sich mit der Ergänzung Aleksanders Liste um das Kriterium des Selbst oder Selbstbewusstsein ergibt, darf zum Schluss des Abschnitts nicht unerwähnt bleiben. Sofern wir das siebte Kriterium akzeptieren, um dem Ziel eines moralisch kompetenten Roboters – zumindest in

392 Bringsjord, Selmer und Govindarajulu, Naveen S. (2013). »Toward a Modern Geography of Minds, Machines, and Math,« In: Müller, Vincent C. (Hg.). Philosophy and Theory of Artificial Intelligence, ser. Studies in Applied Philosophy, Epistemology and Rational Ethics (151–165). Bd. 5, New York: Springer. 393 Govindarajulu, Naveen S. (2011). »Towards a Logic-based Analysis and Simulation of the Mirror Test,« Proceedings of the European Agent Systems. Summer School Student Session 2011, Girona, Spain, 2011. (Online-Link aufgerufen am 25.05.2023: http://ei a.udg.edu/easss2011/resources/docs/paper5.pdf). 394 Floridi, Luciano (2005). »Consciousness, agents and the knowledge game.« MindMach. 15:415-444. DOI: https://doi.org/10.1007/s11023-005-9005-z. 395 Vgl. Chatila, Raja; Renaudo, Erwan; Andries, Mihai; Chavez-Garcia, Ricardo-Omar; Luce-Vayrac, Pierre; Gottstein, Raphael; Alami, Rachid; Clodic, Aurélie; Devin, Sandra; Girard, Binoît und Khamassi, Mehdi (2018). »Toward Self-Aware Robots.«

171

172

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

der Theorie – näher zu kommen, muss eine Lösung gefunden werden, um die ernstzunehmenden, berechtigten philosophischen Zweifel auszuräumen, wie sie sich in Fichtes Paradox zum Selbstbewusstsein artikulieren. Im weiteren Schritt scheint der Vorschlag in seiner Konsequenz ein neues Konzept für Handlungssubjekte in der Robotik zu benötigen. Selbstbewusstsein als Zirkelschluss: Fichte war der erste Philosoph, der bei seiner Ausführung zum Selbstbewusstsein in der »Wissenschaftslehre« (1794/95) festgestellt hat, dass es zu einem Zirkelschluss in der Argumentation kommen muss.396 Jede Reflexion des Bewusstseins auf sich selbst setzt bereits Selbstbewusstsein voraus.397 Das Bewusstsein kann sich nur erfassen, wenn diesem bereits Selbstbewusstsein zugrunde liegt, andernfalls wäre es mit etwas anderem identisch, das nicht es selbst ist. Fichte schlägt daher ein präreflexives Selbst vor. Dieser Einwand ist zentral, wird in der Robotik allerdings nur vereinzelt, etwa bei Misselhorn, angesprochen. Überarbeitung bestehender Handlungskonzepte: Mindestens genauso anspruchsvoll wie das Fichte-Paradox ist es, das siebte Kriterium mit bestehenden Konzepten für Handlungssubjekte in Einklang zu bringen. Diese vermeiden bisweilen, Bewusstsein oder Selbstbewusstsein als Bedingung aufzuführen.398 Lediglich James Moors Konzept eines »full ethical agent«399 ist hier zu nennen. Allerdings bezieht sich dieses Konzept, wie er selbst schreibt, eher auf ein »average adult human«, denn auf künstliche Systeme. Durch Bewusstsein, Intentionalität und einen freien Willen könnte ein Handlungssubjekt »explizite ethische Urteile« fällen und begründen. Zum aktuellen Zeitpunkt bleibt für ihn offen, ob Maschinen hierzu jemals in der Lage sein werden. Ausgeschlossen ist es für ihn jedoch nicht. Kritisiert wird, dass Moors Bedingungen nicht scharf genug begrifflich unterschieden werden, zu metaphysisch aufgeladen400 und »ambig« (Misselhorn 2013, 51)401 sind. Misselhorn setzt dagegen das Konzept der »Selbstursprünglichkeit« und

Henrich, Dieter (1967). Fichtes ursprüngliche Einsicht, Frankfurt/M: Klostermann. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 120. Loh, Janina (2019). Roboterethik, S. 48ff. Moor, James (2006). »The Nature, Importance, and Difficulty of Machine Ethics.« Intelligent Systems, IEEE 21(4):18-21. DOI: https://doi.org/10.1109/MIS. 2006.80. 400 Loh, Janina (2019). Roboterethik, S. 55ff. 401 Misselhorn, Catrin (2013). »Robots as Moral Agents?«, S. 42–56, hier: S. 51.

396 397 398 399

5. Philosophische Vorbetrachtung – Integration von moralischer Kompetenz in Robotern

die Fähigkeit, nach Gründen zu handeln. Selbstursprünglichkeit bedeutet, dass das Handlungssubjekt aus sich heraus, ohne äußeren Einfluss handelt, ähnlich wie in Korsgaards Modell eines Lebewesens, das sich im aktiven Sinn setzt. Sie bezieht sich ferner neben Sullins sowie Wallach und Allen auf die drei Bedingungen für ein Handlungssubjekt, die auch Floridi und Sanders anfügen: Interaktivität, Adaptivität und basale Autonomie.402 Willensfreiheit, Verantwortung und Bewusstsein stellt sie zurück. Dabei wäre wahrscheinlich eine Kombination aus Misselhorns und Moors Konzept (die sie scheinbar ohnehin implizit beabsichtig)403 noch am erfolgversprechendsten, um bewusste Maschine als Handlungssubjekte zu identifizieren. Allerdings bräuchte es dann eine genauere Definition für bewusste Maschinen, was mit Blick auf die Widersprüchlichkeit in der Forschung bedenklich schwer sein könnte. Zusammenfassung: In diesem Abschnitt haben wir Aleksanders Liste für bewusste Maschinen diskutiert. Festgestellt wurde, dass diese zunächst eine gute thematische Gruppierung über die einzelnen Methoden in der Forschung liefert, sprich Handlungsfelder zusammenfasst, wie eine bewusste Maschine zu entwickeln sei. Die Liste sagt dabei nichts darüber aus, was es für eine Maschine bedeutet, bewusst zu sein.404 Ferner haben wir herausgearbeitet, dass die sechs Kriterien erweitert werden müssten, sofern das künstliche Bewusstsein als moralisches Wesen, ausgestattet mit moralischer Kompetenz, in Erscheinung treten soll. Als Kriterium haben wir hier Selbstbewusstsein vorgeschlagen. Unklar bleibt, wie man generell das Modell einer (selbst-)bewussten Maschine mit bestehenden Konzepten für Handlungssubjekte zusammenbringt. Die Studie tendiert zu einer Kombination der Arbeiten von Moor (2006) und Misselhorn (2013).

5.3.5 Zwischenbilanz zum Themenfeld Bewusstsein Lässt man die grundsätzliche Kritik an bewussten Maschinen beiseite, wie sie von Searle, Jonas, Gabriel sowie von Anderen stark gemacht wird, so haben wir mit diesem Kapitel einen Ansatz formuliert, wie sich das Thema moralische Kompetenz und die künstliche Bewusstseinsforschung zusammenführen

402 Loh, Janina (2019). Roboterethik, S. 48ff. Und: Misselhorn, Catrin (2018). Grundfragen der Maschinenethik, S. 77. 403 Loh, Janina (2019). Roboterethik, S. 66. 404 Aleksander, Igor (2017). »Machine Consciousness«, S. 95.

173

174

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

lassen. Die Erkenntnisse sind jedoch mit großer Vorsicht zu betrachten, da es weder eine einheitliche Forschungsmeinung für künstliches Bewusstsein gibt, noch klar ist, wie diese Standpunkte in unsere aktuellen Konzepte für Handlungssubjekte (und sicherlich ebenso Verantwortungssubjekte) zu integrieren sind. •





Um »Bewusstsein« zu untersuchen, wird in der Forschung ein Unterschied klar gemacht zwischen Bewusstsein als phänomenales Phänomen und Bewusstsein als Funktion. Die zweite Variante hält die Möglichkeit offen, dass sich Methoden finden, mit denen Bewusstsein objektiv analysiert werden können. Es gibt gute Gründe aus Sicht der moralischen Kompetenztheorie für die Entwicklung bewusster Roboter. Mit ihrer Realisierung rückt das Ziel näher, dass Roboter ihr Handeln (bewusst) nach Prinzipen ausrichten, die sie für richtig erachten, und zur Selbstkorrektur fähig wären. Für die moralische Kompetenztheorie bleibt der Aspekt der unbewussten Schicht eines moralischen Selbst dennoch unbestritten zentral. Leider ist die Forschung zu unbewussten Maschinen bislang nur rudimentär. Für die Modellierung maschinellen Bewusstseins werden von Igor Aleksander (2017) sechs Handlungsfelder angenommen. Seine Liste ist um ein siebtes Handlungsfeld (Entwicklung von Selbstbewusstsein) zu ergänzen. Moralisch handelnde respektive kompetente Roboter benötigen eine Form von Selbst oder Selbstbewusstsein. Erste Forschungsansätze auf diesem Gebiet wurden mit Bringsjords et al. (2015), Govindarajulu (2013) und Chatila et al. (2018) identifiziert. Dieser Ansatz ist allerdings philosophisch anspruchsvoll, zum Teil metaphysisch aufgeladen und lässt sich bislang nicht mit bestehenden Vorstellungen für Handlungs- und Verantwortungssubjekte zusammenbringen. Die Studie optiert für eine Kombination aus Misselhorns (2013) Konzept für »Selbstursprünglichkeit« und Moors (2006) Konzept für »full ethical agent«.

6. Robotik in der Schule

6.1 Aktueller Forschungsstand Das letzte Kapitel des Buches soll wie angekündigt einen Transfer des Themas (Moralische Roboter) für die didaktische Einführung und Anwendung im Unterricht unternehmen. Das Ergebnis wird ein Vorschlag für eine Unterrichtseinheit im Fach Sachunterricht für die Primarstufe der Klassen 1 und 2 sein, wobei wir eine Sequenz genauer vorstellen werden. Gewählt wurde gerade diese Zielgruppe, weil hier bislang wenig bis kaum Material vorliegt bzw. bestehende Rahmenlehrpläne eine thematische Behandlung von Robotern erst viel später bzw. nur als Randphänomen vorsehen. Zudem ist das Fach Sachunterricht, wie Kristin Schäffer und Ingelore Mammes richtig analysieren, aus dem Fächerkanon der Grundschule für den Zugang von Robotik am geeignetsten.1 Kinder frühzeitig an moralische Fragen der Robotik heranzuführen, verspricht die Möglichkeit, ihr eigenes Verhältnis zu Maschinen und Robotern zu reflektieren, sie dabei in den Standards und Kompetenzen (Erkennen, Kommunizieren, Urteilen, Handeln) auszubilden und sie für Technik zu begeistern. Außerdem können erste informatorische Inhalte vermittelt, Themen im Bereich der technischen Bildung fokussiert sowie sozialwissenschaftliche und historische Bezüge hergestellt werden.2 Ziel dieses Kapitels ist es also, mit der vorgestellten Unterrichtseinheit Lehrerinnen und Lehrern Ideen und Anregungen an die Hand zu geben, wie man das Thema Moralische Roboter im Fach Sachunterricht aufgreifen kann. Der rote Faden für die Unterrichtseinheit wird die These des Buches sein (»Roboter benötigen moralische Kompetenz, um unsere Welt aus Regeln, 1 2

Vgl. Schäffer, Kristin und Mammes, Ingelore (2014). »Robotik als Zugang zur informatischen Bildung in der Grundschule.« GDSU-Journal Juli 2014, Heft 4:59-73. Vgl. Schäffer, Kristin und Mammes, Ingelore (2014). »Robotik als Zugang zur informatischen Bildung in der Grundschule.«, S. 67.

176

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Vorschriften und Werten zu begreifen und andererseits von ihrem Umfeld akzeptiert zu werden.«). Die These wird in ihren zentralen Begriffen hergeleitet und aus unterschiedlichen Perspektiven mit den Kindern beleuchtet, sodass ein »Philosophieren mit Kindern« möglich wird. In der Forschung gibt es inzwischen mehrere private und akademische Initiativen, die sich für KI bzw. Robotik in den Schulen aussprechen. Kandlhofer und Steinbauer (2021)3 und Steinbauer et al. (2021)4 geben einen hervorragenden Überblick über die aktuellen formellen und informellen Initiativen. Bei den informellen Initiativen handelt es sich um Grundlagen-Projekte, die praktisch mit Robotern und KI experimentieren oder Online-Kurse anbieten. Der Online-Kurs Elements of AI (EoAI) beispielsweise führt in die KI ein und bietet ein tieferes mathematisches und methodisches Verständnis für den Aufbau von KI. Ein weiteres Beispiel ist die Initiative AI4ALL (2022), die darauf abzielt, Gymnasiallehrer aller Fächer zu befähigen, KI-Unterricht in ihre Klassenzimmer zu bringen. AI4ALL hat einen klaren Fokus auf Vielfalt und Inklusion und entwickelte sich aus einem KI-Sommerprogramm für Highschool-Mädchen.5 Was formale Ansätze betrifft, so haben David Touretzky und Christina Gardner-McCune zusammen mit anderen die AI4K-12-Initiative ins Leben gerufen.6 Die Initiative entwickelt nationale Richtlinien für den KI-Unterricht in K-127 , welche die fünf großen KI-Ideen (Wahrnehmung, Repräsentation und Argumentation, Lernen, natürliche Interaktion und gesellschaftliche Auswirkungen) enthalten. Diese Ideen umfassen KI-Themen, die für verschiedene Al-

3 4

5

6

7

Vgl. Kandlhofer, Martin & Steinbauer, Gerald (2021). »AI K–12 Education Service. KI – Künstliche Intelligenz.« https://doi.org/10.1007/s13218-021-00715-9. Vgl. Steinbauer, Gerald; Kandlhofer, Martin; Chklovski, Taha; Heintz, Fredrik, & Koenig, Sven (2021). »A Differentiated Discussion About AI Education K-12.« KI – Künstliche Intelligenz, 35(2):131-137. https://doi.org/10.1007/s13218-021-00724-8. Vgl. Vachovsky, Marie E.; Wu, Grace; Chaturapruek, Sorathan; Russakovsky, Olga; Sommer, Richard & Fei-Fei, Li (2016). »Toward More Gender Diversity in CS through an Artificial Intelligence Summer Program for High School Girls.« Proceedings of the 47th ACM Technical Symposium on Computing Science Education, 303–308. https://doi.org/10.1145 /2839509.2844620. Vgl. Touretzky, David; Gardner-McCune, Christina; Martin, Fred & Seehorn, Deborah (2019). »Envisioning AI for K-12: What Should Every Child Know about AI?« Proceedings of the AAAI Conference on Artificial Intelligence, 33(01), 9795–9799. https://doi.org /10.1609/aaai.v33i01.33019795. K-12 ist eine Abkürzung für den Bildungsbereich von der Kindergarten-Phase bis zur 12. Schulklasse.

6. Robotik in der Schule

tersgruppen unterrichtet werden sollten. Dieser Ansatz befasst sich mit der technischen Vielfalt, aber auch mit den sozialen Auswirkungen der KI. Australien, Singapur und Südkorea haben Lehrplanspezifikationen und Richtlinien für die Umsetzung von KI in Schulen erstellt (Kandlhofer & Steinbauer, 2021).8 Eine weitere Initiative zur Unterstützung der formalen Bildung zum Thema KI in Schulen ist der Europäische Führerschein für Roboter und intelligente Systeme (EDLRIS). EDLRIS (2022) ist ein Programm zur Ausbildung von Lehrern, Schülern und Jugendlichen in Robotik und künstlicher Intelligenz. Das EDLRIS-Projekt zielt darauf ab, Präsenz- und Online-Einheiten zu kombinieren.9 Es gibt zahlreiche Beispiele dafür, wie KI-Projekte, die sich an Kinder und junge Erwachsene richten, Schulen bereichern. Burgsteiner und andere (2016) entwickelten beispielsweise einen Kurs namens »iRobot« für Schulen, den sie 2015 in einer Oberstufe durchführten. Der Kurs behandelte die wichtigsten Themen der KI, wie Automaten, Agentensysteme, Datenstrukturen, Suchalgorithmen, Graphen, Problemlösung, Planung und maschinelles Lernen.10 Der Kurs basierte auf den Prinzipien des Konstruktivismus.11 Van Brummelen und Lin (2020) organisierten Co-DesignWorkshops, in denen Lehrer und Forscher gemeinsam Unterrichtspläne erstellten, in denen KI-Konzepte in verschiedene Kernfächer eingebettet wurden.12 Ihr Ziel ist es, Lehrer zu befähigen, KI in ihren Unterricht einzubauen. Darüber hinaus wurde ein Beispiel für einen Unterrichtsplan entwickelt, der Einstiegspunkte für die Vermittlung von KI in nicht-informatischen Fächern aufzeigt.

8 9 10

11 12

Vgl. Kandlhofer, M., & Steinbauer, G. (2021). »AI K–12 Education Service.« Vgl. Kandlhofer, M., & Steinbauer, G. (2021). »AI K–12 Education Service«, S. 133. Vgl. Burgsteiner, H., Kandlhofer, M., & Steinbauer, G. (2016). »IRobot: Teaching the Basics of Artificial Intelligence in High Schools.« Proceedings of the AAAI Conference on Artificial Intelligence, 30(1), Article 1. https://ojs.aaai.org/index.php/AAAI/article/vi ew/9864. Vgl. Papert, Seymour (1993). Mindstorms: Children, Computers, And Powerful Ideas (Subsequent Edition). New York: Basic Books. Vgl. Van Brummelen, J., & Lin, P. (2020). »Engaging Teachers to Co-Design Integrated AI Curriculum for K-12 Classrooms.« arXiv:2009.11100 [physics]. http://arxiv.o rg/abs/2009.11100.

177

178

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Andere Forschungsprojekte wie die von Zhou et al. (2020)13 , Kaspersen et al. (2021)14 , Dwivedi et al. (2021)15 , Sanusi et al. (2021)16 erforschen und entwerfen Strategien für die erfolgreiche Vermittlung von maschinellem Lernen an Kindern und Studierenden. Scheidt und Pulver (2019)17 entwickelten einen Prototyp für Kinder, um die KI-Bilderkennung und die Technologie des Internet of Things zu erkunden. Heute herrscht in der wachsenden Gemeinschaft der KI-Pädagogen große Begeisterung. Die Idee, Computer, Roboter und KI in die Schulen einzubinden, ist jedoch nicht erst in den letzten Jahren entstanden, sondern hat in der Geschichte der KI-Bildung einige Vorbilder wie beispielsweise Seymour Papert, der Professor für KI am MIT war. Sein aus der Zusammenarbeit mit Jean Piaget entwickelter Konstruktionismus formuliert einen vielversprechenden Ansatz, Kinder den Einstieg in die Technik zu erleichtern. Seinem Verständnis nach sind Kinder »Konstrukteure ihrer eigenen intellektuellen Strukturen«18 Lernen ist nicht nur das Ergebnis der Interaktion des Lernenden mit Menschen und Objekten in seiner Umgebung (Piagets Konstruktivismus), sondern auch das Ergebnis des Engagements des Lernenden bei der Konstruktion von etwas, das ihn persönlich interessiert.19 Die Lernenden sind keine blo-

13

14

15

16

17

18 19

Vgl. Zhou, Xiaofei; Van Brummelen, Jessica & Lin, Phoebe (2020). »Designing AI Learning Experiences for K-12: Emerging Works, Future Opportunities and a Design Framework.« ArXiv:2009.10228 [Cs]. http://arxiv.org/abs/2009.10228. Vgl. Kaspersen, M. H., Bilstrup, K.-E. K., & Petersen, M. G. (2021). »The Machine Learning Machine: A Tangible User Interface for Teaching Machine Learning.« Proceedings of the Fifteenth International Conference on Tangible, Embedded, and Embodied Interaction, 1–12. https://doi.org/10.1145/3430524.3440638. Vgl. Dwivedi, Utkarsh; Gandhi, Jaina; Parikh, Raj; Coenraad, Merijke; Bonsignore, Elizabeth & Kacorri, Hernisa (2021). »Exploring Machine Teaching with Children.« 2021 IEEE Symposium on Visual Languages and Human-Centric Computing (VL/HCC), 1–11. https://doi.org/10.1109/VL/HCC51201.2021.9576171. Vgl. Sanusi, Ismaila T.; Oyelere, Solomon S.; Agbo, Friday & Suhonen, Jarkko (2021). »Survey of Resources for Introducing Machine Learning in K-12 Context.« 2021 IEEE Frontiers in Education Conference (FIE), 1–9. https://doi.org/10.1109/FIE49875.2021.9637 393. Vgl. Scheidt, A., & Pulver, T. (2019). »Any-Cubes: A Children’s Toy for Learning AI.« Proceedings of Mensch Und Computer 2019, 893–895. https://doi.org/10.1145/3340764.3 345375. Papert, Seymour (1993). Mindstorms: Children, Computers, And Powerful Ideas, S. 7. Vgl. Valente, J. A., & Blikstein, P. (2019). Maker Education: Where Is the Knowledge Construction? Constructivist Foundations, 14(3):252-262.

6. Robotik in der Schule

ßen Empfänger, sondern Akteure und Macher ihrer Lernprozesse. Dieser pädagogische Ansatz lehnt sich stark an Bildungstheorien an, insbesondere an die von Dewey (1986)20 , wie die Problemorientierung (»problem-solving«) und den Aspekt des Selbermachens (»hands-on«, »learning by doing«), aber auch an andere Pädagogen wie Paolo Freire (2021)21 , Célestin Freinet (1993)22 und Maria Montessori (1965)23 . Die genannten Arbeiten werden in der Forschung dem wertbasierten Bildungsansatz zugerechnet, der die Thematisierung von Robotik in der Schule nicht – wie zumeist gängig in der Literatur – aus einer instrumentellen Motivation ableitet (»Vorbereitung auf das spätere Berufsleben«, »Ubiquitätsargument«), sondern eine intrinsische Begründung sucht. In dieser Sichtweise von Bildung geht es darum, dass Kinder Handlungsfähigkeit besitzen. Sie können selbständig handeln und ihre eigenen Entscheidungen treffen. Sie sind aktive Lernende. Informatik, Robotik und künstliche Intelligenz sind in dieser Sichtweise nicht etwas, das den Kindern einfach nur vermittelt werden muss, sondern etwas, das sie aus eigener Motivation heraus selbst schaffen, indem sie sichtbare Artefakte bauen. Ein Computer ist nur ein Werkzeug zu diesem Zweck. Die Wertrationalität beruht auf den Erwartungen an die Ergebnisse schulischer Aktivitäten, wie Kreativität, Neugier, Freude, Wissen und sozialen Erfahrungen. Die von uns im nächsten Abschnitt vorgestellte Unterrichtseinheit zu »Moralischen Robotern« ist in diesem Geist entwickelt. Die Kinder sollen spielerisch und aus unterschiedlichen Perspektiven an das Thema herangeführt werden, sollen sich ausprobieren und eigene Fragen und Ideen stellen können.

20 21

22 23

Vgl. Dewey, John (1986). »Experience and education.« The Educational Forum, 50:241252. Vgl. Freire, Paulo (2021). Pädagogik der Autonomie: Notwendiges Wissen für die Bildungspraxis (P. Schreiner, N. Mette, D. Oesselmann, & D. Kinkelbur, Ed.; I. Tamm, Trans.; 1st ed.). Waxmann Lehrbuch. Vgl. Freinet, Célestin (1993). Education Through Work: A Model for Child-Centered Learning (J. Sivell, Trans.; 2nd ed.). Edwin Mellen Press Ltd. Vgl. Montessori, Maria (1965). Spontaneous activity in education. New York: Schocken.

179

180

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

6.2 Mein Freund, der Roboter – eine Unterrichtseinheit für die Grundschule Im vorangegangenen Abschnitt haben wir den aktuellen Forschungsstand zur Robotik und KI in der Schule zusammengetragen. Dabei hat sich gezeigt, dass es bereits einige private und öffentliche Initiativen gibt. Allein für die Schulanfangsphase in der Grundschule finden sich in der aktuellen Fachliteratur wenig bis kaum Anknüpfungspunkte24 , obwohl die Rahmenlehrpläne in Deutschland für das Fach Sachunterricht den Gegenstand (Computer, Robotik) aufgreifen. So sieht beispielsweise der Rahmenlehrplan für Berlin und Brandenburg vor, Roboter und Computer im Themenfeld »Kind« (3.2) zu behandeln25 . Im Vordergrund des Themenfelds stehen das Erkunden und Kennenlernen der Lebenswelt sowie die Frage, womit sich die Kinder bereits auskennen, bestenfalls sogar schon gearbeitet haben. Die Kinder sollen im Umgang mit der Technologie geschult werden und lernen, wie Computer oder Roboter funktionieren. Verknüpfen lässt sich dies sehr gut mit einem weiteren Anspruch des Themenfeldes, Kindern ein Verständnis von Dazugehörigkeit und Gemeinschaft zu vermitteln, sich über Prinzipien, Regeln und Pflichten im Umgang mit Mitmenschen und Sachen zu verständigen. Ein ähnlicher Ansatz wird im niedersächsischen Lehrplan für das Fach Sachunterricht angeboten.26 Der Rahmenlehrplan spricht nicht explizit von Computern oder Robotern, sondern ganz allgemein von Maschinen. Diese können in der fachlichen Perspektive zur Technik (3.1.) genauer analysiert werden. Ziel ist es, Kindern die Funktions- und Wirkungsweise von Technik näherzubringen, aufbauend auf ihrem natürlichen Interesse, Sachen verstehen zu wollen. Andere Bundesländer wie Bremen verknüpfen die technische Perspektive wiederum mit der Rolle von Medien. Schülerinnen und Schüler sollen an

24 25

26

Vgl. siehe oben. Rahmenlehrplan des Landes Berlin und Brandenburg für das Fach Sachunterricht. Jahrgangsstufen 1–4. Die Online-Fassung ist hier abrufbar, zuletzt 8. Juni 2023: https:/ /bildungsserver.berlin-brandenburg.de/fileadmin/bbb/unterricht/rahmenlehrplaen e/Rahmenlehrplanprojekt/amtliche_Fassung/Teil_C_Sachunterricht_2015_11_16_we b.pdf). Rahmenlehrplan des Landes Niedersachsen für das Fach Sachunterricht. Kerncurriculum für die Grundschule, Schuljahrgänge 1–4. Die Onlinefassung ist als PDF abrufbar, zuletzt 8. Juni 2023: https://cuvo.nibis.de/cuvo.php?p=search&k0_0=Schulbereich&v 0_0=Primarbereich&.

6. Robotik in der Schule

einem konkreten Beispiel Weiterentwicklung, Veränderung und Folgen technischer Erfindungen im Laufe der Zeit erläutern können (Lernfeld Technik und Medien).27 Für die von uns geplante Unterrichtseinheit zu moralischen Robotern werden wir uns auf den Berliner und Brandenburger Rahmenlehrplan konzentrieren, da die Unterrichtseinheit an einer Berliner Grundschule (Grundschule im Panketal) im Sommer 2023 durchgeführt wurde. In der nachfolgenden Tabelle haben wir den Aufbau der Unterrichtseinheit mit den Themen der einzelnen Sequenzen sowie ihrem entsprechenden inhaltsbezogenen Kompetenzbereich aufgeführt. Grau hervorgehoben haben wir jene Unterrichtseinheit (UE), auf die wir später gesondert und in detaillierter Form eines Unterrichtsentwurfs eingehen. Dazu werden wir (a) den fachlich-inhaltlichen Schwerpunkt (Sachanalyse), (b) die Begründung der Lehr- und Lernstruktur aus didaktisch-methodischer Sicht erläutern und (c) Ergebnisse und Antworten der Kinder präsentieren.

Thema der Unterrichtseinheit: Mein Freund, der Roboter. Stunde

Thema der Stunde

Inhalt der Stunde

Fachbezogene Kompetenzen

1. UE

Einführung Was/wer ist ein Roboter?

Stundenfrage: Was oder wer ist ein Roboter? Gemeinsames Erarbeiten einer Klassen-Definition für den Begriff »Roboter«.

Kommunizieren

27

Rahmenlehrplan des Landes Bremen für das Fach Sachunterricht (2007). Herausgegeben vom Senator für Bildung und Wissenschaft, Rembertiring 8 – 12, 28195 Bremen. Die Onlinefassung ist als PDF abrufbar, zuletzt 8. Juni 2023: https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&ua ct=8&ved=2ahUKEwjCl5ncpLP_AhX_S_EDHWpIBWAQFnoECA4QAQ&url=https%3A %2F%2Fwww.lis.bremen.de%2Fsixcms%2Fmedia.php%2F13%2F07-08-23_Sachunt erricht.pdf&usg=AOvVaw2v94fhn6iKVby1RbYgq73s.

181

182

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

2

Roboter im Alltag

Stundenfrage: Wozu braucht man einen Roboter? Diskussion über die verschiedenen Bereiche, in denen Roboter in unserem Alltag eingesetzt werden, z.B. in der Industrie, im Haushalt, in der Medizin. Vorstellung von Beispielen für Roboter in verschiedenen Bereichen (z.B. Staubsaugerroboter, Roboterarme in Fabriken, Roboter im Krankenhaus).

Erkennen

3

Mein Freund, der Roboter – wie sieht mein Traumroboter aus? Vorstellungsaufbau

Roboter-Schnitzeljagd: In Gruppen suchen die Schüler im Klassenzimmer nach Gegenständen, die Merkmale von Robotern haben, und stellen sie den anderen Gruppen vor.

Kommunizieren

4

Mein Freund, der Roboter. Wie sieht mein Traumroboter aus? Basteln/schreiben und präsentieren.

Kreativaufgabe: Die SuS gestalten und beschreiben ihren eigenen »Zukunftsroboter« in Form eines Bildes oder etwas Gebastelten.

Handeln

6. Robotik in der Schule

5

Offline Coding – Roboterbefehle

Stundenfrage: Wie bewegt sich ein Roboter? Die Schülerinnen und Schüler (nachfolgend SuS) erstellen analoge Bewegungen im Klassenraum mit eigenen Robotern dar (nach links, nach rechts, nach vorne ect.)

Handeln

6

Gute und böse Roboter. Haben Roboter Gefühle?

Das Kinderbuch »Zilly und der böse Roboter«28 steht im Zentrum der Stunde – Wann ist man gut und böse? Die SuS beurteilen die Gefühle.

Urteilen

7

Die Roboter entscheiden – wie geht das?

Können Roboter über uns entscheiden? Oder entscheiden wir über Roboter? – Philosophieren mit Kindern.

Kommunizieren

8

Zusammenfassung. Ergebnissicherung

Zusammenfassung der wichtigsten Lernpunkte und Ermutigung der Schüler, weiterhin neugierig und interessiert an technologischen Entwicklungen zu sein.

Kommunizieren

28

Paul, Korky und Thomas, Valerie (2016). Der böse Roboter/Zilly & Zingaro Bd. 5. Vierfarbiges Bilderbuch. Weihnheim: Julius Beltz GmbH & Co. KG.

183

184

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Die Standards des Rahmenlehrplans Einordnung in den Rahmenlehrplan (Rahmenlehrplan für das Fach Sachunterricht für Berlin und Brandenburg): 3.2 Kind Thema: Womit kennen wir uns aus? Inhalt: Internet und Computer (S. 31) Kompetenzschwerpunkt: Kommunizieren

Standard des RLP

Konkretisierung des Standards dieser Stunde

2.2. Kommunizieren (sich sachbezogen mitteilen und nachfragen) S. 17 Die SuS können zu einem Thema zugehörige Bilder oder Dinge auswählen und zeigen. Sprachlich verständlich und sachbezogen Vermutungen äußern. Sich sprachlich verständlich ausdrücken und sachbezogen erzählen.

Die SuS lernen verschiedene Merkmale von Robotern kennen und entwickeln eine eigene Definition.

(a)

Fachlich-inhaltlicher Schwerpunkt (Sachanalyse)

Bereits oben haben wir vorausgeschickt, dass der Berliner und Brandenburger Rahmenlehrplan für das Fach Sachunterricht eine Thematisierung von Robotern im Themenfeld »Kind« (3.2) vorsieht, bei dem insbesondere der Umgang mit neuen Technologien (Computer, Internet und Roboter etc.) und deren gesellschaftliche Relevanz diskutiert werden können. Das Thema »Moralische Roboter« lässt sich nach diesem Muster gut für eine Unterrichtseinheit entwickeln. Dabei gibt es im Wesentlichen zwei inhaltliche Schwerpunkte: Einerseits soll und kann mit den Schülerinnen und Schülern grundsätzlich über Roboter gesprochen werden. Es kann zusammen mit den Kindern erarbeitet werden, wie ein Roboter funktioniert, wo uns Roboter überall im Alltag begleiten und welchen Nutzen Roboter für uns haben. Andererseits haben Roboter eine moralische Seite, weil sie entweder selbst morali-

6. Robotik in der Schule

sche Akteure sein können oder aber zum Gegenstand unseres moralischen Verhaltens werden (siehe oben). In beiden Fällen ist es wichtig, auf dem vorhandenen Wissen der Schülerinnen und Schüler aufzusetzen, ihre Vorstellungen und Erfahrungen einzubeziehen und weiterzuentwickeln.29 Die Kinder sollen durch spielerisches und probierendes Handeln an den Gegenstand herangeführt und auf die Möglichkeit moralischer Roboter vorbereitet werden. Sie sollen den Einsatz der Technik für sich und die Gesellschaft reflektieren, in dem sie zentrale philosophische Fragen aufgreifen und diskutieren (Haben Roboter Gefühle? Wie entscheiden Roboter? Können Roboter gut oder böse sein? Wie sollte mein Traumroboter aussehen?).30 Motiviert ist dieser Ansatz von Kohlbergs Feststellung, dass »moralische Entwicklung als kognitiver Entwicklungsprozess verstanden werden muss.« Jedes Kind ist »vom frühesten Alter an von Natur aus ein Moralphilosoph, eine Person, die ihre eigene moralische Wirklichkeit aktiv konstruiert.«31 Bei der durchgeführten Unterrichtssequenz handelt es sich um eine Einführungsstunde zum Thema. Viele der Kinder haben bereits auf unterschiedlichen Wegen mit Robotern bewusst oder unbewusst in ihrem Alltag zu tun, beispielsweise in Form von Handys, Spielzeug, Staubsauger- oder Rasenmährobotern oder kennen Roboter aus Büchern, dem Kino und Fernsehen. Die Unterrichtssequenz hat zum Ziel, den Begriff »Roboter« einzuführen. Die Schülerinnen und Schüler sollen die wichtigsten Merkmale eines Roboters kennenlernen und eine Definition für Roboter entwickeln, damit in den darauffolgenden Stunden vertieft über den Umgang mit Robotern im Alltag, ihren technologischen Möglichkeiten und Grenzen gesprochen werden kann.            

29 30 31

Vgl. Kahlert, Joachim (2016). Der Sachunterricht und seine Didaktik. 4. aktualisierte Auflage. Bad Heilbrunn: Verlag Julius Klinkhardt, S. 90. Vgl. Gesellschaft für Didaktik des Sachunterrichts (Hg.) (2013). Perspektivrahmen Sachunterricht. Bad Heilbrunn: Verlag Julius Klinkhardt, S. 63. Kaiser, Astrid (2017) Neue Einführung in die Didaktik des Sachunterrichts. 6. Auflage. Baltmannsweiler: Schneider Verlag Hohengehren, S. 238.

185

186

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

(b)

Begründung der Lerneinheit

Phase, Zeit, Sozialform

Geplantes Lehrerverhalten

Geplantes Schülerverhalten

Medien

Einstieg 10:55- 11:05 Uhr Plenum (Sitzkreis)

Die Lehrkraft (nachfolgend LK) spielt auf Youtube das Lied »Gehen wie ein Roboter«32 von »Lichterkinder« ab LK fragt SuS nach der Unterrichtsfrage

Die SuS tanzen und bewegen sich wie ein Roboter zum Lied SuS formulieren die Problemfrage: Was/wer ist ein Roboter?

Smart-Board, Lied

Der Einstieg in das Thema Robotik soll spielend erfolgen. Mit dem ausgewählten Lied werden sowohl motorische als auch kognitive Fähigkeiten der Kinder angesprochen. Die SuS schauen sich das Video an, tanzen, bewegen sich und gehen mitunter selbst wie ein Roboter. Danach überlegen die Kinder, um welches Thema sich die Stunde dreht. Die SuS formulieren die Ideen. Die Vorschläge werden auf einem Smart-Bord festgehalten und zu einer Stundenfrage formuliert: Was/Wer ist ein Roboter?

32

»Gehen wie ein Roboter«. Link: https://www.youtube.com/watch?v=cvAo94hpFkw.

6. Robotik in der Schule

Phase, Zeit, Sozialform

Geplantes Lehrerverhalten

Geplantes Schülerverhalten

Medien

Hinführungsphase I 11:05 – 11:10 Partner/ Gruppenarbeit

Die LK teilt die Kinder in kleine Gruppen auf Die LK bittet die Kinder, in Kleingruppen zu besprechen, was oder wer ein Roboter ist?

Die SuS kommunizieren miteinander

Smart-Board Formulierungshilfen im Raum

Alle SuS tauschen sich in Partner- oder Gruppenarbeit aus. Die Kinder sind mit der Methode der Gruppenarbeit vertraut und teilen sich selbst die Aufgaben ein (z.B. wer schreibt, wer präsentiert). Die Kinder erzählen von deren Vorwissen und Begegnungen mit Robotern. Die Rolle der Lehrkraft besteht in der Moderation des Prozesses. Dieser Teil der Stunde soll zur Diskussion anregen. Die SuS tauschen sich aus und überprüfen ihre unterschiedlichen Erfahrungen und Wissensstände mit Robotern. Sie lernen andere Meinungen und Standpunkte ihrer Mitschüler kennen.

187

188

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Phase, Zeit, Sozialform

Geplantes Lehrerverhalten

Geplantes Schülerverhalten

Medien

Hinführungsphase II (Arbeitsauftrag) 11:10– 11:25

Die LK hat eine Mind Map erstellt, auf der sich das Stundenthema und die Begriffe Nomen, Adjektive, Verben befinden Die LK erfragt die Ergebnisse und sammelt den Wortschatz von den Kindern an der Tafel mit der Zuordnung (Nomen, Adjektive und Verben)

Die SuS teilen deren Informationen aus der Gruppenarbeit/ Partnerarbeit mit und präsentieren ihre Ergebnisse

Smart-Board, Montessori Wortarten-symbole

Die zweite Hinführungsphase dient dem Wortschatzaufbau für das Thema, um sich im späteren Verlauf der Stunde an eine Definition anzunähern. Mit der Zergliederung auf der Ebene von Wortarten (Nomen, Verben und Adjektive) sowie den entsprechenden Fragen dazu (Was ist ein Roboter? Was macht ein Roboter? Wie kann ein Roboter sein?) gelingt nicht nur ein fachübergreifendes Lernen (Wortartenwissen aus dem Fach Deutsch wiederholen), sondern gleichfalls eine Sortierung des Vorwissens und der Erfahrungen der SuS. Das Vorstellungsvermögen der SuS wird aktiviert. Über die Frage »Was ist ein Roboter?« (Nomen) formulieren die Kinder erste Ideen zur Funktionalität eines Roboters und sammeln Beispiele für Robotertypen (Staubsaugerroboter etc.). Durch die Frage »Was macht ein Roboter?« gelingt es den Kindern, reale und mögliche Aufgaben und Fähigkeiten von Robotern zu beschreiben (»Ein Roboter passt auf die Kinder auf«, »Ein Roboter bringt Essen.« etc.). Schließlich wird mit der Frage »Wie kann ein Roboter sein?« die Brücke zur moralischen Ebene von Robotern geleistet, in dem die Kinder feststellen, dass sich Roboter »gut«, aber auch »böse« verhalten können. Zur Strukturierung und Visualisierung benutzt die LK die geometrischen Wortarten-Symbole aus der Maria Montessori Pädagogik. Die Maria Montessori Pädagogik ist ein reformpädagogisches Bildungsangebot, das von

6. Robotik in der Schule

der folgenden Grundidee ausgeht: Kinder dürfen nicht nach den Maßstäben von Erwachsenen bewertet werden, sondern es ist wichtig, Kinder in ihrer jeweiligen Eigenart mit ihren ganz persönlichen Bedürfnissen zu verstehen.33 Das Kind ist nicht »ein leeres Gefäß, das wir mit unserem Wissen angefüllt haben«, sondern »Baummeister des Menschen«34 . Die wesentlichen Impulse für die Entwicklung des Kindes kommen aus ihm selbst. Entsprechend handelt es sich um eine Pädagogik, die Kinder als eigenständige Persönlichkeiten begreift. Unterricht und Erziehung basieren auf dem Prinzip der Freiheit, der freien Wahl und der individuellen Entwicklung. Es geht darum, die intrinsische Motivation der Kinder abzurufen. Lernen erfolgt nicht zweckrational, sondern wird um seiner selbst willen gefördert. Zum Paradigma der Montessori Pädagogik gehört ebenfalls, Zugänge und Methoden der Wissensvermittlung neuzudenken. Hierzu zählt beispielsweise die Einführung von Wortarten mit Hilfe von geometrischen Symbolen, um den Kindern die Funktion dieser bewusst zu machen. Das Nomen erhält ein großes schwarzes Dreieck, die Verben sind durch einen roten Kreis und die Adjektive durch ein großes blaues Dreieck symbolisiert. So wird den Schülerinnen und Schülern die jeweilige Wortart Schritt für Schritt mit visueller Unterstützung beigebracht.

Phase, Zeit, Sozialform

Geplantes Lehrerverhalten

Geplantes Schülerverhalten

Medien

Erarbeitung 11:25 – 11:35 Plenum

Die LK präsentiert an der Tafel die bisherigen Ergebnisse und verweist auf die Stundenfrage Die LK schreibt die Definition an der Tafel

Die SuS versuchen zusammen mit Unterstützung der Lehrerin, eine Definition zum Thema Roboter zu erstellen

Tafel + Mindmap

33

34

Vgl. Klein-Landeck, Michael; Pütz, Tanja (2019). Montessori-Pädagogik. Einführung in Theorie und Praxis. Überarbeitete Neuausgabe, 4. Gesamtauflage. Freiburg, Basel, Wien: Verlag Herder GmbH, S. 16. Vgl. Ludwig, Harald (Hg.) (2022). Grundgedanken der Montessori-Pädagogik: Quellentexte und Praxisberichte. Vollständig überarbeitete und erweiterte Neuausgabe, 26. Gesamtauflage. Freiburg i.Br.: Verlag Herder GmbH, S. 72.

189

190

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

In dieser Phase sollen die SuS die bisherigen Ideen auf eine Definition »Was ist ein Roboter?« verdichten, welche die wesentlichen Merkmale zusammenfasst. Die Kinder formulieren ihre persönlichen Gedanken und die LK hält die Ergebnisse fest. Im Vordergrund dieser Phase stehen der Austausch und die Diskussion. Es soll darum gehen, das Wissen aus der Hinführungsphase II zu verfestigen bzw. ggf. anzupassen. Manche Kinder könnten ihre Meinung nach der Mind-Map Diskussion ändern. Außerdem dient diese Phase ebenfalls der Wortschatzarbeit, in dem die Kinder die gelernten Worte auf die Stundenfrage anwenden. Für Kinder, die Schwierigkeiten mit der Sprache haben, werden blanko Malblätter ausgeteilt, sodass ihre Definition visualisieren können.

Phase, Zeit, Sozialform

Geplantes Lehrerverhalten

Geplantes Schülerverhalten

Medien

Reflexion 11:35 – 11:40 Plenum

Die LK verteilt Ampelzeichen und fragt die SuS, ob sie mit der Definition *einverstanden sind, *den Wortschatz verstanden haben, *ihnen die Stunde gefallen hat.

SuS bekommen Ampel Smileys Äußern sich nach der Frage von der LK durch das Hochheben von passenden Ampel Smileys (grün – alles super, ich habe alles verstanden, gelb – das hat mir ein bisschen gefallen oder ich habe nicht alles verstanden und rot – es hat mir gar nicht gefallen und ich habe nichts verstanden)

Tafel, Ampel – Smileys

In der Reflexionsphase überprüft die LK den Wissenstand der SuS. Dazu nutzt die LK die Methode der Smiley-Ampel, mit der die Kinder unmittelbar ihr Feedback geben können. Diese Methode erlaubt es, ebenfalls Kinder mit sprachlichen Beeinträchtigungen zu integrieren.

6. Robotik in der Schule

(c)

Ergebnisse der Unterrichtsstunde

Im Folgenden haben wir die Antworten der Kinder aus der Unterrichtseinheit zusammengetragen. Antworten an der Tafel als »Mind-Map »Was ist ein Roboter?« (Hinführungsphase II) • • •

Nomen: »Ding«, »Alexa«, »Siri«, »Staubsaugerroboter«, »Künstliche Intelligenz« (Programm), »Malroboter«, »Menschen – die programmiert sind« Adjektive: »menschlich«, »glücklich«, »toll«, »böse«, »gemein«, »müde«, »cool« Verben: »passen auf die Kinder«, »ausbilden«, »helfen«, »bringen Essen«, »alarmieren«, »dienen als Spielzeug«, »Auto fahren«

Definitionsversuche der Kinder auf die Stundenfrage (Erarbeitungsphase): • • • •

»Ein Roboter kann ein Mensch sein«, »ist ein »Staubsaugerroboter«, »Ein Roboter ist eine intelligente Maschine, die programmiert ist und die Aufgaben von Menschen übernehmen kann«, »Ein Roboter ist ein Ding«.

Für die Stunde festgehaltene Definition mit Unterstützung der Lehrkraft: •

»Ein Roboter ist eine intelligente Maschine, die selbständig unterschiedliche Aufgaben erledigt.«

191

Zusammenfassung und Ausblick

Der Tag, an dem Roboter über moralische Kompetenz verfügen, ist mit Blick auf die zusammengetragenen Ergebnisse dieser Studie sicherlich noch in weiter Ferne. Daran ändert auch der momentane Hype um generative KI mit Systemen wie ChatGPT, DALL-E oder Stable Diffusion wenig. Die hier medial wirkmächtig geführte Diskussion steht mehr unter dem Vorzeichen des gesellschaftlichen Wunschdenkens und nimmt wenig Rückgriff auf die vielen ungelösten technischen und philosophischen Probleme, von denen in dieser Arbeit einige angerissen wurden. Erik J. Larson spricht daher zurecht von einem Mythos, einer völlig überzogenen Wette auf die Zukunft von Künstlicher Intelligenz, in der wir Menschen nicht mehr vorkommen sollen.1 Anna Strasser resümiert ebenfalls unter Beobachtung der aktuellen Meinungslandschaft, dass in der Entwicklung von »künstlicher Intelligenz vor allem das Potential heilsbringender Lösungen« gesehen wird, gepaart mit der Angst um deren »große Gefahr«.2 Ein Minimalkonsens, auf den es sich trotzdem lohnt zu verabreden, wäre, zukünftige künstliche Systeme wie Roboter zur moralischen Kompetenz zu befähigen, damit sie in unserer Gesellschaft bestehen und akzeptiert werden können. Ein Roboter, der über moralische Kompetenz verfügt, wäre problemund konfliktfähig und könnte seine moralischen Urteile nicht nur entlang einer beliebigen ethischen Liste von Normen und Prinzipien treffen, sondern durch Überlegung und Diskussion moralisch klug handeln. In jedem Bereich,

1 2

Vgl. Larson, Eric J. (2021). The Myth of Artificial Intelligence. Why Computer can’t thin the way we do. London: Harvard University Press, S. 2f. Strasser, Anna (2021). »Kann Intelligenz Großes verheissen – selbst wenn sie nur künstlich ist?« In: Strasser, Anna; Sonst, Wolfgang; Stapelfeldt, Ralf; Stepec, Katja (Hg.). Künstliche Intelligenz. Die große Verheißung (S. 503–508). Berlin: Momo Verlag, hier: S. 503.

194

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

wo Roboter mit Menschen unmittelbar zusammenarbeiten- oder leben würden, wäre dieses Vermögen von unschätzbarem Wert. Eine moralisch kompetente Maschine würde sozialintelligent agieren und darum bemüht sein, niemanden zu Schaden kommen zu lassen. Wir haben mit unserer Studie erstens gezeigt, dass es in der Robotik bereits einige Initiativen und Projekte auf diesem Gebiet gibt, die genau an einer solchen moralisch kompetenten Maschine arbeiten. Die Forschung hierfür ist wegweisend für das zukünftige Miteinander von Menschen und Maschinen, steht allerdings noch weit am Anfang. Wir haben zweitens gezeigt, dass die bisherigen Ansätze vor allem funktionalistisch mit der Idee des Komponentenmodells von Moralischer Kompetenz entwickelt und gedacht werden. Mit der Dual-Aspekt Theorie der Moral haben wir daher eine Alternative vorgeschlagen, die einen anderen Theorierahmen für das Verständnis von moralischer Kompetenz formuliert. Moralische Kompetenz ist hiernach einer von zwei Aspekten unseres moralischen Selbst, neben der moralischen Orientierung. Wir haben drittens die Vielzahl philosophischer und technischer Probleme anhand der drei größeren Themenfelder Sprache, Identität und Bewusstsein diskutiert, die sich mit der Entwicklung moralischer Maschinen stellen. Das Ergebnis fällt nüchtern aus: Künstliche Systeme können mit dem heutigen Stand der Technik, unsere menschliche Sprache nahezu perfekt simulieren, verstehen aber können sie sie nicht. Roboter werden außerdem nicht »Artifizielle Personen« sein. Sie könnten dennoch für ihre Handlungen unter bestimmten Voraussetzungen zur Verantwortung gezogen werden. Entsprechend ist zu überlegen, Roboter zumindest als Selbstzweck (im passiven oder aktiven Sinne) zu identifizieren, um ihnen Rechte und Pflichten in unserer Gesellschaft übertragen zu können. Moralisch handelnde Roboter benötigen ferner eine Form von Selbst oder Selbstbewusstsein. Doch schon allein die Frage nach der Möglichkeit von bewussten Maschinen wird in der Forschung keinesfalls einheitlich beantwortet, teilweise sogar völlig für unmöglich gehalten, sodass auch dieses Projekt zunächst offenbleiben muss. Wir haben viertens einen Versuch unternommen, das Thema »Moralische Roboter« für die Schule nutzbar zu machen. Unsere Gesellschaft, allen voran unsere Kinder, bei dieser spannenden Entwicklung mitzunehmen, kann sich auszahlen. Sie – unsere Kinder – sind es, die irgendwann mit den Konsequenzen unserer aktuellen und zukünftigen Technik leben, diese aber auch eines Tages selbst mitgestalten, verantworten und verändern werden. Daher ist es richtig, ihre Neugierde für das Thema zu entfachen, mit ihnen über unsere ge-

Zusammenfassung und Ausblick

sellschaftlichen Werte, Normen und Prinzipien zu sprechen, die sie schon jetzt mit künstlichen Systemen teilen. Wir möchten mit den Worten schließen, dass moralische Roboter einen Ausweg aus der wieder und wieder gezeichneten Dystopie versprechen, in der das Gleichgewicht zwischen Mensch und Maschine kippen wird. Moralische Roboter wären der Beginn einer neuen Erzählung, abseits von Auslöschungsfantasien der Menschheit durch die Maschine. Denn feststeht, dass sich die Entwicklung von Robotern in unserer Gesellschaft vermutlich nicht mehr stoppen lassen wird. Roboter werden in vielen Lebensbereichen im Alltag auftauchen, werden mit uns wahrscheinlich enger zusammenleben und zusammenarbeiten, als wir es jetzt noch für möglich halten. Wie gut wäre es daher, wenn wir auf dem Weg dorthin, Robotern das moralische Rüstzeug geben, mit denen sie in unserer Gesellschaft bestehen können? Und wie gut wäre es außerdem, wenn wir auf dem Weg dorthin, unsere Kinder auf die Zukunft mit moralischen Robotern vorbereiten?

195

Verzeichnisse

Internetquellen Bundesamt für Sicherheit in der Informationstechnik (2023). Große Sprachmodelle. Chancen und Risiken für Industrie und Behörden. Link online abgerufen 11.8.2023: https://www.bsi.bund.de/SharedDocs/Downloads/DE/ BSI/KI/Grosse_KI_Sprachmodelle.pdf?__blob=publicationFile&v=2). Cremers, Armin B.; Gabriel, Markus et al. (2019). Vertrauenswürdiger Einsatz von Künstlicher Intelligenz. Handlungsfelder aus philosophischer, ethischer, rechtlicher und technologischer Sicht als Grundlage für eine Zertifizierung von Künstlicher Intelligenz. Zusammenarbeit mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS. Online verfügbar unter dem Link, abgerufen am 27.04.2023: https://www.iais.fraunhofer.de/con tent/dam/iais/KINRW/Whitepaper_KI-Zertifizierung.pd. Dramigia, Joe (2019). Computer, die wie Menschen Kunstwerke schaffen: Der Lovelace 2.0 Test. Veröffentlicht auf: https://scilogs.spektrum.de/die-sankore-schri ften/der-lovelace-2-0-test/ (zuletzt abgerufen am 20.04.2023). Gubelmann, Reto (2023). »A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT-3, and ChatGPT.« In Grazer Philosophische Studien (Online Link verfügbar, abgerufen am 7. Juni 2023: https://brill.com/view/journals/gps/99/4/articlep485_ 2.xml?ebody=metrics63181). Ingram, Royston (2014). »DoC Professor disputes whether computer ›Eugene Goostman‹ passed Turing test.« Veröffentlicht als Blogbeitrag auf Imperial College (zuletzt abgerufen am 20.04.2023): http://www3.imperial.ac.uk/n ewsandeventspggrp/imperialcollege/engineering/computing/newssumm ary/news_11-6-2014-11-33-32.

198

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Lomas, Natasha (21. Juli 2019). Duplex shows Google failing at ethical and creative AI design. Link: https://techcrunch.com/2018/05/10/duplex-shows-g oogle-failing-at-ethical-and-creative-ai-design/. Stangl, W. (2023, 27. April). Hebb-Regel – Online Lexikon für Psychologie & Pädagogik. https://lexikon.stangl.eu/17945/hebb-regel.). Rahmenlehrplan des Landes Berlin und Brandenburg für das Fach Sachunterricht. Jahrgangsstufen 1–4. Die Online-Fassung ist hier abrufbar, zuletzt 8. Juni 2023: https://bildungsserver.berlin-brandenburg.de/fileadmin/bb b/unterricht/rahmenlehrplaene/Rahmenlehrplanprojekt/amtliche_Fassu ng/Teil_C_Sachunterricht_2015_11_16_web.pdf). Rahmenlehrplan des Landes Niedersachsen für das Fach Sachunterricht. Kerncurriculum für die Grundschule, Schuljahrgänge 1–4. Die Onlinefassung ist als PDF abrufbar, zuletzt 8. Juni 2023: https://cuvo.nibis.de/cuvo. php?p=search&k0_0=Schulbereich&v0_0=Primarbereich&. Rahmenlehrplan des Landes Bremen für das Fach Sachunterricht (2007). Herausgegeben vom Senator für Bildung und Wissenschaft, Rembertiring 8 – 12, 28195 Bremen. ie Onlinefassung ist als PDF abrufbar, zuletzt 8. Juni 2023: https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web &cd=&cad=rja&uact=8&ved=2ahUKEwjCl5ncpLP_AhX_S_EDHWpIBWA QFnoECA4QAQ&url=https%3A%2F%2Fwww.lis.bremen.de%2Fsixcms%2 Fmedia.php%2F13%2F07-08-23_Sachunterricht.pdf&usg=AOvVaw2v94fh n6iKVby1RbYgq73s Vemprala, Sai; Bonatti, Rogerio; Bucker, Arthur und Kapoor, Ashish (2023). »ChatGPT for Robotics: Design Principles and Model Abilities.« MSRTR-2023-8. Der Aufsatz ist online unter dem folgenden Link verfügbar: https://www.microsoft.com/en-us/research/uploads/prod/2023/ 02/ChatGPT___Robotics.pdf (zuletzt aufgerufen am 2. Juni 2023). World Robotics (2022). Industrial Robots, Präsentation. Stand: 21.03.2023. Link: h ttps://ifr.org/downloads/press2018/2022_WR_extended_version.pdf. World Robotics (2022). »Executive Summary World Robotics 2019 Service Robots«. Link: https://ifr.org/downloads/press2018/Executive_Summary _WR_Service_Robots_2019.pdf.          

Verzeichnisse

Literatur Aleksander, Igor (2017). »Machine Consciousness«. In: The Blackwell Companion to Consciousness (93–105). Anderson, Michael; Anderson, Susan L. (Hg.) (2011). Machine ethics. Cambridge: University Press. Andrea, John H. (1987). »Design of a Conscious Robot«. METASCIENCE 5: 42–54. Andreae John H. (1987). »Design of Conscious Robots.« Metascience 5:41-54. Antaki, Charles (1994). Explaining and arguing: The social organization of accounts. London: Sage. Antonius, Markus (2017). »Empathie«. In: Dorsch: Lexikon der Psychologie. Göttingen: Hogrefe Verlag. ISBN 978-3-456-85643-8 (Empathie. Dorsch: Lexikon der Psychologie Online. archiviert (Link: https://dorsch.hogrefe. com/stichwort/empathie; Aufgerufen am 29.03.2023). Arendt, Hannah (1971), Vom Leben des Geistes. Das Denken. Das Wollen. 3. Auflage von 2006, Hamburg: Piper Arendt, Hannah (1972). Vita Activa. Oder vom tätigen Leben. Überarbeitete Ausgabe von 2005. München/Zürich: Piper. Avramova, Yana R. & Inbar, Yoel (2013). »Emotion and moral judgment.« Wiley Interdisciplinary Reviews Cognitive Science, 4:169-178. DOI: https://doi.org/ 10.1002/wcs.1216. Ayanoğlu, Hande; Sequeira, João S. (2019). »Human-Robot Interaction.« In: Ayanoğlu, Hande; Duarte Emília (Hg.). Emotional Design in HumanRobot Interaction. Theories, Methods and Applications (S. 39–55), Cham (Schweiz): Springer. Baars, Bernard J. (1988). A Cognitive Theory of Consciousness. Cambridge/ New York: Cambridge University Press. Baldwin, James M. (1897). Social and ethical interpretations in mental development: A study in social psychology. MacMillan Co. APA PsycBooks, DOI: https://doi .org/10.1037/12907-000. Barklund, Jonas; Dell’Acqua, Pierangelo; Costantini, Stefania und Lanzarone, Gaetano Aurelio (2000). »Reflection Principles in Computational Logic.« Journal of Logic and Computation, 10:743-786. Bartneck, Christoph; Kanda, Takayuki, Ishiguro, Hiroshi, & Hagita, Norihiro. (2007). Is the Uncanny Valley an Uncanny Cliff?« RO-MAN 2007-The 16th IEEE International Symposium on Robot and Human Interactive Communication (S. 368–373). IEEE.

199

200

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Batson, Charles Daniel (2011). Altruism in Humans. Oxford: Oxford University Press. Beck, Birgit und Kühler, Michael (Hg.) (2020). Technology, Anthropology, and Dimensions of Responsibility. Techno: Phil – Aktuelle Herausforderungen der Technikphilosophie, Band 1. Stuttgart: J.B. Metzler. Beckermann, Ansgar (2001). Analytische Einführung in die Philosophie des Geistes, 2. überarbeite Auflage. Berlin/New York: de Gruyter. Bendel, Oliver (2016). Die Moral in der Maschine. Hannover: Heise Medien. Bendel, Oliver (2019). Handbuch Maschinenethik. Wiesbaden: Springer. Ben-Ami Bartal, Inbal; Decety, Jean und Mason, Peggy (2011). »Empathy and Pro-Social Behavior in Rats«. Science Magazine, Bd. 334, Issue 6061:14271430. DOI: https://doi.org/ 10.1126/science.1210789. Bielecka, Krystyna (2016). »Symbol Grounding Problem and causal theory of reference.« New Ideas in Psychology 40:77-85. Bielecka, Krystyna (2015). »Why Taddeo and Floridi did not solve the symbol grounding problem?« Journal of Experimental & Theoretical Artificial Intelligence, 27(1):79-93, DOI: https://doi.org/10.1080/0952813X.2014.9401 38. Bierhoff, Hans-Werner (2004). »Moralische Kompetenz.« In: G. Sommer & A. Fuchs (Hg.), Krieg und Frieden. Handbuch der Konflikt- und Friedenspsychologie (S. 568–580). Weinheim: Beltz Psychologie Verlags Union. Bhargava, Vikram und Tae Wan Kim (2017). »Autonomous Vehicles and Moral Uncertainty.« In: Patrick Lin, Keith Abney, und Ryan Jenkins (Hg.). Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence (S. 5–19). Oxford: Oxford University Press. Bıyık, Erdem; Palan, Malayandi; Landolfi, Nicholas C.; Losey, Dylan P.; Sadigh, Dorsa (2020). »Asking Easy Questions: A User-Friendly Approach to Active Reward Learning.« Proceedings of the Conference on Robot Learning, PMLR 100:1177-1190. https://arxiv.org/pdf/1910.04365.pdf. Bliss, T. V. und Lomo, T. (1973). »Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path«. J Physiol 232(2):331-356. Block, Ned (1978). »Troubles with functionalism.« Minnesota Studies in the Philosophy of Science 9:261-325. Block, Ned (1995). »On a confusion about a function of consciousness«. BEHAVIORAL AND BRAIN SCIENCES (1995) 18:227-287.

Verzeichnisse

Block, Ned (1995). The mind as the software of the brain. In: E. E. Smith & D. N. Osherson (Hg.). Thinking: An invitation to cognitive science (S. 377–425). The MIT Press. Blum, Lawrence A. (1980). Friendship, Altruism and morality. London: Routledge & Kegan Paul. Bostrom, Nick (2014). Superintelligence. Paths. Dangers. Strategies. Oxford: Oxford University Press. Braude, Stephen E. (1996). »Multiple Personality and Moral Responsibility.« Philosophy, Psychiatry & Psychology 3(1):37-54. Brazier, Frances M. T. & Treur, Jan (1999). »Compositional Modelling of Reflective Agents.« International Journal of Human-Computer Studies, 50:407431. Breazeal, Cynthia L. (2004). Designing Sociable Robots. MIT: Cambridge. Bringsjord, Selmer (1992). What robots can and can’t be? Luxemburg: Springer Science+Business Media S.A. Bringsjord, Selmer; Bello, Paul & Ferrucci, David (2001). »Creativity, the Turing Test, and the (Better) Lovelace Test.« Minds and Machines 11: 3. https://doi .org/10.1023/A:1011206622741. Bringsjord S., Taylor J., Van Heuveln B., Arkoudas K., Clark M., & Wojtowicz R. (2011). »Piagetian Roboethics via Category Theory: Moving beyond Mere Formal Operations to Engineer Robots Whose Decisions Are Guaranteed to Be Ethically Correct.« In: Machine Ethics (S. 361–374). Bringsjord, Selmer und Govindarajulu, Naveen S. (2013). »Toward a Modern Geography of Minds, Machines, and Math,« In: Müller, Vincent C. (Hg.). Philosophy and Theory of Artificial Intelligence, ser. Studies in Applied Philosophy, Epistemology and Rational Ethics (151–165). Bd. 5, New York: Springer. Bringsjord, Selmer (2015). The Symbol Grounding Problem … Remains Unsolved. Journal of Experimental & Theoretical Artificial Intelligence, Bd. 27:63-72, (zitiert nach Online-Fassung, abgerufen am 27.04.2023: http://kr yten.mm.rpi.edu/SB_on_LF_on_SGP_123013.pdf). Bringsjord, Selmer; Licato, John; Govindarajulu, Naveen S.; Ghosh, Rikhiya, und Sen, Atriya (2015). »Real robots that pass tests of self-consciousness.« Proccedings of the 24th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN 2015) (New York, NY: IEEE), 498–504. DOI: https://doi.org/ 10.1109/ROMAN.2015.7333698. Bringsjord, Selmer; Bello, Paul, und Govindarajulu, Naveen S. (2018). »Toward axiomatizing consciousness,« In: Jacquette, Dale (Hg.). The Blooms-

201

202

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

bury Companion to the Philosophy of Consciousness (S. 289–324). London: Bloomsbury Academic. Buhr, Manfred und Klaus, Georg (1971). »Bewusstsein«. In: Philosophisches Wörterbuch (S. 194–198). Bd. 1., Auflage 8. Leipzig: VEB Verlag der Enzyklopädie. Burchardt, Aljoscha; Büttner, Jochen und Renn, Jürgen (2023). KI-basierte Vorausschau für nachhaltige transformative Resilienz. Demokratisierung durch individualisierte Zukunftsnarrative und Rückkopplung in die Modellbildung. Die Studie wurde für CO:DINA als Auftragsarbeit vom Deutschen Forschungszentrum für Künstliche Intelligenz erstellt. Die Studie ist online verfügbar, abgerufen am 11.08.2023: https://pure.mpg.de/rest/i tems/item_3519487/component/file_3519488/content). Burgsteiner, H., Kandlhofer, M., & Steinbauer, G. (2016). »IRobot: Teaching the Basics of Artificial Intelligence in High Schools.« Proceedings of the AAAI Conference on Artificial Intelligence, 30(1), Article 1. https://ojs.aaai.org/in dex.php/AAAI/article/view/9864. Cassirer, Ernst (1944). Ein Versuch über den Menschen. Einführung in eine Philosophie der Kultur. Überarbeitet Ausgabe von 2007. Hamburg: Meiner. Chalmers, David (1995). »Facing up to the problem of consciousness.« Journal of Consciousness Studies 2 (3): 200–19. Chalmers, David (2017). »The Hard Problem of Consciousness«. In: The Blackwell Companion to Consciousness (32–42). Chatila, Raja; Renaudo, Erwan; Andries, Mihai; Chavez-Garcia, Ricardo-Omar; Luce-Vayrac, Pierre; Gottstein, Raphael; Alami Rachid; Clodic, Aurélie; Devin, Sandra; Girard, Benoit und Khamassi, Mehdi (2018). »Toward SelfAware Robots.« Front. Robot. AI 5:88. DOI: https://doi.org/10.3389/frobt.2 018.00088. Chella, Antonio; Cangelosi, Angelo; Metta, Giorgio; Bringsjord, Selmer (2019). Consciousness in Humanoid Robots. Lausanne: Frontiers Media. DOI: https://doi.org/ 10.3389/978-2-88945-866-0. Chomsky, Noam (1959). »A Review of B. F. Skinner’s Verbal Behavior«. Language, 35, Nr. 1: 26–58. Churchland, Paul M. (1981). »Eliminative Materialism and the propositional attitudes. Journal of Philosophy 78:67-90. Churchland, Paul M. & Patricia S. (1990). »Could a Machine think?« Scientific American, 262(1):32-37. Churchland, Paul M. (1992). A Neurocomputational Perspective. The Nature and the Structure of Science. Massachusetts: MIT.

Verzeichnisse

Cointe, Pierre (Hg.) (1999). Meta-Level Architectures and Reflection, Second International Conference on Reflection. Saint-Malo, France: Springer-Verlag. Copeland, Brian Jack. (1998). »Turings O-machines, Searle, Penrose and the brain.« Analysis 58.2:128-186. Colins, Corbin (1997). »Searle on Consciousness and Dualism.« International Journal of Philosophical Studies, 5(1):1533. Coradeschi, S.; Lout, A.; Wedre B. (2013). »A Short review of Symbol Grounding in Robotic and Intelligent Systems.« KI – Künstliche Intelligenz. DOI: https://doi.org/ 10.1007/s13218-013-0247-2. Corcran, Kevin J. (2001). »The trouble with Searle’s biological naturalism.« Erkenntnis 55(3):307324. Cotterill, Rodney M. J. (2003). »CyberChild A Simulation Test-Bed for Consciousness Studies.« Journal of Consciousness Studies 10(4-5):31-45. Cramer, Henriette S. M.; Goddijn, Jorrit; Wieilinga Bob J.; Evers, Vanessa (2010). »Effects of (in)accurate empathy and situational valence on attitudes towards robots,« 2010 5th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Osaka, Japan, 2010, S. 141–142, DOI: https://doi.org/ 10.1109/HRI.2010.5453224. Danaher, John und McArthur, Neil (Hg.) (2018). Robot sex. Social and ethical implications; London: MIT Press. Nowak, Ewa (2020). Advancing the human self. Do technologies make us »posthuman«? Berlin: Peter Lang. Danaher, John (2018). »Should we be thinking about robot sex«. In: Ders. und Neil McArthur (Hg.). Robot Sex. Social and Ethical Implications (3–14), Cambridge: MIT Press. Darwin, Charles (1966). Die Abstammung des Menschen. (Originaltitel: The descent of man. 2. Auflage, 1874). Stuttgart: Kröner Verlag. Dawkins, Marian Stamp (1994). Die Entdeckung des tierischen Bewusstseins. Berlin: Rowohlt. Frans de Waal (1997). Der gute Affe. Der Ursprung von Recht und Unrecht bei Menschen und anderen Tieren. München: Hanser (ISBN 3–446-18962-9). Dehaene, Stanislas; Lau, Hakwan; Kouider, Sid (2017). »What is consciousness, and could machines have it?« Science:358, 486–492. DOI: https://doi.org/1 0.1126/science.aan8871. Dennett, Daniel C. (1976). »Conditions of personhood.« In Rorty, Amelie Oksenberg (Hg.), The Identities of Persons. University of California Press. htt ps://dl.tufts.edu/pdfviewer/w0892p348/sf268h06v.

203

204

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Dennett, Daniel C. (1990). »The Myth of Original Intentionality.« In: K. A. Mohyeldin Said, W. H. Newton-Smith, R. Viale und K. V. Wilkes (Hrsg). Modelling the Mind (S. 43–62). Oxford: Clarendon Press. Erneut veröffentlicht von Eric Dietrich (Hg.) (1995). Thinking Computers and Virtual Persons: Essays on the Intentionality of Machines (S. 91–107). San Diego, CA and London: Academic Press. Dennett, Daniel C. (1993). »Review of Searle, the rediscovery of the mind [Book Review].« Journal of Philosophy, 60(4): 93–205. Dewey, John (1986). »Experience and education.« The Educational Forum, 50:241-252. Descartes, René (1637). Abhandlung über die Methode des richtigen Vernunftgebrauchs. (Online Version, abgerufen am 2. Juni 2023: Link: https://www .textlog.de/35548.html). DiGiovanna, James (2017). »Artificial Identity«. In: Patrick Lin, Keith Abney, and Ryan Jenkins (Hg.). Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence (S: 307–321). Doherty, Jason P. (2016). Introduction to »AI Civil Rights«. Addressing Civil Rights for Artificial Intelligence,« Harry Benjamin Kindle Editions. Douglas, Thomas (2013). »Human Enhancement and Supra-Personal Moral Status.« Philosophical Studies 162:473-97. Dresler, Martin (2009). Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«, Würzburg: Königshausen u. Neumann. Dretske, Fred (2005). »Minimale Rationalität.« In: Wild, Markus & Perler, Dominik. (Hg.). Der Geist der Tiere (S. 213–222). Frankfurt a.M.: Suhrkamp. Dreyfus, Hubert. L. (1993). Was ist moralische Reife? Deutsche Zeitschrift für Philosophie, 41(3), 435–458. Dwivedi, Utkarsh; Gandhi, Jaina; Parikh, Raj; Coenraad, Merijke; Bonsignore, Elizabeth & Kacorri, Hernisa (2021). »Exploring Machine Teaching with Children.« 2021 IEEE Symposium on Visual Languages and Human-Centric Computing (VL/HCC), 1–11. https://doi.org/10.1109/VL/HCC51201.202 1.9576171. Elder, Alexis (2017). »Robot friends for autistic children: Monopoly money or Counterfeit currency?« In: Patrick Lin, Ryan Jenkins und Keith Abney (Hg.). Robot Ethics 2.0. From Autonomous cars to artificial intelligence (S. 97–112). Oxford: Oxford University Press.

Verzeichnisse

Eisenberg, Nancy (1982). »The development of reasoning regarding prosocial behavior.« In: Nancy Eisenberg (Hg.). The development of prosocial behavior (S. 219–249). New York. Eppe, Manfred; Trott, Sean und Feldman, Jerome (2016). »Exploiting Deep Semantics and Compositionality of Natural Language for Human-Robot-Interaction«. arXiv:1604.06721v1 [cs.AI]. Fan, Lisa; Scheutz, Matthias; Lohani, Monika; McCoy, Marissa, Stokes, Charlene (2017). »Do We Need Emotionally Intelligent Artificial Agents? First Results of Human Perceptions of Emotional Intelligence in Humans Compared to Robots.« In: Beskow, J., Peters, C., Castellano, G., O’Sullivan, C., Leite, I., Kopp, S. (Hg.) Intelligent Virtual Agents. IVA 2017. Lecture Notes in Computer Science, Bd. 10498. Springer, Cham. https://doi.org/10.1007/ 978-3-319-67401-8_15. Ferrey, Anne E.; Burleigh, Tyler J. & Fenske, Mark J. (2015). »Stimulus-category Competition, Inhibition, and Affective Devaluation: A Novel Account of the Uncanny Valley.« Frontiers in Psychology 6:249. Fetchenhauer, Detlef & Bierhoff, Hans-Werner (2004). »Altruismus aus evolutions-theoretischer Perspektive«. Zeitschrift für Sozialpsychologie 35 (3):131-141. Feyerabend, Paul (1963). »Materialism and the Mind-Body Problem. Review of the Metaphysics 17:49-67. Floridi, Luciano und Sanders, J. W. (2004). »On the morality of artificial agents.« Minds and Machines 14(2004):349-379. Floridi, Luciano & Sanders, Jeff W. (2004). »The method of abstraction.« In: Negrotti, Massimo (Hg.). Yearbook of the artificial, dedicated to ›models in contemporary sciences‹ (S. 177–220). Berna: Peter Lang. Floridi, Luciano (2005). »Consciousness, agents and the knowledge game.« MindMach. 15:415-444. DOI: https://doi.org/ 10.1007/s11023-005-9005-z. Floridi, Luciano und Taddeo, Mariarosaria (2007). »A Praxical Solution of the Symbol Grounding Problem.« Minds and Machines. Volume 17:369-389. Fodor, Jerry A. (1987). Psychosemantics. Cambridge MA: MIT Press. Fodor, Jerry A. (1968). Psychological Explanation. New York: Random House. Fodor, Jerry A. (1980). »Searle on what only brains can do.« Behavioral and Brain sciences 3, 1980, S. 431–32. Foot, Philippa (1967). »The problem of Abortion and the Doctrin of the Double Effect in Virtues and Vices.« Oxford Review 5:5-15. Frankfurt, Harry G. (1971). »Freedom of the Will and the Concept of a Person.« Journal of Philosophy, 68(1): 5–20.

205

206

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Franklin, Stan (2003). »IDA: A Conscious Artifact?« Journal of Consciousness Studies 10:47-66. Freinet, Célestin (1993). Education Through Work: A Model for Child-Centered Learning (J. Sivell, Trans.; zweite Ausgabe.). Edwin Mellen Press Ltd. Freire, Paulo (2021). Pädagogik der Autonomie: Notwendiges Wissen für die Bildungspraxis (P. Schreiner, N. Mette, D. Oesselmann, & D. Kinkelbur, Ed.; I. Tamm, Trans.; 1st ed.). Waxmann Lehrbuch. Frith, Chris D. und Rees, Geraint (2017). »A Brief History of the Scientific Approach to the Study of Consciousness.« In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (3–16). Funk, Michael (2022). Roboter- und KI-Ethik – Eine methodische Einführung – Grundlagen der Technikethik. Band 1. Springer Fachmedien Wiesbaden GmbH. Gabriel, Markus (2013). Warum es die Welt nicht gibt? Berlin: Ullstein. Gabriel, Markus (2015). Ich ist nicht Gehirn. Philosophie des Geistes für das 21. Jahrhundert. Berlin: Ullstein. Gabriel, Markus (2018). Der Sinn des Denkens. Berlin: Ullstein. Garz, Detlef (2009). Lawrence Kohlberg. An Introduction. Berlin: Verlag Barbara Budric. Geisler, Anja (2016). Mobbing – eine Frage der Moral? Der Einfluss moralischer Fähigkeiten auf Verhalten in Mobbing-Situationen. Diss. an der LudwigMaximilians-Universität München, S 13. Link: https://edoc.ub.uni-muenc hen.de/20097/1/Geisler_Anja.pdf (Stand: 22.03.2023). Gerhardt, Volker (2012). Öffentlichkeit. Die politische Form des Bewusstseins. München: C. H. Beck. Gesellschaft für Didaktik des Sachunterrichts (Hg.) (2013). Perspektivrahmen Sachunterricht. Bad Heilbrunn: Verlag Julius Klinkhardt. Gless, Sabine; Silverman, Emily; Weigend, Thomas (2016). »If Robots cause harm, Who is to blame? Self-driving Cars and Criminal Liability.« New Criminal Law Review: An International and Interdisciplinary Journal, Bd. 19 Nr. 3, Summer 2016 (S. 412–436) DOI: https://doi.org/10.1525/nclr.2016. 19.3.412. Govindarajulu, Naveen S. (2011). »Towards a Logic-based Analysis and Simulation of the Mirror Test,« Proceedings of the European Agent Systems. Summer School Student Session 2011, Girona, Spain, 2011. (Online-Link aufgerufen am 25.05.2023: http://eia.udg.edu/easss2011/resources/docs/p aper5.pdf.

Verzeichnisse

Gresco, Alberto; Anerdi, Giuseppe & Rodriguez, Guido (2009). »Acceptance of an Animaloid Robot As a Start- ing Point for Cognitive Stimulators Supporting Elders with Cognitive Impairments.« Revue d’Intelligence Artificielle 23(4):523-37. Greene, Joshua und Haidt, Jonathan (2002). »How (and where) does moral judgment work?« TRENDS in Cognitive Sciences, Bd. 6 Nummer 12 December 2002:517-523. Greene, Joshua D.; Nystrom, Leigh E.; Engell, Andrew D.; Darley, John M. & Cohen, Jonathan D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron, 44: 389–400. DOI: https://doi.org/10.1016 /j.neuron.2004.09.027. Greene, Joshua (2009). »Dual-Process Morality and the Personal/Impersonal Distinction: A Reply to McGuire, Langdon, Coltheart, and Mackenzie.«Journal of Experimental Social Psychology, Bd. 45:581-584. Guarini M. (2011). »Computational Neural Modeling and the Philosophy of Ethics: Reflections on the Particularism-Generalism Debate.« In: Machine Ethics (S. 316–334). Gurney, Jeffrey K. (2017). »Imputing Driverhood. Applying a reasonable driver standard to accidents caused by autonomous vehicles.« In: Patrick Lin et al. (Hg.). Robot Ethics 2.0 (S. 51–65). Habermas, Jürgen (1983). Moralbewusstsein und kommunikatives Handeln. 13. Auflage erschienen in 2018. Frankfurt a.M.: Suhrkamp. Hall, J. Storrs (2011), »Ethics for Machines.« In: Anderson, M.; Anderson, S. L. (Hg.). Machine ethics (S. 28–46). Haring, Kerstin S.; Mougenot, Céline; Ono, Fuminori, & Watanabe, Katsumi (2014). »Cultural Differences in Perception and Attitude towards Robots.« International Journal of Affective Engineering, 13(3):149-57. Harnad, Stevan (1990). »The Symbol Grounding Problem.« Physica D 42:335346. Haugeland, John. (1980). »Programs, Causal Powers, and Intentionality.« Behavioral and Brain Sciences, 3:432-433. DOI: https://doi.org/10.1017/S0140 525X00005835. Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass: MIT Press. He, Hongmei (2023). »RobotGPT: From ChatGPT to Robot Intelligence.« OpenReview. Eingereicht zum ICRA-23 Workshop Pretraining4Robotics. https: //openreview.net/forum?id=wWe_OqpCcU8.

207

208

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Hebb, Donald O. The organization of behavior: A neuropsychological theory. New York: John Wiley and Sons, Inc., 1949. Online-Fassung, Link abgerufen am 27.04.2023: https://pure.mpg.de/rest/items/item_2346268_3/compon ent/file_2346267/content. Heidbrink, Horst (2008). Einführung in die Moralpsychologie. Weinheim: Beltz. Heidegger, Martin (1962). Die Technik und die Kehre. Tübingen: Verlag Günther Neske. Online-Ausgabe, Link abgerufen am 20.4.2023: https://www.b ard.edu/library/arendt/pdfs/Heidegger-TechnikundKehre.pdf). Hemmerling, Kay; Scharlipp, Matthias; Lind, Georg (2009). »Die Konstanzer Methode der Dilemma-diskussion für die Bildungsarbeit mit Riskiogruppen«. In: Klaus Mayer, Huldreich Schild-Knecht (Hg.). Dissozialität, Delinquenz, Kriminalität: Ein Handbuch für die interdisziplinäre Arbeit (S. 303–311). Zürich: Schulthess: 2009. Henrich, Dieter (1967). Fichtes ursprüngliche Einsicht, Frankfurt/M: Klostermann. Hildt, Elisabeth (2019). »Artificial Intelligence: Does Consciousness Matter?« Front. Psychol. 10:1535. DOI: https://doi.org/ 10.3389/fpsyg.2019.01535. Hobbes, Thomas (1651). Leviathan oder Materie, Form und Gewalt eines kirchlichen und staatlichen Gemeinwesens. Herausgegeben von Walter Euchner 1978, Teil 1 und 2. Leipzig: Reclam. Hoffman, Martin L. (1984). »Empathy, its limitations, and its role in a comprehensive moral theory.« In: William L. Kurtines/Jack L. Gewirtz (Hg.). Morality, moral behavior, and moral development (S. 283–302). New York. Hoffman, Martin L. (1991). »Empathy, social cognition, and moral action.« In: William L. Kurtines/Jack L. Gewirtz (Hg.). Handbook of moral behavior and development (S. 275–301). Bd. 1. Hillsdale, NJ. U Hoffman, Martin L. (2000). Empathy and moral development: Implications for caring and justice. Cambridge, MA. Höffe, Otfried (Hg.). Lexikon der Ethik. 7. Auflage erschienen 2008. Nördlingen: C. H. Beck. Huebner, Bryce; Dwyer, Susan, & Hauser, Marc (2009). The role of emotion in moral psychology. Trends in Cognitive Sciences 13: 1–6. DOI: https://doi.o rg/10.1016/j.tics.2008.09.006. Huxley, Thomas H. (1874). On the hypothesis that animals are automata. In: Huxley, Thomas H. (1904). Colleges Essays. Band 1. Methods and Results (S. 199–250), 4. Auflage. London: Macmillan.

Verzeichnisse

Irrgang, Bernhard (2014). »On the Consciousness of Robots.« International Journal of Applied Research on Information Technology and Computing (IJARITAC) Bd. 5, Ausgabe 2, May-August: 142–153. Janich, Peter (2006). »Der Streit der Welt- und Menschenbilder in der Hirnforschung.« In: Sturma, Dieter (Hg.) Philosophie und Neurowissenschaften (S. 75–96), Frankfurt a.M.: Suhrkamp. Jackson, Frank (1982). »Epiphenomenal Qualia.« Philosophical Quarterly 32, 127–136. Jackson, Stuart A. (1996). Connectionism and Meaning: From Truth Conditions to Weight Representations. Norwood, New Jersey: Library of Congress in Publicatio Data. Jonas, Hans (1973). »Kybernetik und Zweck. Eine Kritik.« In: Ders. Organismus und Freiheit. Ansätze zu einer philosophischen Biologie. Göttingen: Vandenhoeck & Ruprecht. Jonas, Hans (1979). Das Prinzip Verantwortung. Versuch einer Ethik für de technologische Zivilisation. 6. Ausgabe, herausgegeben 2017. Frankfurt a.M.: Suhrkamp. Jonas, Hans (1991). »Maschinen werden niemals ein Bewußtsein haben können. Gespräch mit Norbert Lossau.« In: H. Jonas. Das Prinzip Verantwortung. Erster Teilband: Grundlegung, Hg. D. Böhler, B. Böhler, KGA, Bd. I/2, Rombach, Freiburg am Br. 2015. (Online Link, abgerufen am 27.04.2023: https://detopia.de/J/Jonas-Hans/1993-Dem-boesen-Ende-nae her/s049-04-DieWelt-Maschinen.htm). Jonas, Hans (2017). Das Prinzip Verantwortung. Frankfurt a.M.: Suhrkamp. Kahlert, Joachim (2016). Der Sachunterricht und seine Didaktik. 4. aktualisierte Auflage. Bad Heilbrunn: Verlag Julius Klinkhardt. Kahneman, Daniel (2011). Schnelles Denken, Langsames Denken. München: Pantheon. Kaiser, Astrid (2017) Neue Einführung in die Didaktik des Sachunterrichts. 6. Auflage. Baltmannsweiler: Schneider Verlag Hohengehren. Kandlhofer, Martin & Steinbauer, Gerald (2021). »AI K–12 Education Service. KI – Künstliche Intelligenz.« DOI: https://doi.org/10.1007/s13218-021-007 15-9. Kant, Immanuel (1785). Grundlegung der Metaphysik der Sitten. Herausgegeben von Theodor Valentiner 1961, Stuttgart: Reclam. Kant, Immanuel (1788). Kritik der praktischen Vernunft, herausgegeben von Horst D. Brandt und Heiner F. Klemme 2003, Hamburg: Meiner.

209

210

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Kant, Immanuel (1781). Zum ewigen Frieden. Herausgegeben von Rudolf Walter 2002. Stuttgart: Reclam. Kant, Immanuel (1797). Die Metaphysik der Sitten. Herausgegeben von Hans Ebeling. Stuttgart: Reclam, (442) Kaspersen, M. H., Bilstrup, K.-E. K., & Petersen, M. G. (2021). »The Machine Learning Machine: A Tangible User Interface for Teaching Machine Learning.« Proceedings of the Fifteenth International Conference on Tangible, Embedded, and Embodied Interaction, 1–12. DOI: https://doi.org/10.1145/ 3430524.3440638. Käter, Carolina; Melzer, Conny; Hillenbrand, Clemen (2016). Moralische Urteilsfähigkeit bei Schülerinnen und Schülern an Förderschulen mit dem Schwerpunkt auf Lernen, Empirische Sonderpädagogik (2016) 3: 262–278. Keith Abney (2014). »Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed,« In: Robot Ethics: The Ethical and Social Implications of Robotics (S. 35–52), MIT Press. Keller, Monika (2005). »Moralentwicklung und moralische Sozialisation«. In: D. Horster & J. Oelkers (Hg.). Pädagogik und Ethik (149–172). Wiesbaden: Verlag für Sozialwissenschaften. Khayrallah, Huda; Trott, Sean und Feldman, Jerome (2015). »Natural Language For Human Robot Interaction.« Proceedings of the Workshop on HumanRobot Teaming at the ACM/IEEE conference on Human-Robot Interaction (HRI). www.bradhayes.info/hri15/papers/2.pdf. Kiefer, Alex B. (2019). A Defense of Pure Connectionism. CUNY Academic Works. https://academicworks.cuny.edu/gc_etds/3036. Kihlstrom, John F.; Dorfman, Jennifer und Park, Lillian (2017). »Conscious and Unconscious Memory.« In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (S. 562–575). Kim, Jaegwon (1993). Supervenience and Mind. Cambridge: Cambridge University Press. Jaegwon (1999). »Making Sense of Emergence.« Philosophical Studies, 95(1/2):3-36. Klein-Landeck, Michael; Pütz, Tanja (2019). Montessori-Pädagogik. Einführung in Theorie und Praxis. Überarbeitete Neuausgabe, 4. Gesamtauflage. Freiburg, Basel, Wien: Verlag Herder GmbH. Kohlberg, Lawrence (1958). The development of modes of moral thinking and choice in the years 10 to 16. Diss. University of Chicago. Kohlberg, Lawrence (1964). »Development of Moral Character and Moral Ideology.« In: Hofmann, M.L., Hofmann, L.W. (Hg.). Review of Child Development Research (Bd. 1, S. 381–431). New York: Russell Sage Foundation.

Verzeichnisse

Kohlberg, Lawrence (1984). The psychology of moral development: The nature and validity of moral stages. San Francisco, CA: Harper& Row. Kohlberg, Lawrence (1996). Die Psychologie der Moralentwicklung. Hg. von Wolfgang Althof. Frankfurt a.M.: Suhrkamp. Korsgaard, Christine. M. (2004). Fellow creatures: Kantian ethics and our duties to animals. Tanner Lectures on Human Values, Band 24:77-110. Korsgaard, Christine. M. (2009). Self-Constitution. Agency. Identity and Integrity. Oxford and New York: Oxford University Press. Korsgaard Christine. M. (2012). »A Kantian Case for Animal Rights«. In: Michel M., Kühne D., & Hänni J. (Hg.), Animal Laws – Tier und Recht. Developments and Perspectives in the 21st Century 1–28). Zürich/St. Gallen: DIKE. Korsgaard, Christine. M. (2018). Fellow creatures: Our obligations to the other animals. Oxford: University Press. Kotani, Atsunobi und Tellex, Stefanie (2019). »Teaching Robots To Draw,« 2019 International Conference on Robotics and Automation (ICRA), Montreal, QC, Canada, 2019, S. 4797–4803. DOI: https://doi.org/10.1109/ICRA. 2019.8793484. Kouider, Sid und Faivre, Nathan (2017). »Conscious and Unconscious Perception.« In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (S. 551–561). Krach, Sören; Hegel, Frank; Wrede, Britta; Sagerer, Gerhard; Binkofski, Ferdinand; Kircher, Tilo (2018). »Can Machines Think? Interaction and Perspective Taking with Robots Investigated via fMRI.« In PLoS ONE 3(7):3-11. Kurzweil, Ray (2006). The singularity is near. London: Duckworth. La Mettrie J. O (1774). Der Mensch eine Maschine. (org. L’homme Machine). Übersetzt von Adolf Ritter, Ausgabe 4 von 2016. Berlin: Holzinger. Larson, Eric J. (2021). The Myth of Artificial Intelligence. Why Computer can’t thin the way we do. London: Harvard University Press. Latzko, Brigitte und Malti, Tina (Hg.) (2010). Moralische Entwicklung und Erziehung in Kindheit und Adoleszenz. Göttingen: Hogrefe. Link: https:// pubengine2.s3.eu-central-1.amazonaws.com/preview/99.110005/9783840 922268_preview.pdf (Stand: 22.03.2023). Leben, Derek (2019). Ethics for Robtos. How to design a moral algorithm. London/New York: Routledge. Lee, Hee Rin; Sung, JaYoung; Šabanović, Selma & Han, Joenghye (2012). »Cultural Design of Domestic Robots: A Study of User Expectations in

211

212

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Korea and the United States.« IEEE RO-MAN: The 21st IEEE International Symposium on Robot and Human Interactive Communication (S. 803–808). Lee, Henry H.; Molla, Michael N.; Cantor, Charles R.; Collins, James J. (2010). »Bacterial charity work leads to population-wide resistance«. Nature. Bd. 467, S. 82–85 (2. September 2010; DOI: https://doi.org/ 10.1038/nature09354). Lench, Heather C.; Darbor, Kathleen E. und Berg, Logan A. (2013). »Functional Perspectives on Emotion«. Behavior, and Cognition. Bd. 3: 536–540, DOI: https://doi.org/ 10.3390/bs3040536. Lenzen, Wolfgang (1997). »Searles Chinesischer Zauber Oder Wahrnehmung, Sprachverständnis und Der Turing-Test«. In: Burri, Alex (Hg.). Sprache und Denken/Language and Thought (S. 93–111). Berlin, Boston: De Gruyter. Levy-Suhl, Max (1912). Die Prüfung der sittlichen Reife jugendlicher Angeklagter und die Reformvorschläge zum § 56 des deutschen Strafgesetzbuches. Zeitschrift für Psychotherapie: 232–254. Levy, David (2014). »The Ethics of Robot Prostitutes«, in: Robot Ethics. The Ethical and Social Implications of Robotics (S. 223–232). Cambridge: MIT University Press. Libet, Benjamin (2007). Mind Time. Wie das Gehirn Bewusstsein produziert. Frankfurt a.M.: Suhrkamp. Lickona, Thomas (1991). Educating For Character: How Our School Can Teach Respect And Responsibillity. New York: Bantan Books. Lin, Patrick; Abney, Keith & Bekey, George A. (2014) (Hg.). Robot Ethics. The Ethical and Social Implications of Robotics. Cambridge: MIT University Press. Lin, Patrick; Jenkis, Ryan; Abney, Keith. (Hg.) (2017). Robot ethics 2.0. From autonomous cars to artificial intelligence. Oxford: Oxford University Press. Lind, Georg; Hartmann, Hans A. und Wakenhut, Roland (1985). Moral Development and the Social Environment, Milton: Routledge. Lind, Georg (1978). »Wie misst man moralisches Urteil? Probleme und alternative Möglichkeiten der Messung eines komplexen Konstrukts.« In: G. Portele (Hg.) Sozialisation und Moral (S. 171–201). Weinheim: Beltz. Lind, Georg (1985). Inhalt und Struktur des moralischen Urteilens. Theoretische, methodische und empirische Untersuchungen zur Urteils- und Demokratiekompetenz bei Studierenden. Diss. Universität Konstanz.

Verzeichnisse

Lind, Georg (2010). »Die Förderung moralisch-demokratischer Kompetenzen mit der Konstanzer Methode der Dilemma-Diskussion (KMDD).« In: B. Latzko & T. Malti (Hg.), Moralentwicklung und -erziehung in Kindheit und Adoleszenz (S. 290–302). München: Juventa-Verlag. Lind, Georg (2011). »Moralerziehung«. In: Kiel, E.; Zierer, K. (Hg.), Basiswissen Unterrichtsgestaltung (39–50). Baltmannweiler: Schneider. Verlag Hohengehren. Lind, Georg (2014). »Moralische Kompetenz und globale Demokratie«. In: M. Tiedemann & J. Rohbeck (Hg.). Philosophie und Verständigung in der pluralistischen Gesellschaft (192- 211). Dresden: Thelem. Lind, Georg (2016). How to teach morality. Promotion deliberation and discussion, reducing violence and deceit, Berlin: Logos, Lind, Georg (2016). »Theorie und Praxis des Begriffs ›Kompetenz‹«. Lehren und Lernen, Heft 10, S. 16–20. Lind, Georg (2016). Gemeinsames Lernen braucht Moralkompetenz. Gemeinsames Lernen, 2016, Heft 4:42-47. Locke, John (1689). »An Essay Concerning Human Understanding«, Buch 2, Aalen, Ausgabe von 1963. Loewenstein, Richard J. und Donald Ross (1992). »Multiple Personality and Psychoanalysis: An Introduction.« In: Psychonalic Inquiry. 12:1, 3–48, DOI: https://doi.org/ 10.1080/07351699209533881. Loh, Janina (2016). »Zur Verantwortung in der Mensch-Maschine-Interaktion. Herausforderungen für das klassische Verantwortungskonzept«. In: Offenwanger, David, J und Quandt, Jan Hendrik (Hg.). #sustainability. Wirtschaftsethische Herausforderung Digitalisierung (S. 29–39). München: Mehring. Loh, Janina (2017). »Verantwortung und Roboterethik. Ein kleiner Überblick. Teil 1. Zeitschrift zum Innovations- und Technikrecht, 4(2017):220-226. Loh, Janina (2017). »Roboterethik. Über eine noch junge Bereichsethik.« Information Philosophie, Bd. 1. Loh, Janina und Wulf (2017). »Autonomy and Responsibilty in Hybrid Systems. The Example of Automous Cars«. In: Patrick Lin et. Al. (Hg.). Robot Ethics 2.0 (S. 35–50). Oxford: Oxford University Press. Loh, Janina (2018). »On building responsible robots.« In: Karafillidis, Athanasiois dun Weidner, Robert (Hg.), Developing sup port technologies, integrating multiple perspectives to create assistance that people really want. Wiesbaden: Springer.

213

214

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Loh, Janina (2018). »Verantwortung und Roboterethik. Ein kleiner Überblick.« Teil 2. Zeitschrift zum Innovations- und Technikrecht, 1(2018):29-35. Loh, Janina (2018). Trans- und Posthumanismus. Zur Einführung. Hamburg: Junius Verlag Loh, Janina (2019). Roboterethik. Suhrkamp: Frankfurt a.M. Loh, Janina und Wulf (Hg.) (2022). Social robots and the good life. The normative side of forming emotional bonds with robots. Bielefeld: transcript Verlag. Lourenço, Inês; Ventura, Rodrigo und Wahlberg, Bo (2020). »Teaching Robots to Perceive Time: A Twofold Learning Approach,« 2020 Joint IEEE 10th International Conference on Development and Learning and Epigenetic Robotics (ICDL-EpiRob), Valparaiso, Chile, 2020, S. 1–7, DOI: https://doi.org/ 10.1109/ICDL-EpiRob48136.2020.9278033. Ludwig, Harald (Hg.) (2022). Grundgedanken der Montessori-Pädagogik: Quellentexte und Praxisberichte. Vollständig überarbeitete und erweiterte Neuausgabe, 26. Gesamtauflage. Freiburg i.Br.: Verlag Herder GmbH. Lutz, Christoph; Schöttler, Maren; Hoffmann, Christian Pieter (2019). »The privacy implications of social robots: Scoping review and expert interviews.« Mobile Media & Communication, Bd. 7(3):412-434. Mack, Elke (2001). »Ist der Mensch immer zugleich Person? Zu anthropologischen Prämissen Christlicher Sozialethik.« Die Neue Ordnung 55 (4/2001):268-281. Mahasneh, Ahmad M. (2014). »The Level of Moral Competence among Sample of Hashemite University Students.« Middle-East Journal of Scientific Research 19 (9):1259-1265. Mainzer, Klaus (Hg.) (2020). Philosophisches Handbuch Künstliche Intelligenz. Wiesbaden: Springer, DOI: https://doi.org/10.1007/978-3-658-23715 -8. Malle, Bertram F. (2016). »Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots.« Ethics and Information Technology 18:243-256, DOI: https://doi.org/ 10.1007/s10676-0159367-8, S. 243. Malle, Bertram F. (2014). »Moral Competence in Robots?.« In: J. Seibt, R. Hakli, & M. Nørskov (Hg.), Sociable Robots and the Future of Social Relations: Proceedings of Robo-Philosophy (S. 189–198). Amsterdam, Netherlands: IOS Press, DOI: https://doi.org/10.3233/978-1-61499-480-0-189. Malti, Tina & Latzko, Brigitte (2010). »Children’s moral emotions and moral cognition: Towards an integrative perspective.« In: B. Latzko & T. Malti

Verzeichnisse

(Hg.), Children’s moral emotions and moral cognition: Developmental and educational perspectives. New Directions or Child an Adolescent Development (Nr. 129) (S. 1–10). San Francisco: Jossey-Bass. Marques, Hugo Gravato und Holland, Owen (2010). »Functional embodied imagination and episodic memory.« International Journal of Machine Consciousness. Bd. 02(2):245-259. DOI: https://doi.org/ 10.1142/ S1793843010000473. Marques, Hugo Gravato und Holland, Owen (2009). »Architectures for functional imagination.« Neurocomputing 72:743-759. McCullough, Michael E.; Kurzban, Robert & Tabak, Benjam A. (2013). Putting revenge and forgiveness in an evolutionary context. Behavioral and Brain Sciences 36: 41–58, DOI: https://doi.org/ 10.1017/S0140525X12001513. McLaren, Bruce M. (2011). »Computational Models of Ethical Reasoning. Challenges, Initial Steps, and Future Directions.« In: M. Anderson & S. L. Anderson (Hg.), Machine Ethics (S. 297–315). Cambridge: University Press. Menant, Christophe (2013). »Turing Test, Chinese Room Argument, Symbol Grounding Problem. Meanings in Artificial Agents.« American Philosophical Association Newsletter on Philosophy and Computers 13 (1):30-34. Menczer, Filippo; Degeratu, Melania; Street, Nick W. (2000). »Efficient and Scalable Pareto Optimization by Evolutionary Local Selection Algorithms.« Evolutionary Computation 8: 223–247. Menczer, Filippo; Degeratu, Melania; Street, Nick W. (2001). »Evolving Heterogeneous Neural Agents by Local Selection.« (In M. Patel, et al. (Hg.), Advances in the Evolutionary Synthesis of Intelligent Agents (S. 337–366). Cambridge, MA: MIT Press). Middleton, Warwick (1991). Multiple Personality Disorder. Balance March 12–16. Midgley, Mary (1985). »Persons and Non-Person.« In: Singer, Peter (Hg.). In Defense of Animals, Peter Singer (S. 52–62). New York: Basil Blackwell. Millar, Jason (2017). »Ethics settings for autonomous vehicles«. In: Patrick Lin, Keith Abney und Ryan Jenkis (Hg.). Robot Ethics 2.0 (S. 20–34). Oxford: Oxford University Press. Minsky, Marvin (1986). The Society of Mind. New York: Simon & Schuster. Miłkowski, Marcin (2013). Explaining the Computational Mind. Cambridge. MA: MIT Press. Miłkowski, Marcin (2017). »Why think that the brain is not a computer?«, APA Newsletter on Philosophy and Computers, 16(2):22-28.

215

216

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Miłkowski, Marcin (2018). »Mechanisms and the Mental.« In: S. S. Glennan & P. Illari (Hg.) The Routledge Handbook of Mechanisms and Mechanical Philosophy (S. 74–88). New York: Routledge (Taylor & Francis Group). Misselhorn, Catrin (2013). »Robots as Moral Agents?« In: Frank Rövekamp, Friederike Bosse (Hg.). Ethics in Science and Society. German and Japanenes Views. München: Iudicium. Misselhorn, Catrin (2018). Grundfragen der Maschinenethik. Leipzig: Reclam. Misselhorn, Catrin (2021). Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Stuttgart. Philipp Reclam jun. Verlag GmbH. Mlodinow, Leonard (2012). Subliminal: How Your Unconscious Mind Rules Your Behavior. New York: Pantheon Books (Random House). Moor, James (2006). »The Nature, Importance, and Difficulty of Machine Ethics.« Intelligent Systems, IEEE 21(4):18-21. DOI: https://doi.org/10.1109 /MIS. 2006.80. Montessori, Maria (1965). Spontaneous activity in education. New York: Schocken. Mori, Masahiro; MacDorman, Karl F., Kageki, Norri (2012). The Uncanny Valley. IEEE Robotics & Automation Magazine. Murphy, Guillermo P.; Dudley, Susan A. (2009). »Kin recognition: Competition and cooperation in Impatiens (Balsaminaceae)«. American Journal of Botany. Bd. 96:1990-1996. Musiał, Maciej (2019). Enchanting Robots. Intima, magic and technology. Cham (Schweiz): Palgrave Macmillan. Musiał, Maciej (2019). »Loving Dolls and Robots: From Freedom to Objectification,from Solipsism to Autism?« In: John T. Grider und Dionne van Reenen (Hg.), The Inescapable Entanglement of Tradition, Transcendence and Transgression (S. 152–168), Brill | Rodopi: Leiden, Boston. Müller, Anja; Schulz, Petra und Tracey, Rosemarie (2018). »Spracherwerb«. In: Titz, Cora (Hg.). Konzepte zur Sprach- und Schriftsprachförderung entwickeln (S. 53–68). Stuttgart: Kohlhammer. Müller, Vincent C. (2015), »Which symbol grounding problem should we try to solve?«, Journal of Experimental and Theoretical Artificial Intelligence, 27 (1, ed. D. Jones & A. Beavers), 73–78, DOI: http://dx.doi.org/10.1080/09528 13X.2014.940143. Münch, Dieter (1992). »Computermodelle des Geistes«, in: Ders. (Hg.). Kognitionswissenschaft, Grundlagen, Probleme, Perspektiven (7–53). Frankfurt a.M.: Suhrkamp.

Verzeichnisse

Nagel, Thomas (1974). »What Is It Like to Be a Bat?« In: The Philosophical Review, Bd. 83 (4):435-450. Nagel, Thomas (1986). The view from nowhere. Oxford, New York, Toronto: Oxford University Press. Nagel, Thomas (1999). Das letzte Wort. Stuttgart: Reclam. Newell, Allen & Simon, Herbert A. (1976). »Computer Science as empirical inquiry: symbols and search.« Communications of the ACM 19 (3):113-126. Neumaier, Otto (1981). »Moralische Kompetenz als Gegenstand der Ethik«. In: Conceptus. Zeitschrift für Philosophie, Bd.XV (1981), Nr.35-36:143-156. Nida-Rümelin, Julia (2011). Verantwortung. Stuttgart: Reclam. Nietzsche, Friedrich (1881). Kritische Studienausgabe (KSA). Nachlass, Herbst 1881. 15 [49]. KSA 9/651. München/Berlin/New York: Deutscher Taschenbuchverlag/Walter de Gruyter. Nowak, Ewa (2016). »What Is Moral Competence and Why Promote It?« In: Ethics in Progress. Bd. 7. Nr. 1: 322–333. Nowak, Ewa (2017). »Can Human and Artificial Agents Share an Autonomy, Categorical Imperative-Based Ethics and ›Moral‹ Selfhood?« Filozofia Publiczna I Edukacja Demokratyczna 6(2):169-208. DOI: https://doi.org/10.1 4746/fped.2017.6.2.20. Nunner-Winkler, Gertrud (1999). »Moralische Integration«. Kölner Zeitschrift für Soziologie und Sozialpsychologie, 39: 293–319. Nunner-Winkler, G. (2009). »Prozesse moralischen Lernens und Entlernens.« Zeitschrift für Pädagogik, 55(4):528-548. Olsen, Eric T. (1997). The Human Animal. Personal Identity without Psychology. Oxford: Oxford University Press. Orzinga, James R. (1999). Altruism. Praeger: London. Oser, Fritz (1981). Moralisches Urteil in Gruppen – Soziales Handeln – Verteilungsgerechtigkeit. Stufen der interaktiven Entwicklung und ihre erzieherische Stimulation. Frankfurt: Suhrkamp; Oser, Fritz; Spychiger, Maria (2005). Lernen ist schmerzhaft. Zur Theorie des Negativen Wissens und zur Praxis der Fehlerkultur, Weinheim: Beltz. Otte, Ralf (2021). Maschinenbewusstsein. Frankfurt a.M.: Campus Verlag. Palmer, Daniel E. (1998). »Searle on consciousness: Or how not to be a physicalist.« Ratio, 11(2):159169. Papert, Seymour (1993). Mindstorms: Children, Computers, And Powerful Ideas (Subsequent Edition). New York: Basic Books. Parfit, Derek (1971). »Personal Identity«. Philosophical Review 80:3-27. Parfit, Derek (1984). Reason and Person. Oxford: University Press.

217

218

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Parfit, Derek (2017). Personen, Normativität und Moral. Frankfurt a.M.: Suhrkamp. Pauen, Michael (2007). Was ist der Mensch? Die Entdeckung der Natur des Geistes. München: DVA. Paul, Korky und Thomas, Valerie (2016). Der böse Roboter/Zilly & Zingaro Bd. 5. Vierfarbiges Bilderbuch. Weihnheim: Julius Beltz GmbH & Co. KG. Perry, John (2002). Identity, Personal Identity and The Self. Indianapolis/ Cambridge: Hacket Publishing Company. Peters, Richard S. (1979). »Virtues and habits in moral education.« In: Donald B. Chochrane/Comel M. Hamm/Anastasios C. Kazepides (Hg.). The domain of moral education (267–287). New York. Petersen Steve. (2014). »Designing People to Serve«, in Lin P., Leith A., & Bekey G. A. (Hg.), Robot Ethics. The Ethical and Social Implications of Robotics. Cambridge (S. 283–98).: MIT University Press. Piaget, Jean (1976). Psychologie und Intelligenz. München: Kindler. Piccinini, Gualtiero (2003). Computations and Computers in the Sciences of Mind and Brain. Doctoral Dissertation. Pittsburg. PA: University of Pittsburgh. Piccinini Gualtiero und Scarantino, Andrea. (2010). »Computation vs. information processing: why their difference matters to cognitive science.« Studies in History and Philosophy of Science, 41, 237–246. Piccinini Gualtiero. (2018). »Computational Mechanism.« In: S. S. Glennan & P. Illari (eds.) The Routledge Handbook of Mechanisms and Mechanical Philosophy (S. 435–446). New York: Routledge (Taylor & Francis Group). Piletsky, Eugene (2019). »Consciousness and Unconsciousness of Artificial Intelligence«. Future Human Image, Volume 11, 2019: 66–71, DOI: https://do i.org/10.29202/fhi/11/7. Plebe, Alessio und Perconti, Pietro (2010). »Qualia Turing test: Designing a test for the phenomenal mind«. In Proceedings of the First International Symposium Towards a Comprehensive Intelligence Test (TCIT), Reconsidering the Turing Test for the 21st Century, 16–19. Powers, Thomas M. (2011). »Prospects for Kantian Machine«. In: Machine Ethics (S. 464–475). Prehn, Kristin; Wartenburger, Isabell; Mériau, Katja; Scheibe, Christina; Goodenough, Oliver R. & Prinz, Wolfgang (2006). Vom Gehirn zum Bewusstsein. Frankfurt a.M.: Suhrkamp.

Verzeichnisse

Putnam, Hilary (1960). »Minds and Machines.« In: Hook, S. (Hg.). Dimensions of Mind (S. 362–385). New York: Collier Books. Putnam, Hilary (1964). »Robots: Machines or Artificially Created Life?« The Journal of Philosophy. Bd. 61, Nr. 21, American Philosophical Association Eastern Division Sixty-First Annual Meeting (Nov. 12, 1964):668-691. Putnam, Hilary (1967). »The mental life of some machines.« In: Castañeda, Hector-Neri (Hg.). Intentionality. Mind and Perception. Detroit: Wayne State University Press. Putnam, Hilary (1967). »Psychological Predicates.« In: Capitan, W.H. und Merrill, D. (Hg.). Art, Mind and Religion (S .37-48). Pittsburg PA: University of Pittsburgh Press. Putnam, Hilary (1982). Vernunft, Wahrheit und Geschichte. Frankfurt a.M.: Suhrkamp. Putnam, Hilary (1990). Die Bedeutung von ›Bedeutung‹. 3. ergänzte Aufbau Auflage von 2014. Klostermann: Frankfurt a.M. Putnam, Hilary (1991). Repräsentation und Realität. Frankfurt a.M.: Suhrkamp. Searle. »Is the brain’s mind a computer program?« Scientific American 262 1 (1990): 26–31. Quante, Michael (2012). Person. 2. erweiterte Auflage. Berlin/Boston: Walter de Gruyter. Quine, Willard V. (1953). »On Mental Entities.« Proceedings of the American Academy of Arts and Sciences. Bd. 80, nr. 3, 1953:198-203. JSTOR, DOI: htt ps://doi.org/10.2307/20023652. Rath, Matthias und Krotz, Friedrich (2018). Maschinenethik: Normative Grenzen autonomer Systeme (Ethik in mediatisierten Welten). Wiesbaden: Springer VS. Reichenbach, Roland; Oser, Fritz (Hg.) (2002). Die Psychologisierung der Pädagogik. Übel, Notwendigkeit oder Fehldiagnose. Weinheim: Juventa. Remmers, Peter (2018). Mensch-Roboter-Interaktion. Berlin: Logos Verlag. Rest, J., Narvaez, Darcia; Bebeau, Muriel L.; & Thoma, Stephen (1999). Postconventional moral thinking: A Neo-Kohlbergian Approach. Mahwah, NJ: Lawrence Erlbaum Assciates. Riedl, Mark O. (2014). »The Lovelace 2.0 Test of Artificial Creativity and Intelligence.« ArXivabs/1410.6142. Roache, Rebecca (2016). Memory and mineness in personal identity. Philosophical Psychology, 29(4): 479–489, DOI: https://doi.org/10.1080/0951508 9.2015.1102216.

219

220

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Rorty, Richard (1965). »Mind-Body Identity, Privacy, and Categories. Review of Metaphysics 19:24-54. Rosenthal, David(2005). Consciousness and Mind. Oxford, New York: Oxford University Press. Rössler, Beate (2019). Autonomie. Frankfurt a.M.: Suhrkamp. Roth, Gerhard (2006). Das Gehirn und seine Wirklichkeit. Frankfurt a.M.: Suhrkamp. Roth, Gerhard (2014). Wie das Gehirn die Seele macht? Stuttgart: Klett-Cotta. Russell, Stuart J. und Norvig, Peter (2010). Artificial Intelligence: A Modern Approach. 3rd Edition, Prentice-Hall, Upper Saddle River. Samuel, Janina L. (2019). »Company from the Uncanny Valley: A Psychological Perspective on Social Robots, Anthropomorphism and the Introduction of Robots to Society«. ETHICS IN PROGRESS 10(2):8-26. DOI: https://doi.org/ 10.14746/eip.2019.2.2. Sanusi, Ismaila T.; Oyelere, Solomon S.; Agbo, Friday & Suhonen, Jarkko (2021). »Survey of Resources for Introducing Machine Learning in K-12 Context.« 2021 IEEE Frontiers in Education Conference (FIE), 1–9, DOI: https://doi. org/10.1109/FIE49875.2021.9637393. Sartre, Jean-Paul (2005). Der Existentialismus ist ein Humanismus. Hamburg: Rowohlt. Schäffer, Kristin und Mammes, Ingelore (2014). »Robotik als Zugang zur informatischen Bildung in der Grundschule.« GDSU-Journal Juli 2014, Heft 4:59-73. Schank, Roger C., & Abelson, Robert P. (1977). Scripts, plans, goals and understanding: An inquiry into human knowledge structures. Washington: American Psychological Association. Scheidt, Alexander, & Pulver, Tim (2019). »Any-Cubes: A Children’s Toy for Learning AI.« Proceedings of Mensch Und Computer 2019, 893–895, DOI: https://doi.org/10.1145/3340764.3345375. Schelling, F. W. J. (1795). »Vom Ich als Prinzip der Philosophie oder über das Unbedingte im menschlichen Wissen«. In: Ausgewählte Werke, hg. von Manfred Frank 1985, Frankfurt a.M.: Suhrkamp. Schermerhorn, Paul; Kramer, James; Brick, Timothy; Anderson, David; Dingler, Aaron. & Scheutz, Matthias (2006). »Diarc: A testbed for natural human-robot interactions.« In Mobile Robot Competition and Exhibition – Papers from the 2006 AAAI Workshop, Technical Report (S. 45–52). (AAAI Workshop – Technical Report; Bd. WS-06-15).

Verzeichnisse

Scheutz, Matthias (Hg.) (2002). Computationalism. New Directions. Cambridge/London: MIT Press. Scheutz, Matthias; Schermerhorn, Paul; Kramer, James und Anderson, David (2007). »First steps toward natural human-like HRI.« Autonomous Robots 22(4):411-423. Scheutz, Matthias; Briggs, Gordon; Cantrell, Rehji.; Krause, Evan; Williams, Tom & Veale, Richard (2013). »Novel Mechanisms for Natural HumanRobot Interactions in the DIARC Architecture.« Intelligent Robotic Systems: Papers from the AAAI 2013 Workshop: 66–72. Scheutz, Matthias & Malle, Bertram F. (2014). »Think and Do the Right Thing‹: A Plea for Morally Competent Autonomous Robots.« Presented at the 2014 IEEE Ethics Conference, Chicago, IL. DOI: https://doi.org/ 10.1109/ ETHICS. 2014.6893457. Scheutz, Matthias. (2016). »The Need for Moral Competency in Autonomous Agent Architectures.« In: V. C. Müller (Hg.). Fundamental Issues of Artificial Intelligence (S. 517–527). Heidelberg: Springer. Scheutz, Matthias; Baral, Chitta, & Lumpkin, Barry (2017). »A High Level Language for Human Robot Interaction.« Advances in Cognitive Systems 5:116. Scheutz, Matthias (2017). »The Case for Explicit Ethical Agents.« AI Magazine 38(4):57-64, DOI: https://doi.org/10.1609/aimag.v38i4.2746. Scheutz Matthias & Malle, Bertram F. (2019). »Learning How to Behave. Moral Competence for Social Robots«. In: Bender, Oliver (Hg.). Handbuch der Maschinenethik (S. 255–278). Wiesbaden: Springer Nature. Genutzte Version: https://www.cogsci.msu.edu/DSS/2019-2020/Malle/Malle%20 &%20Scheutz%202019%20LearningHowToBehave.pdf (abgerufen zuletzt am 30.03.2023). Scheutz Matthias & Malle, Bertram F. (2020). »Moral competence in social robots.« In: Wallach, Wendell und Asaro, Peter (Hg.). Machine Ethics and Robot Ethics (S. 225–230). Routledge. Scheutz Matthias & Malle, Bertram F. & Briggs, Gordon. (2015). »Towards Morally Sensitive Action Selection for Autonomous Social Robots.« Proceedings of the International Symposium on Robot and Human Interactive Communication (RO-MAN’15). Schirmacher, Thomas (2012). »Zur Konstanzer Methode der Dilemma-Diskussion (KMDD). Link (Stand 23.03.2023): https://www.bundesheer.at/p df_pool/publikationen/20121122_et_ethik_individuelle_verantwortung_m ilitaerische_fuehrung_schirrmacher2.pdf.

221

222

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Schmidinger, Heinrich (1994). Der Mensch ist Person. Ein christliches Prinzip in theologischer und philosophischer Sicht. Innsbruck: Innsbruck-WienTyrolia. Schmidt, Marco F. H.; Butler, Lucas P.; Heinz, Julia und Tomasello, Michael (2016). »Young Children See a Single Action and Infer a Social Norm: Promiscuous Normativity in 3-Year-Olds.« In Psychological Science, Bd. 27(10) 1360–1370. (https://www.eva.mpg.de/documents/Sage/Schmidt_Y oung_PsychScience_2016_2351116.pdf, abgerufen am 30.03.2023). Searle, John. R. (1980) »Minds, brains, and programs.« Behavioral and Brain Sciences 3 (3):417-457. Searle, John. R. (1984). Minds, Brains and Science. 13. Ausgabe. Cambridge MA: Harvard University Press. Searle, John R. (1990). »Is the Brain’s Mind a Computer Program? No. A program merely manipulates symbols, whereas a brain attaches meaning to them.« SCIENTIFIC AMERICAN, January 262:26-31. Searle, John. R. (1994). The Rediscovery of the Mind. Cambridge, MA: MIT Press. Searle, John R. (1998). Mind, language and society. New York: Basic Books. Searle, John R. (2004). Geist, Sprache und Gesellschaft. Frankfurt a.M.: Suhrkamp. Searle, John R. (2017). Biological Naturalism. In: Schneider, Susan und Velmans, Max (Hg.) The Blackwell Companion to Consciousness (S. 327–336). Oxford: Blackwell, S. 330. Und: Searle, John R. (1994). The Rediscovery of the Mind. Cambridge, MA: MIT Press. She, Lanbo; Cheng, Yu; Chai, Joice Y.; Jia, Yunyi; Yang, Shaohua & Xi, Ning (2014). »Teaching Robots New Actions through Natural Language Instructions,« The 23rd IEEE International Symposium on Robot and Human Interactive Communication, Edinburgh, 2014, S. 868–873, DOI: https://doi.o rg/10.1109/ROMAN.2014.6926362 URL: http://ieeexplore.ieee.org/stamp/s tamp.jsp?tp=&arnumber=6926362&isnumber=6926219 Sheehan, Lindsey, Nieweglowski, Katherine & Corrigan, Patrick (2016). »The Stigma of Personality Disorders.« Curr Psychiatry Rep 18, 11, DOI: https:// doi.org/10.1007/s11920-015-0654-1. Shiebuya, Rie (2005). Individualität und Selbstbildung. Schellings Weg zur Selbstbildung der Persönlichkeit (1801–1810), Paderborn: Schoeningh. Sloman, Aaron und Chrisley, Ron (2003). »Virtual Machines and Consciousness.« (Zitiert nach Online-Version, Link abgerufen a, 7. Juni 2023, http:// users.sussex.ac.uk/∼ronc/papers/Sloman-Chrisley.pdf)

Verzeichnisse

Spaemann, Robert (2006). Personen. Versuche über den Unterschied zwischen ›etwas‹ und ›jemand‹. Stuttgart: Klett-Cotta. Steć, Małgorzata (2017). »Is The Stimulation of Moral Competence with KMDD® Well-suitedfor Our Brain? A Perspective From Neuroethics«. Ethics in Progress (ISSN 2084–9257). Bd. 8 (2017). Nr. 2, Art. #4, 44–58. DOI: https://doi.org/ 10.14746/eip.2017.2.4. Steels, Luc & Vogt, Paul A. (1997). »Grounding adaptive language games in robotic agents. In P. Husbands, & I. Harvey (Hg.). Advances in artificial life: Proceedings of the Fourth European Conference on Artificial Life (ECAL 97), Brighton, 28–31 July, 1997 (Band 4, S. 474–482). (Complex adaptive systems; Bd. 4). MIT Press. Steinbauer, Gerald; Kandlhofer, Martin; Chklovski, Taha; Heintz, Fredrik, & Koenig, Sven (2021). »A Differentiated Discussion About AI Education K-12.« KI – Künstliche Intelligenz, 35(2):131-137, DOI: https://doi.org/10.1 007/s13218-021-00724-8. Strasser, Anna (2021). »Kann Intelligenz Großes verheissen – selbst wenn sie nur künstlich ist?« In: Strasser, Anna; Sonst, Wolfgang; Stapelfeldt, Ralf; Stepec, Katja (Hg.). Künstliche Intelligenz. Die große Verheißung (S. 503–508). Berlin: Momo Verlag. Studley, Mattew und Meacham, Darian (2017). »Could a robot care? It’s all in the movement.« In: Patrick Lin, Ryan Jenkins und Keith Abney (Hg.). Robot Ethics 2.0. From Autonomous cars to artificial intelligence (S. 97–112). Oxford: Oxford University Press. Sturma, Dieter (1997). Philosophie der Person. Die Selbstverhältnisse von Subjektivität und Moralität. Paderborn, München, Wien, Zürich: Mentis. Sturma, Dieter (2005). »Person und Menschenrechte«, e-Journal Philosophie und Psychologie, S. 3. Online verfügbar unter dem folgenden Link, abgerufen am 27.04.2023: https://www.phps.at/texte/SturmaD1.pdf) Sullin, John P. (2006). »When Is a Robot a Moral Agent?.« International Review of Information Ethics 6(12):23-30. Svec, Bettina (2012). »Existiert echter Altruismus?« In: Sociology in Switzerland: Sociology of Health and Social Welfare. Zürich. (Link zur Online Version: http.//socio.ch/health/t_bsvec.pdf, abgerufen am 29.03.2023). Taddeo, Mariarosaria und Floridi, Luciano (2005). »Solving the Symbol Grounding Problem: A Critical Review of Fifteen Years of Research (December 01, 2005)«. Online-Version Verfügbar auf SSRN: https://ssrn.com/abst ract=3845295.

223

224

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

Tanaka, Fumihide; Cicourel, Aaron und Movellan, Javier R. (2007). »Socialization between toddlers and robots at an early childhood education center.« PNAS, Bd. 104: Nr. 46:17954-17958. Taylor, Annette Kujawski (Hg.) (2013). Encyclopedia of Human Memory. 3. Ausgabe. Westport: Greenwood Publishing Group Inc. Thomas, Judith J. (1976). »Killing, Letting Die, and the Trolley Problem.« Monist 59:204-17. Tononi, Giuliu (2004). An Information Integration Theory of Consciousness. BMC Neuroscience, 5(1). DOI: https://doi.org/ 10.1186/14712202542. Tononi, Giulio (2008). »Consciousness as integrated information: a provisional manifesto.« Biol. Bull 215(3): 216–242. DOI: https://doi.org/10.2307/254707 07. Tononi, Giulio (2017). »Integrated Information Theory of Consciousness. Some Ontological Considerations.« In: The Blackwell Companion to Consciousness (S. 621–633). Touretzky, David; Gardner-McCune, Christina; Martin, Fred & Seehorn, Deborah (2019). »Envisioning AI for K-12: What Should Every Child Know about AI?« Proceedings of the AAAI Conference on Artificial Intelligence, 33(01), 9795–9799, DOI: https://doi.org/10.1609/aaai.v33i01.33019795. Turing, Alan (1950). »Computing Machinery and Intelligence.« Mind, Volume 49, Issue 236:433-460. Ulgen, Ozlem (2017). »Kantian Ethics in the Age of Artificial Intelligence and Robotics.« QIL 43:59-83. Vachovsky, Marie E.; Wu, Grace; Chaturapruek, Sorathan; Russakovsky, Olga; Sommer, Richard & Fei-Fei, Li (2016). »Toward More Gender Diversity in CS through an Artificial Intelligence Summer Program for High School Girls.« Proceedings of the 47th ACM Technical Symposium on Computing Science Education, 303–308, DOI: https://doi.org/10.1145/2839509.2844620. Valente, J. A., & Blikstein, P. (2019). Maker Education: Where Is the Knowledge Construction? Constructivist Foundations, 14(3):252-262. Van Brummelen, J., & Lin, P. (2020). »Engaging Teachers to Co-Design Integrated AI Curriculum for K-12 Classrooms.« arXiv:2009.11100 [physics]. h ttp://arxiv.org/abs/2009.11100. Veruggio Gianmarco; Solis, Jorge und Van der Loos, Machiel (2011). »Roboethics: Ethics Applied to Robotics.« IEEE Robotics & Automation Magazine 18(1):22-23. Villaronga, Eduard F. »›I love you‹, said the the robot: Boundaries of the Use of Emotions in Human-Robot-Interactions.« In: Ayanoğlu, Hande; Duarte

Verzeichnisse

Emília (Hg.). Emotional Design in Human-Robot Interaction. Theories, Methods and Applications (S. 93–110). Villriner, Arno; Meer, Elke van der & Heekeren, Hauke R. (2008). »Individual differences in moral judgment competence influence neural correlates of socio-normative judgments.« SCAN, 3:33-46. Vision, Gerald (2017). »Emergentism«. In: The Blackwell Companion to Consciousness (337–341). Vogt, Paul (2002). »The physical symbol grounding problem.« Cognitive Systems Research 3(3):429-457. DOI: https://doi.org/10.1016/S1389-0417(02)00 051-7. Vogt, Paul und Divina, Federico (2007). Social symbol grounding and language evolution. Interaction Studies 8(1):31 – 52. DOI: https://doi.org/10.1075/is. 8.1.04vog. Wallach, Wendell (2010). »Robot Minds and Human Ethics: The Need for a Comprehensive.« Ethics and Information Technology 12(3):243-250. DOI: https://doi.org/10.1007/s10676-010-9232-8. Wallach, Wendell und Allen, Colin (2009). Moral machines: Teaching robots right from wrong. Oxford University Press, DOI: https://doi.org/10.1093/ acprof:oso/9780195374049.001.0001. Wallis, Hannah, Vogel, Matthias, Junne, Florian et al. (2023). »Dissoziation: ein transdiagnostisches Phänomen.« Psychotherapie 68, 141–154, DOI: https:/ /doi.org/10.1007/s00278-022-00641-7. Warwick, Kevin & Huma Shah (2016). Turing’s Imitation Game. Conversations with the Unknown. Cambridge: University Press. Warwick, Kevin & Huma Shah (2016). »Passing the Turing Test Does Not Mean the End of Humanity.« Cognit Comput. 8:409-419. Weber, Arne M. (2017). Die Körperliche Konstitution von Kognition, Dissertation an der Heinrich-Heine-Universität Düsseldorf, Wiesbaden: Springer. Williams, Bernard (1973). Problems of the Self. Cambridge: Cambridge University Press. Wittgenstein, Ludwig (1967). Philosophische Untersuchungen. Frankfurt a.M.: Suhrkamp. Woolfolk, Anita (2014). Pädagogische Psychologie. München: Pearson. Ye, Yang; You, Hengxu und Du, Jing (2023). »Improved Trust in Human-Robot Collaboration With ChatGPT,« in IEEE Access, Bd. 11, S. 55748–55754, 2023, DOI: https://doi.org/10.1109/ACCESS. 2023.3282111. Zhou, Xiaofei; Van Brummelen, Jessica & Lin, Phoebe (2020). »Designing AI Learning Experiences for K-12: Emerging Works, Future Opportunities

225

226

André Schmiljun, Iga Maria Schmiljun: Moralische Roboter

and a Design Framework.« ArXiv:2009.10228 [Cs]. http://arxiv.org/abs/2 009.10228.