129 46 7MB
German Pages 460 [462] Year 2022
Gabriel Franke
Gabriel Franke studierte Philosophie, Romanistik und Musik in Dresden. Seit 2021 ist er Internatsmentor am Sächsischen Landesgymnasium für Hochbegabung St. Afra. Seine Dissertation in Philosophie wurde 2022 mit dem Immanuel-Kant-Preis ausgezeichnet und hier publiziert.
Künstliche Intelligenz, Transhumanismus und menschliche Personalität
Ist der Mensch nur eine komplexe Maschine? Wenn ja, werden dann Maschinen die besseren Menschen, wenn unsere Technologien ausgereift genug sind? Können wir den Menschen optimieren und durch Computertechnologien unsere biologischen Grenzen überwinden? Kann ein Computer denken, moralisch handeln und Bewusstsein entwickeln? Dieses Buch beantwortet diese Fragen systematisch und ausführlich, ausgehend von Einsichten des 20. und 21. Jahrhunderts aus Philosophie und Naturwissenschaft.
www.wbg-wissenverbindet.de ISBN 978-3-534-40674-6
Gabriel Franke
Künstliche Intelligenz, Transhumanismus und menschliche Personalität
Gabriel Franke
Künstliche Intelligenz, Transhumanismus und menschliche Personalität
Gabriel Franke
Künstliche Intelligenz, Transhumanismus und menschliche Personalität
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie; detaillierte bibliographische Daten sind im Internet über www.dnb.de abrufbar.
wbg Academic ist ein Imprint der wbg © 2022 by wbg (Wissenschaftliche Buchgesellschaft), Darmstadt Die Herausgabe des Werkes wurde durch die Vereinsmitglieder der wbg ermöglicht. Satz und eBook: Satzweiss.com Print, Web, Software GmbH Umschlagabbildung: adobe Stock, A.I. von Stéphane Masclaux Gedruckt auf säurefreiem und alterungsbeständigem Papier Printed in Germany Besuchen Sie uns im Internet: www.wbg-wissenverbindet.de ISBN 978-3-534-40674-6 Elektronisch ist folgende Ausgabe erhältlich: eBook (PDF): 978-3-534-40675-3
Inhalt Danksagung���������������������������������������������������������������������������������������������������������������������������������������������9 1 Einführung in die Thematik����������������������������������������������������������������������������������������������������������11 1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz?�������������������������������������11 1.2 Zielstellung, Struktur und Aufbau der Arbeit���������������������������������������������������������������������23 1.2.1 Zielstellung der Arbeit������������������������������������������������������������������������������������������������23 1.2.2 Inhaltliche Struktur und Aufbau der Arbeit���������������������������������������������������������� 24 2 Künstliche Intelligenz und Transhumanismus���������������������������������������������������������������������������33 2.1 Künstliche Intelligenz: Technische Grundlagen�����������������������������������������������������������������33 2.1.1 Kurzer Überblick über die technische Entwicklungsgeschichte������������������������ 34 2.1.2 Kurze Einführung in die technischen Grundlagen von künstlicher Intelligenz������������������������������������������������������������������������������������������������37 2.2 Philosophie und künstliche Intelligenz������������������������������������������������������������������������������� 40 2.2.1 Die Bedeutung der künstlichen Intelligenz für die Philosophie��������������������������41 2.2.2 Philosophische Diskussionsgeschichte der künstlichen Intelligenz������������������ 66 2.3 Transhumanismus: Die Optimierung des Menschen������������������������������������������������������114 2.3.1 Transhumanismus: Begriff, Autoren, Spielarten��������������������������������������������������114 2.3.2 Hans Moravec: Mind Children�������������������������������������������������������������������������������119 2.3.3 Ray Kurzweil: Menschheit 2.0�������������������������������������������������������������������������������� 124 2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch�������������������������������161 2.4.1 Philosophie und Literatur als Wegbereiter der künstlichen Intelligenz�����������162 2.4.2 Autoren der Philosophiegeschichte und ihre Bedeutung für künstliche Intelligenz und Transhumanismus�����������������������������������������������������175 2.4.3 Die Vergegenständlichung der menschlichen Personalität��������������������������������188 3 Negativität und philosophische Vernunftkritik�����������������������������������������������������������������������195 Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit��������������������������������197 3.1 Negativität und Erkenntnis – Was können wir nicht wissen?��������������������������������������� 209 3.1.1 Grenzen der Erkenntnis�������������������������������������������������������������������������������������������210 3.1.2 Grenzen der Sprache�������������������������������������������������������������������������������������������������219 3.1.3 Grenzen der Wissenschaft�������������������������������������������������������������������������������������� 225 5
3.1.4 3.1.5 3.1.6 3.1.7 3.1.8
Grenzen der Objektivität����������������������������������������������������������������������������������������� 227 Grenzen der Berechenbarkeit��������������������������������������������������������������������������������� 232 Grenzen des Determinismus���������������������������������������������������������������������������������� 238 Grenzen des Reduktionisums: Phänomenologie und Lebenswelt�������������������� 242 Grenzen der Rationalität: Personale Leiblichkeit und menschliche Intelligenz������������������������������������������������������������������������������������������� 245 3.1.9 Fazit: Der Abschied vom geschlossenen Universum������������������������������������������ 246 3.2 Negativität und Moralität – Was sollen wir nicht tun?��������������������������������������������������� 248 3.2.1 Einsicht in Negativität als Grundbedingung von Moralität�������������������������������251 3.2.2 Die Offenheit menschlicher Handlungspraxis�����������������������������������������������������251 3.2.3 Unverfügbarkeit von Handlungsmotiven������������������������������������������������������������� 254 3.2.4 Unsicherheit des Normativen: Abgrenzungen����������������������������������������������������� 257 3.2.5 Sozialität und Unverfügbarkeit: Die Unverfügbarkeit des Anderen���������������� 259 3.2.6 Würde������������������������������������������������������������������������������������������������������������������������� 262 3.2.7 Wissen und Macht: Dialektik der Aufklärung���������������������������������������������������� 263 3.2.8 Michel Foucault: Wissen, Beobachtung und Macht��������������������������������������������276 3.2.9 Von der Utopie zur Dystopie���������������������������������������������������������������������������������� 277 3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?������������������������������������ 286 3.3.1 Transhumanismus als technologische Neoreligiosität��������������������������������������� 287 3.3.2 Transzendenz in Mythologie, Religion und Philosophie����������������������������������� 289 3.3.3 Transhumanismus, künstliche Intelligenz und Transzendenz������������������������� 307 3.4 Negativität und Anthropologie – Was ist der Mensch nicht?�����������������������������������������315 3.4.1 Ist der Mensch eine Maschine?�������������������������������������������������������������������������������315 3.4.2 Künstliche Intelligenz als Potential für die Anthropologie��������������������������������318 3.4.3 Der Mensch zwischen Tier und Maschine������������������������������������������������������������319 3.4.4 Künstliche Intelligenz als Traum absoluter Rationalität������������������������������������ 320 3.4.5 Leiblichkeit���������������������������������������������������������������������������������������������������������������� 323 3.4.6 Der Mensch und sein Du���������������������������������������������������������������������������������������� 325 3.4.7 Die existentielle Unbestimmbarkeit des Menschen als Offenheit und Freiheit��������������������������������������������������������������������������������������������� 326 3.4.8 Der Holismus der menschlichen Person��������������������������������������������������������������� 328 4 Exkurse��������������������������������������������������������������������������������������������������������������������������������������������337 4.1 Künstliche Intelligenz in einer freien Gesellschaft�����������������������������������������������������������337 4.2 Können Maschinen moralisch handeln?��������������������������������������������������������������������������� 360 4.3 Können Maschinen ein Bewusstsein entwickeln?����������������������������������������������������������� 387 4.4 Kann eine Maschine denken?��������������������������������������������������������������������������������������������� 409 6
Literaturverzeichnis�������������������������������������������������������������������������������������������������������������������������� 435 Monographien und Aufsätze in Sammelbänden��������������������������������������������������������������������� 435 Zeitschriften und Artikel������������������������������������������������������������������������������������������������������������� 449 Sonstige������������������������������������������������������������������������������������������������������������������������������������������ 450 Namenregister�������������������������������������������������������������������������������������������������������������������������������������451 Sachregister����������������������������������������������������������������������������������������������������������������������������������������� 455
7
Danksagung Ich bedanke mich bei der Konrad-Adenauer-Stiftung e. V. für das gewährte Promotionsstipendium, welches mir ermöglicht hat, die vorliegende Forschungsarbeit zu schreiben. Ich bedanke mich außerdem bei meinem Betreuer Prof. Dr. Thomas Rentsch, der mit seinen systematischen Perspektiven, seinem vernetzenden Denken und mit seiner wertschätzenden Betreuung wesentlich die Qualität der Arbeit mitgeprägt hat. Ich bedanke mich bei meinen Kommilitonen im Doktorandenseminar, deren Perspektiven auf Fragmente und Zwischenetappen meiner Arbeit immer wieder bereichernd waren. Ich bedanke mich auch bei meiner Zweitgutachterin Prof. Dr. Hanna-Barbara Gerl-Falkovitz, deren fragend-ringendes Philosophieren in mir während meines Studiums die Freude am philosophischen Denken entzündet hatte. Auch danke ich meiner Familie, die mir in den vielen Phasen des zurückgezogenen Arbeitens den Rücken frei gehalten und mich unterstützt hat. Die Arbeit wurde gedruckt mit freundlicher Unterstützung der Geschwister Boehringer Ingelheim Stiftung für Geisteswissenschaften in Ingelheim am Rhein. Die Arbeit wurde außerdem ausgezeichnet mit dem Immanuel-Kant-Förderpreis der Immanuel-Kant-Stfitung Freiburg.
9
1 Einführung in die Thematik 1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz? „Gegenwärtig reicht es aus, die richtigen Fragen zu stellen. Uns bleibt noch etwas Zeit, die Antworten darauf zu finden. Unerbittlich schlägt der Prozess der Veränderung ein immer schärferes Tempo an. Die Begegnung mit der maschinellen Intelligenz, die die menschliche Intelligenz in all ihrer Vielfältigkeit übertreffen wird, ist unausweichlich. Aber noch haben wir die Macht, die Zukunft unserer Technologie zu gestalten – und damit die Zukunft unseres Lebens. Uns deshalb habe ich dieses Buch geschrieben.“ Ray Kurzweil1
Technologie als Selbsterkenntnis Der Mensch will lernen, verstehen, Rätsel lüften. Das Unbekannte zieht ihn an, das Geheimnis und das Unantastbare locken ihn mit unwiderstehlicher Anziehungskraft. Seitdem es den Menschen gibt, strebt er danach, die Natur zu verstehen und zu beherrschen. Technik fasziniert uns. Sie ermöglicht uns, unsere Grenzen zu erweitern und Träume unserer Phantasie zu realisieren. Das letzte und größte Rätsel für den Menschen ist jedoch der Mensch selbst. Hier klingt die Inschrift des Orakels von Delphi nach: „γνῶθι σεαυτόν“2 – „Erkenne dich selbst!“ Was einst ein Ruf zur Selbstbesinnung war, wird heute zum größten Projekt der Technologie. Es geht nicht mehr darum, die eigenen Motive und Beweggründe des Handelns zu erkennen, das Wagnis der Suche nach der eigenen Identität, dem eigenen Herzen und der eigenen Bestimmung auf sich zu nehmen, sondern darum, die letzten Geheimnisse des Menschseins zu enträtseln. Was ist der Mensch? Hat er ein Bewusstsein, einen freien Willen, eine Seele? Was ist das Ich? Was macht den Menschen im Innersten aus? Der Weg der naturwissenschaftlichen Erkenntnis hat uns hier bis zum menschlichen Gehirn geführt – es scheint der letzte Geheimnishüter zu sein. Wenn wir das Gehirn verstehen, verstehen wir alles. Wenn wir das Gehirn Kurzweil, Ray: Die Intelligenz der Evolution. Wenn Mensch und Computer verschmelzen, Köln 2016, S. 388. 2 Giebel, Marion: Das Orakel von Delphi. Geschichte und Texte, Gr. / Lat. / Dt., Stuttgart 2015, S. 48. 1
11
1 Einführung in die Thematik
nachbauen können, dann können wir alles nachbauen: Geist, Seele, Sinn – und Menschen. Dies ist das Spiel: ein neues Spiel um eine Art von Weltherrschaft; vielleicht das letzte Spiel. Der Ernst des Spieles kann nicht hoch genug eingeschätzt werden. Für den Tüftler mag es nur eine neue Form des komplexen Bastelns sein. Doch die technische Neugierde stößt hier an den Kern der menschlichen Identität und bedroht sie in ihrem Wesen, wie sie vielleicht nie zuvor bedroht worden ist. Die zugrundeliegende Idee ist schon lange ein Gedankenspiel von Philosophen und Wissenschaftlern. Doch wir sind inzwischen in einer Zeit angelangt, in der die technologischen Möglichkeiten diese Vision in die Nähe des Machbaren rücken lassen. Und damit kommen wir in die Pflicht, uns zu positionieren. Die Digitalisierung der menschlichen Lebenswelt Digitale Technologie und künstliche Intelligenz gehören schon jetzt zu vielen Bereichen der menschlichen Lebenswelt. Wir gewöhnen uns zunehmend an intelligente Technik in den Lebensbereichen von Arbeit und Freizeit, Terminverwaltung und Kommunikation, Liebe und Sexualität, Politik und Krieg. Automatisierte Produktionsverfahren ersetzen den Fabrikarbeiter, in Japan ergänzen bzw. ersetzen Pflegeroboter die Angestellten im Gesundheitswesen. Viele klassische Aufgaben des Sekretariats werden mittlerweile von digitalen Verwaltungsassistenzprogrammen übernommen oder zumindest erleichtert. Die Welt des Spielens wurde durch künstliche Intelligenz (KI) revolutioniert und individualisiert, in manchen Spielen ist die KI vom Menschen nicht mehr zu schlagen. Die lästige Aufgabe der sexuellen Aufklärung ist längst fest in den Händen der Internetpornographie, Partnerschaftsbörsen sind profitable Unternehmen geworden und für die dennoch ewigen Junggesellen sind bereits erste Sexroboter auf dem Markt, die mit einer lernfähigen künstlichen Intelligenz ausgestattet sind, um sich den sexuellen Vorlieben der Nutzer entsprechend anzupassen. Die umfassende Datenanalyse der politischen Präferenzen von unentschiedenen Wählergruppen hilft Politikern bei der Gestaltung von Parteiprogrammen und Wahlauftritten, dem unentschiedenen Wähler wird mit dem Wahl-o-mat ebenfalls eine digitalisierte Hilfe zur politischen Meinungsbildung in einer medial überfrachteten Informationsgesellschaft bereitgestellt. Autonome Waffensysteme ermöglichen eine neue Art der Kriegführung, die den Soldaten so weit von seinem Gegner isoliert, wie es nie zuvor möglich war, wodurch die Ebenen von Illusion und Realität, Krieg und Spiel verschwimmen. Der Siegeszug der künstlichen Intelligenz Eine Sonderrolle im Rahmen der Digitalisierung nimmt die Entwicklung von künstlicher Intelligenz (KI) ein. Künstliche Intelligenz beschäftigt sich mit dem Nachbau des menschlichen 12
1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz?
Geistes: Was als intelligente Leistung des menschlichen Verstandes gilt, soll nun technisch simuliert werden. Die letzten Jahrzehnte der KI-Forschung waren von rasanten Entwicklungen geprägt. Bald waren Rechenmaschinen in der Lage, besser zu rechnen als Menschen, bald konnte der Mensch im Schachspiel von Computern geschlagen werden. Immer wieder fielen Bollwerke, von denen man meinte, dass sie für immer Domäne menschlicher Intelligenz bleiben würden. Vieles, wovon man dachte, es wäre prinzipiell unmöglich, mit künstlicher Intelligenz eine solche Leistung zu erbringen, wurde letztlich doch realisiert. In welche Bereiche wird die KI-Forschung noch vordringen? Werden Roboter mit künstlicher Intelligenz irgendwann den Menschen in allen Bereichen nachahmen können – und ihn vielleicht sogar überflügeln und damit das Ende der Ära des Menschen auf der Erde einleiten können? Wie groß ist das Potential von KI-Forschung für die technologische Entwicklung? Und wie ernstzunehmend ist die Bedrohung, die von künstlicher Intelligenz für den Menschen ausgeht? Ein Taschenrechner ist kein Mensch. Wenn eine Maschine besser rechnen kann als der Mensch, bedroht sie ihn doch lange noch nicht in seiner Identität. Auch ein Schiff kann besser schwimmen und der Hochsee trotzen als ein Mensch allein, und doch hat die Seefahrt nicht das Ende des Menschen eingeläutet. Was geschieht jedoch, wenn mit neuronalen Netzwerken tatsächlich menschliche Gehirne nachgebaut werden können?3 Menschliche Maschinen Der Konstruktion menschenähnlicher Maschinen geht ein Verständnis des Menschen als Maschine voraus. Wenn der Mensch nur eine komplexe Mechanik ist, dann kann im Umkehrschluss eine ähnlich komplexe Mechanik ebenso als menschlich gelten. Wenn Bewusstsein und psychisches Erleben ein eher zufälliges Beiprodukt hochkomplexer deterministischer Rechenprozesse im Gehirn sind, dann kann im Folgeschluss nicht ausgeschlossen werden, dass auch eine hochentwickelte künstliche Intelligenz eine Art Bewusstsein, Autonomie, Personalität entwickeln wird. Werden wir einem sprachfähigen, intelligenten Roboter eine Personalität oder Seele, einen freien Willen und eine Würde zuschreiben? Wenn ja, dürfen wir sie dann noch wie Sklaven halten – oder müssen wir sie als mündige Bürger und Rechtssubjekte in eine politische Gesellschaft integrieren? Wie verändert sich dadurch unser Verhältnis zur Technik und zu uns selbst? Transhumanisten wie Ray Kurzweil gehen davon aus, dass der Mensch durch künstliche
3
Vgl. Ray Kurzweil: How to Create a Mind. The Secret of Human Thought Revealed, New York–London 2012.
13
1 Einführung in die Thematik
Intelligenz „ernsthafte Konkurrenz“ in seiner biologischen Nische im evolutionären Artenkampf bekommen kann.4 Tote Materie zur Simulation von menschlichen Geistestätigkeiten bringen zu können, ist als Schritt der technischen Verfügbarmachung der Natur anscheinend etwas tatsächlich Neues in der Geschichte der Menschheit. An dieser Stelle der technologischen Entwicklung ist der Mensch mit seinem gesamten Weltbild herausgefordert, um Stellung zu beziehen: Was ist eigentlich eine künstliche Intelligenz? Was ist eine vom Menschen gebaute Maschine, deren Rechenleistungen immer mehr Aspekte menschlicher Intelligenz nachbilden kann? Und was ist eigentlich der Mensch? Über Jahrtausende definierte sich der Mensch durch seine Abgrenzung von der Tierwelt: Der Mensch sei ein denkendes, logisches, sprachfähiges, rationales Wesen und als einziges Lebewesen von der bloß triebhaften Tierwelt durch seine Fähigkeit zum logischen Denken unterschieden. Zeitweise wurden Tiere genau deshalb als bloße Maschinen beschrieben, weil ihnen eben diese Fähigkeit, durch die Tätigkeit des Geistes sich über das Triebhafte zu erheben, fehlen würde. Die Optimierung des Menschen Nun hat der Mensch inzwischen mit der künstlichen Intelligenz etwas geschaffen, was dem alten Ideal des genuin Menschlichen zu entsprechen scheint: eine reine Rationalität, nicht getrübt durch Affekte, Leiblichkeit, Ängste, Triebe oder Sterblichkeit – das, wohin bereits seit den Vorsokratikern die Seele des Menschen sich erheben solle. Die Logik als das, was als Differenz zu den bloßen Tier-Maschinen dem Menschen als einzigartige Gabe zugeschrieben wurde, wird nun selbst zum Bauplan einer Maschine. Wenn das Logische gegenüber dem Affektiven als höhere Seinsqualität gekennzeichnet wird, stellt sich unausweichlich die Frage, ob diese vom Menschen geschaffene reine, emotionslose Rationalität nun gar „menschlicher“ als der Mensch sei? Ist künstliche Intelligenz als Reinform der Rationalität vielleicht das Beste vom Menschen, sozusagen ein Extrakt seiner höchsten Qualität und damit etwas, das die Größe des Menschen noch übersteigen kann – etwas, das über den Menschen hinausgeht, etwas, das mit den Worten Nietzsches „den Menschen überwinden“ kann?5
4
5
„Wie bereits erwähnt, waren bereits andere Arten und Unterarten von Hominiden zur Innovation fähig, doch bot die Nische offenbar nur einem Konkurrenten zum Überleben Platz. Im 21. Jahrhundert werden wir diese exklusive Nische allerdings teilen müssen: mit unseren Maschinen.“ (Ray Kurzweil: Die Intelligenz der Evolution. Wenn Mensch und Computer verschmelzen, Köln 2016, S. 66.) „Der Mensch ist etwas, das überwunden werden soll. Was habt ihr getan, ihn zu überwinden? Alle Wesen bisher schufen etwas über sich hinaus: und ihr wollt die Ebbe dieser großen Flut sein und lieber noch zum Tiere zurückgehn, als den Menschen überwinden?“ Nietzsche, Friedrich: Also sprach
14
1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz?
Sowohl der Mensch als auch die Entwicklung der Technik erweisen sich dann als bloße Zwischenschritte einer Evolution, die zu etwas noch Höherem strebt: dass toter Materie Geist eingehaucht wird, dass eine autonome Technologie das Beste des Menschen weiterträgt und als nächste Stufe der Evolution das Universum in seine weitere Höherentwicklung geleitet. In diesem Sinne skizziert Ray Kurzweil den Zusammenhang zwischen den technologischen Entwicklungen der künstlichen Intelligenz und den evolutionären Prozessen der Höherentwicklung: „Die natürliche Auslese schuf den Menschen, der Mensch erschuf die Technik, Mensch und Technik arbeiten nun zusammen an der nächsten technologischen Generation. In der Singularität wird zwischen Mensch und Technik keine Trennung mehr bestehen – nicht weil Menschen zu Maschinen werden, sondern weil Maschinen wie Menschen (und noch viel mehr) werden.“6
Kurzweil ist als „Director of Engineering“ bei Google Leiter der technischen Entwicklung. Er gilt als einer der wichtigsten Vordenker des „Transhumanismus“, einer Strömung, die in den Fortschritten der Technologie die Chance sieht, nahezu alle Unzulänglichkeiten und Probleme des Menschen zu überwinden. Transhumanistische Entwürfe stützen sich dabei auf die Tradition empiristischer Wissenschaftlichkeit: Alles, was ist, kann vermessen, quantifiziert, formalisiert werden und somit in den Bereich menschlicher Gestaltungshoheit kommen – was man versteht, kann man kontrollieren, gestalten, beherrschen. Der Mensch kann die Natur mit Wissenschaft und Technik nach seinem eigenen Willen formen und zu seinem eigenen Nutzen ausbeuten. Systematisch haben Horkheimer und Adorno in der Dialektik der Aufklärung herausgearbeitet, wie der Wissensanspruch der Aufklärung verwoben ist mit einem Herrschaftsanspruch über die Natur: „Das Wissen, das Macht ist, kennt keine Schranken, weder in der Versklavung der Kreatur noch in der Willfährigkeit gegen die Herren der Welt.“7 Indem der Mensch sich selbst als Teil der Natur erkennt, weitet sich der Herrschaftsanspruch des Menschen durch das Wissen auch auf den Menschen selbst aus. Im Transhumanismus zeigt sich dies besonders durch technologisches Enhancement, als Verbesserung des Menschen durch Technologie. Der Mensch erlebt sich selbst als defizitär durch Krankheit, Schwäche, Leiden, moralische Fehlbarkeit und Sterblichkeit. Durch Wissenschaft und Technologie kann und soll der Mensch diese Defizite überwinden. Quantifizierung Zarathustra, in: Ders.: Werke in sechs Bänden. Dritter Band, München / Wien 1980, S. 275–561, dort S. 279. 6 Ray Kurzweil: The Singularity is near. When humans transcend biology (2005), dt. von Martin Rötzschke: Menschheit 2.0, Berlin 2014, S. 41. 7 Max Horkheimer und Theodor W. Adorno: Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt am Main 1990, S. 10.
15
1 Einführung in die Thematik
und Optimierung können damit für eine Beschreibung des Transhumanismus als wesentliche Grundzüge herausgestellt werden: Wissenschaftliche Erkenntnis ermöglicht die vollständige Quantifizierung alles Bestehenden und die wachsenden technologischen Möglichkeiten führen zu unbegrenzten Potentialen zur Verbesserung, letztlich zu einer totalen Optimierung des Menschen. Transhumanismus – wenn Mensch und Technologie verschmelzen Die Verschmelzung von Mensch und Technik gehört nicht der Zukunft, sondern bereits der Gegenwart an. Die Natur des Menschen ist, dass er ein kultur- und technikfähiges Wesen ist. Er strebt danach, seine Umgebung umzuformen und nur eine von ihm gestaltete Welt zu seiner Heimat werden zu lassen. Den Ackerpflug und die vollautomatische Sämaschine unterscheidet vor allem ihr Grad an technischer Komplexität. Sowohl der Werkzeuggebrauch als auch die Welt des Digitalen gehören zur Lebenswelt des Menschen. Ein großer Anteil der Bürger auf diesem Planeten lässt seinen Alltag, seine Kommunikation, seinen Umgang mit Wissen, persönlichen Daten und vieles andere mehr bereits in einem starken Maß von Geräten mitgestalten, die von den marktführenden IT-Unternehmen vermarktet werden. In der Führungsebene dieser Konzerne ist das Gedankengut des Transhumanismus tief verwurzelt. Zu den einflussreichsten erklärten Transhumanisten gehört Ray Kurzweil, Director of Engineering bei Google, dessen Veröffentlichungen und Argumentationen in der vorliegenden Arbeit analysiert werden. Die Transformation der menschlichen Lebenswelt durch Technik und Digitalisierung ist erklärtes Ziel und Motor des Transhumanismus. Viele Veränderungen sind bereits gekommen, weitere werden kommen. Der Nachbau des menschlichen Geistes und die Imitation menschlicher Personalität ist für manche Forscher und Techniker nur ein Schritt auf dem Weg in eine bessere Zukunft. Manche Vertreter des Transhumanismus sind davon überzeugt, dass der Mensch überwunden werden muss; nicht im Sinne von moralischer Selbstüberwindung, sondern im Sinne des Abschieds vom Organischen als einziger Grundlage des Lebendigen. Verheißen wird das Ende von Krankheit, Altern und Tod. Der Mensch soll nicht mehr in seinen körperlichen Grenzen gefangen sein. Nicht selten benutzen Transhumanisten dafür selbst den Begriff der „Transzendenz“.8 Der Mensch soll auf eine höhere Stufe der Existenz gelangen, mit der die Leiblichkeit und Biologie des Menschen überwunden werden soll. Umfassende Verschmelzung von Mensch und Maschine, die Ununterscheidbarkeit von Mensch und Maschine, das Weiterleben des Menschen als Maschine durch einen Upload des Gehirns auf eine neue 8
Vgl. Kurzweil, Ray and Grossmann, Terry: Transcend. Nine Steps to Living Well forever, New York 2009.
16
1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz?
maschinelle Grundlage sollen so zur Unsterblichkeit des Menschen führen und dazu, dass irgendwann unser Bewusstsein ebenso wie das Internet die Grenzen von Raum und Zeit überschreitet. Die Überwindung des Menschen durch die Technik ist eine Fortführung und Zuspitzung der radikalen Aufklärung unter der Vorgabe eines naturwissenschaftlichen Materialismus. Wenn der menschliche Verstand imstande ist, alles, was es gibt, zu begreifen und wenn er sein Wissen nutzt, um damit Macht über die Natur zu erlangen und um sie nach seinem Willen zu beherrschen und zu formen, dann wird der Mensch letztlich Opfer seines eigenen Antriebs, die Natur zu entschlüsseln und für einen instrumentellen Zugriff verfügbar zu machen. Da man mit der strengen Naturwissenschaft Abschied vom Religiösen und Metaphysischen genommen hat, ist menschliche Personalität nicht mehr von einer gottgegebenen Seele her definiert, sondern von biochemischen Gehirnstrukturen, die simuliert und vielleicht sogar nachgebaut werden können. Menschliche Personalität ist dann nichts Unverfügbares mehr, sondern gehört zu den Dingen, die mithilfe neuester Technologie ebenso optimiert werden können wie die Beschleunigungsgeschwindigkeit eines Autos oder die Klimawerte unserer Atmosphäre. Warum sollte es für den restlos aufklärerischen Verstand eine Grenze geben, vor der er plötzlich zurückscheut? Warum sollte ausgerechnet dann, wenn er wirklich den Kern des eigenen Selbst berühren und verändern kann, der Mensch sich davon enthalten, seine Macht über die Natur auszuüben? Dass der Mensch sich mithilfe von Technik die Natur verfügbar macht, ist nicht neu. Seitdem es menschliche Kulturen gibt, haben Menschen z. B. durch Werkzeug- und Waffengebrauch die Bedrohungen der Natur gezähmt. Dass der Mensch mithilfe von Technik seine Herrschaft über die Natur ausweiten will, scheint im Wesen des Menschen angelegt zu sein. Neu am Transhumanismus ist allerdings die Bereitschaft des Menschen, sich am Ende selbst von der Technik, die er geschaffen hat, unterwerfen zu lassen. So schreibt Hans Moravec, ein Vorreiter in der Entwicklung von Robotern: „Sie können unsere Existenz relativ schnell auslöschen. Diese letztgenannte Möglichkeit beunruhigt mich nicht wie viele andere, weil ich diese Zukunftsmaschinen als unsere Nachkommen betrachte, ‚Kinder im Geiste‘, gebaut nach unserem Bild und Ton, wir selbst in leistungsfähigerer Form. Wie die biologischen Kinder vorhergehender Generationen verkörperten sie die beste Hoffnung der Menschheit auf eine langfristige Zukunft. Um ihretwillen sollten wir ihnen jeden Vorteil verschaffen und uns verabschieden, wenn wir nicht mehr dazu beitragen können.“9 Moravec, Hans P.: Robot: Mere Machine to Transcend Mind, Oxford 2000, zit. nach Russell und Norvig 2004, S. 1169.
9
17
1 Einführung in die Thematik
Nicht alle transhumanistischen Entwürfe skizzieren die unausweichliche Auslöschung der Menschheit in derart behaglichem Tonfall. Andere Stimmen hoffen stattdessen auf ein friedliches Zusammenleben von Mensch und Maschine, weil jene uns doch als ihre biologischen Vorfahren ehren würden.10 Doch auch dann ist nicht von der Hand zu weisen, dass eine Verschmelzung von Mensch und Maschine und eine Ausweitung von künstlicher Intelligenz und Roboterautonomie das natürliche organisch-leibliche Menschsein als grundlegende Daseinsform des Menschen verdrängen würde. Transhumanisten charakterisieren die kommenden Veränderungen durch künstliche Intelligenz nicht als bloße Fortsetzung menschlicher Kultur und Technik, sondern als eine neue Stufe von Intelligenz, als nächsten Schritt der Evolution. Transhumanismus und Transzendenz Die Grenzen des Menschen, die unüberwindlich schienen, können nun offenbar durchbrochen werden. Der Leib als Begrenzung der menschlichen Wahrnehmungs- und Handlungsmöglichkeiten in Raum und Zeit soll durch eine digitale Vernetzung und durch einen Zugriff auf sämtliches Wissen aller Zeiten überwunden werden. Durch genetische Optimierung und medizinische Nanotechnik sollen Alterungsprozesse aufgehoben werden. Wenn die Grenze des Todes nicht mehr weiter hinausgeschoben werden kann, so könne letztlich mithilfe eines umfassenden Gehirn-Scans und Gehirn-Uploads auf eine postbiotische Plattform das Bewusstsein und die Persönlichkeit hochgeladen werden. Der Tod wäre besiegt, Unsterblichkeit wäre technologisch realisierbar. Postbiotische Intelligenzen könnten sogar das Böse des Menschen überwinden, denn sie müssten nicht aus Egoismus, Selbsterhaltungstrieb oder Angst heraus handeln, wie es der Mensch, wenn man den Erklärungsmodellen der Evolutionstheorie folgt, im Artenkampf erlernen musste. Roboter könnten die „besseren Menschen“ wären, ihnen könnte die Essenz dessen eingebaut werden, was des Menschen Größe auszeichnet, während die Dimensionen des Bösen, die Abgründe des Menschseins herausgefiltert werden könnten: „Ich sehe diese Maschinen als unsere Nachkommen. Im Augenblick glaubt man das kaum, weil sie eben nur so intelligent sind wie Insekten. Aber mit der Zeit werden wir das große Potential erkennen, das in ihnen steckt. Und wir werden unsere neuen Roboterkinder gern haben, denn sie werden angenehmer sein als Menschen. Man muß ja nicht all die negativen menschlichen Eigenschaften, die es seit der Steinzeit gibt, in diese Maschinen einbauen. Damals waren diese Eigenschaften für den Menschen wichtig. Aggressionen etwa brauchte er, um zu überleben. Heute, in unseren großen zivilisierten So Ray Kurzweil in Menschheit 2.0, a. a. O., S. 33. Es bliebe in diesem Fall zu hoffen, dass künstliche Intelligenzen auch den Artenschutz artgerechter gestalten, als wir es derzeit tun.
10
18
1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz? Gesellschaften machen diese Instinkte keinen Sinn mehr. Diese Dinge kann man einfach weglassen – genauso wie den Wesenszug der Menschen, daß sie ihr Leben auf Kosten anderer sichern wollen. Ein Roboter hat das alles nicht. Er ist ein reines Geschöpf unserer Kultur und sein Erfolg hängt davon ab, wie diese Kultur sich weiterentwickelt. Er wird sich also sehr viel besser eingliedern als viele Menschen das tun. Wir werden sie also mögen und wir werden uns mit ihnen identifizieren. Wir werden sie als Kinder annehmen – als Kinder, die nicht durch unsere Gene geprägt sind, sondern die wir mit unseren Händen und mit unserem Geist gebaut haben.“11
Wenn alles Bestehende sich in seiner physikalistischen Beschreibung erschöpft, dann ist der Mensch nicht mehr als eine komplexe Maschine, deren materielle Substanz in ihrer Komplexität das „Wunder“ des Bewusstseins und autonomen Geistes hervorbrachte. Wenn Seele und Geist sich letztlich doch restlos auf Materielles zurückführen lassen kann, dann ist schwer plausibel zu begründen, warum es unmöglich sein sollte, in von Menschen geschaffener Materie so etwas wie Geist, seelisches Leben, Bewusstsein und Willen zu erschaffen. Kurz: Wenn Menschen im Grunde nur komplexe Maschinen sind, dann sind komplexe Maschinen im Umkehrschluss wie Menschen. Transhumanistische Entwürfe folgen damit der Logik der wissenschaftlichen Aufklärung, indem sie die vollständige Objektivierung, Quantifizierung und Formalisierung der Welt anstreben. Auch das Ausweiten des Herrschaftsanspruchs über die Natur und das Anliegen, mithilfe von Technik die Zukunft des Menschen selbst zu gestalten und zu verbessern, knüpft an die Anliegen der Aufklärung an. Transhumanistische Utopien bleiben jedoch nicht bei der Umsetzung aufklärerischer Ideale stehen. Im Ziel, alle Grenzen des Menschen zu überschreiten, zeichnen sich Hoffnungen religiösen Charakters ab. Allgegenwart, Allwissenheit, Unsterblichkeit, Allmacht, Unendlichkeit – die klassischen Attribute eines monotheistischen Gottes sollen nun für den Menschen technisch realisierbar werden. Was in einer religiösen Sprache als transzendente Dimension skizziert wird, kann nun praktisch eingelöst werden. Der Machtanspruch des Menschen über die Natur spitzt sich zu: zum Machtanspruch über Natur und Mensch, über Transzendenz und Gott. Der Macht des technologischen Fortschritts entzieht sich weder der Mensch noch das Göttliche. In aller Prägnanz wird dieser Anspruch deutlich, wenn Ray Kurzweil äußert: „Existiert Gott? Ich würde sagen: Noch nicht.“12
Hans Moravec: Computer übernehmen die Macht: Vom Siegeszug der künstlichen Intelligenz, Hamburg 1999, S. 136. 12 John Rennie: The Immortal Ambitions of Ray Kurzweil: A Review of Transcendent Man; in: Scientific American; February 15, 2011. 11
19
1 Einführung in die Thematik
Transhumanismus als neue Religiosität Wenn die Vertreter des Transhumanismus Recht behalten, dann kann der Mensch selbst zum Schöpfer und Überwinder des Menschen werden. Was einst nur einem Schöpfergott (oder mehreren) zugeschrieben wurde, dazu erhebt sich der technologisch hochgerüstete Mensch nun selbst. Religionen konnten das Versprechen des ewigen Lebens nie empirisch einlösen. Der Transhumanismus will die Versprechen der Religion sichtbar, greifbar und käuflich erwerbbar werden lassen. In den Verheißungen zeichnen sich Erlösungsansprüche an eine Menschheit ab, die noch am mangelhaften organischen Leben haftet. Krankheit, Tod und das Böse sollen überwunden werden, wenn Intelligenz nicht auf dem egoistischen Überlebensvorteil, wie die Evolutionsbiologie es lehrt, sondern auf altruistischen Modellen gegründet ist, wenn mit Nanotechnik das menschliche Immunsystem unterstützt und der natürliche Alterungsprozess des Menschen aufgehalten werden kann. Wenn die Datenmenge, aus welcher sich das menschliche Bewusstsein speist, mit dem Internet verbunden wird, so erhebt sich menschliche Intelligenz über Raum und Zeit, sprengt den existenziellen Rahmen der sterblichen Leiblichkeit. Obwohl in der Traditionslinie einer radikalen Aufklärung stehend, die das Mythologische vom Empirischen ablösen will, schleichen sich so in die technologischen Utopien unserer Zeit die alten, totgeglaubten Sehnsüchte von Religion und Platonismus wieder durch die Hintertür ein und werden zum eigentlichen normativen Antrieb einer technologischen Vision. Der Transhumanismus kippt an dieser Stelle und wird zu einer neuen Form von Religiosität. Bereits Nietzsche hatte vorausgezeichnet, dass sich in der Strenge des wissenschaftlichen Positivismus noch ein religiöser Keim verbirgt.13 In einer nie dagewesenen Konsequenz den Prinzipien eines wissenschaftlichen Objektivismus und einem materialistisch-physikalistischen Reduktionismus folgend, erweisen sich schließlich religiöse Sehnsüchte als letzte Motivationsantriebe des Transhumanismus. Die Bemerkung von Adorno und Horkheimer, dass Aufklärung in Mythologie zurückschlägt,14 findet hier eine bemerkenswert deutliche Ausformulierung. Die Aufklärung begann mit dem Ende des Geheimnisses. Jede Dimension, die in irgendeiner Weise als unverfügbar aufgefasst worden war, galt als zu entlarvender Mythos. Geheimnisse
„[J]enes ungestüme Verlangen nach Gewissheit, welches sich heute in breiten Massen wissenschaftlich-positivistisch entladet, das Verlangen, durchaus etwas fest haben zu wollen […]; auch das ist noch das Verlangen nach Halt, Stütze, kurz jener Instinkt der Schwäche, welcher Religionen, Metaphysiken, Überzeugungen aller Art zwar nicht schafft, aber – konserviert.“ (F. Nietzsche: Die fröhliche Wissenschaft, 5. Buch, Abschnitt 347, in: Ders.: Werke in sechs Bänden. Dritter Band, München– Wien 1980, S. 7–274, dort S. 212 [§347].) 14 Horkheimer, Max und Adorno, Theodor W.: Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt am Main 1990, S. 33. 13
20
1.1 Problemaufriss: Warum beschäftigt uns künstliche Intelligenz?
wurden zu Rätseln und eine Welle von Entmythologisierung und Entsakralisierung wogte über Natur, Mensch und Göttliches. Durch die empirische Forschungsmethode sollte alles Vorhandene vermessen, quantifiziert und formalisiert werden. Was sich der Quantifizierung entzog, galt fortan als unwirklich. Wer die Natur versteht, kann sie gestalten. Wer sämtliche Gesetze und Abläufe der Natur kennt, kann diese auch nach seinem eigenen Willen formen. Wissen über die Natur bedeutet Herrschaft über sie. Bereits für den Aufklärer Francis Bacon „fallen jene Zwillingsziele, die menschliche Wissenschaft und Macht, zusammen.“15 Im aufklärerischen Positivismus sind die „Wege zur Macht und zur menschlichen Wissenschaft aufs engste miteinander verbunden und fast gleich“.16 Die gesamte Natur soll dem empiristisch-technologischen Zugriff des Menschen unterworfen werden. Nichts kann sich letztlich dem Herrschaftsanspruch der Wissenschaft und Technik entziehen. Die aufgeklärte Vernunft verwaltet „herrschaftlich, göttlich-souverän das All, und umgekehrt: mit dem All sich selbst. Es bleibt kein Rest, der sich verweigerte oder in ein ‚Ding an sich‘ entzöge: die Einholung durch die Vernunft ist absolut.“17 Dazu gehört auch der Mensch selbst. Nur konsequent ist der Gedankengang, dass auch im Menschen kein metaphysischer Rest sich befinden könne, der ihn gegenüber der übrigen Materie auszeichnen würde. Die Personalität des Menschen kann daher nicht mehr mit einer aus dem Göttlichen stammenden Seele begründet werden. Die Seele als Geheimnis der menschlichen Personalität und als Relikt des Unendlichen in einer Welt der sich wandelnden Dinge, wie sie noch in der Antike verstanden wurde, bleibt von der Entsakralisierung und Enträtselung der empiristischen Wissenschaftlichkeit nicht verschont. Immer deutlicher tritt in philosophischen Entwürfen hervor, dass für eine transzendente Seele in einer wissenschaftlich aufgeklärten Welt kein Raum bleiben kann. In einer Welt, die restlos von einem mechanistischen Determinismus bestimmt wird, ist auch der Mensch letztlich nur eine Maschine, wie Julien Offray de la Mettrie bereits 1748, damals noch ketzerisch, formulierte.18 Die Seele ist offenbar selbst nur eine körperliche Erscheinung, etwas Dinghaftes. Was einst den Gegensatz zum Körperlichen bezeichnen sollte, muss nun selbst sich in die quantifizierbare Welt einfügen. Die Seele wird verdinglicht. Mit der Psychoanalyse wird dabei die seelische Dimension des Menschen erstmals objektiviert. Im Individuellen wird das Allgemeine gesucht. Die Psychoanalyse kann jedoch dem Anspruch an wissenschaftliche Verfügbarmachung der Welt nicht genügen, wenn neben der
17 18 15 16
Francis Bacon: Das neue Organon (Novum Organon), Berlin 1982, S. 31f. Ebd., S. 141. Hanna-Barbara Gerl: Einführung in die Philosophie der Renaissance, Darmstadt 1989, S. 179. De La Mettrie, Julien Offray: L’homme machine. Die Maschine Mensch, französisch-deutsch, hg. v. Claudia Becker, Hamburg 1990.
21
1 Einführung in die Thematik
objektiven Beschreibung auch das subjektive Erleben unhintergehbare Bedingung für Erklärungen des Psychischen bleiben soll. Erst wenn das „Unbewusste“ nicht mehr eine grundsätzlich entzogene Dimension menschlicher Personalität bleibt, sondern wenn diese in einer mathematischen Sprache exakt wiedergegeben werden kann, fällt die Seele unter den Zugriff der empiristischen Wissenschaftlichkeit. Dies geschieht mit der biologischen Psychologie und in den Neurowissenschaften: Organ der Seele und des Geistes ist dort letztlich das Gehirn. Das messbare Geschehen im Gehirn bestimmt das individuelle Erleben. Demnach ist auch die Seele endlich quantifizierbar: Wenn auch das subjektive Erleben sich einer unmittelbaren Quantifizierung entzieht, so ist doch das körperliche Geschehen, das diesem zugrunde liegt, messbar, quantifizierbar, formalisierbar und damit dem Zugriff der wissenschaftlichen Rationalität und technischen Instrumentalität erschlossen. An dieser Stelle knüpft die Informatik an: Wenn die seelisch-geistigen Fähigkeiten eines Menschen sich in ihren materiellen Vorgängen erschöpfen und umfassend beschreiben lassen, so liefern diese Erkenntnisse ja bereits die Grundzüge für den Bauplan einer denkenden Maschine, die vom Menschen selbst gebaut werden kann. Wenn alle Prozesse des menschlichen Denkens quantifiziert und formalisiert werden können und wenn der Bauplan des menschlichen Gehirns immer detaillierter bekannt wird, so führen diese Kenntnisse gemeinsam mit den wachsenden technologischen Fähigkeiten zwangsläufig dazu, dass wir selbst in der Lage sein werden, geistbegabte, bzw. beseelte Wesen zu erschaffen. Geist und Seele des Menschen sind nicht mehr Hinweis auf einen höheren Sinnhorizont des Menschen, sondern eine Inspiration für Ingenieure.19 Als letzter Kern personaler Unverfügbarkeit des Menschen ist die Seele damit radikal verdinglicht worden. Die Entwicklungslinie ihres Begriffs ist kennzeichnend für den zunehmenden Prozess der Objektivierung, Quantifizierung und Formalisierung in der empiristischen Wissenschaftlichkeit. Die unauflösbare Verwobenheit von Wissen und Machtanspruch macht auch den Menschen restlos verfügbar für die Umgestaltung durch die instrumentelle Rationalität der aufklärerischen Vernunft. Auch die Seele als geheimnisvoller, privater Rest individueller Personalität soll sich nun als entwirrbares Rätsel erweisen, das gelöst und analytisch erschlossen werden kann. Die gewonnenen Erkenntnisse liefern die Bausteine für die Rekonstruktion menschlicher Personalität. Wenn alle Dimensionen des seelisch-geistigen Lebens des Menschen, alle Aspekte seiner Intelligenz, Personalität, Emotionalität und Individualität restlos unter den Zugriff der instrumentellen Wissenschaft und Technikrationalität fallen, dann ist die Überwindung des Menschen eingeleitet. An ihrem Beginn steht die Optimierung des Menschen: Alles Defizitäre wird Anlass 19
Vgl. Ray Kurzweil: How to Create a Mind. The Secret of Human Thought Revealed, New York–London 2012.
22
1.2 Zielstellung, Struktur und Aufbau der Arbeit
zu einer Verbesserung und zur Erweiterung seiner Fähigkeiten und Möglichkeiten. Seine Grenzen sind nicht mehr Wegzeichen der Transzendenz, sondern Kennzeichen seiner Defizite. Diese können und müssen technologisch überwunden, als Probleme gelöst werden. Möglich ist dies nur durch eine Verschmelzung von Mensch und Maschine. Eine Vernetzung des menschlichen Gehirns mit Wissensdatenbanken und anderen Individuen scheint die Grenze räumlich-zeitlicher Existenz zu übersteigen. Virtuelle Realitäten deuten Möglichkeiten zu einer hedonistischen Selbstverwirklichung jenseits von sozialen Notwendigkeiten und Einschränkungen durch gesellschaftliche Normativität an. Die Steigerung der menschlichen Leistungsfähigkeit scheint schier unermesslich, wenn Menschen bereit sind, ihre biologischen Begrenzungen durch technologisches Enhancement hinter sich zu lassen und mehr und mehr zu Cyborgs zu werden. Die Stringenz des Gedankengangs grenzenloser Optimierung führt über die Verschmelzung von Mensch und Technologie bis hin zu der plausiblen Schlussfolgerung der Abschaffung des organischen Lebens. Das Problem des Todes kann ebenso wie das Problem der Begrenztheit des Menschen durch den Leib nur mit der vollständigen Loslösung der menschlichen Personalität von seinem Leib realisiert werden. Eine rein quantifizierende Ethik könnte als logische Konsequenz in der Auslöschung des organischen Lebens eine radikale, aber effiziente Lösung des Problems menschlichen Leidens sehen. Es gibt zumindest keinen anderen Weg, um die Möglichkeit des Leidens komplett auszuschließen. Wenn in der Optimierung des Menschen sämtliche Grenzen abgeschafft werden sollen, dann droht die Überwindung, bzw. Abschaffung des Menschen. Der Mensch wäre überwunden und in eine höhere, rationalere Seinsform übergegangen. Die wissenschaftlich-technologische Sprache ist damit fließend in eine technoreligiöse Heilserwartung übergegangen. Technologie soll zur Erlösung der Menschheit führen. Die vollends quantifizierte Seele kann wieder unsterblich werden. Nach einer rein materialistisch-funktionalistischen Deutung der Seele und nach dem Projekt ihrer technischen Nachbildung in der Form von künstlicher Intelligenz erscheint mit einer restlosen Überführung der individuellen Personalität des Menschen in eine technische Form wieder eine Dimension transzendenter Hoffnung nach Unsterblichkeit, von der man sich einst befreien wollte.
1.2 Zielstellung, Struktur und Aufbau der Arbeit 1.2.1 Zielstellung der Arbeit Die philosophische und gesellschaftliche Diskussion über Computertechnologien mit künstlicher Intelligenz ist von Grundannahmen geprägt, die inzwischen als überholt gelten. Hierzu 23
1 Einführung in die Thematik
zählt die Annahme einer vollständigen mathematischen Modellierbarkeit der Welt, die Möglichkeit einer mechanistisch-deterministischen Beschreibung des Universums, ein Maschinenbild des Lebens und des Menschen sowie eine Computermetapher des menschlichen Geistes. Transhumanistische Autoren führen diese Grundannahmen fort und spitzen sie zu. Erkenntnistheoretisch gründen sie auf einer positivistisch-simplifizierten Abbildtheorie der Welt. Normativ rekurrieren sie auf die Bestimmungen von Sozialdarwinismus und marktökonomischem Wettbewerb und leiten daraus einen Imperativ zur totalen Optimierung des Menschen ab. In ihrem Geltungsanspruch zeigen sich neoreligiöse Motive, mit denen die Ebene der Transzendenz nunmehr durch technologische Rekonstruktionen verfügbar gemacht werden soll. Der Mensch erweist sich als dysfunktionale Maschine, als Prototyp. Obwohl transhumanistische Deutungen und Entwürfe nicht als Common Sense in der gegenwärtigen Interpretation von Computertechnologie gelten können, schwingen viele Grundannahmen und Deutungen transhumanistischer Autoren in der Gegenwartsdiskussion mit. In der philosophischen Vernunftkritik wurden aus vielfältigen Perspektiven diese Grundannahmen jedoch längst kritisch hinterfragt. Diese Einsichten in sinnkonstitutive Grenzen des Menschen sind in der philosophischen Diskussion zu KI und Transhumanismus aber bisher kaum rezipiert worden. Die vorliegende Arbeit versucht, diese Lücke zu schließen.
1.2.2 Inhaltliche Struktur und Aufbau der Arbeit Nachdem im ersten Kapitel als Einleitungskapitel die Argumentationsstruktur der Arbeit skizziert wurde, wird im zweiten Kapitel die deskriptive Bearbeitung von künstlicher Intelligenz und Transhumanismus in den Mittelpunkt der philosophischen Analyse gestellt. Im Kapitel 2.1 werden für Leser ohne Vorkenntnisse der Informatik technische Grundlagen vorgestellt. Ziel dieses Kapitels ist es, ein Grundverständnis für die informationstechnischen Strukturen von künstlicher Intelligenz zu vermitteln und einen Abriss über die Geschichte der technischen Entwicklungen der Computertechnologie mit künstlicher Intelligenz zu geben. Im Kapitel 2.2 folgt eine systematische Darstellung des Verhältnisses von Philosophie und künstlicher Intelligenz. Die Problematiken, die sich in der Diskussionsgeschichte um den Begriff der künstlichen Intelligenz herausgebildet haben, erweisen sich als ausgesprochen vielschichtig und komplex. Sie berühren fast alle Ebenen philosophischer Reflexion, die nicht alle gleichermaßen in der vorliegenden Arbeit diskutiert werden können. Um die Argumentationslinie der Arbeit in den Kontext der philosophischen Diskussion einzubetten, wird in einem Überblick skizziert, inwieweit Computertechnologien mit künstlicher Intelligenz für philosophische Fragestellungen 24
1.2 Zielstellung, Struktur und Aufbau der Arbeit
relevant sind und welche Grundfragen der verschiedenen philosophischen Disziplinen durch sie berührt werden (Kap. 2.2.1). Anschließend erfolgt eine Darstellung der expliziten philosophischen Diskussionsgeschichte der künstlichen Intelligenz (Kap. 2.2.2). Wichtige Texte, Argumentationen und philosophische Diskussionen aus der Frühphase der Entwicklung von Computertechnologie und künstlicher Intelligenz geben einen Einblick in die klassische Diskussionsgeschichte zum Begriff der künstlichen Intelligenz bis hin zur Gegenwartsliteratur.20 Bereits die Frühphase der Diskussionsgeschichte um Computertechnologien und künstliche Intelligenz war geprägt von dem Vergleich zwischen Mensch und Maschine. Die These ihrer Ineinssetzung spitzt sich letztlich bei Autoren des Transhumanismus zu. Die Darstellung transhumanistischer Entwürfe und Argumentationen erfolgt daher im Kapitel 2.3. Der Imperativ, alle verfügbaren Technologien zur Optimierung des Menschen zu nutzen, fußt auf einer umfassend positivistischen Weltdeutung, welche auch Werte noch quantitativ erfassen will. Der Transhumanismus stellt mit seinem Optimierungsanspruch eine spezielle Form der Zuspitzung eines positivistisch-instrumentellen Weltzugangs dar, welcher mithilfe von künstlicher Intelligenz die biologisch-organischen Grundlagen des Menschen in eine neue Seinsform übergehen lassen will. In seinen Ansprüchen schwingen dabei platonische, bzw. religiöse Motive von Unsterblichkeit, Allwissenheit und der Überwindung der leiblichen Grenzen des Menschen mit. Anhand dieser Motive können transhumanistische Entwürfe als Argumentationsformen neoreligiöser Ausprägung gedeutet werden. Technologische Innovationen erfahren durch einen Rekurs auf Fragen der Sinnorientierung und Transzendenz eine Legitimation, welche letztlich in der instrumentellen Verfügbarmachung einer quantifizierten und reproduzierbaren Personalität des Menschen gipfeln soll. Im Kapitel 2.4 soll künstliche Intelligenz in ihrem Anspruch der technischen Rekonstruktion des menschlichen Geistes von ihren philosophiegeschichtlichen Wurzeln einer positivistischen Aufklärung, einer Abbildtheorie der Wirklichkeit und einem mechanistischen Menschenbild hergeleitet werden. Wenn sich zeigt, dass transhumanistische Entwürfe letztlich nur in einer kompromisslosen Konsequenz die Prinzipien der aufklärerischen Vernunft 20
Die vorliegende Arbeit wurde im August 2020 als Dissertation an der Technischen Universität eingereicht. Nachbesserungen im Text wurden von der Promotionskommission nicht gewünscht. Im Zeitraum zwischen der Einreichung der Arbeit und der Veröffentlichung im Verlagsprogramm der WBG sind verschiedene weitere Titel verschiedener Autoren publiziert worden, welche zur aktuellen Gegenwartsliteratur gerechnet werden können, die jedoch überwiegend das Ziel verfolgen, in die Thematik einzuführen und daher für die Argumentationslinie dieser Arbeit nicht vordergründig relevant sind. Von den Neuerscheinungen dieses Zeitraums wurde lediglich eine Arbeit von Catrin Misselhorn (Künstliche Intelligenz und Empathie, Stuttgart 2021) mit aufgenommen, weil sie darin ihre eigene Position deutlich weiterentwickelt und manche der hier ausgeführten Kritikpunkte bereits selbst ausräumt.
25
1 Einführung in die Thematik
weiterführen, dann muss eine philosophische Kritik bei diesen Prinzipien beginnen. Kann mit den Methoden empirischer Wissenschaftlichkeit die Welt restlos quantifiziert und formalisiert werden? Soll der Mensch seine eigene Personalität zum Gegenstand seines technischen Umgestaltungs- und Herrschaftsanspruchs werden lassen? Dürfen wir vom technologischen Fortschritt die Befreiung von unseren Begrenzungen erwarten? Ist der Mensch nur eine (äußerst unperfekte) Maschine? Es zeigt sich dabei, wie von Beginn der Aufklärung her im positivistisch-reduktionistischen Anspruch selbst die Tendenz zur funktionalistischen Deutung der menschlichen Personalität angelegt ist. Transhumanistische Utopien folgen kompromisslos dem Ziel der vollständigen instrumentellen Verfügbarmachung der Natur, worunter auch der Mensch subsumiert wird. Die philosophiehistorische Einbettung der Thematik ermöglicht eine argumentative Auseinandersetzung mit weltanschaulichen Prämissen, die in transhumanistischen Entwürfen und auch in vielen Arbeiten zur Philosophie der künstlichen Intelligenz implizit vorausgesetzt werden. Die Vermessung der Welt und des Menschen als Zielstellung eines aufklärerischen Positivismus findet ihre Parallele im Projekt der vollständigen Quantifizierung und Formalisierung der Welt mithilfe von künstlicher Intelligenz in transhumanistischen Entwürfen. Darunter fällt auch eine materialistisch-verdinglichte Auffassung der menschlichen Personalität einschließlich seiner seelisch-geistigen Subjektivität. Quantifizierung und Formalisierung von Welt und Mensch bilden somit die Grundlage für die Entwicklung von künstlicher Intelligenz. Damit ist auch eine Voraussetzung für die Optimierung des Menschen gefunden, welche in transhumanistischen Entwürfen als Zielstellung formuliert wird. Quantitative Bestimmungen des Menschen ermöglichen erst eine solche programmatische Optimierung. Die Mathematisierung der Welt, zunächst als philosophische Idee, dann als wissenschaftliches Programm, wird letztlich zum technischen Projekt. Begleitet wurde die Idee in literarischen Entwürfen des Androidenmotivs und des Maschinenmenschen, deren Anfänge bis in die Antike zurückreichen. In Wissenschaft, Philosophie und Literatur können somit Wegbereiter und Vordenker von künstlicher Intelligenz herausgestellt werden. Die darin formulierten Grundverständnisse über Welt, Mensch und Wissenschaft reichen noch bis in das Selbstverständnis von Informatikern und Transhumanisten hinein. In philosophischen und wissenschaftlichen Diskursen sind im 20. Jahrhundert diese Grundverständnisse jedoch weiterentwickelt und verändert worden. An die Stelle der Annahme einer Abbildtheorie der Welt trat das Bewusstsein um die Bedingtheit jeder menschlichen und wissenschaftlichen Erkenntnis und um die Grenzen des Erkennbaren. Als Grundlage für eine systematische philosophische Einordnung von Transhumanismus und künstlicher Intelligenz werden ausgehend davon im dritten Kapitel der Arbeit Aspekte der Einsicht in sinnkonstitutive Negativität im Anschluss an die philosophische Vernunftkritik des 20. und 21. Jahrhunderts zusammengeführt, die für eine systematische Beurteilung 26
1.2 Zielstellung, Struktur und Aufbau der Arbeit
des Geltungsanspruchs transhumanistischer Entwürfe relevant sind. Die philosophische Rekonstruktion von sinnkonstitutiver Negativität bildet eine systematische Außenperspektive auf transhumanistische Entwürfe. In Erkenntnistheorie, Moral, Religionsphilosophie und Anthropologie bilden Einsichten in die Grenzen des Menschen einen Hintergrund für eine Technikethik, die dem Anspruch der positivistischen Verfügbarmachung der Natur begegnen soll. Sie nimmt das in den Blick, was sich einer funktionalistischen Reduktion, einer Verdinglichung der menschlichen Personalität und einer Subsumierung unter quantitative Bestimmungen des Normativen entzieht. Dimensionen sinnkonstitutiver Negativität umfassen dabei erkenntnistheoretische, sprachphilosophische und wissenschaftsphilosophische Aspekte, moralisch-normative Aspekte, religionsphilosophische Aspekte und anthropologische Aspekte. Die Einsicht in diese Dimensionen von Negativität bildet dabei eine Ebene von Sinnkonstitution für die menschliche Lebenspraxis. In der Einsicht in die Grenzen des Menschen gründet ein Selbstverständnis des Menschen und einer demokratischen Gesellschaft, in der freie Individuen miteinander interagieren. In transhumanistischen Entwürfen wird diese Ebene sinnkonstitutiver Negativität systematisch unterlaufen. Grenzen sind dabei immer nur technische Probleme. Sinnstiftende Lebenspraxis ist demnach nicht innerhalb der Grenzen des Menschlichen zu finden, sondern nur in ihrer Überwindung. Darin zeigt sich die Bedrohung transhumanistischer Zielstellungen für die normativen Grundlagen einer freiheitlichen Gesellschaft. Sämtliche Aspekte der philosophischen Kritik von Transhumanismus und künstlicher Intelligenz kreisen letztlich um die vier berühmten Fragen Kants: 1. Was können wir wissen? 2. Was sollen wir tun? 3. Was dürfen wir hoffen? 4. Was ist der Mensch? Die Antworten positivistisch-transhumanistischer Utopien auf die vier Fragen Kants liegen auf der Hand. Ich versuche, sie hier in jeweils einer kurzen Aussage etwas vereinfacht zusammenzufassen: „1. Was können wir wissen?“ – „Alles: denn wir können irgendwann alles wissen, was man quantifizieren und formalisieren kann – der Rest ist bedeutungslos.“ „2. Was sollen wir tun?“ – „Alles, was uns besser, glücklicher, effizienter, intelligenter, mächtiger macht; alles, was uns optimiert.“ „3. Was dürfen wir hoffen?“ – „Die Lösung aller Probleme der Menschheit mithilfe von Technologie. Auch der Tod gehört zu den Problemen, die technisch gelöst werden können.“ „4. Was ist der Mensch?“ – „Ein Zwischenschritt der Evolution; der Prototyp einer Maschine, die wir verbessern können und müssen; etwas, das überwunden werden muss.“ Demgegenüber steht eine philosophische Vernunftkritik als Einsicht in Negativität und Sinnkonstitution. Alle vier Fragen erfahren im dritten Kapitel für die vorliegende Thematik eine systematische Gegenüberstellung von positivistisch-transhumanistischem Selbstverständnis und einer vernunftkritischen Erwiderung anhand der Einsichten in Aspekte von Negativität 27
1 Einführung in die Thematik
und Sinnkonstitution, die sich für die jeweilige Ebene der philosophischen Argumentation ergeben. Ausgehend von einer solchen Gegenüberstellung ergeben sich Schlussfolgerungen für eine philosophische Beurteilung von transhumanistischen Entwürfen und für ethische Fragestellungen zu Computertechnologien mit künstlicher Intelligenz. Für eine Systematisierung der Einsichten einer philosophischen Vernunftkritik formuliere ich die Fragen Kants daher für das dritte Kapitel dieser Arbeit um. 1. „Was können wir nicht wissen?“ Philosophie und Naturwissenschaft des letzten Jahrhunderts waren geprägt von Paradigmenwechseln, in denen grundsätzliche Grenzen der menschlichen Erkenntnis offenbar geworden sind: Grenzen der Formalisierbarkeit, Grenzen der Quantifizierbarkeit, Grenzen des Reduktionismus, Grenzen des Determinismus, Grenzen des Objektiven, Grenzen der Sprache, Grenzen der Rationalität und des Wissens. Darin konkretisiert sich die Einsicht: Die Gegenstände der Welt gehen auch in ihren wissenschaftlichen Begriffen nicht auf.21 Der naive empiristische Positivismus, einer Abbildtheorie der Welt entsprechend alles Vorhandene so exakt erklären zu können, dass wir daraus alle Zusammenhänge deterministisch zu verstehen und vorherzusagen in der Lage wären, kann im Zuge der Vernunftkritik des 20. Jahrhunderts nicht mehr aufrechterhalten werden. Die Sicherheit, mit der in gegenwärtigen technologisch-transhumanistischen Publikationen die allumfassende Quantifizierung der Welt und die restlose wissenschaftliche Aufklärung aller Phänomene angenommen wird, blendet die naturwissenschaftlichen und philosophischen Paradigmenwechsel des letzten Jahrhunderts aus und knüpft stattdessen an eine positivistische Naivität des frühen aufklärerischen Denkens an, die wissenschaftstheoretisch heute nicht mehr haltbar ist. 2. „Was sollen wir nicht tun?“ Nach dem moralischen Scheitern der aufgeklärten Gesellschaften in totalitären Systemen, nach zwei Weltkriegen und dem Holocaust formulierten Horkheimer und Adorno in ihrer Dialektik der Aufklärung22 die Einsicht, dass Wissen und Aufklärung den Menschen nicht von selbst in eine bessere Zukunft führen. Angesichts der erschütternden Ereignisse in der ersten Hälfte des 20. Jahrhunderts bildet die Einsicht in die Fehlbarkeit und die Fragilität des Menschen die Grundlage für jede moralphilosophische Bestimmung. Leidensfähigkeit, 21
Adorno, Theodor Wiesengrund: Negative Dialektik, Frankfurt am Main 2013, S. 17. Adorno, Theodor W. und Horkheimer, Max: Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt am Main 1990.
22
28
1.2 Zielstellung, Struktur und Aufbau der Arbeit
Sterblichkeit, Fragilität sowie Fehlbarkeit und Schuld sind als konstitutive Grundlagen für Moralität unhintergehbar.23 Ausgehend von erkenntnistheoretischen Grenzen des Menschen leitet sich aus der Unbestimmbarkeit der Totalität der personalen Lebenspraxis ein Verständnis meiner selbst und des Anderen als Dimension von Offenheit ab, die sich für eine Perspektive der anthropologischen Moralphilosophie als Freiheit charakterisiert. Sie wird zur konstitutiven Grundbedingung für Moralität. In der Unverfügbarkeit des Anderen und meiner Selbst gründet ein Verständnis von Menschenwürde und die Möglichkeit für die interexistentielle Herausbildung von Dialog und Vertrauen. Würde, Freiheit und Vertrauen sind nur möglich, weil Menschen einander nicht vollständig verstehen und beherrschen können. Diese Einsicht in negative Grundbedingungen des Normativen findet eine Parallele in gesellschaftsphilosophischen Perspektiven, die in Utopien und Dystopien ausformuliert worden sind. Anhand des Verhältnisses von Utopien und Dystopien kann gezeigt werden, wie eine normative Gesellschaftsphilosophie auch auf die Grenzen gesellschaftlicher Normierungsprozesse und Optimierungsversuche hinweisen muss. Utopien als sinnstiftende Skizzen einer optimalen Gesellschaftsform wurden in Literatur und Film weitestgehend abgelöst von Dystopien. Diese Genre-Veränderung bringt die Ahnung zum Ausdruck, dass die Errungenschaften der Aufklärung kaum mehr durch äußerliche Strukturen und gesellschaftspolitische Optimierungen ausgebaut werden können, sondern dass mit solchen vor allem in Gefahr steht, bereits Erreichtes wieder einzubüßen. Dystopien sind in diesem Sinne Warnungen vor totalitären Entwürfen, in denen keine Freiheit mehr möglich ist.24 Die optimierte Gesellschaft erweist sich als Ende der freien Gesellschaft. Der Sinn dystopischer Literatur entfaltet sich angesichts transhumanistischer Utopien zur Optimierung des Menschen in neuer Aktualität. 3. „Was dürfen wir nicht hoffen?“ Transhumanistische Entwürfe rekurrieren explizit auf Begriffe wie „Transzendenz“, „Unsterblichkeit“, „Magie“ und „Gott“. Weil transhumanistische Entwürfe damit Motive aus einer religiösen Sprache aufgreifen, muss auch eine Perspektive philosophischer Vernunftkritik auf religionsphilosophische Aspekte von Negativität in Bezug auf die vorliegende Thematik eingehen. Durch die Vernunftkritik des 20. Jahrhunderts hat sich die Philosophie in ihren Kernaussagen zur Negativität des menschlichen Erkenntnis- und Handlungshorizontes wieder an Systematisch wurden diese Aspekte von Thomas Rentsch ausgearbeitet. Vgl. Rentsch, Thomas: Die Konstitution der Moralität. Transzendentale Anthropologie und praktische Philosophie, Frankfurt am Main 1999. Vgl. auch Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000. 24 Vgl. Ágnes Heller: Von der Utopie zur Dystopie. Was können wir uns wünschen?, Wien 2016, S. 92f. 23
29
1 Einführung in die Thematik
Grundinhalte religiösen Denkens angenähert. Der jüdische Religionsphilosoph A. J. Heschel formuliert dies mit den Worten: „Religion beginnt mit dem Gefühl für das Unsagbare; Philosophie endet mit dem Gefühl für das Unsagbare. Religion beginnt, wo Philosophie aufhört.“25 Religionsphilosophie muss an dieser Grenze ansetzen, um beide Sprachen vermitteln und hermeneutisch einander aufschließen zu können. In dieser Arbeit wird aus einer Perspektive der philosophischen Vernunftkritik der Begriff der Transzendenz im Anschluss an Einsichten in sinnkonstitutive Negativität rekonstruiert. Ein solches Bewusstsein ist in religiösen Kontexten beispielsweise durch das Bilderverbot Gottes als Aspekt von Unverfügbarkeit und Entzogenheit charakterisiert. Religiöse Traditionen bergen in diesem Sinn das Potential, eine kritische Position gegenüber einer instrumentellen Rationalität einzunehmen. In einer solchen religionsphilosophischen Rekonstruktion des Transzendenzbegriffs erweisen sich neoreligiöse Motive in transhumanistischen Entwürfen als Verdinglichungsversuche von Transzendenz, wodurch dessen sinnkonstitutives Potential verloren geht. 4. „Was ist der Mensch nicht?“ Viele Versuche, das Wesen des Menschen mit einer einfachen Beschreibung zu greifen, müssen nach dem Ende des 20. Jahrhunderts als gescheitert angesehen werden. Der Entwurf des Maschinenmenschen von de La Mettrie erweist sich mit dem Wissen um die Komplexität organischen Lebens als ebensowenig haltbar wie die Idee einer reinen Rationalität des Menschen. Der Mensch ist weder rein rational, noch restlos seiner Triebhaftigkeit ausgeliefert. In einer negativen Anthropologie kann unter der Reflexion auf die Grenzen des Menschen, der Emotionalität, der Sprache und des Denkens rekonstruiert werden, worauf sich der Mensch nicht reduzieren lässt. Seine Emotionalität bleibt nicht in bloßer Triebhaftigkeit stehen. Sein Denken erschöpft sich nicht in instrumenteller Rationalität. Seine Sprache erschöpft sich nicht in zweckorientiertem Informationsaustausch. Seine Fähigkeit zu Sozialität, Dialog und Begegnung erschöpft sich nicht in utilitaristischer Quantifizierung. Aus dem, was der Mensch nicht ist, resultieren damit auch Positivaussagen über den Menschen: Wenn das Handeln und das seelisch-geistige Leben des Menschen nicht mechanistisch determiniert ist, so können wir von der Freiheit des Menschen und einem offenen Universum sprechen.26 Wenn der Mensch nicht restlos vermessen, quantifiziert, formalisiert und berechnet werden kann, dann kann nicht Kontrolle, sondern so muss weiterhin gegenseitiges Vertrauen die Grundlage für gesellschaftliches Zusammenleben sein. Wenn die Emotionalität A. J. Heschel: Der Mensch fragt nach Gott. Untersuchungen zum Gebet und zur Symbolik, Neukirchen-Vluyn 1989, S. 101. 26 Vgl. Karl R. Popper: The Open Universe. An Argument for Indeterminism, Cambridge 1992. 25
30
1.2 Zielstellung, Struktur und Aufbau der Arbeit
des Menschen sich nicht im mechanistischen Ablauf von Angstreaktionen, nicht in Selbstbehauptungstrieb und Selbstsucht erschöpft, so kann der Mensch als beziehungsfähig gedeutet werden. Wenn es eine Ebene von Begegnung gibt, bei der Menschen einander nicht mehr allein aufgrund ihres Wissens über den Anderen sehen, sondern in denen ein Du als neue Welt, als irreduzible Totalität erscheint,27 so kann wohl auch von Liebe gesprochen werden. Die Grenzen der Sprache skizzieren ein Reich hinter dieser Grenze.28 Auch die Fähigkeit des Menschen zum Denken deutet über diese Grenze, indem sie weit über eine instrumentelle Rationalität hinausgeht. Erkenntnistheoretisch resultiert aus den Analysen eine Zurückweisung der naiven Annahme eines unmittelbaren Zugangs zu objektiver Erkenntnis über die Welt als Grundlage für ihre Modellierung und Rekonstruktion. Das mathematisch-deterministische Weltbild des Laplace und die Annahme der kausalen Geschlossenheit der physikalischen Welt erfährt dabei eine Eingrenzung, die für die Interpretation transhumanistischer Entwürfe bedeutsam wird. Transhumanistische Autoren stellen ihre Einsichten als wissenschaftlich bewiesene und gesetzmäßige Tatsachen dar, an denen kein berechtigter Zweifel erhoben werden kann. Wissenschaftliche Erkenntnis wird dabei gleichgesetzt mit Wahrheit. Das wissenschaftliche Modell entspricht seinem Gegenstand. Auch der menschliche Geist wird letztlich nur als mathematisches Muster gedeutet. Die Reflexion auf die vernunftkritischen Bedingungen und Grenzen wissenschaftlicher Erkenntnis verdeutlichen jedoch, dass ein wissenschaftliches oder mathematisches Modell nicht vergegenständlicht werden kann, um es mit dem interpretierten Gegenstand gleichzusetzen. In der Verdinglichung des menschlichen Geistes unterlaufen transhumanistische Argumentationen die Bedingungen menschlicher Erkenntnisprozesse. Normativ zeigt sich, dass moralphilosophische Grundbedingungen der Fragilität und Fehlbarkeit des Menschen durch ihre Deutung als technische Probleme ihren sinnkonstitutiven Gehalt für die menschliche Lebenspraxis einbüßen. Aus einer gesellschaftsphilosophischen Perspektive folgt daraus, dass transhumanistische Utopien durch ihr Unterlaufen und Verleugnen der sinnkonstitutiven Grundlagen von Negativität und Moralität des Menschen Elemente des Dystopischen als einer totalitären Überformung demokratischer Gesellschaften enthalten. Religionsphilosophisch kann in einem Vergleich der neoreligiösen Motive in transhumanistischen Utopien mit tradierten Formen von Religiosität gezeigt werden, dass die
Vgl. Martin Buber: Ich und Du, Stuttgart 2009. Vgl. Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung, Frankfurt am Main 2013, S. 86; Punkt 5.6.: „Die Grenzen meiner Sprache sind die Grenzen meiner Welt.“
27
28
31
1 Einführung in die Thematik
instrumentell-positivistische Umformung religiöser Motive die Umkehrung ihrer Grundintentionen mit sich bringt. Anthropologisch ermöglicht die Gegenüberstellung des mechanistischen, quantifizierten und defizitär orientierten Menschenbildes im Transhumanismus mit der Einsicht in Dimensionen der Leiblichkeit, Emotionalität, Sozialität und Offenheit des Menschen eine Abgrenzung von menschlicher und maschineller Intelligenz und eine Zurückweisung jeglicher Anthropomorphisierungen von Technik. Für die philosophische Anthropologie leitet sich daraus die Aufgabe einer Neubestimmung des Menschen im Verhältnis zu der reinen Rationalität einer Maschinenintelligenz sowie im Verhältnis zum Animalischen ab. Jenseits von einem funktionalistischen Selbstverständnis rückt damit auch der Begriff der Menschenwürde in das Blickfeld einer philosophischen Anthropologie, welche ausgehend von einem Bewusstsein um die Grenzen des Menschen aus einer vernunftkritischen Perspektive rekonstruiert werden kann. Das vierte Kapitel stellt Exkurse zusammen, die als Zusammenfassung und als Ausblick gelesen werden sollten. Die systematische Arbeit der vorangegangenen Kapitel erfährt dabei eine Rückbindung an häufig diskutierte Fragen zu Computertechnologien mit künstlicher Intelligenz. Auch für Themen der angewandten Technikethik werden Anknüpfungspunkte an Grundeinsichten der systematischen Arbeit aufgezeigt. Diese Exkurse zielen darauf, Einsichten der systematischen Metareflexion dieser Arbeit auf Grundfragen der Gegenwartsdiskussion zu beziehen. Leitend ist für die Gedankengänge im vierten Kapitel das Ziel, eine philosophische Perspektive auf Computertechnologien mit künstlicher Intelligenz zu ermöglichen, die auf Grundeinsichten der philosophischen Vernunftkritik aufbaut. Das Ziel dieser Exkurse ist auch, Zugänge zu einer systematischen Differenzierung zwischen Mensch und Maschine freizulegen. Damit einher geht einerseits eine Zurückweisung transhumanistischer Geltungsansprüche, andererseits ein Ausblick auf Bedingungen, unter denen eine Mensch-Maschine-Interaktion gelingen kann. Wenn die Zielstellungen der technologischen Weiterentwicklungen unter der zwanghaften Prämisse der Nachbildung des Menschen stehen, dann geht das Potential einer Mensch-Maschine-Interaktion verloren, welche auf dem Bewusstsein um die substantiellen Unterschiede zwischen Mensch und Maschine gründet. Unterschiedlichkeit fruchtbar zu machen anstatt sie zu nivellieren, wäre dann eine Chance für die Entwicklung neuer Technologien, der gegenüber das menschliche Denken sich nicht verabschieden sollte, sondern mithilfe derer vielleicht neue Ressourcen des genuin Menschlichen freigesetzt werden können. Computertechnologien mit künstlicher Intelligenz entfalten erst jenseits von transhumanistischen Entwürfen ihr technisches Potential. Und auch der Mensch entfaltet sein Potential erst dann, wenn er aufhört, eine Maschine sein zu wollen.
32
2 Künstliche Intelligenz und Transhumanismus 2.1 Künstliche Intelligenz: Technische Grundlagen Der Begriff „künstliche Intelligenz“ beschreibt Modelle und Architekturen der Informatik, welche zum Ziel haben, Aspekte menschlicher Intelligenz nachzubilden, zu simulieren oder Grundaspekte menschlicher Intelligenz für Problemlösungsstrategien nutzbar zu machen und diese weiterzuentwickeln und zu optimieren.1 Als Fachbegriff der Informatik wurde der Begriff „Artificial Intelligence“ erstmals 1955 von John McCarthy eingeführt, in seinem Forschungsantrag für das Dartmouth Summer Research Project on Artificial Intelligence, welches im Jahr 1956 durchgeführt wurde.2 McCarthy definierte den Begriff 1955 folgendermaßen: „Ziel der KI ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz.“3 Die exakten Definitionen des Begriffs gehen mittlerweile jedoch auseinander und verschiedene Lehrbücher der Informatik zum Thema künstliche Intelligenz weisen auf die inneren Widersprüche des Begriffs hin.4 Russell und Norvig schlagen eine Kategorisierung der verschiedenen Definitionen des Begriffs vor. Auf der einen Seite orientierten sich Entwicklungen der KI-Forschung daran, menschliches Denken (Haugeland, Bellman) und menschliches intelligentes Handeln (Kurzweil, Rich und Knight) nachzubilden. Auf der anderen Seite verfolgten rationalistische Ansätze die Realisierung einer „idealen“ Form von rationalem Denken (Winston, Charniak und McDermott) und rationalem Handeln (Nilsson, Poole u. a.).5 Der Begriff der künstlichen Intelligenz bewegt
Vgl. Uwe Lämmel / Jürgen Cleve: Künstliche Intelligenz, München 2012, S. 11–17. Kline, Ronald R.: Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence, in: IEEE Annals of the History of Computing, October–December 2011, S. 5–16. Vgl. Ertel, Wolfgang: Grundkurs Künstliche Intelligenz. Eine praxisorientierte Einführung, Wiesbaden 2009, S. 1. 3 Ertel, Wolfgang: Grundkurs Künstliche Intelligenz. Eine praxisorientierte Einführung, Wiesbaden 2009, S. 1. 4 Ebd., S. 1–3. Vgl. auch Lämmel, Uwe: Künstliche Intelligenz, a. a. O., S. 13. 5 Vgl. Russell, Stuart und Norvig, Peter: Künstliche Intelligenz. Ein moderner Ansatz, 3. Auflage, München 2012, S. 22f.
1 2
33
2 Künstliche Intelligenz und Transhumanismus
sich also zwischen einer Analogie von Computer und menschlichem Geist und einer Idealisierung von Logik und Rationalität. Von Beginn der Entwicklung der ersten Computer an kann nachgezeichnet werden, wie Parallelen zwischen der Informationsverarbeitung in den ersten Rechenmaschinen und der Denkfähigkeit des Menschen gezogen wurden. Unter der Prämisse technischer Zielsetzung wurde in der Begriffsdefinition darum gerungen, inwieweit eine Analogie zwischen Mensch und Maschine und die Anwendung des Intelligenzbegriffs für maschinelle Prozesse gerechtfertigt werden kann.
2.1.1 Kurzer Überblick über die technische Entwicklungsgeschichte Der Weg zu den ersten Computern Während von Aristoteles bis Leibniz sich noch die Visionäre des Maschinendenkens mit einfachen Rechenschiebern begnügen mussten, lieferten verschiedene technische Neuerungen bis zum 20. Jahrhundert das notwendige Baumaterial für die Konstruktion von Computern. Elektrizität, Elektronenröhren, Halbleitertechnik und Mikroelektronik schufen die technischen Voraussetzungen für immer komplexere Rechenmaschinen.6 Der erfolgreichen Konstruktion von Computern gingen verschiedene theoretische Modelle für Universalrechner voraus, u. a. von Alan M. Turing und John von Neumann.7 Als einer der wichtigsten Pioniere der Computerentwicklung, bzw. auch als Erfinder des ersten Computers gilt Konrad Zuse, der als Architekt und Ingenieur mit den technischen Möglichkeiten seiner Zeit experimentiert hatte, um nicht so viel selbst rechnen zu müssen, weil Zuse gar nicht gern rechnete.8 Zuse nutzte jedoch in seiner Theoriebildung den Begriff des Rechnens dabei bereits in einem allgemeineren Sinn, der über den Bereich der Zahlenmathematik weit hinausgehen und auch „Aussagen, Namen, Kennziffern, Dienstgrade, Daten, Befehle, Nachrichten, Schlussfolgerungen usw.“ umfassen sollte.9 Bereits in den ersten Computern war der Doppelcharakter von einerseits dienstbarer
Vgl. Naumann, Friedrich: Vom Abakus zum Internet. Die Geschichte der Informatik, Darmstadt 2001, S. 109–132. 7 Bruderer, Herbert: Meilensteine der Rechentechnik. Zur Geschichte der Mathematik und der Informatik, Berlin / Boston 2015, S. 215–219. 8 Vgl. Zuse, Konrad: Frühe Gedanken zur Auswirkung des Computers auf die Gesellschaft, in: Hellige, Hans-Dieter (Hg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Berlin / Heidelberg 2004, S. 31–41, dort S. 31. 9 Zuse, Konrad: Einführung in die allgemeine Dyadik, zit. nach Güntsch, Fritz-Rudolph: Konrad Zuse und das Konzept des Universalrechners, in: Hellige, Hans-Dieter (Hg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, a. a. O., S. 43–59, dort S. 44. 6
34
2.1 Künstliche Intelligenz: Technische Grundlagen
Technik mit pragmatischer Nützlichkeit, und andererseits verallgemeinernder logischer Struktur, mit welcher nahezu die gesamte sprachliche Welt des Menschen abgebildet werden sollte, angelegt. Früher Optimismus In verschiedenen anderen Ländern (USA, Großbritannien, Frankreich, Japan) wurden, teilweise unabhängig von Zuse, Ideen und Entwürfe von Digitalcomputern entwickelt. Nicht zuletzt durch die potentiellen Einsatzmöglichkeiten von Digitalcomputern für militärische Zwecke erhielten Forschungen in diesem Gebiet u. a. in den Vereinigten Staaten staatliche Förderungen, wodurch sich diese Forschungszweige rasch weiterentwickeln konnten.10 Verschiedene Wissenszweige flossen dabei zusammen und inspirierten sich gegenseitig: Informatik, Linguistik, Logik, Mathematik, Physik, Ingenieurswissenschaften, Kognitionswissenschaften, Neurowissenschaften, analytische Philosophie und Sprachphilosophie. Die enormen Entwicklungspotentiale von Computern und künstlicher Intelligenz waren offensichtlich. Bereits Konrad Zuse hatte 1938 geäußert, dass innerhalb von 50 Jahren ein Computer den Schachweltmeister schlagen würde.11 Alan Turing hatte als Vordenker des Computers12 die Möglichkeit skizziert, dass die sprachliche Interaktion mit einem Computer nicht mehr vom Austausch mit einem Menschen unterschieden werden kann (bekannt als Turing-Test). Doch gerade im Bereich der Sprache stießen die Anwendungen der Informatik bald auf Grenzen. Menschliche Alltagssprache erwies sich dabei als wesentlich weniger leicht formalisierbar als vermutet. So war es z. B. unmöglich für eine künstliche Intelligenz, den Sinn von Kindergeschichten oder Fabeln zu verstehen.13 Nach einer ersten großen Zuversicht der KI-Forscher brachten diverse Rückschläge auch eine fachphilosophische Diskussion um die Möglichkeit einer vollständigen Formalisierbarkeit der Welt auf, welche zuvor unhinterfragt vorausgesetzt worden war.14 Lässt sich die Welt, die menschliche Sprache, Wissen und Handeln wirklich vollumfassend in mathematischen Formeln ausdrücken oder nicht? Sprachphilosophische Einsichten von
Vgl. Naumann: Geschichte der Informatik, a. a. O., S. 145. Zuse: Frühe Gedanken, a. a. O., S. 33. 12 Alan Turing entwarf 1936 das Konzept einer Turingmaschine. Sie ist das mathematische Modell einer universellen, idealisierten Rechenmaschine. Vgl. Bruderer, Herbert: Meilensteine der Rechentechnik. Zur Geschichte der Mathematik und der Informatik, Berlin / Boston 2015, S. 215. 13 Zimmerli, Walther Ch. und Wolf, Stephan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 1994, S. 15. Vgl. Dreyfus Hubert L. und Dreyfus, Stuart E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition, Leck 1991, S. 138. 14 Vgl. Searle, John R.: Geist, Hirn und Wissenschaft. Die Reith Lectures 1984, Frankfurt am Main 1986, S. 38. 10 11
35
2 Künstliche Intelligenz und Transhumanismus
Heidegger und Wittgenstein wurden auch in Bezug auf die Möglichkeiten der künstlichen Intelligenz diskutiert.15 Zwei Wege In diesem Zuge rückte auch der Konnektivismus wieder ins Blickfeld technologischer Entwicklungen. Bereits seit der Frühphase der Informatik bestanden unabhängig voneinander zwei grundlegend verschiedene Ansätze für KI-Architekturen. Auf der einen Seite stand die klassische, symbolverarbeitende KI, welche in formallogischen Sätzen eine möglichst umfassende Rechenoperation abbilden soll, die für eine bestimmte Problemlösung konzipiert wurde. Auf der anderen Seite stand der Konnektivismus, welcher eine Nachbildung des menschlichen Gehirns durch neuronale Netze anstrebt. Neuronale Netze sind im Gegensatz zur symbolverarbeitenden KI nicht auf eine bestimmte formallogische Interpretation einer Situation festgelegt, sondern bilden aufgrund von vorher eingespeisten Datenmengen eigene Strukturen, deren dynamische Anpassungsfähigkeit an eine offene Umgebung den Leistungen des Gehirns näher kommt als formallogische Sätze. Die frühen konnektivistischen Ansätze funktionierten zwar bereits, doch waren die Erfolge mit der damaligen Rechenleistung nicht vergleichbar mit denen im Bereich der symbolverarbeitenden KI.16 Mit dem Scheitern der klassischen KI im Bereich offenen Lernens, in Bildverarbeitung, Mustererkennung etc. rückten neuronale Netze als technische Alternative für den Bereich der Welt, welcher sich einer einfachen Formalisierung der Welt entzieht, wieder in den Blick des technischen Interesses. Im Folgenden werden für Leser ohne Hintergrundwissen der Informatik beide Ansätze kurz dargestellt.
Vgl. Dreyfus, Hubert L. und Dreyfus, Stuart E.: Einen Geist bauen gegen ein Gehirn modellieren: Künstliche Intelligenz wieder an der Abzweigung, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 15–44. Die Brüder Dreyfus bringen die Ansätze Wittgensteins und Heideggers in die Grundlagendiskussion über die künstliche Intelligenz ein: „Wenn Heidegger und Wittgenstein richtig liegen, so sind menschliche Wesen sehr viel holistischer als neuronale Netze. Intelligenz muss motiviert werden durch Absichten des Organismus und durch Ziele, die der Organismus von einer umgebenden Kultur erhält.“ (Ebd. S. 43) Vgl. auch Dreyfus, Hubert L. und Dreyfus, Stuart E.: Mind over Machine. The Power of Human Intuition and Expertise in the Era of the Computer, New York 1988, S. 11. Vgl. Kap. 3.1, 3.4 und 4.4 dieser Arbeit. 16 Vgl. Papert, Seymour: Verstehen von Differenzen, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 1–14, dort S. 13. 15
36
2.1 Künstliche Intelligenz: Technische Grundlagen
2.1.2 Kurze Einführung in die technischen Grundlagen von künstlicher Intelligenz Klassische KI / Symbolverarbeitende KI Der erste Ansatz der KI ist die „klassische KI“ oder auch „symbolverarbeitende KI“. Mit ihr wird versucht, sämtliche Aspekte von Welt und Sprache in formallogischen Sätzen abzubilden. Klassische Aussagenlogik und Prädikatenlogik werden mit mathematischen Modellen und statistischen Verfahren zum Umgang mit Wahrscheinlichkeiten, vagem und unsicherem Wissen verbunden, um auch die uneindeutigen Aspekte der Wirklichkeit, mit denen der Mensch tagtäglich umgeht, technisch handhabbar werden zu lassen. Ziel ist es, mithilfe von treffenden Regeln und Algorithmen passende Lösungsstrategien für komplexe Probleme zu finden. Diese formallogischen Regeln und Algorithmen werden für Anwendungen oft mit einer externen Datenmenge unterstützt, die das relevante menschliche Wissen in einem bestimmten Kontext abbilden soll. Einige Dimensionen menschlicher Intelligenz konnten mit diesem Ansatz ausgesprochen effektiv nachgebildet werden, sodass die Leistungen der KI in diesen Gebieten die Leistungen menschlicher Intelligenz bereits weit übertreffen, z. B. Rechnen, Schachspielen, statistische Datenverarbeitung. Auch Expertensysteme, in welchen das Fachwissen menschlicher Experten formalisiert wurde, waren teilweise recht erfolgreich. In anderen Gebieten erweist sich die symbolverarbeitende KI als unzulänglich, z. B. in der Mustererkennung und in vielen offenen Kontexten des alltäglichen Lebens, die dem Menschen gar nicht erst als Leistungen seiner Intelligenz erscheinen, sowie im Bereich des Sprachverstehens. Bisher war es beispielsweise nicht möglich, Alltagswissen mithilfe von symbolverarbeitender, klassischer KI zu repräsentieren. Konnektionismus / Neuronale Netze Der zweite Ansatz der KI wird als „Konnektionismus“ bezeichnet, worunter man sogenannte „neuronale Netze“ versteht. Neuronale Netze sind nach dem Vorbild des menschlichen Gehirns konstruiert und bestehen aus sehr vielen Neuronen, die untereinander verschaltet sind und unter einer genauen Zielvorgabe eigene Strukturen bilden und somit lernfähig sind.17 Sie bestehen aus einer „Input“-Ebene, in der durch Dateneingabe oder äußere Reize (z. B. durch Sensoren) Aspekte eines Phänomens (z. B. ein Bild) quantifiziert (d. h. mathematisch erfasst) werden. In einer „Output“-Ebene wird anhand eines Schwellenwerts ein Ergebnis geliefert, Vgl. Sejnowski, Terrence J.: The Deep Learning Revolution, Glasgow 2018.
17
37
2 Künstliche Intelligenz und Transhumanismus
in Form einer Zahl, die dann für den jeweiligen Kontext der Aufgabenbearbeitung explizierbar wird (z. B.: 1 = „Ja, auf dem Bild ist eine Katze abgebildet“). Die Arbeit des neuronalen Netzwerks erfolgt zunächst nach dem Prinzip „try & error“, zufällig. Jedes neuronale Netzwerk muss erst durch Feedbackfunktionen trainiert werden, um korrekte Aussagen zu treffen. Zwischen der Input- und Output-Ebene sind sogenannte „hidden layers“: verborgene Schichten vieler Neuronen, welche die Werte der Input-Ebene so lang umstrukturieren, bis die Verarbeitung der Input-Werte zu korrekten Schwellenwerten für korrekte Antworten in der Output-Ebene führt: Das System lernt und wird immer besser. Problematisch ist dabei, dass in neuronalen Netzwerken nicht mehr von außen nachvollziehbar ist, was das neuronale Netzwerk genau gelernt hat. So kann es sein, dass ein Netzwerk in einem bestimmten Kontext zuverlässige Ergebnisse liefert, allerdings in einem anderen Kontext zu ganz anderen Ergebnissen kommt, die dann vielleicht falsch sind; oder dass ein Netzwerk Attribute quasi kausal verknüpft, die letztlich nur eine Korrelation statt einer Kausalität darstellen und nur durch eine zufällige Häufung in der bisher erschlossenen Datenmenge entstehen konnten. Eine Garantie für die Zuverlässigkeit eines solchen Systems kann daher niemals gegeben werden, während formallogische Systeme im Grunde mit der Strenge eines mathematischen Beweises in ihrem Kontext operieren können. weitere Ansätze Es gibt neben diesen beiden Ansätzen noch andere innovative Wege der technischen Informationsverarbeitung, wie z. B. Quantencomputer oder das Rechnen mit biologischen Zellen. Diese Ansätze erfahren jedoch bisher keine breite Anwendung. Bisher werden z. B. Rechenoperationen mit Quantencomputern nur für sehr spezielle Rechenschritte verwendet (z. B. Entschlüsselung). Dem Ausbau der Leistungsfähigkeit von Quantencomputern sind zumindest derzeit durch die physikalische Grundbeschaffenheit des Universums Grenzen für die Realisierung gesetzt, die auch mit viel Optimismus in den Fortschritt der Technik nur überschritten werden können, wenn sich unsere gegenwärtige physikalische Konzeption der Welt als falsch erweisen sollte.18 Die zu erwartende hohe Leistungsfähigkeit von Quantencomputern gründet auf theoretischen mathematischen Annahmen.19 Bisher liegen die Stärken von Quantencomputern
Vgl. Hey, Tony und Pápay, Gyuri: The Computing Universe. A Journey through a Revolution, New York 2015, S. 298–317. Vgl. Ewald, Günter: Gehirn, Seele und Computer. Der Mensch im Quantenzeitalter, Darmstadt 2006, S. 59f. 19 Vgl. Novak, Erich: Was können Quantencomputer?, in: Mathematische Semesterberichte 54 (2007), S. 31–38, dort S. 38. 18
38
2.1 Künstliche Intelligenz: Technische Grundlagen
vor allem im Bereich der Kryptographie, also der Ver- und Entschlüsselung von Daten.20 Die Anwendungsbereiche von Quantencomputern sind also nach gegenwärtigem Stand stark spezialisiert. Die Weiterentwicklung der Leistungsfähigkeit von Quantencomputern steht dabei vor grundlegenden Problemen wie dem der Dekohärenz durch den Kollaps der Wellenfunktion durch die Interaktion des Systems mit seiner Umwelt, also den Benutzern des Quantencomputers.21 Das Problem der Dekohärenz durch den Kollaps der Wellenfunktion gehört als Messproblem zu den grundlegenden Problemen der Quantenphysik.22 Die theoretischen Möglichkeiten zur Problemlösung sind dabei nicht größer als die von anderen Computern: „Ein Quantencomputer kann nichts leisten, was nicht auch eine herkömmliche Turing-Maschine leisten könnte, aber es gibt doch gewisse Problemklassen, mit denen ein Quantencomputer im Sinne der Komplexitätstheorie besser zurechtkommt als eine Turing-Maschine. […] Für diese Probleme ist der Quantencomputer im Prinzip viel schneller – aber nur schneller – als der herkömmliche Computer.“23 Eine andere unkonventionelle Rechnerarchitektur arbeitet nicht mit Material aus Silizium, sondern mit Molekülen. Die ersten Ansätze in dieser Richtung gehen auf Bennet und Landauer zurück.24 Leonard L. Adleman konnte 1994 erstmals eine erfolgreiche Nutzung von DNA als Rechenmedium berichten.25 Rechenoperationen in biologischen Zellen durchzuführen, ist im Vergleich zu anderen Systemen bisher sehr ineffizient und unzuverlässig.26 Die bloße Möglichkeit jedoch, die Welt der künstlichen Intelligenz im Bereich des organischen Lebens, der belebten Materie erfolgen zu lassen, bildet eine spannende Schnittstelle für die Diskussion um die Abgrenzung zwischen der Welt der künstlichen Intelligenz und der Welt des organischen Lebens.
Vgl. Fumy, Walter: Quantencomputer und die Zukunft der Kryptographie, in: Datenschutz und Datensicherheit (DuD) 41 (2017), S. 13–16. 21 Vgl. Osterhage, Wolfgang W.: Eine Rundreise durch die Physik. Ein kompakter Überblick von der Kinematik zum Quantencomputer, Berlin / Heidelberg 2018, S. 129. 22 Friebe, Cord: Messproblem, Minimal- und Kollapsinterpretation, in: Friebe, Cord u. a. (Hg.): Philosophie der Quantenphysik. Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen, Berlin / Heidelberg 2015, S. 43–78, dort S. 60ff. 23 Roger Penrose: Schatten des Geistes. Wege zu einer neuen Physik des Bewußtseins, Heidelberg 1995, S. 448. 24 Bennett, Charles H. und Landauer, Rolf: The Fundamental Physical Limits of Computation, in: Scientific American, Vol. 253, No. 1 (July 1985), S. 48–57. 25 Adleman, Leonard M.: Molecular Computation of Solutions to Combinatorial Problems, in: Science, Vol. 266 (1994), S. 1021–1024. 26 Hinze, Thomas und Sturm, Monika: Rechnen mit DNA. Eine Einführung in Theorie und Praxis, München / Berlin 2009, S. 9. 20
39
2 Künstliche Intelligenz und Transhumanismus
Sowohl Quantencomputer als auch Rechnen mit biologischen Zellen sind in ihrer technischen Leistungsfähigkeit und ihren Anwendungsfeldern bisher stark begrenzt und finden bisher keine breite Anwendung. Sie stellen Rand- und Sonderphänomene in der Forschung und Entwicklung von künstlicher Intelligenz dar und werden daher für die systematische Beurteilung von künstlicher Intelligenz und Transhumanismus aus der Perspektive einer vernunftkritischen philosophischen Ethik in dieser Arbeit nicht berücksichtigt. Ihr Zukunftspotential liegt vor allem darin, als Grundlagenwissenschaft das Wissen über Strukturen, Arbeitsweisen, Mechanismen und Potentiale organischer Materialien zu erweitern. 27
2.2 Philosophie und künstliche Intelligenz An dieser Stelle soll das Verhältnis von künstlicher Intelligenz und Philosophie dargestellt werden. Dieses erweist sich als wechselseitig: Einerseits ist die Entwicklung von künstlicher Intelligenz von philosophischen Vordenkern geprägt worden, andererseits ist die Parallele zwischen menschlicher Geistestätigkeit und maschinellen Prozessen seit dem Beginn der Computerentwicklung von philosophischen Interpretationen begleitet. Je stärker maschinelle Prozesse in Ebenen komplexer Aufgabenbewältigung fortschreiten, die ursprünglich zum Aufgabengebiet des menschlichen Geistes gehörten, umso stärker muss das Verhältnis von Mensch und Technik neu abgestimmt und diskutiert werden. Die Thematik von künstlicher Intelligenz erweist sich für eine philosophische Perspektive als ausgesprochen vielschichtig. Für nahezu jede philosophische Disziplin ergeben sich mögliche Anknüpfungspunkte. Eine systematische Analyse bezieht dabei verschiedene Ebenen der philosophischen Kritik ein, die jedoch klar differenziert werden können, auch wenn sich ihre Bezüge überschneiden und die Ebenen immer wieder aufeinander verweisen. Diese Komplexität soll im ersten Teil dieses Kapitels als Überblick dargestellt werden. Dabei werden die philosophischen Disziplinen und Ebenen skizziert, in welchen sich Berührungspunkte zwischen philosophischen Fragestellungen und Computertechnologien mit künstlicher Intelligenz ergeben. Einige dieser Ebenen, aber nicht alle, spielen für die systematische Analyse im dritten und vierten Kapitel eine wichtige Rolle. Im zweiten Teil des Kapitels wird die explizite philosophische Diskussionsgeschichte um den Begriff der künstlichen Intelligenz dargestellt, von den Anfängen der Computerentwicklung bis zur Gegenwart.
Ebd., S. 298f.
27
40
2.2 Philosophie und künstliche Intelligenz
2.2.1 Die Bedeutung der künstlichen Intelligenz für die Philosophie Philosophische Grundfragen um künstliche Intelligenz Ist der Mensch eine Maschine? Mit der Entwicklung der empirischen Wissenschaften konnten immer mehr Prozesse im menschlichen Organismus in Form von Kausalgesetzen beschrieben werden. Im Zuge der philosophischen Aufklärung intensivierte sich eine positivistische Deutung der Welt: Alles, was im Universum geschieht, passiert auf der Grundlage eines strengen Kausalprinzips. Die Welt ist wie ein komplexes Uhrwerk, in dem alles nach den strengen Regeln der Mechanik abläuft. Auch der Mensch ist in diesem Sinne als eine komplexe Mechanik aufzufassen. Eine solche mechanistische Anthropologie ist die Grundbedingung für eine Gleichsetzung von Mensch und Maschine. Können Maschinen menschlich sein? Wenn der Mensch als eine komplexe Maschine beschrieben werden kann, dann ist vielleicht auch im Umkehrschluss möglich, dass einer Maschine Menschlichkeit zugeschrieben werden kann. Wenn sich seelisch-geistige Personalität vollständig durch eine mechanisch-deterministische Beschreibung z. B. des Gehirns erfassen ließe, dann wäre im Umkehrschluss auch möglich, dass eine Maschine, deren mechanische Struktur in ihrer Komplexität und Funktionalität mit dem Gehirn des Menschen gleichgesetzt werden könnte, Attribute des Menschlichen zugeschrieben bekommt. Die Anthropomorphisierung von Technik in einem solchen Sinne fußt auf einer Mechanisierung der menschlichen Personalität. Aus diesem Grund wird in dieser Arbeit auch die mechanistische Beschreibung des Menschen systematisch diskutiert. Kann eine Maschine denken? Der Begriff der künstlichen Intelligenz impliziert eine semantische Nähe zum Denken des Menschen. Seit den ersten Entwicklungen der Informationstechnologie wird daher diskutiert, was es genau bedeutet, wenn in Maschinen Aspekte menschlicher Intelligenzleistungen simuliert werden.28 Können Maschinen denn nun tatsächlich denken? Sind sie vielleicht irgendwann dazu in der Lage, autonome Entscheidungen zu treffen, Bewusstsein zu 28
Vgl. Alan M. Turing: Kann eine Maschine denken?, in: Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 39–78.
41
2 Künstliche Intelligenz und Transhumanismus
entwickeln und die Ebene personaler Intelligenz zu erreichen, um mit dem Menschen auf Augenhöhe zu interagieren oder vielleicht sogar diesen zu überflügeln? Diese Frage berührt sowohl unser Verständnis von Technik als auch unser Verständnis vom Menschen. Was geschieht im Menschen, wenn er denkt? Ist es möglich, diese Prozesse nachzubilden oder zu simulieren? Die grundlegenden Antworten zur Behandlung dieser Frage unterscheidet man in eine schwache und starke KI-These. Die schwache KI-These besagt, dass Maschinen so agieren können, als wären sie intelligent, dass menschliche Denkprozesse also simuliert werden können. Die starke KI-These hingegen besagt, dass Maschinen unter gewissen Umständen „wirklich“ denken.29 Kaum jemand wird heute bestreiten, dass Maschinen rechnen können. Die Antwort auf die Frage, ob Maschinen denken können, liegt intuitiv nicht so klar auf der Hand, obwohl man doch meinen müsste, dass Rechnen auch zum Denken gehört. Das Alltagsverständnis des Begriffs „Denken“ ist nicht so eindeutig, dass eine Beantwortung der Frage, ob Maschinen denken können, offensichtlich wäre. Es erscheint uns unproblematisch, davon zu sprechen, dass Flugzeuge „fliegen“ können, ebenso wie Vögel fliegen können, obwohl die Art und Weise des Fliegens von Flugzeugen und Vögeln doch recht unterschiedlich ist. Es genügt jedoch offenbar die Gemeinsamkeit der Fortbewegung durch die Luft, um daran keinen Anstoß zu nehmen, für beides – das natürliche und das technische Pendant – den gleichen Begriff zu nehmen.30 Der Begriff des Denkens ist jedoch weder in seinem Alltagsverständnis noch in einem philosophischen Verständnis auf eine so einfache Basis herunterzubrechen. Ab wann „denkt“ ein Tier? Muss Intelligenz an ein Bewusstsein gekoppelt sein? Ist eine Pflanze intelligent, wenn sie sich zur Sonne ausrichtet? Gründet die Schwarmintelligenz von Zugvögeln in ihrer Fähigkeit zum Denken? Wenn Krähen Walnüsse auf eine Landstraße fallen lassen und warten, bis Autos über die Schalen fahren, um die Nüsse nicht selbst knacken zu müssen, agieren die Tiere dann vernünftig? Die exakte Abgrenzung von instinktivem Verhalten zu geplantem Vorgehen ist nicht immer leicht. Nicht nur für die Intelligenz von Tieren stellen sich solche Fragen, sondern auch für unsere menschlichen Alltagsentscheidungen. In welchen Entscheidungen meines Lebens handle ich denn wirklich „intelligent“? Habe ich mein Studium der Philosophie begonnen, weil ich darüber lange nachgedacht hatte, oder eher aus einer Laune heraus? Treffe ich beim Einkaufen meine vielen kleinen Kaufentscheidungen „bewusst“ oder eher wie eine Maschine, die von Werbeindustrie beeinflusst wird, sodass im Gehirn wie in einem großen Rechenapparat alles mit irgendwelchen Faktoren zusammengerechnet wird, bis ein Russell, Stuart und Norvig, Peter: Künstliche Intelligenz. Ein moderner Ansatz, 2. Auflage, München 2004, S. 1149. 30 Vgl. Russell / Norvig 2004, a. a. O., S. 1150. 29
42
2.2 Philosophie und künstliche Intelligenz
Schwellenwert erreicht wird, der meinen Arm bewegt, um das billige oder das teure Produkt in den Einkaufskorb wandern zu lassen? „Denke“ ich erst im wahren Sinne, wenn ich zu Hause darüber reflektiere, ob unsere Konsumgesellschaft mit siebenundzwanzig verschiedenen Sorten Salami nicht irgendwo grundsätzlich verkehrt ist, ob ich nicht lieber Vegetarier werden sollte und nicht doch lieber den Fairtrade-Kaffee hätte kaufen sollen? Oder sollte ich vielleicht mal eine Fastenwoche einlegen, einerseits aus gesundheitlichen Gründen, andererseits aus Solidarität mit den Armen dieser Welt und um mich vielleicht wieder auf das Wesentliche im Leben zu fokussieren? Sind diese vermeintlich „tieferen“ und „grundlegenderen“ Fragen und Denkprozessen vielleicht am Ende gar ebenso nur mechanische Abläufe meines Organismus und Rechenprozesse im Gehirn? Die Überlegungen, ob psychische Prozesse vollständig auf physische Prozesse rückführbar sind, gründen in einem Menschenbild der Aufklärung, das den Menschen als eine komplexe Maschine versteht. Wenn man davon ausgeht, dass Menschen im Grunde nichts anderes sind als komplexe Maschinen, dann steht auch der Gleichsetzung von künstlicher und menschlicher Intelligenz nichts Substantielles mehr im Weg. Wir werden uns daher mit dem Entwurf, ob der Mensch eine „Maschine“ ist, auseinandersetzen müssen, um beurteilen zu können, ob Maschinen menschlich sein können. Systematische Einordnung des Untersuchungsgegenstandes Dieses Kapitel dient einer Hinführung zur Komplexität und Vielschichtigkeit der Thematik. Computertechnologien mit künstlicher Intelligenz und daraus resultierende Fragestellungen können aus verschiedenen philosophischen Perspektiven aus betrachtet und untersucht werden. An dieser Stelle soll ein Überblick über die verschiedenen Ebenen gegeben werden, in welchen sich philosophische Fragestellungen um mögliche Interpretation von Computertechnologien mit künstlicher Intelligenz bewegen. Nicht alle hier genannten Berührungspunkte können in dieser Arbeit gleichermaßen systematisiert werden. Der Schwerpunkt dieser Arbeit liegt im Vergleich zwischen menschlicher und künstlicher Intelligenz, einer philosophischen Kritik transhumanistischer Entwürfe und einer Ausarbeitung grundlegender ethischer Einsichten in Anwendungsfragen bei der Implementierung von Technologien mit künstlicher Intelligenz. Dennoch umkreist das Sachgebiet der künstlichen Intelligenz zahlreiche philosophische Grundfragen. An dieser Stelle sei als Überblick skizziert, in welchen philosophischen Teildisziplinen durch die Auseinandersetzung mit den Technologien der künstlichen Intelligenz Fragen und philosophische Probleme aufkommen, welche eine systematische Untersuchung verdienen. Das Kapitel dient daher einem Überblick und einer Hinführung. Die Weite und Komplexität der Thematik wird dabei nur angerissen. Dennoch bildet die Darstellung der Thematik in seiner Vielschichtigkeit und Multiperspektivität bereits einen Einstieg in die 43
2 Künstliche Intelligenz und Transhumanismus
wechselseitigen Bezüge, die nicht in einer isolierten Betrachtung einzelner Phänomene eingefangen werden könnten. In der Beschäftigung mit den Implikationen und Deutungsparadigmen von künstlicher Intelligenz kommt die philosophische Forschung nicht daran vorbei, sich von den technologischen Veränderungen und Entwicklungen auch selbst infrage stellen zu lassen, denn viele philosophische Thesen, die in den letzten Jahrhunderten ohne Möglichkeit einer praktischtechnischen Validitätsprüfung in philosophischen Debatten diskutiert wurden, konnten in den technologischen Entwicklungen nun tatsächlich eine Umsetzung erfahren. „Die Maschine Mensch“ von Julien Offray de la Mettrie zählt hierzu ebenso wie die autonomen Automaten von Descartes. Nicht ganz so offensichtlich, aber doch von fundamentaler Bedeutung für die Philosophie ist das seit der Aufklärung verfolgte Projekt der vollständigen Formalisierung der menschlichen Sprache und des Weltwissens. Die Frage nach der Möglichkeit formaler Wissensrepräsentation ist von einer sprachphilosophischen Fundamentalfrage zum technischen Projekt geworden. Die Probleme, die in der Computerentwicklung aufgetreten sind, haben auch für die philosophischen Diskurse eine Bedeutung. Tatsächlich berühren die Entwicklungen der künstlichen Intelligenz die folgenden philosophischen Disziplinen: Sprachphilosophie, Epistemologie und Erkenntnistheorie, Ethik und Moralphilosophie, Gesellschafts- und Sozialphilosophie, Rechtsphilosophie und politische Philosophie, Metaphysik, Religionsphilosophie und Anthropologie. Der hier entwickelte Überblick soll einer Einbettung der vorliegenden Fragestellung in das weite Feld philosophischen Fragens dienen. Damit wird gleichzeitig eine Komplexität aufgezeigt, unter der die Thematik diskutiert werden muss. Epistemologie, Erkenntnistheorie, Wissenschaftstheorie Künstliche Intelligenz muss, um in verschiedenen Kontexten zu funktionieren, bzw. zu agieren, auf eine Wissensbasis zugreifen können. Da künstliche Intelligenz in Zahlen, Symbolen und Funktionen operiert, muss der Kontext, in welchem die künstliche Intelligenz eingesetzt werden soll, so weit wie möglich in eine formalisierte mathematische Sprache übersetzt werden. Klassische Logik und Prädikatenlogik bilden für die klassische KI die architektonische Basis, gestützt von statistischen und probabilistischen Elementen, um auch komplexe und vage Kontexte für KI-Systeme zu erschließen. Auch neuronale Netze bedienen sich der Quantifizierung, also der Übersetzung von äußerem Input in Zahlen, mit denen dann innerhalb des Netzwerkes operiert wird. In der Architektur von künstlicher Intelligenz findet damit das Projekt einer vollständigen Mathematisierung und Formalisierung der Welt, wie es z. B. Galilei vorschwebte, eine technische Entsprechung. Diese Position geht davon aus, dass sämtliches Wissen über die Welt vollständig formalisierbar ist und damit in die Sprache der Mathematik übertragen werden kann, ohne dabei an semantischem Gehalt einzubüßen. In den Versuchen 44
2.2 Philosophie und künstliche Intelligenz
der technischen Rekonstruktion, die durch erste Erfolge sehr optimistische Prognosen für die weitere Entwicklung evozierten, zeigte sich jedoch bald eine Ernüchterung: Das Weltwissen einer menschlichen Person ist ohne Weiteres nicht formalisierbar. Computer konnten zwar bald den Menschen in mathematischen, logischen und datenverarbeitenden Kompetenzen überholen. Auch in der Repräsentation von Expertenwissen mit KI konnten Erfolge erzielt werden. Doch die Bewältigung einer einfachen Alltagssituation, die für viele Menschen kaum als sonderlich intelligente Leistung bezeichnet werden kann, erwies sich als so komplex, dass die beste maschinelle Intelligenz davon überfordert war. Anfangs orientierten sich KI-Forschungen auf die Simulation von Rechenschritten und simulierten logische Denk-, Analyse und Schlussfolgerungsprozesse mithilfe von mathematischen Rechenschritten und deren Verschaltungen.31 Computer konnten tatsächlich bald wesentlich besser rechnen und logisch denken als Menschen, was durchaus als Kränkung des menschlichen Selbstbewusstseins aufgefasst werden könnte, da man lange dachte, dass Rechnen und logisches Denken eine der Königsdisziplinen des menschlichen Geistes wäre. Wir lernen durch das, was Computer nicht oder ausgesprochen schlecht können, viel über die Beschaffenheit und die Qualitäten menschlicher Intelligenz und haben nicht nur die Notwendigkeit, sondern auch die Chance, uns im Zuge der Herausforderung einer Neuorientierung, irrtümliche Aspekte bisheriger Anthropologie zu verwerfen und neue Aspekte stärker in den Blick zu nehmen. So können Menschen zum Beispiel im Vergleich zu KI ausgesprochen gut mit unpräziser und lückenhafter Information umgehen.32 Erstaunlich viele Probleme löst der Mensch nicht mithilfe von logischem Denken.33 Daher werden seit einiger Zeit in der KI-Forschung nicht nur lineare Modelle wie von Turing, sondern auch neuronale Netzwerke eingesetzt, deren Arbeitsweise an der der des Gehirns angelehnt ist. Gerade im Bereich Mustererkennung und Lernfähigkeit erweisen sich neuronale Netzwerke als weitaus leistungsfähiger als klassische lineare KI.34 Weitere technische Möglichkeiten zur Generation von KI sind derzeit in Entwicklung.35 Die verschiedenen Modelle lassen sich jedoch nicht ohne weiteres auf Ewald, Günter: Gehirn, Seele und Computer. Der Mensch im Quantenzeitalter, a. a. O., S. 20–24. Irrgang, Bernhard: Posthumanes Menschsein. Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und Designer-Menschen – Anthropologie des künstlichen Menschen im 21. Jahrhundert, Wiesbaden 2005, S. 119f. 33 Vgl. Irrgang, Bernhard: Gehirn und leiblicher Geist. Phänomenologisch-hermeneutische Philosophie des Geistes, Stuttgart 2007. Irrgang unterteilt u. a. folgende Aspekte menschlicher Intelligenz: „1. emotionale Intelligenz, 2. sensomotorische Intelligenz, 3. Erfahrung und mentale Intelligenz, 4. sprachlich hermeneutische Intelligenz und 5. Handlungs- und Entscheidungsintelligenz“ (ebd., S. 177). Keiner der Aspekte lässt sich auf Logik reduzieren. 34 Teichert, Dieter: Einführung in die Philosophie des Geistes, Darmstadt 2006, S. 128f. 35 Dazu gehört z. B. der bereits eingeschränkt funktionierende Quantencomputer, vgl. Ewald, Günter: Gehirn, Seele und Computer. Der Mensch im Quantenzeitalter, a. a. O., S. 59f. 31
32
45
2 Künstliche Intelligenz und Transhumanismus
einander übertragen und gehen von grundlegend verschiedenen Grundbausteinen aus. Der Optimismus von Neurowissenschaftlern und Informatikern, das menschliche Gehirn innerhalb von wenigen Jahren vollständig zu entschlüsseln und nachzubilden, stieß zwar immer wieder an Grenzen und optimistische Prognosen mussten häufig revidiert werden. Allerdings erfolgen auch immer wieder Durchbrüche der technologischen Innovation, die bisher scheinbar Unmögliches ermöglichten. Prognosen zu technologischen Entwicklungen schwanken zwischen den Extremen absoluter Spekulation, die sich in inhaltlicher Nähe zu literarischer Science-Fiction befinden und Überlegungen, die auf dem gegenwärtig Machbaren gründen und meist recht nüchterner Natur sind. Das Projekt des Transhumanismus ist jedoch längst über die Schwelle von Nischenforschung und harmloser technischer Neugierde hinaus zu einem globalgesellschaftlich relevanten Phänomen geworden, das der vernunftkritischen Einordnung bedarf. Optimisten der Forschung bedienen sich angesichts solcher Rückschläge schnell eines „noch nicht“ – zukünftige Entwicklungen würden die Defizite rasch einholen. Doch wenn hochkomplexe Rechenmaschinen, deren rechnerisch-mathematische und datenverarbeitende Fähigkeiten von keinem Menschen eingeholt werden können, in einer offenen Interaktion mit einem normalen Menschen an ihre Grenzen kommen, dann legt dies den Schluss nahe, dass menschliche Intelligenz im Allgemeinen keinesfalls einer rein logischen Rationalität entspricht, sondern dass letztere nur eine Facette einer wesentlich komplexeren oder grundverschiedenen Struktur ist. Die technische Rekonstruktion von Weltwissen bzw. Erfahrungswissen ist jedenfalls in den Entwicklungen der klassischen KI vorerst gescheitert.36 Für die Philosophie bedeutet dieses Scheitern, dass auch Grundkonzepte, die von einer vollständigen Formalisierung menschlichen Wissens ausgehen, revidiert werden müssen, um auch den Aspekten menschlicher Intelligenz Rechnung zu tragen, die sich nicht in einer logischen Rationalität erschöpfen. Bereits Husserl griff in seiner Krisis der europäischen Wissenschaften diese Position der „Mathematisierung der Natur“ und der „Sinnentleerung der mathematischen Naturwissenschaft in der ‚Technisierung‘“ radikal an.37 Seitdem ist der Begriff der Lebenswelt und des lebensweltlichen Wissens, welches auf einem Leib-Apriori gründet, neu ausformuliert worden, u. a. von Welter38 und Merleau-Ponty.39 Dreyfus, Hubert L.: Die Grenzen künstlicher Intelligenz. Was Computer nicht können, Königstein im Taunus 1985, S. 150f. 37 Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, Hamburg 1996, S. 49. 38 Welter, Rüdiger: Der Begriff der Lebenswelt. Theorien vortheoretischer Erfahrungswelt, München 1986. 39 Vgl. Merleau-Ponty, Maurice: Phänomenologie der Wahrnehmung, Berlin 1966, S. 89ff. Vgl. MerleauPonty, Maurice: Das Primat der Wahrnehmung, Frankfurt am Main 2003. 36
46
2.2 Philosophie und künstliche Intelligenz
Sprachphilosophie Die Einsicht in die Grenzen der Formalisierbarkeit menschlichen Wissens ist auch auf die Sprachphilosophie übertragbar. Analytisch vorweggenommen wurde dies bereits von Wittgenstein und Heidegger. Während Wittgenstein in seinen frühen Jahren im Tractatus noch eine vollständige Formalisierung der Welt anstrebte, um zu einer gänzlich exakten Sprache zu gelangen, kam er später in seinen Philosophischen Untersuchungen zu der Einsicht, dass eine vollständige Formalisierung der menschlichen Sprache nicht möglich ist, wobei er seine frühen Ansätze revidierte und erweiterte. Menschliche Sprache erweist sich immer als kontextgebunden, interaktionsgebunden, hat pragmatische und lebensweltlich-praktische Bezüge, die nie vollständig analytisch eingeholt werden können, ohne große Teile ihres Sinngehalts einzubüßen. Martin Heidegger erarbeitete aus einer anderen Perspektive heraus die Abhängigkeit menschlicher Sprache von dessen Existenzgrund als In-der-Welt-Sein des Menschen.40 Die Welt als Kontext von Existenz, Handeln, Selbstentfaltung und Sinnerschließung geht dem einzelnen Menschen voraus, ohne dass er diese Kontexte je vollständig rekonstruieren und rational erfassen könnte. Beide Philosophen wurden in philosophischen Analysen zu künstlicher Intelligenz bereits rezipiert.41 Der zunächst philosophisch-theoretische Charakter ihrer Überlegungen erwies sich als zutreffend für die praktischen Probleme von Sprache, mit denen KI-Entwicklungen konfrontiert waren. Die Entwicklungen der künstlichen Intelligenz haben durch die technische Konstruktion von künstlichen Agenten, deren Interaktionsmechanismen gänzlich in einer formallogischen Architektur festgeschrieben sind, die Grenzen der formallogischen Reduktion von menschlicher Sprache aufgezeigt. Die Vorstellung einer vollständigen Quantifizierbarkeit und Formalisierung des Weltwissens für eine KI in einer rein logisch-formalen Sprache war in der Frühphase der KI-Entwicklung noch verbreitet und ein Antrieb für hohe Erwartungen im technologischen Fortschritt. Diese Erwartungen wurden gedämpft und enttäuscht, als klar wurde, dass eine künstliche Intelligenz, die in einer formalen Logik operieren muss, angesichts von menschlicher Alltagssprache überfordert ist. Menschliche Sprache verbindet vages Wissen, Multidimensionalität, Kontextualität, soziale, emotionale, pragmatische Aspekte und die Möglichkeiten ihrer Deutung sind nahezu unerschöpflich. Selbst im Vollzug des Sprechakts sind dem Sprechenden die vielen Facetten der Bedeutungsmöglichkeiten selten Vgl. zur Systematisierung der Ansätze von Wittgenstein und Heidegger: Rentsch, Thomas: Heidegger und Wittgenstein. Existential- und Sprachanalysen zu den Grundlagen philosophischer Anthropologie, Stuttgart 1985. 41 Vgl. z. B. Dreyfus, Hubert L. und Dreyfus, Stuart E.: Einen Geist bauen gegen ein Gehirn modellieren: Künstliche Intelligenz wieder an der Abzweigung, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 15–44, dort S. 43. 40
47
2 Künstliche Intelligenz und Transhumanismus
bewusst; im interpersonalen Diskurs müssen immer wieder unsichere, vermutete, missverständliche Elemente eingeholt werden und in diesem Prozess selbst eröffnen sich schon wieder neue Bedeutungsdimensionen. Nur durch diese Aspekte der Offenheit, der Unsicherheit und der Unverfügbarkeit von Sprache kann sie das Medium bilden, in dem sich Vertrauen und Sinnstiftung zwischen Menschen konstituieren. Die Frage: Zu wie viel Prozent trifft die Aussage „Ich liebe dich“ zu? ist sinnlos. Der Gehalt einer solchen Aussage wie „Ich liebe dich“ ist nicht rein informativ, sondern gleichzeitig performativ: Etwas zunächst Verborgenes wird offenbart und damit ein Verhältnis gesetzt, dem zwar vom Gegenüber unterschiedlich begegnet werden kann, das aber nicht mehr einfach zurückgenommen werden kann. Eine neue Bedeutungsdimension für alle weiteren Handlungen zwischen zwei Menschen ist hinzugekommen und offensichtlich geworden. Gleichzeitig lebt eine solche Aussage von ihrer Unmöglichkeit, in eine formale Vertragssprache übersetzt zu werden. Kein Versprechen, täglich morgens einen Kaffee zu servieren, regelmäßig Blumen zu schenken, sexuelle Befriedigung zu gewähren oder gemeinsamen Nachwuchs zu generieren, ginge in dieser vieldeutigen Aussage auf – und doch schwingen die kulturellen Assoziationen mit, die über Jahrtausende mit diesem spezifischen Interaktionsverhältnis zweier Menschen tradiert sind. Wie die konkrete Entfaltung in der Lebenswelt dieser Menschen aussehen kann, bleibt gänzlich offen und nur dadurch ist ein Raum von Freiheit denkbar, in welchem sich Menschen aneinander binden. Wäre eine Liebeserklärung programmatisch und gänzlich in eine analytische Sprache übertragbar, selbst mit allen denkbaren Assoziationen, so wäre doch in allem Überfluss eine gewisse Langeweile nicht wegzudenken. Berechenbarkeit ist mit Überraschung nicht vereinbar. Menschliche Sprache stiftet aber durch die Vieldimensionalität ihres Informationsgehalts und durch die Parallelität von Information und Performation immer einen Raum offener Handlungsmöglichkeiten und vielfältiger Verhaltensoptionen. Kritische Theorie Der Begriff des Wissens ist in der Aufklärung auch mit dem Begriff der Naturbeherrschung in Verbindung gebracht worden.42 Die sakral-spirituelle Welt wurde mit der Quantifizierung und Formalisierung dem empirisch-forschenden Geist und der technischen Gestaltbarkeit unterworfen. Das Projekt der allumfassenden Welterschließung wurde damit auch zum Herrschaftsanspruch über das All. Wenn kein „Rest“ bleibt, welcher der Übersetzung der Welt in
Adorno, Theodor W. und Horkheimer, Max: Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt am Main 1990, S. 19. Vgl. Bacon, Francis: In Praise of Knowledge. Miscellaneous Tracts Upon Human Philosophy, London 1825, Bd. 1, S. 254f, zit. nach Adorno und Horkheimer: Dialektik der Aufklärung, a. a. O., S. 10.
42
48
2.2 Philosophie und künstliche Intelligenz
die Sprache der Mathematik mithilfe von empirischer Messung (Quantifizierung) und wissenschaftlicher Theoriebildung (Formalisierung) sich entziehen kann, dann schlägt Allwissenheit in Allmachtsanspruch um. Im 20. Jahrhundert als Jahrhundert der philosophischen Kritik artikulierten Philosophen verschiedener Schulen das problematische Spannungsfeld von Wissen und Macht.43 Angesichts der Möglichkeit digitaler Überwachung bis zur nahezu vollständigen Transparenz sind Foucaults Analysen zum Panoptikum von neuer Brisanz.44 Die Normativität des Epistemischen wird damit selbst Gegenstand der philosophischen Kritik. Wissen über den Menschen wird durch Prozesse der Digitalisierung in einem nicht abschätzbaren Ausmaß quantifizierbar, verwertbar und kontrollierbar. Durch die Monopolisierung von Informationen können neue Machtstrukturen entstehen, welche die Grundlagen einer freien Diskursgesellschaft unterlaufen könnten. Die moralische Problematik um das Verhältnis von Wissen und Macht, welches u. a. von Theodor W. Adorno, Max Horkheimer und Michel Foucault herausgearbeitet worden ist, findet hier eine technikethische Parallele. Ansätze zum Verhältnis des Epistemischen zum Normativen können als Verbindung von Erkenntnistheorie und Moralphilosophie interpretiert werden. Wissen ist demnach nicht ethisch neutral, sondern selbst immer gleichzeitig normativ. Erkenntnistheorie berührt die Ebene des Normativen. Machtkritik schlägt wieder in Erkenntniskritik um, wenn Grenzen des Wissens sich als unhintergehbar für die Möglichkeit freien Handelns und eines würdevollen Selbstverständnisses des Menschen erweisen. Ethik Die Ethik selbst ist vielschichtig. Für eine philosophische Ethik muss daher differenziert werden, auf welchen Ebenen eine philosophische Argumentation zu einer technologischen Entwicklung sich verorten kann und muss. Im Folgenden sollen Ebenen der Ethik und Moralphilosophie skizziert werden, die sich für eine normative Beurteilung von Computertechnologien mit künstlicher Intelligenz als relevant erweisen. In einer Ebene der systematischen Moralphilosophie wird nach den Grundlagen der Moralität und Normativität gefragt. Worin gründet überhaupt das Bedürfnis nach Normativität? Wie konstituiert sich Moral? Welche normativen Grundlagen können systematisch begründet Vgl. Rentsch, Thomas: Philosophie des 20. Jahrhunderts, München 2014. Rentsch stellt in seiner knappen Philosophiegeschichte die Vernunftkritik als verbindende Linie zwischen den unterschiedlichen Schulen und Ausrichtungen der Philosophie des 20. Jahrhunderts dar. Explizit auf das Spannungsfeld zwischen Wissen und Macht beziehen sich z. B. Adorno und Horkheimer ebenso wie Michel Foucault. 44 Vgl. Foucault, Michel: Überwachen und Strafen. Die Geburt des Gefängnisses, in: Ders: Die Hauptwerke, Frankfurt am Main 2013, S. 701–1019, dort S. 900f. Vgl. Kap. 3.2.8 dieser Arbeit. 43
49
2 Künstliche Intelligenz und Transhumanismus
werden? Wenn wir auf die Grundbedingungen von Moral und Normativität nicht reflektieren, dann verflacht auch eine Reflexion auf das Verhältnis von Normativität und Technik. Unter der Perspektive einer anthropologischen Ethik werfen die Entwicklungen von künstlicher Intelligenz und Robotik zahlreiche Fragen auf. Sie zielen auch auf die konstitutiven Bedingungen für den Begriff der Menschenwürde, der gerade unter der Debatte um den rechtlichen Status von Robotern neu diskutiert und rekonstruiert werden muss. Diese Überlegungen und Diskurse sind für die normative Einordnung von Computertechnologien mit künstlicher Intelligenz in zwei Perspektiven der philosophischen Ethik relevant: für eine Perspektive der Technikethik sowie für einen Ansatz von Maschinenethik. Die Technikethik fragt nach normativen Orientierungen für den Umgang mit Technik. Wie können wir unsere Vorstellungen von Moralität und Normativität auf unseren Umgang mit Technik übertragen? Und wie verändert unser Umgang mit Technik wiederum unsere Vorstellungen von Moral? Die Maschinenethik fragt von einer anderen Perspektive aus nach dem Verhältnis von Technik und Moral. In der Entwicklung von immer komplexeren automatisierten Systemen werden technische Konstrukteure selbst mit moralischen Fragestellungen konfrontiert. Wie soll ein vollautomatisiertes System mit einem Zwischenfall verfahren, der für einen menschlichen Akteur als moralische Entscheidung gelten würde? Für die Entwicklung vollautomatisierter Verkehrsmittel, für die Konstruktion automatisierter Waffentechnik, aber auch für Assistenzsysteme, z. B. im Bereich der Pflegerobotik werden diese Fragestellungen relevant. Ziel dieser Perspektive ist es, menschliche Moralvorstellungen in technische Systeme soweit zu implementieren, dass deren Anwendungen ethisch vertretbar werden. Um zu diskutieren, inwieweit künstliche Systeme selbst als moralische Akteure zu interpretieren sind, geht damit auch eine Reflexion auf die Grundlagen der Moralphilosophie im Anschluss an eine anthropologische Ethik einher. Eine weitere Perspektive der philosophischen Ethik zielt auf das Verhältnis von Technologie und Gesellschaft auf einer kultur- und geschichtsphilosophischen Ebene. Wie verändern die neuen Technologien unsere Gesellschaft und Kultur? Ein solcher Ansatz kann verschiedene Schwerpunkte setzen. Unter einer sozial- und gesellschaftsphilosophischen Perspektive können die Veränderungen der Kommunikationsformen, der Sozialität und der gesellschaftlichen Prozesse und Umgangsformen diskutiert werden. Philosophiehistorisch kann dabei im Anschluss an Aspekte der Kritischen Theorie die Tradition positivistischer Wissenschaftlichkeit und Technik als methodischer Zugang zur Verfügbarmachung der Welt problematisiert werden. Die Verselbständigung einer instrumentellen Rationalität, welche auch vor dem Menschen selbst nicht haltmacht, kennzeichnet eine Ausweitung des technizistischen Ansatzes, welche auch die sozialen Systeme einer demokratischen Gesellschaft verändert. Als Zuspitzung können Utopien und Dystopien zur Grundlage für eine ethische Diskussion dienen, welche 50
2.2 Philosophie und künstliche Intelligenz
schließlich für Fragen der angewandten Ethik relevant werden können. Sie berühren damit auch die Ebene der politischen Philosophie. Da technologische Entwicklungen auch vor dem Hintergrund von Marktökonomie, Wettbewerb und wirtschaftlicher Effizienz erfolgen, dient die Verselbständigung einer technisch-instrumentellen Rationalität auch einer Verselbständigung von ökonomischem Kapital. Indem Computertechnologien mit künstlicher Intelligenz formalisierbare Prozesse vollautomatisch bearbeiten können, beinhaltet die technologische Weiterentwicklung auch das Potential einer zunehmenden Verselbständigung und Akzeleration marktökonomischer Dynamiken. Eine weitere Perspektive gesellschaftsphilosophischer Reflexion findet auf der Ebene der Rechtsphilosophie statt, welche auf die Prinzipien der juristischen Praxis reflektiert. Wenn Technologie und Mensch verschmelzen, dann muss das Verhältnis von Mensch und Technik neu diskutiert werden. Dies kann beispielsweise in Fragen des Human Enhancement relevant werden, wenn also technische Bestandteile in einen Organismus implementiert werden. Rechtsphilosophische Fragen treten auch auf, wenn robotische Systeme selbst als „moralische Akteure“ operieren sollen, d. h. wenn sie in Kontexten eingesetzt werden, in denen üblicherweise Menschen Entscheidungen treffen, die im Bereich moralischer Orientierungen abgewogen werden müssen. Für Fragen der angewandten Ethik wiederum können die genannten Ebenen sich auf konkrete Anwendungsfälle beziehen. Die Analysen zielen dann auf eine differenzierte Analyse gegenüber konkreter Anwendungsfragen, für deren Beurteilung jedoch auch andere Ebenen der philosophischen Ethik einbezogen werden müssen. Ebenso sollten in jeder systematischen normativen Analyse mit dem Anspruch einer angewandten Ethik auch die kontextbezogenen ethischen Diskurse reflektiert werden. Schließlich kann für eine Perspektive der Individualethik eine Reflexion auf den Umgang mit technologischen Veränderungen erschlossen werden. Wie verhalte ich mich gegenüber den technologischen Innovationen und den damit einhergehenden gesellschaftlichen Veränderungen? Die hier skizzierten Ebenen der philosophischen Ethik können selbstverständlich nicht vollständig gegeneinander abgegrenzt werden, sondern überschneiden sich und beziehen sich teilweise auch aufeinander. Dennoch kann eine Differenzierung für eine Systematisierung der normativen Fragestellungen helfen, die sich in einer philosophischen Analyse von Computertechnologien mit künstlicher Intelligenz ergeben. Moralphilosophische Grundfragen einer anthropologischen Ethik Die Frage nach den Grundlagen der Moralität, nach dem „guten Leben“, nach Gerechtigkeit, nach normativen Orientierungen ist bereits in den Anfängen der Geistesgeschichte der 51
2 Künstliche Intelligenz und Transhumanismus
Menschheit dokumentiert. Sie stellt sich vor dem Hintergrund der Fragilität des Menschen. Der Mensch ist leidensfähig und erlebt seine eigene Existenz als fragil, zerbrechlich. Moralphilosophische Reflexionen finden besonders starke Ausformulierungen und Diskurse nach dem Erleben von Zerbruch und moralischem Scheitern. Angesichts der Conquista Lateinamerikas, welcher unzählige Menschen der indigenen Bevölkerung zum Opfer fielen, wurden erste philosophische Entwürfe für eine universelle Menschenwürde formuliert.45 Auch nach dem Ende des zweiten Weltkrieges und dem Schrecken des Holocaustes wurden moralphilosophische Fragestellungen nach Fragilität, Schuld und Verantwortung neu thematisiert. Ethik und Moral sind Antworten auf die Zerbrechlichkeit des Menschen. Angesichts dieser erlebt sich der Mensch auch als fehlbar. Das Erleben von Fragilität und Fehlbarkeit führt zur Frage nach Schuld und Verantwortung sowie den Grundbedingungen der Moralität. Welche normativen Orientierungen gelten für die menschliche Lebenspraxis? Angesichts des Scheiterns verschiedener expliziter normativer Programme hat sich im 20. Jahrhundert der Fokus auf Aspekte der Kritik des Affirmativen vertieft. Eine solche Wende folgt der Einsicht in das Scheitern formalistischer Programme für eine ethische Vollkommenheit der menschlichen Lebenspraxis. Dennoch rekurrieren auch solche Kritiken des Affirmativen auf den Anspruch, der existentiellen Suche nach normativer Orientierung des Menschen Rechnung zu tragen. Diese Suche nach normativer Orientierung erweist sich aber als unabschließbar und offen. Regelwerke und formalistische ethische Programme entlasten den Menschen nie in allen Kontexten von der Verantwortung moralischer Autonomie. Stattdessen erweist sich die Moralität des Menschen als grundlegend offen, bis hin zur letzten Sinnorientierung. Auch in der Suche nach „Selbsterkenntnis“ im Sinne eines Fragens nach eigenen Sinnstrukturen und Handlungsmotiven erlebt sich der Mensch als letztlich unverfügbar. Sogar die eigenen Antriebe, Wünsche, Motive, Sehnsüchte und Verhaltensmuster sind dem Menschen immer nur annähernd zugänglich. Die existentielle Hinwendung der Moralkritik zum individuellen Menschen erweist sich damit ebenso als entzogen und unverfügbar, als transzendent. Ein zentraler Begriff, der für die Diskussion dabei rekonstruiert werden muss, ist der Begriff der Menschenwürde. In säkular geprägten Ethiken kann eine Herleitung der Würde des Menschen nicht mehr dogmatisch durch eine „Gottesebenbildlichkeit“ begründet werden. Dennoch erweist sich der Würdebegriff als axiomatisch für jede Moralphilosophie. Mit Immanuel Kant kann dieser zur Grundlegung von Moralität vernunftkritisch rekonstruiert
45
Der Jesuit Francisco Suárez erarbeitete systematische Ansätze für eine naturrechtliche Begründung des Völkerrechts, vgl. Suárez, Francisco: De legibus / Über die Gesetze, zweites Buch: De lege aeterna et naturali, ac iure gentium / Das ewige Gesetz, das natürliche Gesetz und das Völkerrecht, Stuttgart– Bad Cannstatt 2016.
52
2.2 Philosophie und künstliche Intelligenz
werden. Auch wenn Kant sich auf theistische Begründungsstrukturen bezieht, erschließt sich der Sinn des zweiten kategorischen Imperativs, einen anderen Menschen niemals nur als Mittel, sondern immer zugleich als Zweck in sich selbst zu behandeln, auch für eine säkulare Moralphilosophie. Würde wird in diesem Sinn axiomatisch aufgefasst, als Vorbedingung für Normativität und Moralität. Wenn der Mensch keine Würde hat, dann wird seine Fragilität nicht mehr zur Bedingung von Moral. Er stellt sich dann unter sozialdarwinistische Bestimmungen des unerbittlichen Wettbewerbs. Eine Entfaltung normativer Orientierungen, die sich an der Fragilität und Fehlbarkeit des Menschen orientieren, verliert dann ihre Grundlage. Für die Frage nach dem Verhältnis von Moralphilosophie und Computertechnologien mit künstlicher Intelligenz ist eine Reflexion auf die konstitutiven Grundbedingungen der menschlichen Moralität wichtig. Da algorithmische Programme auf formallogischen Strukturen aufbauen, entbehren sie der existentiellen Offenheit letzter Sinnorientierungen, die für die Konstitution der menschlichen Moralität wesentlich ist. Indem in transhumanistischen Entwürfen die Fragilität und Fehlbarkeit des Menschen nicht als konstitutive Bestimmungen für moralische Orientierungen gedeutet werden, sondern technische Defizite in der Funktionalität eines Organismus sein sollen, wird die Ebene dessen unterlaufen, was die Moralität des Menschen wesentlich begründet. Wenn für eine künstliche Intelligenz Werte formalisiert werden, können diese sich leicht selbst verselbständigen. Der Imperativ der Leidminimierung auf der Welt könnte beispielsweise rein rechnerisch am leichtesten durch die Auslöschung des organischen Lebens realisiert werden. Empfindungsfähigkeit impliziert Schmerzfähigkeit – nur empfindungslose Wesen könnten ohne Leid existieren. Kein menschlicher Wert kann isoliert, quantifiziert oder formalisiert werden, um eine anthropomorphe Roboterethik zu entwickeln. Menschliche Ethik erweist sich hingegen immer als ergebnisoffen verhandelte, historisch bedingte, nicht letztbegründbare Ethik. Sie muss in jeder menschlichen Generation neu vermittelt, ausgehandelt, gedeutet werden und wird in jedem Rekonstruktionsprozess von den jeweiligen gesellschaftlichen Bedingungen neu kontextualisiert. Damit ist menschliche Ethik nie abgeschlossen und prinzipiell unabschließbar, weil die Varianz neuer Kontexte nie im Vorfeld abschätzbar sein kann. Sie gründet in ihrer Multidimensionalität gerade im Bewusstsein der Gefahr moralischen Scheiterns. Gerade weil Menschen vor sich selbst erschrecken können – wie die Totalitarismusgeschichte des 20. Jahrhunderts unleugbar skizziert – muss der Mensch über die Möglichkeiten und Grundbedingungen menschlichen Verhaltens reflektieren und sich ethischen Fragen stellen. Weil Menschen verletzlich sind, müssen sie vor Übergriffen rechtlich geschützt werden. Weil Menschen einander nicht kontrollieren können, müssen Menschen lernen, einander zu vertrauen und dieses Vertrauen kann im Angesicht eines möglichen Missbrauchs nur in stabilen Beziehungen und Gemeinschaften wachsen. Die 53
2 Künstliche Intelligenz und Transhumanismus
Sinndimensionen einer gelingenden menschlichen Lebenspraxis fußen daher in der Möglichkeit ihres Scheiterns. Weiterführende Fragen einer angewandten Technikethik oder Maschinenethik rekurrieren immer wieder auf die Grundbedingungen der Moralphilosophie, die sich aus einer anthropologischen Ethik herleiten. Technikethik Die normative Frage nach Möglichkeiten und Grenzen zur Einbettung von Technik konkretisiert sich in technikethischen Perspektiven. Die Weiterentwicklung der instrumentellen Rationalität des Menschen stellt diesen immer wieder vor die Herausforderungen der normativen Orientierung. Vom Werkzeuggebrauch bis zur Computertechnologie kann diese Weiterentwicklung unter dem Ziel der Verfügbarmachung der Natur interpretiert werden. Doch auch im Umgang mit seinen Instrumenten erlebt der Mensch seine Fragilität und Fehlbarkeit. Die Effizienz von Gewalt und Ausbeutung wächst mit den technologischen Entwicklungen mit. Technikethische Perspektiven rekurrieren daher immer wieder auf Grundfragen der Moralphilosophie und beziehen diese auf Veränderungsprozesse der technologischen Entwicklungen. In einer anthropologischen Ebene wird Technik dabei als Teil der Kultur des Menschen interpretiert, die in seiner Selbstbestimmung mit reflektiert werden muss. Im Verhältnis des Menschen zur Technik wirkt diese wiederum auf sein Selbstverständnis zurück. Je stärker das Verständnis des Menschen für technische Zusammenhänge wächst, je selbstverständlicher der Umgang des Menschen mit Technik wird, umso eher interpretiert der Mensch sich und Andere auch selbst aus einer technischen Perspektive heraus. Im Verhältnis zur Technik ist eine Tendenz zur technizistischen Rückkopplung enthalten, durch welche eine technische Perspektive sich auf den Menschen selbst beziehen lässt. „Die Maschine Mensch“ von La Mettrie oder die Computermetapher des Geistes sind Beispiele für eine solche Interpretation des Menschen aus einer technischen Perspektive heraus. Maschinenethik Mit Möglichkeiten zur Einbettung moralischer Grundannahmen in technische Systeme beschäftigt sich die Maschinenethik.46 Einerseits bezieht sich eine solche Perspektive auf die Frage, ob und inwieweit Maschinen selbst als moralische Akteure verstanden werden können. Andererseits werden Möglichkeiten diskutiert, wie moralische Grundlagen in automatisierte Vgl. Misselhorn, Catrin: Grundfragen der Maschinenethik, Stuttgart 2018.
46
54
2.2 Philosophie und künstliche Intelligenz
Systeme implementiert werden können. Damit steht die Maschinenethik an der Schnittstelle zwischen technischer Konstruktion und anthropologischer Moralphilosophie. Sie steht dabei vor der Herausforderung, Grundbestimmungen des Normativen in die architektonischen Strukturen automatisierter Systeme einzubetten, wobei moralische Prinzipien auf einer formallogischen Sprache abgebildet werden müssen. Moralität erfährt damit eine Überführung in funktionale, instrumentelle Bestimmungen. Sozialphilosophie und Gesellschaftsphilosophie In gesellschaftlichen Kontexten zeigt sich die Bedeutung von künstlicher Intelligenz in lebensweltlichen, sozialen, politischen und juristischen Dimensionen. Indem der Einzelne sich digitale Technik mit künstlicher Intelligenz zu eigen macht, lässt er sie zu einem Teil seiner alltäglichen Lebenswelt werden. Als praktische Anwendung ist sie keine technikphilosophische Utopie mehr, sondern Gegenstand alltäglicher Problembewältigung. Indem soziale Interaktion immer stärker mithilfe von digitalen Medien und intelligenten Netzwerksystemen gestaltet wird, bettet sich künstliche Intelligenz immer mehr in den natürlichen Umgang zwischen Menschen ein und verändert damit auch tradierte Umgangsformen, ohne sie jedoch zu ersetzen. Die Technisierung und Digitalisierung der Lebenswelt verändert die Kommunikationsformen der Gesellschaft. Zwischen die Kommunikation von Personen treten immer stärker technische Medien, deren Struktur die Art und Weise des Umgangs mitbestimmt. Unbeliebte Themen und Personen können weggeschaltet werden, ohne einen leiblich-existentiellen Konflikt eingehen zu müssen. Die gleichzeitige Vernetzung mit unzähligen Individuen, Gruppen, Konzernen und Informationen verdrängt das Bewusstsein für eine dennoch unhintergehbare leiblich-existentielle Präsenz. Das Verhältnis von Selbstwahrnehmung und Fremdwahrnehmung verändert sich durch eine immer größere Gestaltbarkeit der nach außen getragenen Identität. Die Webpräsenz des Selbst kann gemäß tagesaktueller Leitbilder und Ideale optimiert werden. Die Auswahl der Informationen, welche das digitale Bild einer Person ausmachen, kann auf Status, Bestätigung und Anerkennung zugeschnitten werden. Eine Gefahr ist die zunehmende Diskrepanz zwischen dem optimierten nach außen getragenen Selbst und dem verborgenen, privaten, nicht so leicht optimierbaren Selbst. Die Möglichkeiten zur Optimierung lassen das Bewusstsein um Fragilität, Schwächen und Grenzen in den Hintergrund treten. Unser Verständnis von Technik wird dabei immer stärker geprägt von ihrer Bedeutung für die zwischenmenschliche Kommunikation und Organisation des Alltags. Grenzen zwischen Mensch und Technik verschwimmen für die lebensweltliche Praxis, wenn auch die Interaktion zwischen Mensch und Mensch zunehmend von einer Mittlerrolle der Technik geformt 55
2 Künstliche Intelligenz und Transhumanismus
und verändert wird.47 Zu einer gesellschaftsphilosophischen Ebene der Kritik aus einer kulturund geschichtsphilosophischen Perspektive können auch Untersuchungen zum Verhältnis von Utopien und Dystopien thematisiert werden, die in literarischen Entwürfen problematische Entwicklungen antizipieren und zuspitzen, um sie damit für eine Sprache gesellschaftsphilosophischer Kritik aufzuschließen. Politische Philosophie Die Relevanz personenbezogener Daten erhöht sich, wenn Daten als Ressource gesehen werden, deren marktwirtschaftliche Nutzung maximiert werden soll. Damit geht die drohende Reduktion des Menschen auf seine Daten, seine Quantifizierbarkeit einher, welche sich in einer liberaldemokratischen Marktwirtschaft zunächst noch darauf konzentriert, in digitalen Marktplätzen von individuell vorhersehbarem Konsumverhalten zu profitieren. Doch die Individualisierung und die Pluralität von digitalen Lebenswelten und Sozialitäten erhöht auch die Bedeutung von politisch relevanten Informationen. Für die politische Willensbildung und Reglementierung der technologischen Entwicklungen bildet die lebensweltliche und gesellschaftliche Verwurzelung der Technologie eine wichtige Grundlage. Wer kann welche Themen und Informationen zugänglich machen und bietet dafür Märkte, die auch entsprechend frequentiert werden? Sowohl Wirtschaft als auch Politik stehen vor dem Problem des Marketings mit der Tendenz, dass politische Themen nach denselben Paradigmen sich den Dynamiken digitaler Marktplätze einfügen müssen wie klassischer Warenhandel. Damit einher geht auch die Gefahr einer zunehmenden Ökonomisierung der gesamten politischen Praxis. Die Zuspitzung der Bedrohung für marktliberale Demokratien wäre eine Monopolbildung digitaler Informationsflüsse, womit eine Verschiebung der politischen Macht vom politischen Mandatsträger hin zum globalen Kapitalunternehmen einherginge.48 Noch bedrohlicher sind die Missbrauchsmöglichkeiten der neuen Technologien für autoritäre Systeme. Autoritären Systemen bietet die grundsätzliche Möglichkeit der totalen Beobachtbarkeit, Quantifizierbarkeit und Formalisierbarkeit individuellen Verhaltens die Grundlage für die Schaffung eines totalitären Staates. Der gläserne Bürger entsteht durch die totale Überwachung mithilfe einer umfassenden Digitalisierung in ihrer Verbindung mit künstlicher Intelligenz, welche die Nutzbarmachung der ungeheuren Datenmenge erst praktikabel macht. Gegenwärtig zeigen sich Entwicklungen dieser Art am deutlichsten in China, wo ein Exemplarisch wurde dies im Film „Her“ von Spike Jonze thematisiert. Der Protagonist verliebt sich nach seiner gescheiterten Beziehung in sein intelligentes und selbstlernendes Betriebssystem. Vgl. Spike Jonze (Reg.): Her. A Spike Jonze lovestory, Spielfilm, Hamburg 2014. 48 Vgl. den dystopischen Roman The Circle von Dave Eggers, in dem dieses Szenario ausformuliert wird. (Dave Eggers: The Circle, New York 2014.) Vgl. Kap. 3.2.9 dieser Arbeit. 47
56
2.2 Philosophie und künstliche Intelligenz
digitales Sozialpunktesystem (Social Credit System) geschaffen wurde, mit welchem die politische und soziale Erwünschtheit von Individuen in einer Zahl zusammengefasst wird.49 Es bildet eine Synthese verschiedener Lebensbereiche: öffentliche Überwachung, Ortungssysteme, digitale Bezahlsysteme, soziale Netzwerke etc. – alles kann vernetzt und in einem Datenpool zu einer Person zusammengeführt werden. In einer Zahl wird die politische und soziale Kompatibilität für das System zusammengefasst und abstrahiert. Die richtige Zahl wird zum Platzhalter für gewachsenes Vertrauen. Überwachbarkeit, Vermessbarkeit und Quantifizierbarkeit der gesamten individuellen Lebenswelt macht für autoritäre Systeme auch möglich, die ganze Lebenspraxis des Einzelnen politisch zu färben: Freundschaft zu halten mit politisch Andersdenkenden führt bereits zum Punktabzug, der Besitz bestimmter gespeicherter Informationen wird zum Kriminalakt. Die Formalisierung des gesamten Staatsapparats mithilfe von digitalen Daten und künstlicher Intelligenz führt dazu, dass in China auch Gerichtsprozesse vollständig formalisiert laufen können, anhand einer digitalen Auswertung aller Informationen, die über die betreffenden Personen vorliegen.50 Bislang sind noch menschliche Richter im Prozess beteiligt, doch schlägt das digitale System auch anhand des Vergleichs mit Daten über ähnliche bisherige Verfahren bereits ein Urteil und Strafmaß vor. In einer Provinz werden auch die Richter und Staatsanwälte selbst bereits durch eine künstliche Intelligenz ausgewertet und in einem Punktesystem in eine Rangordnung gebracht.51 Neu an den Entwicklungen ist die Totalität, mit welcher die individuelle Lebenswelt des Einzelnen mithilfe der digitalen Technik erfasst werden kann. Der Raum des Privaten, Verborgenen wird immer weiter zurückgedrängt. Ein formalisiertes System auf der Grundlage vollautomatischer Technik benötigt immer weniger natürliche Menschen, welche gegen die definierten Grenzen des Systems rebellieren könnten. Das System verselbständigt sich und ordnet auch diejenigen, die es bedienen, in ihre eigene Apparatur ein. Die Auseinandersetzung mit den gesellschaftlichen Entwicklungen in autoritären Systemen und auch die literarischen Entwürfe radikaler Utopien und Dystopien können helfen, um sich der tiefergreifenden Veränderungen bewusst zu werden, die mit dem technologischen Fortschritt und der zunehmenden Implementierung technologischer Produkte mit künstlicher Intelligenz in den Alltag menschlicher Lebenswelten einhergehen. Sowohl von Einzelnen als auch in gesellschaftlicher und politischer Dimension müssen defizitäre Aspekte und problematische Vgl. Mareike Ohlberg, Shazeda Ahmed, Bertram Lang: Central planning, local experiments. The complex implementation of China’s Social Credit System, in: MERICS, 12/2017, Berlin, S. 1–15. Vgl. auch Oganesian, Cristian und Heermann, Thorsten: China: Der durchleuchtete Mensch. Das chinesische Social-Credit-System, in: Zeitschrift für Datenschutz, 8/2018. 50 Lee, Kai-Fu: AI Superpowers. China, Silicon Valley und die neue Weltordnung, Frankfurt am Main 2019, S. 156. 51 Ebd. 49
57
2 Künstliche Intelligenz und Transhumanismus
Entwicklungen eingeholt und thematisiert werden. Dies kann in unterschiedlichen Situationen ganz unterschiedliche Grundfragen betreffen. So kann zum Beispiel die Bedeutung von Arbeit für den Sinnhorizont des menschlichen Lebens durch eine zunehmende Ersetzbarkeit des Menschen in Produktionsprozessen zum gesellschaftlichen Problem werden. Angesichts von zunehmender digitaler Vermessung menschlichen Verhaltens und einer immer größeren Transparenz der digitalen Welt kann das Verhältnis von gesellschaftlich-öffentlichem Leben und privat-verborgenem Leben zum neuen ethischen und rechtlichen Spannungsfeld werden, wenn die Dystopie einer vollständig transparenten Gesellschaft aufzeigt, wie stark menschlich-soziale Praxis von der Ebene verborgener Privatheit abhängig ist, damit Menschen einander als freie Individuen begegnen können. Systematisch hat Hannah Arendt in Vita activa den Zusammenhang zwischen dem „Raum des Öffentlichen“ und dem „Bereich des Privaten“ herausgearbeitet, deren Komplementarität erst eine genuine politische Praxis ermöglicht.52 Wenn Funktionalität und Leistungsfähigkeit zum Bewertungsmaßstab intelligenten Lebens werden, so stellt sich auch erneut die Frage nach dem Wert menschlichen Lebens in den Grenzen seiner Leistungsfähigkeit, in Krankheit, Alter, mit Behinderung, vorgeburtlich und in seinen natürlichen leiblichen Limitierungen. Wenn der Wert einer Person durch eine wie auch immer geartete Quantifizierung begründet wird, unterläuft eine solche Perspektive die Grundlagen der unbedingten Menschenwürde. Diese bezeichnet ein Bild des Menschen, welches ihn als grundsätzlich und unhintergehbar wertvoll begreift. Der Wert eines Individuums kann sich demnach in keiner Quantifizierung erschöpfen. Diese Unhintergehbarkeit findet eine Übertragung auch in der Frage nach Transparenz und Privatsphäre. Ein liberaler gesellschaftlicher Raum braucht auch einen Raum von Privatheit und Verborgenheit, durch welchen das Öffentliche und Politische sich erst hervorheben kann. Die Herausforderung für die gesetzgeberische Praxis ist die Vereinbarkeit von Innovation und Forschungsfreiheit in einer freien Marktwirtschaft mit einem Bewusstsein für Grenzen und Reglementierungen, wo technische Entwicklungen zu Konflikten mit unhintergehbaren gesellschaftlichen Werten führen können. In den Bereich der politischen Philosophie können auch Reflexionen auf das Verhältnis von technologischer Innovation und marktökonomischen Dynamiken verortet werden, insbesondere wenn sie nicht auf damit einhergehende
Vgl. Arendt, Hannah: Vita activa oder Vom tätigen Leben, München 1989, S. 27–75. Markus Jansen sieht in digitalen Kommunikationstechnologien einen Versuch, „systematisch das Private zu zerstören“ (Markus Jansen: Digitale Herrschaft. Über das Zeitalter der globalen Kontrolle und wie Transhumanismus und Synthetische Biologie das Leben neu definieren, Budapest 2015, S. 115.) Damit drohe letztlich auch eine „Uniformierung von Verhalten“ (ebd., S. 119). Literarisch hat Dave Eggers in seinem Roman The Circle das Ende der Privatsphäre durch eine vollständige Digitalisierung der menschlichen Lebenswelt und einer Monopolisierung der personenbezogenen Daten skizziert, vgl. Eggers, Dave: The Circle, New York 2014. Vgl. Kap. 3.2.9 dieser Arbeit.
52
58
2.2 Philosophie und künstliche Intelligenz
gesellschaftliche Veränderungsprozesse rekurrieren, sondern sich auch eine politische Dimension beziehen. Gesellschaftsphilosophische Perspektiven beinhalten oft politische Aspekte. So können dystopische Gesellschaftsentwürfe einerseits als Appell an den Einzelnen und als Appell an die Gesellschaft, andererseits auch als Appell an politische Strukturen und deren Mitverantwortung für die Bewältigung gesellschaftlicher Transformationsprozesse interpretiert werden. Rechtsphilosophie Die technologischen Fortschritte der künstlichen Intelligenz werfen zahlreiche juristische Fragen auf. Wenn eine künstliche Intelligenz autonome Entscheidungen trifft und in soziale, gesellschaftliche Interaktion tritt, vielleicht auch geschäftlich, kann sie dann als juristische Person gelten? Wer haftet, wenn ein autonom fahrendes Auto einen Unfall baut – der Besitzer des Autos, der Programmierer der KI, der Hersteller des Wagens oder gar das Auto selbst? Wer trägt die Verantwortung dafür, wenn durch autonome Waffensysteme Zivilisten sterben müssen, weil die autonom lernende Freund-Feind-Erkennung einen Fehler gemacht hat? Wäre ein Mensch, dessen Gehirn gescannt und dessen Persönlichkeit auf eine künstliche Plattform geladen wurde,53 um als künstliche Intelligenz zu agieren, bei seinem biologischen Tod wirklich tot oder lebt er auch als juristische Person weiter in dem künstlichen Medium? Juristische Fragestellungen fokussieren sich zunächst auf Konfliktfälle. Diese bewegen sich meist nicht in den Extremen, die von Transhumanisten wie Kurzweil als Zukunftsszenarien skizziert werden, sondern werden konkret in Anwendungsfällen, deren Problematik mit den technischen Möglichkeiten sukzessive wächst. Bisher ist es nicht möglich, ein Gehirn so vollständig zu scannen, dass das Weiterleben eines Menschen außerhalb seines Körpers durch einen Gehirn-Upload plausibel erscheinen würde. Aktuelle Fragestellungen kreisen beispielsweise um Sterbehilfe bei „Cyborgs“ – Menschen, deren organische Struktur bereits mit künstlich-maschineller Struktur interagiert und von dieser abhängig sind. Ist beispielsweise der Ausbau eines Hirnschrittmachers aus medizinethischer und juristischer Sicht problematisch, wenn damit das Leben des Patienten gefährdet wird? Juristische Fragen beziehen sich auf Probleme der Rechtspraxis. Nicht immer müssen ontologische Fragen und Geltungsansprüche dabei geklärt werden, z. B. ob eine künstliche Intelligenz zu denselben Leistungen in der Lage wäre wie der Mensch („starke KI-These“). In Diskursen um Möglichkeiten der Rechtspraxis sind andere Fragestellungen leitend als in einer philosophischen Ethik. Auch wenn für eine anthropologische Ethik der Personbegriff sich nicht als Ray Kurzweil: Menschheit 2.0, a. a. O., S. 199f.
53
59
2 Künstliche Intelligenz und Transhumanismus
übertragbar auf eine künstliche Intelligenz erweist, kann die Überlegung, einer künstlichen Intelligenz den Status einer juristischen Person zu verleihen, aus rechtlicher Pragmatik heraus sinnvoll sein. Auch andere nichtmenschliche Akteure (z. B. Institutionen) können Rechtssubjekte im Sinne juristischer Personen sein, wenn durch eine solche Abstraktionsebene die gerichtliche Praxis erleichtert wird.54 Juristische Diskussionen ersetzen daher keine Diskussion in der philosophischen Ethik um die normativen Geltungsansprüche von Technologie. Trotzdem bildet der Bezug zum Wertehorizont europäischer Kulturen, ein Rückbezug zum Gerechtigkeitsbegriff und ein Verständnis personaler Würde immer noch einen Horizont, welcher die juristische Theorie und Praxis wesentlich bestimmt. Dabei müssen rechtsphilosophische Grundfragen, die eine Orientierung für die Praxis bilden, diskutiert werden. Wichtige Grundsatzfragen sind z. B., ob alle technischen Konstruktionen letztlich als verlängerte Arme verantwortlich handelnder Menschen verstanden werden müssen oder ob durch die nicht mehr von außen nachvollziehbare Komplexität autonomer Maschinenintelligenz der Verantwortungsbegriff für den Benutzer einer solchen Technik, die er gar nicht mehr verstehen kann, auch gar nicht mehr zutrifft.55 Die juristischen Detailfragen werden sich mit wachsenden Anwendungen und damit verbundenen rechtlichen Konflikten häufen. Sie beziehen sich unter anderem auf folgende Grundfragen: Was kann künstlich-maschinelle Intelligenz wirklich? Wie unterscheidet sie sich von menschlich-personaler Intelligenz? Was sind Grundvoraussetzungen für autonomes, freies, verantwortliches Handeln, welches in rechtlichen Prozessen vermittelt werden muss? Auch in dieser Perspektive können Aspekte der Negativität herausgestellt werden, die sich als unhintergehbar für die Grundlagen rechtlicher Praxis erweisen. So gründet das Prinzip von Bestrafung auf der Leidensfähigkeit einer Person. Nur weil der Bestrafte existentiell angewiesen ist auf eine gesellschaftlich-soziale Einbindung, kann eine Freiheitsstrafe sinnvoll sein. Zeit, die durch eine Freiheitsstrafe abgebüßt wird, ist existentiell verlorene gestaltbare Lebenszeit. Eine künstliche Intelligenz stirbt nicht, sie hat keine Angst vor dem Tod. Die Vergänglichkeit des Daseins ist für sie keine existentielle Grundbedingung, unter der sich ihre Lebenspraxis gestalten könnte. Die Möglichkeit, dass künstliche Intelligenzen autonom agierende Akteure in einer Gesellschaft werden könnten, wirft somit auch für die Rechtsphilosophie wichtige Grundfragen auf, die einer Reflexion auf die Begrenzungen der menschlichen Lebenspraxis als unhintergehbare Bedingungen für ein Verständnis von personaler Freiheit und Verantwortung bedürfen. Vgl. Hans-Peter Bull: Über die rechtliche Einbindung der Technik, in: Der Staat, Ausgabe 58, S. 57– 100, Berlin 2018, dort S. 65. 55 Misselhorn, Catrin: Roboterethik, in: Analysen und Argumente Digitale Gesellschaft, Nr. 340 / Februar 2019, Konrad-Adenauer-Stiftung e. V., Berlin 2019. Robert Sparrow spricht in diesem Fall von einer „Verantwortungslücke“. Vgl. Sparrow, Robert: Killer robots, in: Journal of Applied Philosophy, Nr. 24, Wiley-Blackwell 2007, S. 62–77. Vgl. Kap. 4.2 dieser Arbeit. 54
60
2.2 Philosophie und künstliche Intelligenz
Angewandte Ethik Perspektiven der angewandten Ethik stehen vor der Aufgabe, moralphilosophische Grundfragen auf konkrete Anwendungskontexte zu übertragen. Reflexionen aus einer Perspektive der angewandten Ethik thematisieren beispielsweise die Problematiken, die sich aus der Entwicklung vollautomatisierter Waffentechnologien ergeben können. Welche Potentiale und welche Risiken bergen diese Technologien? In welchem Kontext wäre eine ethische Vertretbarkeit ihrer Anwendung gegebenenfalls zu rechtfertigen? Auf welche moralischen und ethischen Grundfragen und Werte rekurrieren diese Überlegungen und Begründungen? In jedem Kontext finden sich für Analysen der angewandten Ethik andere Ausgangslagen. Sie beziehen sich nicht nur auf grundlegende Einsichten der Moralphilosophie und Technikphilosophie, sondern auch auf jeweils unterschiedliche fachspezifische ethische Diskurstraditionen. Im Bereich autonomer Waffen schließt eine solche Perspektive grundlegende militärethische Fragestellungen mit ein. Für eine normative Diskussion der Sexrobotik können wiederum normative Diskurse der Sexualethik reflektiert werden. Für die Entwicklungen von Technologien mit künstlicher Intelligenz ergeben sich zahlreiche Diskussionsfelder der angewandten Ethik, da die möglichen Anwendungsfelder für künstliche Intelligenz nahezu unerschöpflich sind. Individualethik Auch individualethische Perspektiven gründen in moralphilosophischen Grundannahmen, setzen den affirmativen Schwerpunkt aber in der lebensweltlichen Handlungspraxis des Einzelnen. Gegenüber technologischen Transformationsprozessen mit künstlicher Intelligenz kann eine solche Perspektive eine kritische Reflexion auf Beschleunigungsprozesse, auf Quantifizierungs- und Formalisierungstendenzen und auf das exponentielle Wachstum von Informationsverarbeitung entwickeln. Individualethische Ansätze setzen in ihrer normativen Perspektive beim Verhalten des Einzelnen in seiner existentiellen Lebenspraxis an. Die Bewusstwerdung über technologische Veränderungsprozesse kann in ihrer Verbindung mit individualethischen Ansätzen zur Auseinandersetzung und Positionierung in einer immer komplexer und vernetzter werdenden Welt helfen und Anschlüsse für einen reflektierten Umgang in der eigenen lebensweltlichen Praxis aufzeigen. Metaphysik Künstliche Intelligenz tangiert als technisches Phänomen viele verschiedene Bereiche der Philosophie und berührt philosophische Grundfragen, die bis in die Anfänge der Philosophie zurückreichen und die teilweise schon als überholt galten. Ein Beispiel mag das klassische 61
2 Künstliche Intelligenz und Transhumanismus
Leib-Seele-Problem sein: Können psychische Phänomene – in der Sprache der Metaphysik „die Seele“ – vollständig durch physikalische, materielle Zusammenhänge – das Materielle, den Körper, den „Leib“ – erklärt werden? Psychologie und Neurowissenschaften überführten das Seelische immer mehr in eine empirische Sprache mit klaren kausalen Zusammenhängen. Die Rede von einer Seele des Menschen galt mehr und mehr als mythologisch, religiös, unwissenschaftlich; exaktere Begriffe traten an ihre Stelle. Mit dem Aufkommen intelligenter maschineller Systeme, deren Entscheidungsautonomie in immer komplexeren Kontexten zunimmt, stellt sich die Frage, ob mit dem autonomen Lernen von einer künstlichen Intelligenz auch mit der Entwicklung eines Bewusstseins, einer Personalität zu rechnen ist. Wenn Psychisches vollständig auf kausal-deterministische Materie zurückgeführt werden kann, dann ist die These, dass sich in einer künstlichen Intelligenz ab einer gewissen Komplexität in ähnlicher Weise eine personale Bewusstseinsebene entwickeln könnte, nicht leicht von der Hand zu weisen. Wer hingegen behauptet, dass zwischen Mensch und Maschine ein prinzipieller, fundamentaler Unterschied besteht, muss eine solche Unterscheidung begründen. Dabei wird oft ein Bezug zu Phänomenen hergestellt, der in das Begriffsfeld seelisch-geistiger Qualitäten zuzuordnen ist, als einer Ebene von individueller, bewusster Personalität, deren Grundlage ihrerseits nicht gänzlich objektiviert werden kann, jedem aber subjektiv zugänglich ist, bzw. eigentlich erst die Voraussetzung dafür bildet, einen Zugang und Bezug zur Welt und zu Anderen zu finden. Die Weiterentwicklung von Computertechnologien mit künstlicher Intelligenz lassen die Frage nach der Möglichkeit einer materialistisch-reduktionistischen Beschreibung des menschlichen Geistes neu aufflammen. Damit werden Diskurse wiederbelebt, die der Metaphysik zugeordnet werden können. Traditionell bezeichnet Metaphysik „das, was nach der Physik kommt“.56 Ihren Höhepunkt hatte die philosophische Metaphysik in der mittelalterlichen Scholastik, in welcher theologische Dogmatik und philosophische Logik ineinandergriffen, um Glaubensfragen zu systematisieren. Im Zuge der Aufklärung wurde diese logisch-systematische Sprache des Glaubens immer stärker von empirisch-wissenschaftlichen Beschreibungen über die Welt in Form von Naturgesetzen verdrängt, während Glaubensfragen in die Sphäre des Privaten übergingen. Ein Beispiel dafür ist der Begriff der „Seele“. Auf Platon zurückgehend bezeichnete die Seele den Bereich menschlicher Persönlichkeit, welcher sich nicht in einer Beschreibung von Materie erschöpft. Zugespitzt wurde daraus später, z. B. bei Descartes, die Vorstellung einer immateriellen Seele, welche den materiellen Dingen diametral entgegengesetzt wird. Die philosophischen Probleme, die sich aus dem daraus resultierenden Dualismus ergeben, sind als das „Leib-Seele-Problem“ bekannt. Wie können zwei grundsätzlich verschiedene „Substanzen“ miteinander Vgl. Stichwort Metaphysik, in: Ritter, Joachim und Gründer, Karlfried (Hg.): Historisches Wörterbuch der Philosophie, Bd. 5, Basel 1980, S. 1186–1279, dort S. 1188.
56
62
2.2 Philosophie und künstliche Intelligenz
interagieren, wenn es keine für beide gültigen Gesetzmäßigkeiten gibt? Immer mehr wurde im Zuge empirischer Wissenschaftlichkeit auch die Seele des Menschen zum Forschungsgegenstand der Naturwissenschaften. In der Psychologie wurde dem subjektiven Erleben des Menschen neben der objektiven Beschreibung von außen zunächst noch volle Gültigkeit beigemessen, um ein ganzheitliches Bild psychischer Phänomene entwickeln zu können. Doch das Subjektive entzieht sich per se einer vollständigen Objektivierung. Empirische Forschung ist verallgemeinerbar, das Subjektive hat keinen Raum in der Methodik: Jeder Forscher soll im gleichen Experiment auf die gleichen Schlüsse kommen können. Doch kann das Subjektive nie ganz von außen eindeutig beschrieben und exakt formalisiert werden. Immer stärker kristallisierte sich daher auch in der Analyse der menschlichen Psyche heraus, dass die materiellen Grundlagen der Psyche untersucht werden müssen, um diese in die Sprache exakter Objektivität zu überführen. Biologische Psychologie und Neurowissenschaften widmeten sich dem Phänomen des Geistes, indem sie das Organ untersuchten, in welchem dieser offenbar wohnt. Viele Hirnforscher vertraten dabei die Position eines physikalistischen Reduktionismus. Man kann darunter sozusagen die Abschaffung von Metaphysik verstehen: Alles ist restlos durch physikalische Prozesse beschreibbar. Es bleibt also nichts, was nach der Physik noch kommen könnte. Für den Begriff der Seele bedeutet dies, dass seine Vielschichtigkeit sich als metaphysischer, historisch aufgeladener Ballast erweist. Immer mehr wurde er deshalb durch andere Begriffe wie Geist, Bewusstsein, Ich oder Selbst ersetzt. Man konnte damit jedoch das „Leib-Seele-Problem“ nicht wirklich lösen, auch wenn man es als „Körper-Geist-Problem“ behandelte, denn eine restlose Überführung des subjektiven Erlebens in eine Form reiner Objektivität unterläuft die Bedingungen für jede mögliche Erkenntnistheorie. Dennoch wurden in der analytischen Philosophie des Geistes systematische Entwürfe, z. B. in der Form eines eliminativen Materialismus entwickelt, die eine restlose Überführung des phänomenalen Bewusstseins des Menschen in eine Form materialistischer objektiver Beschreibung anstreben.57 An eine solche Auffassung knüpfen die Entwicklungen der Informatik an, welche sich zum Ziel setzen, den Geist des Menschen nachzubauen. Zugespitzt wäre die vollendete Formalisierung aller psychischen Phänomene in einer mathematisch exakten Sprache das, was für die IT-Architektur die Grundlage für eine künstliche Intelligenz sein könnte, die als Äquivalent zum menschlichen Geist gelten sollte. Wenn es gelingt, neben der logischen Rationalität auch sämtliche emotionalen, psychischen, personalen, kreativen, religiösen Aspekte menschlicher Intelligenz in Prozessen künstlicher Intelligenz nachzubilden, würden wir dann von einem „beseelten Computer“ sprechen? 57
Vgl. z. B. bei Lewis, David: Die Reduktion des Geistes, in: Materialismus und Bewusstsein, Frankfurt am Main 2007, S. 11–51.
63
2 Künstliche Intelligenz und Transhumanismus
Die zentralen Begriffe der klassischen Metaphysik waren „Welt“, „Seele“ und „Gott“. Im Zuge der rationalistischen Aufklärung verlor zunächst der Gottesbegriff an Bedeutung, gefolgt vom Begriff der Seele. Im Versuch, die „Welt“ ohne die beiden anderen Begriffe, ohne Metaphysik, zu formalisieren, zu erfassen und zu beherrschen, zeigte sich jedoch, dass auch der Weltbegriff in keine Formel passt. Alle drei Begriffe begründen eine ganzheitliche Komplexität, die jeweils nicht analytisch formalisiert werden kann. Im Diskurs um künstliche Intelligenz entbrennt neu auch eine Frage der Metaphysik und Ontologie. Religionsphilosophie In der Informatik offenbart sich die Unsterblichkeit religiöser Sehnsüchte des Menschen. Nicht nur die Seele des Menschen soll nachgebildet werden, sondern auch die Gottesidee. Wenn ein Supercomputer das gesammelte Wissen über die Welt in formalisierter Form zur Verfügung hätte und dazu eine Rechenleistung, welche die des menschlichen Gehirns bei weitem übersteigt, so deuten manche Transhumanisten auf eine Superintelligenz, welche weitaus komplexer und vorausschauender Entscheidungen zu treffen imstande wäre als der Mensch.58 Wenn die Überlegenheit einer solchen Superintelligenz sich in allen Bereichen herausstellen sollte, liegt der Gedanke nahe, einer solchen auch autonome Entscheidungen zum Wohle der Gesellschaft anheimzustellen.59 Der Mensch würde damit sein Schicksal aus der Hand geben. Die Autonomie des Menschen, sich selbst seines eigenen Verstandes zu bedienen, gipfelte dann in der Erschaffung einer technischen Kreatur, die dann endlich den Menschen von dieser schwierigen Aufgabe entlasten könnte. Im Transhumanismus leben religiöse Sehnsüchte des Menschen wieder auf: Unsterblichkeit, Transzendenz als Überschreitung der leiblich-existentiellen Grenzen, Vertrauen in ein allwissendes Wesen. Der Unterschied zur Religion liegt im Versprechen der technischen Einlösbarkeit. Keine Jenseitsvertröstung muss bedient werden, sondern bereits im Diesseits sollen die alten Träume mithilfe aller verfügbaren wissenschaftlichen und technischen Möglichkeiten realisiert werden. Aus einer unverfügbaren Hoffnung ist eine technische Verfügbarmachung geworden. Gerade die Unverfügbarkeit erweist sich jedoch als wesentlich für eine religiöse Sinnkonstitution, die in ihrem Geltungsanspruch auf der Ebene des Glaubens und der Freiheit zu bleiben beansprucht und nicht in eine totalitäre Deutungshoheit über die Welt kippt. In den monotheistischen Traditionen beispielsweise ist dieser Aspekt von Negativität als Unverfügbarkeit im Bilderverbot Gottes ausgedrückt. Im Versuch, das Absolute zu verdinglichen, verliert man das Absolute, welches sich hingegen in religiösen Traditionen als normativer Sinnhorizont und Vgl. Bostrom, Nick: Superintelligence. Paths, Dangers, Strategies, Oxford 2014, S. 59–61. Ebd., S. 148–150.
58 59
64
2.2 Philosophie und künstliche Intelligenz
Daseinsgrund erweist, der zwar gesucht, aber nie ganz begriffen oder analytisch systematisiert werden kann. Der Begriff Ewigkeit deutet im religiösen Kontext auf die personale Bedeutung des eigenen Handelns über den eigenen Tod hinaus und wird damit zum unausweichlichen Appell an den Einzelnen, die eigene Handlungspraxis zu reflektieren und zu prüfen. Eine technische Realisierung von Unsterblichkeit wäre hingegen nur ein Ausweichen vor dem Tod und ließe die Bedeutung des eigenen Handelns in der Zeit bedeutungslos werden, weil Zeit kein unwiederbringliches Gut mehr wäre. Während der Gedanke einer unsterblichen Seele gerade die Einzigartigkeit jedes Menschen skizziert und damit auch als Vordeutung eines Verständnisses von allgemeiner Menschenwürde interpretiert werden kann, wäre im Gegensatz dazu die Möglichkeit einer technischen Reproduzierbarkeit der menschlichen Persönlichkeit gerade die Abschaffung der Einzigartigkeit. Transhumanistische Utopien bedienen religiöse Traditionen, verkehren jedoch den Kern ihres Sinngehalts. Anthropologie Nach Ray Kurzweil wird im 21. Jahrhundert „die vorrangige politische und philosophische Begriffsbestimmung sein: die Frage, wie wir das Wesen des Menschen definieren.“60 Er ergänzt, dass es dann allerdings zu spät sein wird, um den Lauf der Geschichte aufzuhalten, weil die Verschmelzung von Roboter und Menschen dann bereits irreversible Wirklichkeit geworden sein wird.61 Kurzweil scheint dabei zu übersehen, dass die Frage, was der Mensch ist, seit Jahrhunderten zu den Kernfragen der philosophischen Tradition gehört. Ihre Beantwortung kann sich jedoch nicht mit einer einfachen Begriffsdefinition begnügen, wenn sie dem vielschichtigen, widersprüchlichen, komplexen Wesen Mensch entsprechen soll. Auch für die Beantwortung der Frage nach dem Menschen können in der Tradition der vernunftkritischen Philosophie des 20. Jahrhunderts vor allem wesentliche Aspekte dessen festgehalten werden, wo der Mensch sich in seinen Grenzen und durch seine Grenzen definieren muss. Die technologischen Entwicklungen der künstlichen Intelligenz konfrontieren den Menschen heute mit einem Selbstbild, das den höchsten Wert des Menschen in seiner Rationalität und seiner Fähigkeit zum logischen Denken gesehen hat. In der Abgrenzung zum Tier hat sich der Mensch über das definiert, was er kann, über seine intellektuellen Fähigkeiten. Dass nun künstliche Intelligenzen zahlreiche intellektuelle Kompetenzen des Menschen genauso gut oder besser ausfüllen können wie der Mensch, ist für diesen eine neue Kränkung in seiner Identität. Vielleicht
Kurzweil, Ray: Die Intelligenz der Evolution. Wenn Mensch und Computer verschmelzen, Köln 2016, S. 20. 61 Vgl. Kurzweil, Ray: Die Intelligenz der Evolution. Wenn Mensch und Computer verschmelzen, Köln 2016, S. 388. 60
65
2 Künstliche Intelligenz und Transhumanismus
wird der Mensch in vielen Tätigkeiten im Zuge der technologischen Fortschritte mit künstlicher Intelligenz ersetzbar. In der Frage nach seiner Aufgabe, seiner Nützlichkeit und seinem Selbstwert ist der Mensch daher herausgefordert, sich wieder neu in einer sich verändernden Umwelt zurechtzufinden. Diese Neubesinnung muss nicht nur ein Verlust sein, sondern birgt auch das Potential, menschlichen Tätigkeiten mehr von dem zuzugestehen, was im Menschen außer seiner rationalen und körperlichen Leistungsfähigkeit noch angelegt ist. In der Abgrenzung vom Tier hat der Mensch seine Rationalität als das wesentlich Menschliche definiert. Im Vergleich mit der Maschine entdeckt der Mensch, dass dann die Maschine menschlicher wäre als er – denn nur in ihr findet sich eine „reine“, formale Rationalität. Will der Mensch sich damit nicht begnügen, ein „schlechterer Mensch“ als eine Maschine zu sein, so muss er Aspekte wie Emotionalität, Leiblichkeit, Affekte, Triebe, Unbewusstes in den Blick nehmen.
2.2.2 Philosophische Diskussionsgeschichte der künstlichen Intelligenz Mit der Entwicklung der Computertechnologie setzte auch bald eine Diskussionsgeschichte um die Begrifflichkeit der künstlichen Intelligenz ein. Der Vergleich von maschineller und menschlicher Intelligenz wurde dabei ausschlaggebend für eine Neubelebung der philosophischen Debatte um das Leib-Seele-Problem, besonders mit der Begrifflichkeit um Bewusstsein und ob eine künstliche Intelligenz dahin gelangen könnte, auch Bewusstsein zu entwickeln. Die Diskrepanz zwischen materialistisch-reduktionistischer Objektivität und der Unhintergehbarkeit von einer nicht objektivierbaren Subjektivität zeigte sich durch die Diskurse deutlich, konnte aber nicht aufgelöst werden. Stattdessen kristallisierten sich in der philosophischen Diskussion zwei grundlegend unterschiedliche Verständnisse der Wirklichkeit heraus, die sich letztlich in der Debatte um den Geltungsanspruch von künstlicher Intelligenz als unversöhnlich erweisen sollten. Eine Gruppe von Autoren, Ingenieuren und Philosophen, verfolgte das Ziel einer vollständigen Mathematisierung und Formalisierung der Welt und des menschlichen Geistes. Künstliche Intelligenz wurde dabei zum Programm für die Vollendung einer formalisierten Abbildtheorie und für den Abschluss einer Enträtselung des Universums und einer Entmythologisierung des menschlichen Geistes. Eine andere Gruppe von Autoren entwickelte kritische Einwände gegen diese Entwürfe. Die philosophische Diskussionsgeschichte um den Begriff der künstlichen Intelligenz wird im zweiten Kapitel der Arbeit in einem Überblick dargestellt. Sie bildet damit den Ausgangspunkt für eine Rekonstruktion der Debatte um die Möglichkeit einer vollständigen Mathematisierung und Formalisierung der Welt. Schließlich führt die philosophische Diskussionsgeschichte um das Phänomen der künstlichen Intelligenz zu Entwürfen transhumanistischer Autoren, die darin nicht nur eine Möglichkeit zu 66
2.2 Philosophie und künstliche Intelligenz
einer Mathematisierung und Formalisierung der Welt sehen, sondern auch ein Programm zur Umbildung des menschlichen Wesens durch die Technologie. Dort wo der Mensch offenbar nicht wie eine Maschine funktioniert, soll er zu einer gemacht werden. Die Selbstvergessenheit einer instrumentellen Rationalität erreicht damit eine Zuspitzung, die eine vernunftkritische Rekonstruktion der konstitutiven Grundbedingungen der Humanität unvermeidlich macht.
2.2.2.1 Philosophische Diskussion in der Frühphase der Computerentwicklung In der Frühphase der Entwicklungen von künstlicher Intelligenz wurde die Diskussion vorrangig von Ingenieuren bestimmt. Die darauffolgende Zeitspanne war von ersten starken Erfolgen und Fortschritten in der Entwicklung der Informationstechnologie geprägt. Dennoch war die technische Euphorie auch begleitet von ersten Stimmen der philosophischen Kritik. An dieser Stelle sollen wichtige Autoren der Frühphase der Computerentwicklung und ihre Beiträge für eine philosophische Einordnung von Computertechnologien und künstlicher Intelligenz dargestellt werden, um die Thematik der Arbeit in den philosophischen Kontext zu stellen, welcher ihr vorausgeht. Die Diskussion ist vorrangig von der Frage nach der Angemessenheit einer Analogie von menschlichem Geist und Computerintelligenz geprägt. Die Computerentwicklung prägt auch die Interpretation des menschlichen Geistes, indem Computerprozesse als Modell für Gehirnaktivitäten gedeutet wurden. Eine mechanistische Auffassung des Menschen bis zur „Computermetapher des Geistes“ wurde zu einer Grundannahme vieler Forscher und Ingenieure in der Entwicklung von künstlicher Intelligenz, wie von John von Neumann, John McCarthy, Norbert Wiener, Marvin Minsky und Hans Moravec. Der Ansatz von Hans Moravec wird ebenso wie die Arbeiten von Ray Kurzweil erst im nächsten Kapitel, das sich explizit mit transhumanistischen Entwürfen auseinandersetzt, dargestellt und diskutiert. Moravec und Kurzweil setzen die Analogie von Computer und Geist, von Mensch und Maschine voraus und knüpfen an das mechanistische Menschenbild der Aufklärung und die Computermetapher des Geistes aus der Frühphase der Computerentwicklung an. Sie gehen jedoch darüber hinaus, indem sie die technologischen Entwicklungen mit einem normativen, sozialdarwinistisch motivierten Appell zur Optimierung des Menschen verknüpfen. Die Entwicklung von Computern ist damit nicht mehr nur ein technisches Forschungsprojekt mit dem Potential, anhand der Analogie von Computer und Geist Erkenntnisprozesse über Aktivitäten des menschlichen Nervensystems bis hin zu einer Modellierung des Gehirns zu gewinnen, sondern die Möglichkeit einer technischen Reproduktion des Geistes wird als Auftrag interpretiert, Menschen technisch zu optimieren und auf eine höhere Stufe der Evolution zu führen. 67
2 Künstliche Intelligenz und Transhumanismus
Norbert Wiener (1894–1964): Kybernetik Norbert Wiener gilt als „Vater der Kybernetik“ und ist bekannt geworden durch seine systematischen Arbeiten zu Regelung und Nachrichtenübertragung in Maschinen und in organischen Lebewesen. Als Mathematiker widmete er sich dieser Thematik zunächst unter formalen und technischen Gesichtspunkten und wirkte mit seinen Arbeiten auch auf die Entwicklung des Radars und elektronischer Steuerungsgeräte mit. Er weitete seine technischen Ansätze jedoch auch auf eine Beschreibung des Verhaltens von Lebewesen aus und stellte damit eine starke Parallelität in der Betrachtung des organischen Lebens und maschineller Abläufe her. Seine theoretischen Modelle für die maschinelle Nachrichtenübertragung übertrug er damit für biologische und anthropologische Fragestellungen. Er lieferte in seinen Arbeiten bereits erste Ansätze für eine Beschreibung der Gesellschaft und seiner sozialen Systeme. Er wies in seinen Publikationen auch bereits auf gesellschaftliche Probleme hin, die im Zuge der technischen Neuerungen auftreten können. In seinem Buch „Kybernetik“ stellt er Prozesse der Nachrichtenübertragung in Mensch und Maschine dar62 und prägt darin auch den Begriff der Information.63 Er setzt seine Arbeit aus einer Perspektive des Ingenieurs ein, welcher die Konstruktionsweisen von Maschinen für eine Übertragung von Informationen als Nachrichten darstellt,64 um diese anschließend auf ein Verständnis der Informationsverarbeitung bei Tieren und Menschen zu übertragen.65 Wiener spricht ausgehend von seinen Betrachtungen der Rechenmaschine auch vom „Gehirn als einer logischen Maschine“.66 Wiener stellt dabei die Ähnlichkeit zwischen maschineller und menschlicher Logik heraus und betont die Möglichkeiten des maschinellen Lernens in Analogie zur Lernfähigkeit des Menschen.67 In seinem Sprachgebrauch bedient er sich auch für die Beschreibungen von Tieren und Menschen eines technischen Wortschatzes, wenn er z. B. Tiere als „lernende und sich selbst reproduzierende Maschinen“ bezeichnet.68 Kompetenzen des menschlichen Geistes wie das Gedächtnis werden aus einer Analogie zu Schaltkreisen interpretiert,69 organische Nervensysteme werden
Wiener, Norbert: Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf 1963. 63 Ebd., S. 192. 64 Ebd., S. 9, S. 19, S. 29ff. 65 Ebd., S. 176, S. 178. 66 Ebd., S. 182. 67 Ebd., S. 184f. 68 Ebd., S. 241. 69 Ebd., S. 178. 62
68
2.2 Philosophie und künstliche Intelligenz
als Rechensysteme beschrieben.70 Wiener rekurriert erkenntnistheoretisch wiederholt auf John Locke.71 In seiner mathematisch-technischen Perspektive auf den Menschen räumt Wiener jedoch immer wieder ein, dass seine Parallelen und Analogien zwischen Maschine und Mensch nur in einem begrenzten Maß zutreffend, bzw. hypothetischer Natur sind.72 So grenzt Wiener sich gegenüber einer Reduktion der Psychologie auf die Logik ab.73 Explizit stellt Wiener klar, dass „das Gehirn unter normalen Umständen nicht das vollkommene Analogon der Rechenmaschine“ ist.74 Wiener positioniert sich auch gegenüber den sozialen und gesellschaftlichen Auswirkungen seiner Theorie wie auch der technologischen Veränderungsprozesse durch die zunehmende Automatisierung und Weiterentwicklung informationsverarbeitender Maschinen.75 Er deutet dabei bereits auf Gefahren in der Entwicklung autonomer Waffentechnik und die Risiken, die für Ingenieure und Programmierer darin bestehen würden, die Zielstellungen entsprechend zu definieren, damit nicht eine formal richtige Bearbeitung einer Aufgabe durch die Maschine zum Gegenteil dessen führt, was in der Konstruktion beabsichtigt worden war.76 Wiener verweist auf die Gefahr des Kontrollverlustes und rekurriert dabei auch auf die Erzählung von Goethes „Zauberlehrling“ und einer möglichen Irreversibilität von Prozessen, die durch die Weiterentwicklung von maschinellem Lernen eintreten könnte.77 In seiner späteren Publikation Mensch und Menschmaschine setzt Wiener sich besonders mit den sozialen Gefahren und den gesellschaftlichen Auswirkungen durch die Entwicklung der Kybernetik auseinander.78 Darin überträgt er seine Ansätze zur Regelung und Nachrichtenübertragung von der Maschine nicht nur auf den Menschen, sondern auch auf die Gesellschaft.79 Wiener skizziert darin erneut und in noch größerer Deutlichkeit die Parallelität, die er in der Informationsverarbeitung von Mensch und Maschine sieht: „Ich behaupte nun, daß die Arbeitsweisen des lebenden Individuums und die einiger neuerer
Ebd., S. 176. Ebd., S. 185, S. 193. 72 Ebd., S. 188, S. 256. 73 Ebd., S. 183. 74 Ebd., S. 178. 75 Ebd., S. 10. 76 Ebd., S. 252. 77 Ebd., S. 249f. 78 Wiener, Norbert: Mensch und Menschmaschine. Kybernetik und Gesellschaft, Frankfurt am Main 1966. 79 Ebd., S. 20. 70 71
69
2 Künstliche Intelligenz und Transhumanismus
Kommunikationsmaschinen völlig parallel verlaufen.“80 Er sympathisiert dabei auch mit einer Gleichsetzung des Nervensystems mit „jenem Maschinentyp […], der aus einer Folge von Schaltelementen besteht.“81 Wiener bezieht sich nun auch auf die personale Individualität des Menschen, wenn er schreibt: „Vom Standpunkt der Rechenmaschine aus besteht geistige Individualität in der Speicherung ihrer früheren Programmierungen und Gedächtnisinhalte und in der Fortsetzung ihrer Entwicklung in bereits angelegten Richtungen.“82 Erkenntnistheoretisch bezieht sich Wiener dabei wieder auf Locke und dessen Konzeption eines leeren Geistes: „Er ist nichts als eine leere Tafel, auf der die Erfahrungen des Individuums ihre Eindrücke hinterlassen.“83 Die Möglichkeit einer vollständigen quantitativen Erfassung des gesamten Menschen wird für Wiener dadurch theoretisch greifbar. Er sieht die Grenzen der vollständigen Informationserfassung eines Menschen z. B. zum Zweck, als Information telegraphisch versendet zu werden, nur darin, dass bei einem Scan des Menschen dessen Gewebe zu stark zerstört würde. „Mit anderen Worten: die Tatsache, daß wir das Schema eines Menschen nicht von einem Ort zu einem anderen telegraphieren können, liegt wahrscheinlich an technischen Schwierigkeiten und insbesondere an der Schwierigkeit, einen Organismus während solch einer umfassenden Rekonstruktion am Leben zu erhalten. Sie liegt nicht an der Unmöglichkeit der Idee.“84 Dennoch bleibt Wiener in einer Eingrenzung seiner Ansätze, wenn er Beispiele für gelingende Lernprozesse in der Maschine nicht mit normalen Lernprozessen des Menschen gleichsetzt.85 Er stellt die Modellhaftigkeit seiner Theorie in den Mittelpunkt und dass er mit ihnen Forschung und Weiterentwicklung fördern will, wenn er schreibt: „Ich bin mir durchaus bewußt, dass ich bei der Darstellung des wirklichen Ablaufs der Vorgänge im Menschen vielleicht nicht alle Einzelheiten richtig erfassen werde, ja daß ich sogar grundsätzlich unrecht haben kann. Immerhin werde ich mit meiner Entwicklung des Gerätes, das in Ausdrücken der zum menschlichen Geist und zum menschlichen Gehirn gehörenden Begriffe beschrieben werden kann, einen Ausgangspunkt für fruchtbare Kritik geben und einen Vergleichsmaßstab für die auf der Grundlage anderer Theorien zu erwartenden Ergebnisse liefern.“86 Er nimmt auch als Einschränkung für ein maschinelles Verständnis Prozesse nichtlinearer Kausalität bereits in den Blick.87 Die Grenzen einer quantitativen Bestimmung menschlicher Sinnfragen 82 83 84 85 86 87 80 81
Ebd., S. 26. Ebd., S. 68. Ebd., S. 99. Ebd., S. 71. Ebd., S. 101. Ebd., S. 67. Ebd., S. 71. Ebd., S. 42.
70
2.2 Philosophie und künstliche Intelligenz
weist Wiener klar aus: „Menschliche Gegebenheiten sind auf jeden Fall Gegebenheiten, die sich nicht exakt bestimmen lassen, wie numerische Daten beim Rechnen.“88 Wiener greift für die zunehmende Komplexität der Problemlösung für maschinelle Systeme auch die Gefahr einer Unterbestimmung ethischer Grundeinsichten für die Konstruktion von entscheidungsfähigen Maschinen auf und weist gleichzeitig auf die Unkontrollierbarkeit von lernfähigen nicht-deterministischen Systemen hin: „Jede zum Fällen von Entscheidungen gebaute Maschine wird sich starr an den Buchstaben halten, wenn sie nicht die Fähigkeit zu lernen besitzt. Wehe uns, wenn wir sie unser Verhalten bestimmen lassen, ohne vorher die Gesetze ihres Handelns geprüft und uns überzeugt zu haben, daß es sich nach für uns annehmbaren Grundsätzen vollzieht! Die Maschine aber, die wie der Flaschengeist lernen kann und auf Grund ihres Lernens Entscheidungen fällen kann, wird durchaus nicht gebunden sein, Entscheidungen zu treffen, wie wir sie getroffen hätten oder wie sie für uns annehmbar wären. Denn der Mensch, der das Problem seiner Verantwortung blindlings auf die Maschine abwälzt, sei sie nun lernfähig oder nicht, streut seine Verantwortung in alle Winde und wird sie auf den Schwingen des Sturmwinds zurückkommen sehen.“89 Technologische Entwicklungen deutet Wiener in ihrem Spannungsfeld zwischen Fortschritt und Entropie.90 Er skizziert die Bedeutung wissenschaftlicher und technischer Fortschritte, bspw. im Bereich der Medizin, weist aber auch auf die problematischen Seiten in der Ambivalenz des wissenschaftlich-technischen Fortschritts: „Unsere Sehnsucht nach dem ‚einfachen Leben‘ ist älter als der Erfolg der industriellen Revolution, die wir hinter uns haben; sie darf uns nicht der Tatsache gegenüber blind machen, daß wir nicht die Freiheit haben, zu diesem ursprünglichen Leben zurückzukehren. Unser technischer Fortschritt hat unsere Zukunft hypothekarisch belastet.“91 Die soziale und gesellschaftsphilosophische Bedeutung der technologischen Entwicklungen deutet Wiener bereits als eine weitere Form der industriellen Revolution voraus, die eine drastische Verschlimmerung von Arbeitslosigkeit bis zum Ruin vieler Industrien verursachen lassen kann.92 Er nimmt sogar schon Bezug auf eine „machine à gouverner“ als einer Herrschaft durch vom Menschen geschaffene Maschinen und deutet darauf als Potential und Bedrohung, „zum Guten oder zum Bösen“.93 In diesem Zuge fordert Wiener auch eine Stellungnahme
90 91 92 93 88 89
Ebd., S. 189. Ebd., S. 194. Ebd., S. 31ff. Ebd., S. 52. Ebd., S. 172. Ebd., S. 188f.
71
2 Künstliche Intelligenz und Transhumanismus
und Bearbeitung der Thematik durch Anthropologen und Philosophen.94 Er kritisiert dabei auch das Desinteresse von Intellektuellen und Geisteswissenschaftlern an technologischen Entwicklungen und deren normativen Implikationen: „Ich tadele nicht die feindliche Einstellung des amerikanischen Intellektuellen gegenüber Naturwissenschaft und Maschinenzeitalter. Feindliche Haltung ist etwas Positives und Aufbauendes, und vieles an dem Vorwärtsdrängenden des Maschinenzeitalters verlangt aktiven und überlegten Widerstand. Vielmehr tadele ich ihn wegen seines mangelnden Interesses am Maschinenzeitalter. Er hält es für nicht wichtig genug, die Haupttatsachen der Naturwissenschaften und der Technik gründlich kennenzulernen und ihnen gegenüber aktiv zu werden. Seine Haltung ist feindselig, aber seine Feindschaft geht nicht so weit, ihn zu irgendetwas zu veranlassen. Es ist mehr ein Heimweh nach der Vergangenheit, ein unbestimmtes Mißbehagen gegenüber der Gegenwart, als irgendeine bewußt eingenommene Haltung. Er unterwirft sich den Strömungen des Tages und nimmt sie als unangenehm, aber unvermeidbar hin.“95 Seine Arbeit zum Verhältnis von Kybernetik und Gesellschaft versteht er daher auch als Warnung: „Das Ziel dieses Buches ist vielmehr, die Möglichkeiten der Maschine auf Gebieten aufzuzeigen, die bis jetzt der Domäne des Menschen galten, und zu warnen vor den Gefahren einer ausgesprochen egoistischen Ausbeutung dieser Möglichkeiten in einer Welt, in der für uns Menschen die menschlichen Dinge wesentlich sind.“96 In diesem Sinn fordert Wiener eine „menschenwürdige Verwendung des Menschen“ ein, wie der ursprüngliche Titel des Buches zuerst heißen sollte.97 So überträgt Wiener zuletzt seine theoretischen Modelle für eine gesellschaftsphilosophische Ethik und stellt sich gegen einen bloß instrumentellen Zugriff auf den Menschen: „Es ist eine Herabsetzung des Menschen, ihn an eine Ruderbank zu ketten und als Kraftquelle zu gebrauchen; aber es ist eine fast ebenso große Herabsetzung, ihm eine sich immer wiederholende Aufgabe in einer Fabrik zuzuweisen, die weniger als ein Millionstel der Fähigkeiten seines Gehirns in Anspruch nimmt. […] Die Machtsüchtigen glauben, die Mechanisierung des Menschen sei ein einfacher Weg zur Verwirklichung ihres Machtkomplexes. Ich behaupte, daß dieser bequeme Weg zur Macht in Wirklichkeit nicht nur alle ethischen Werte des Menschen zerstört, sondern auch unsere heute sehr geringen Aussichten für einen längeren Bestand der Menschheit vernichtet.“98 Das Ringen um die eigene Verantwortung wird damit für Wiener zur wichtigsten Aufgabe in der Bewältigung der Herausforderungen der Zukunft: „die Zukunft enthält wenig Hoffnung
96 97 98 94 95
Ebd., S. 191. Ebd., S. 149. Ebd., S. 13f. Ebd., S. 14. Ebd., S. 27.
72
2.2 Philosophie und künstliche Intelligenz
für die, die erwarten, daß unsere neuen mechanischen Sklaven uns eine Welt anbieten, in der wir uns vom Denken ausruhen können. Sie mögen uns helfen, aber auf Kosten höchster Anforderungen an unsere Aufrichtigkeit und Intelligenz. Die Welt der Zukunft wird ein mehr und mehr aufreibender Kampf gegen die Beschränkungen unseres Verstandes sein, keine bequeme Hängematte, in die wir uns legen können, um von unseren Robotersklaven bedient zu werden.“99 Wiener stellt seine Untersuchungen zum Verhältnis von Kybernetik und Gesellschaft damit in eine Ebene der gesellschaftsphilosophischen Kritik an einer instrumentellen Rationalität und einem reinen Zweckgebrauch der Menschen, die über eine technikethische Einordnung der maschinellen Informationsverarbeitung hinausgeht. „Ich spreche von Maschinen, aber nicht nur von Maschinen, deren Hirne von Erz und deren Sehnen von Stahl sind. Wenn menschliche Atome zu einer Gemeinschaft verknüpft sind, in der sie nicht ganz als verantwortliche menschliche Wesen, sondern als Federn, Hebel und Gestänge benutzt werden, bedeutet es wenig, daß ihr Rohmaterial aus Fleisch und Blut besteht. Was als Element in einer Maschine benutzt wird, ist ein Teil dieser Maschine. Ob wir unsere Entscheidungen Maschinen aus Metall oder Maschinen aus Fleisch und Blut – den Büros und Großlaboratorien und Heeren und Gesellschaften – anvertrauen, wir werden niemals die richtigen Antworten auf unsere Fragen empfangen, wenn wir nicht die richtigen Fragen stellen.“100 Maschinelles Denken im Sinne einer instrumentellen Zweckrationalität ist älter als die tatsächliche Konstruktion informationsverarbeitender Maschinen. Wiener wendet sich dagegen, dass Menschen sich zu Maschinen machen lassen und wie eine Maschine nur unter einer funktionellen Zielsetzung instrumentalisieren lassen. Wiener stellt sich damit gegen eine Verselbständigung eines mechanistischen Prozesses, welcher zwar die Grundstruktur der maschinellen Informationsverarbeitung darstellt, aber als gesellschaftlicher Mechanismus die Geschichte der Menschheit durchzieht. In seinem Buch Gott & Golem Inc. bezieht sich Wiener noch einmal explizit auf die Veränderungen für das Selbstverständnis des Menschen, die sich durch die Weiterentwicklung der Kybernetik ankündigen.101 Er erwähnt dabei besonders lernende und sich selbst reproduzierende Maschinen.102 Dabei zieht er eine Parallele zwischen der Kybernetik und der Theorie der Evolution der Lebewesen und einer jeweils damit verbundenen Kränkung des menschlichen Stolzes: „Denn die Idee, daß Gottes mutmaßliche Schöpfung des Menschen und der Tiere, das Zeugen von Lebewesen, die sich selbst gleichen, und die etwaige Reproduktion von Ebd., S. 97. Ebd., S. 194. 101 Wiener, Norbert: Gott & Golem Inc., Düsseldorf / Wien 1965. 102 Ebd., S. 47ff, S. 61ff. 99
100
73
2 Künstliche Intelligenz und Transhumanismus
Maschinen alle ein Teil derselben Ordnung sind, ist seelisch beunruhigend, ja ebenso beunruhigend wie es Darwins Betrachtungen über die Evolution und die Abstammung des Menschen waren. Wenn es unseren Stolz einst verletzt hat, mit einem Affen verglichen zu werden, so haben wir es mittlerweile ziemlich überwunden; und es ist eine noch größere Beleidigung, mit einer Maschine verglichen zu werden. Jede neue Idee trägt in ihrem eigenen Zeitalter etwas von der Mißbilligung, die in früheren Zeiten der Zauberei anhaftete.“103 Wiener bezieht damit auch eine religionsphilosophische Deutung der Kybernetik mit ein. Forschungsinteresse und wissenschaftliche Neugierde sieht Wiener demnach als legitime Motive an, die auch die Konstruktion von Automaten mitbestimmen, doch sieht Wiener auch eine moralische Grenze: „Doch gibt es Aspekte der Motive der Automatisierung, die über eine legitime Neugierde hinausgehen und die in sich selbst sündhaft sind. Diese finden ihr Beispiel in dem Sondertyp des Ingenieurs oder Managers der Technik, den ich als Apparate-Anbeter bezeichnen möchte.“104 Dieses Motiv besteht für Wiener auf der einen Seite in einer mit „Ungeduld“ verbundenen Leugnung der Grenzen der Menschheit, insbesondere der Unzuverlässigkeit und Unberechenbarkeit des Menschen.105 Auf der anderen Seite verbirgt sich darin für Wiener „der Wunsch, die persönliche Verantwortung für eine gefährliche oder unheilvolle Entscheidung dadurch zu vermeiden, daß man die Verantwortung auf etwas anderes schiebt: auf den Zufall, auf Vorgesetzte und deren Vorschriften, die man nicht anzweifeln darf oder auf ein mechanisches Gerät, das man zwar nicht ganz versteht, das jedoch vermutlich eine Objektivität besitzt. Dies ist die Haltung, die Schiffbrüchige dazu verleitet, darum zu losen, wer von ihnen zuerst gegessen werden soll. Und dies ist es, worauf der verstorbene Herr Eichmann seine geschickte Verteidigung stützte.“106 Wiener interpretiert diese Mischung von instrumenteller Verfügbarmachung der Natur, verbunden mit einem fatalistischen Sich-Ausliefern an eine höhere Gewalt als Grundwesen der Zauberei: „Dies ist die Denkungsart des Zauberers im vollen Sinne des Wortes. Den Schwarzkünstler dieser Art warnt nicht nur die Doktrin der Kirche, sondern auch die angesammelte gesunde Einsicht der Menschheit, wie sie sich in Legenden, Mythen und in den Schriften der einsichtigen Literaten niedergeschlagen hat. All diese betonen immer wieder, daß die Zauberei nicht nur eine in die Hölle führende Sünde ist, sondern eine persönliche Gefährdung in diesem Leben darstellt – sie ist ein zweischneidiges Schwert, das einen früher oder später verletzen wird.“107 Wiener spricht deshalb von der „Magie der Automatisierung“ und der Gefahr
Ebd., S. 71 Ebd., S. 78, im Original kursiv. 105 Ebd. 106 Ebd., S. 79f. 107 Ebd., S. 81. 103
104
74
2.2 Philosophie und künstliche Intelligenz
des Kontrollverlustes und der Nichtabsehbarkeit der Konsequenzen durch ein Delegieren von Aufgaben und Verantwortung an Maschinen.108 John von Neumann (1903–1957): Die Rechenmaschine und das Gehirn John von Neumann gilt als einer der wichtigsten Entwickler des Computers. Gleichzeitig prägte er die Herausbildung der Computermetapher des Geistes. In seinem 1958 erschienen Aufsatz The Computer and the Brain109 stellt von Neumann bereits eine Analogie zwischen Gehirn und Computer her: „Es geht hier um den Versuch, einen Weg zum Verständnis des Nervensystems vom Standpunkt des Mathematikers zu finden.“110 Er beschreibt darin die grundlegenden Funktionsweisen des Computers und des menschlichen Nervensystems. Elektrische Nervenimpulse im Gehirn deutet von Neumann als digitale Vorgänge, während chemische und mechanische Hirnprozesse als analoge Vorgänge bezeichnet werden.111 Auch den Begriff des Programms überträgt von Neumann auf die Beschreibung des Gehirns: „Ein System von Befehlen, die von einem Automaten ausgeführt werden können und das den Automaten veranlaßt, eine bestimmte Aufgabe auszuführen, wird Programm genannt. Unter Befehlen verstehe ich alles, was ein digitales System wie das Nervensystem veranlaßt, in reproduzierbarer, zweckvoller Weise zu funktionieren, z. B. auch Nervenimpulse, die auf den in Frage kommenden Axonen auftreten.“112 Von Neumann überträgt das Verständnis über die Funktionsweise komplizierter Automaten auf Annahmen über Funktionsweisen des menschlichen Gehirns. Er geht dabei davon aus, dass im menschlichen Nervensystem ebenso wie in komplizierten Automaten sowohl logische als auch arithmetische Strukturen vorhanden sein müssen. Von Neumann formuliert die These, das Gehirn aus einer Sicht des Mathematikers zu betrachten, zunächst als systematische Spekulation.113 Aus seiner hypothetischen Annahme, dass das Nervensystem wie ein Automat funktioniert, folgert er jedoch in einem Zirkelschluss auf die Angemessenheit einer begrifflichen Analogie: „Diese Ausführungen zeigen, daß das Nervensystem, betrachtet man es als Automaten, unbedingt sowohl einen arithmetischen als auch einen logischen Teil besitzen muß, und daß die Anforderungen an die Arithmetik in ihm von ebenso großer Bedeutung sind wie die Anforderungen an die Logik. Das besagt, daß wir es wieder mit einer Rechenmaschine im eigentlichen Sinn zu tun haben, und daß eine Diskussion
Ebd., S. 86. Deutsch: Die Rechenmaschine und das Gehirn, München 1991. 110 Ebd., S. 13. 111 Ebd., S. 67. 112 Ebd., S. 68. 113 Ebd., S. 13. 108 109
75
2 Künstliche Intelligenz und Transhumanismus
in der Terminologie der in der Rechenmaschinentheorie gebräuchlichen Begriffe erlaubt ist.“114 Sprache ist demnach für von Neumann eine „Verarbeitung von Befehlen“.115 Von Neumanns axiomatische Setzung einer Computermetapher des Geistes für eine adäquate Beschreibung der Arbeitsweise des menschlichen Gehirns ist kennzeichnend für das Selbstverständnis von Ingenieuren in der Frühphase der Entwicklung von Computern und künstlicher Intelligenz. Bis heute hat dieses Selbstverständnis einen bedeutenden Einfluss auf die Beurteilung von Computertechnologie und künstlicher Intelligenz, auch wenn viele Annahmen aus der frühen Entwicklungsphase revidiert werden mussten. Alan Turing (1912–1954): Kann eine Maschine denken? Das Imitationsspiel Alan Turing, Mathematiker, Logiker und Kryptoanalytiker gilt als einer der wichtigsten Pioniere für die Entwicklung der theoretischen Grundlagen für Computertechnologien. Während des zweiten Weltkrieges half er bei der Entwicklung einer Dechiffrierung des deutschen Verschlüsselungssystems Enigma.116 Seine Leistung als mathematischer Theoretiker knüpfte zunächst an das Hilbertsche „Entscheidungsproblem“ an: ob es möglich ist, ein widerspruchsfreies, vollständiges und entscheidbares System für die Mathematik zu entwickeln.117 In seinem Aufsatz On Computable Numbers, with an application to the „Entscheidungsproblem“118 entwickelte Turing ein Modell einer universellen Rechenmaschine. Hierin wies er die Möglichkeit einer unberechenbaren Zahl als unlösbares Problem der Mathematik nach.119 In seinem Entwurf, welcher den Rationalismus Hilberts angriff, entwickelte er gleichzeitig ein theoretisches Grundmodell für eine universelle Rechenmaschine, die sämtliche deterministische Aufgaben mechanisch bearbeiten könnte.120 Dieses Modell sollte für die Weiterentwicklung der theoretischen Grundlagen der Informatik wegweisend werden.121 Alan Turing griff auch die Frage, ob eine maschinelle Informationsverarbeitung mit menschlichen Denkprozessen vergleichbar ist, bereits auf und entwarf den nach ihm benannten „Turing-Test“, welcher die erfolgreiche sprachliche Interaktion mit Menschen als Garant 116 117 114
115
120 121 118
119
Ebd., S. 72. Ebd., S. 76. Hodges, Andrew: Alan Turing, Enigma, Wien 1994, S. 192ff. Leavitt, David: The Man Who Knew Too Much. Alan Turing and the Invention of the Computer, London 2007, S. 49ff. Hodges, Andrew: Alan Turing, Enigma, Wien 1994, S. 126. Ebd., S. 120ff. Ebd., S. 129. Vgl. Turing, Sara: Alan M. Turing, Cambridge 2012, S. 125ff.
76
2.2 Philosophie und künstliche Intelligenz
für den Nachweis von künstlicher Intelligenz nimmt. Alan Turing war Anfang der 50er Jahre mit seinen Beschreibungen von Turing-Maschine und Turing-Test der tatsächlichen technologischen Entwicklung seiner Zeit weit voraus. Er definierte den Begriff der Berechenbarkeit122 und konzipierte mit dem Turing-Test ein Testverfahren, mit der man die Intelligenz von Maschinen nachweisen können soll.123 Bis heute werden immer wieder Turing-Tests als Wettbewerbe ausgeschrieben.124 Der „Turing-Test“ ist dazu konzipiert, um Beurteilungsbedingungen für die Intelligenz von Maschinen zu definieren. In diesem „Imitationsspiel“125 stellt eine menschliche Person Fragen, welche sowohl eine Maschine mit einer künstlichen Intelligenz A als auch eine natürliche Person B beantworten müssen. Der Fragesteller muss die Antworten anschließend zuordnen.126 Wenn das Sprachverhalten einer Maschine mit dem Sprachverhalten eines Menschen verwechselt werden kann, so müsse man dieser Maschine die Fähigkeit zu denken zuschreiben. Turing ersetzte die Frage „Können Maschinen denken?“ pragmatisch durch die Frage „Lässt sich das sprachlich dargestellte Verhalten von Maschinen von dem sprachlich dargestellten Verhalten von Menschen unterscheiden?“127 Turing umgeht damit galant die Frage nach dem, was Denken eigentlich ist, indem er diese Frage durch die Frage nach einer Zuschreibung von außen durch äußerliche Verwechselbarkeit ersetzt. Von verschiedener Seite wurde an der Plausibilität des Tests bereits Kritik geübt.128 Kann eine Simulation von intelligenter Sprachfähigkeit als wirkliches Denken gelten? Wie „intelligent“ können Computer werden? Die einschlägigste Kritik am Geltungsanspruch des TuringTests wurde wohl von John R. Searle formuliert. Lämmel, Uwe und Cleve, Jürgen: Künstliche Intelligenz, München 2012, S. 12. Turing, Alan M.: Kann eine Maschine denken?, in: Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 1994, S. 39–78. 124 Lämmel, Uwe und Cleve, Jürgen: Künstliche Intelligenz, München 2012, S. 12. 125 Turing, Alan M.: Kann eine Maschine denken?, in: Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 39–78, dort S. 39. 126 Ebd., S. 40. 127 Turing orientiert sich dadurch argumentativ am logischen Behaviorismus, vgl. Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 1994, S. 20. 128 Vgl. Crockett, Larry L.: The Turing Test and the Frame Problem. AI’s Mistaken Understanding of Intelligence, New Jersey 1994, S. 145–187. Vgl. Searle, John R.: Minds, Brains, and Programs, in: Shieber, Stuart M. (Hg.): The Turing Test. Verbal Behaviour as the Hallmark of Intelligence, Cambridge / London 2004, S. 201–224. Shieber führt an, dass der Turing-Test schon deshalb zweifelhaft ist, weil kein Mensch einem solchen Test unterzogen wird, um ihm Intelligenz zuzugestehen. Vgl. Shieber, Stuart M.: The Spark of Richness of Information Processing, in: Ders. (Hg.): The Turing Test. Verbal Behaviour as the Hallmark of Intelligence, Cambridge / London 2004, S. 225–227, dort S. 225. 122 123
77
2 Künstliche Intelligenz und Transhumanismus
John R. Searle (*1932): Das Chinesische Zimmer – Kritik am Turing-Test Die populärste Kritik am Turing-Test und dem Kriterium einer erfolgreichen Imitation von intelligentem Sprachverhalten eines Computers stammt von John R. Searle. Er entwickelte das Gedankenspiel des „Chinesischen Zimmers“. In einem Zimmer befindet sich in diesem Gedankenexperiment ein Mensch, der über einen immensen Schriftzeichenvorrat chinesischer Zeichen sowie ein umfassendes Regelwerk verfügt, wie er mit diesen Zeichen umgehen sollte, um Anfragen auf Chinesisch von außen zu beantworten. Dieser Mensch könnte damit zwar eine Unterhaltung auf Chinesisch simulieren, würde allerdings nichts von all dem verstehen, was er da tut. In einer ebensolchen Situation wäre nach Searle ein Computerprogramm, welches zwar nach formalen Regeln operieren kann, allerdings keinen Zugang zum semantischen Gehalt von Sprache findet.129 Searles Gedankenexperiment kann auf verschiedene Art und Weise gedeutet werden. Für die Sprachphilosophie wirft sie die Frage auf, ob Semantik sich in Syntax erschöpfen kann.130 Searle hat damit besonders die sprachphilosophische Diskussion um den Geltungsanspruch des Turing-Tests bereichert.131 Searle stellt in seinen Ansätzen den Begriff der Intentionalität in den Vordergrund.132 Dennoch wird Searles Theorie als identitätstheoretischer monistischer Interaktionismus und als funktionalistischer Materialismus gedeutet.133 Die Möglichkeit, dass Steine, Metalle und Silikone Bewusstsein erzeugen, wird von Searle ausgeschlossen, ohne dass er klare Kriterien dafür entwickelt, aus welchen physiologischen Grundlagen ein solches sich entwickeln könnte. Indem Searle an einem biologischen Naturalismus und einem empirisch-wissenschaftlichen Monismus festhält, gelingt ihm keine theoretische Herleitung einer Philosophie des Geistes, die sich nicht in einem physikalischen Determinismus und einem epistemologischen Solipsimus erschöpft.134 Seine Chinese-Room-Kritik am Turing-Test wurde und wird zwar immer wieder stark rezipiert in der Diskussion darum, ob eine mögliche Analogie zu menschlichen Denkprozessen gerechtfertigt ist. Für die Frage nach einer Gleichsetzung von menschlicher und künstlicher Intelligenz kann Searles Gedankenexperiment auch als Kritik an einer funktionalistischen Verkürzung des Searle, John R.: Geist, Hirn und Wissenschaft, Frankfurt am Main 1986, S. 30–32. Vgl. Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 2002, S. 22ff. 131 Ebd. 132 Searle, John R.: Geist, Hirn und Wissenschaft, Frankfurt am Main 1986, S. 62ff. 133 Schäfer, Erich: Grenzen der künstlichen Intelligenz. John R. Searles Philosophie des Geistes, Stuttgart 1994, S. 124f. 134 Ebd., S. 129. 129
130
78
2.2 Philosophie und künstliche Intelligenz
Intelligenzbegriffs rekonstruiert werden. Menschliches Denken wäre demnach nie hinreichend durch funktionale Bestimmungen erklärbar. Instrumentelle Vernunft im Sinne eines zielgerichteten, zweckmäßigen oder funktionalen Ansatzes wäre dann nur eine von zahlreichen Facetten des Lebens des menschlichen Geistes. Searle führte auch eine argumentative Auseinandersetzung mit Kurzweil über die Frage, ob Maschinen ein Bewusstsein entwickeln können. Searle gelang es dabei gegenüber Kurzweil nicht, seine kritische Position so zu begründen, dass sie für Kurzweil überzeugend gewesen wäre.135 In einem Exkurs wird diese Auseinandersetzung im letzten Kapitel dieser Arbeit wieder aufgegriffen.136 John McCarthy (1927–2011): Maschinen mit geistigen Eigenschaften Als Initiator der Dartmouth Conference prägte John McCarthy gemeinsam mit Marvin Minsky und anderen Forschern den Begriff Artificial Intelligence.137 Eine Zuschreibung von geistigen Eigenschaften wie „Überzeugungen“, „Bewusstsein“, „Wünsche“ oder „freien Willen“ auf Maschinen sah John McCarthy als berechtigt und nützlich an.138 McCarthy zielt in seinen Entwürfen auf eine Formalisierung der Welt in einer mathematischen Sprache, um dieses Wissen über die Welt in ein Computerprogramm zu implementieren: „Wenn wir ein allgemein intelligentes Computerprogramm entwickeln wollen, müssen wir ihm eine allgemeine Sichtweise, wie die Welt beschaffen ist, einbauen, mit einem besonderen Augenmerk darauf, wie die zum Lösen von Problemen benötigte Information gewonnen und verwendet werden kann. Weiterhin müssen wir das Programm mit einer Art Metaphysik oder Weltanschauung und einer – wenn auch naiven – Epistemologie (Erkenntnistheorie) versehen.“139 John McCarthy übernimmt dabei die Grundannahme des physikalistischen Reduktionismus, demzufolge psychische Phänomene aus beobachtbaren physischen Prozessen abgeleitet werden können, formt dessen Grundargumentation aber um: „Dies ist die Umkehrung des Reduktionismus. Statt zu fragen, wie mentale Qualitäten auf physikalische reduziert werden können, fragen wir, wie physikalischen Systemen mentale Eigenschaften zugeschrieben werden können.“140
Kurzweil: Menschheit 2.0, a. a. O., S. 474ff. Vgl. Kap. 4.3 dieser Arbeit. 137 Loh, Janina: Trans- und Posthumanismus. Zur Einführung, Hamburg 2018, S. 97. 138 McCarthy, John: Können einer Maschine geistige Eigenschaften zugeschrieben werden?, in: Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 184–231. 139 Ebd., S. 185. 140 Ebd., S. 187. 135
136
79
2 Künstliche Intelligenz und Transhumanismus
Indem McCarthy eine funktionale Beschreibung von mentalen Zuständen und maschinellen Prozessen voraussetzt, kann sein Ansatz als „metaphysischer Funktionalismus“ bezeichnet werden.141 McCarthy geht dabei über den Funktionalismus von Putnam hinaus, welcher mit einer funktionalistischen Interpretation mentaler Zustände und maschineller Prozesse die Frage nach einer Analogie oder Identität von künstlicher und menschlicher Intelligenz umgehen wollte.142 McCarthy verdeutlicht seine Annahme am Beispiel eines Thermostaten. Es sei demnach gerechtfertigt, einem Thermostaten die Überzeugung zuzuschreiben: „Das Zimmer ist zu heiß“ und das Ziel „Der Raum soll genau richtig sein“.143 Er überträgt diese Argumentation auch auf komplexere Abläufe, um Begriffe wie „Intelligenz“144, „Introspektion und Selbsterkenntnis“145, „Bewusstsein und Selbstbewusstsein“146, „Intentionen“,147 „freier Wille“,148 „Kreativität“149 auf die Beschreibung von Maschinen anzuwenden. Dabei legt McCarthy ein behavioristisches und funktionales Verständnis dieser Begriffe zugrunde. Marvin Minsky (1927–2016): Mentopolis Marvin Minsky war als Professor für Elektrotechnik am Massachusetts Institute of Technology (MIT) eine führende Autorität in der Frühphase der Entwicklung von künstlicher Intelligenz.150 Gemeinsam mit John McCarthy rief er 1959 das MIT Artificial Intelligence Project ins Leben und wirkte von da an als einer der intellektuellen Hauptakteure in der technischen Weiterentwicklung von künstlicher Intelligenz.151 In seinem Buch „Mentopolis“ entwickelt er philosophische Fragmente zum Verhältnis von Geist und Maschine. Kerngedanke des Buchs ist der Rekurs auf „Atome“ und „Partikel“, die sowohl beim Menschen als auch bei Maschinen zwar nicht als Einzelne „Geist“ verursachen,
Vgl. Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 21. Putnam, Hilary: Geist und Maschine, in: Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 146–183, dort S. 179f. 143 Ebd., S. 202. 144 Ebd., S. 210. 145 Ebd., S. 213. 146 Ebd., S. 214f. 147 Ebd., S. 217f. 148 Ebd., S. 218-220. 149 Ebd., S. 220. 150 Minsky, Marvin: Maschinen sind mehr als sie scheinen, in: Ders. (Hg.): Maschinen wie Menschen, München 1968, S. 9–14, dort S. 9. 151 Minsky, Marvin: Mentopolis, Stuttgart 1990, S. 325. 141
142
80
2.2 Philosophie und künstliche Intelligenz
aber in ihrem Gesamtspiel. „Mit diesem Buch will ich zu erklären versuchen, wie Geist funktioniert. Wie kann Intelligenz aus Nicht-Intelligenz entstehen? Um diese Frage zu beantworten, werde ich zeigen, wie man Geist aus kleinen Teilen zusammensetzen kann, die jedes für sich ohne Geist sind.“152 Minsky bezeichnet diese Elemente als „Agenten des Geistes“, als Elemente, aus welchen sich der menschliche Geist zusammensetzt.153 „Dieses Buch macht geltend, daß jedes Gehirn, jede Maschine oder jedes andere Ding, das Geist besitzt, aus kleineren Dingen komponiert sein muß, die überhaupt nicht denken können.“154 Er weist dementsprechend die Vorstellung eines einheitlichen Selbst oder einer Seele zurück.155 Für die Biologie schlägt Minsky auch den Verzicht auf den Begriff des Lebens vor.156 Eine Ausweitung des Intelligenzbegriffs auf Maschinen sieht Minsky als plausibel an.157 Darunter versteht er „die Fähigkeit, schwierige Probleme zu lösen“.158 Eine Übertragung des Intelligenzbegriffs auf die Tierwelt lehnt Minsky hingegen ab, auch in Bezug auf komplexe Aufgaben wie den Bau von Korallenriffen durch Korellantierchen: „es ist nur eine Täuschung anzunehmen, daß Tiere solche Probleme ‚lösen‘ können! Kein individueller Vogel entdeckt eine Methode zu fliegen. Vielmehr bedient sich jeder Vogel einer Lösung, die sich in ungezählten Jahren reptilischer Evolution entwickelt hat. Ähnlich verhält es sich bei den Pirolnestern und Biberdämmen; kein Pirol oder Biber hat sie je berechnet, aber der Mensch hätte große Mühe, sie zu entwerfen. Diese Tiere ‚lösen‘ solche Probleme nicht selbst; sie folgen nur Vorgehensweisen, die in ihren komplizierten, durch Gene konstruierten Gehirnen verfügbar sind.“159 Eine Übertragung seiner eigenen Argumentation auf die Angemessenheit des Intelligenzbegriffs bei Mensch oder Maschine findet sich bei Minsky nicht. Auch das Verhalten von Menschen müsste in dem von ihm vertretenen physikalistischen Weltbild demnach ja nur Vorgängen in evolutionär entwickelten Genen und Gehirnen entsprechen und auch Maschinen würden ja nach vorgeschriebenen mechanischen Abläufen operieren. Insgesamt ist Minskys Werk eher eine Sammlung spekulativer Fragmente und gründet auf vielen unbewiesenen Ebd., S. 17. Ebd., S. 18f. 154 Ebd., S. 324. 155 Ebd., S. 40f. 156 Minsky, Marvin: Decentralized minds, in: The Behavioral and Brain Sciences 3, S. 439f, zit. nach: Schäfer, Erich: Grenzen der künstlichen Intelligenz. John R. Searles Philosophie des Geistes, Stuttgart 1994, S. 106. 157 Vgl. Minsky, Marvin: Mentopolis, Stuttgart 1990, S. 19. 158 Ebd., S. 71. 159 Ebd. 152
153
81
2 Künstliche Intelligenz und Transhumanismus
Annahmen, was Minsky im Schluss des Buches auch selbst eingesteht.160 Minsky versteht seinen eigenen Ansatz demnach nicht als widerspruchsfreie Systematik, sondern als Inspiration für die Vorstellungskraft: „Entsprechend sollte dieses Buch weniger wie ein Bericht über wissenschaftliche Forschung gelesen werden, sondern eher wie eine Abenteuergeschichte, deren Ziel es ist, die Imagination anzuregen. Jede Idee sollte nicht als gesicherte Hypothese über den Geist, sondern als zusätzliches Werkzeug zur Fertigung von Theorien über den Geist betrachtet werden.“161 Der Begriff des Geistes ist für Minsky dabei aus der Perspektive eines mechanistischen Reduktionismus und unter den Zielstellungen eines technischen Ingenieurs zu deuten: „In der Tat ist dies in gewisser Hinsicht der einzige realistische Weg, über Psychologie nachzudenken – denn der Geist einer jeden einzelnen Person entwickelt sich wie eine große Maschine mit leichten Abweichungen von den übrigen. Ist der Geist eine Maschine? Daran habe ich nicht den geringsten Zweifel; für mich stellt sich nur die Frage: Was für eine Maschine ist der Geist? Und obwohl es die meisten Leute immer noch entwürdigend finden, als Maschinen betrachtet zu werden, hoffe ich, daß sie den Gedanken angenehm finden werden, wie wundervoll es doch ist, eine Maschine mit derart wunderbaren Fähigkeiten zu sein.“162 Minskys Bereitwilligkeit zur Übertragung des Intelligenzbegriffs auf Maschinen geht so weit, dass er das Maschinelle, Mechanische offenbar als charakteristisch für das Geistige ansieht. Die Weigerung, Tieren die Fähigkeit zur Problemlösung und damit Intelligenz zuzuschreiben, zeugt von einer starken Überbetonung des rational-logischen Anteils in der menschlichen Intelligenz und von der Annahme, der Mensch würde seine eigene Handlungspraxis vorrangig von einem Prinzip der logischen Berechenbarkeit leiten lassen, während ein Zusammenhang zwischen der Struktur des leiblich-organischen Lebens und der Herausbildung von intelligenten Empfindungsstrukturen weitestgehend ausgeblendet wird. Minskys Haltung kann als charakteristisch für eine Haltung von Ingenieuren am MIT in der Entwicklung von künstlicher Intelligenz in ihrer Frühphase gedeutet werden. Aspekte des logischen Rationalismus, welche für eine anthropologische Selbstbestimmung auf eine Abgrenzung des Menschen von der Tierwelt rekurrieren, werden dabei so stark von ihren leiblichen, affektiven, triebhaften und organischen Bezügen losgelöst, dass letztlich nur noch eine Maschine die Kriterien der Menschlichkeit und der Intelligenz erfüllen kann. Die Maschine wird als eine Form rein mechanisch-logischer Rationalität damit normativ über den Menschen gesetzt, dessen Rationalität getrübt und unvollkommen bleibt. Transhumanistische Autoren wie Moravec und Kurzweil, die im Übergang des Menschen zur Technologie einen Weg zur Höherentwicklung des Menschen sehen, knüpfen an eine solche Argumentation an. Ebd., S. 324. Ebd. 162 Ebd., S. 324f. 160 161
82
2.2 Philosophie und künstliche Intelligenz
Minsky war für die weitere Entwicklung der Möglichkeiten von künstlicher Intelligenz stets optimistisch. 1967 schrieb er: „Ich bin überzeugt, dass es innerhalb einer Generation nur noch wenige Teile des Verstandes geben wird, die außerhalb des Bereiches der Maschine verbleiben werden – die Probleme, einen ‚künstlichen Geist‘ zu erschaffen, werden im wesentlichen gelöst sein.“163 Minsky thematisierte auch bereits früh die Möglichkeit einer Beschleunigungsspirale in der Entwicklung von Maschinenintelligenz, auch wenn dieses Szenario noch weit entfernt schien.164 Damit deutete er bereits auf das Konzept der Singularität, welches später von transhumanistischen Autoren wie Kurzweil ausformuliert werden sollte.
2.2.2.2 Weitere Diskussionsgeschichte bis zur Gegenwartsphilosophie Die weitere Diskussionsgeschichte um die Einordnung der technologischen Entwicklungen von künstlicher Intelligenz in ihrem Spannungsfeld zum Selbstverständnis des Menschen war geprägt von einer Diskussion um die Möglichkeit einer formallogischen Repräsentation der Wirklichkeit in einer Symbolsprache und möglichen Grenzen von künstlicher Intelligenz. Die Paradigmenwechsel in den physikalischen und biologischen Wissenschaften, die eine Abkehr von der klassischen Mechanik einleiteten, wurden dabei auch auf die philosophische Deutung des Verhältnisses von Mensch und Maschine übertragen. Die Entwicklung des Konnektionismus in der Informatik, wobei neuronale Strukturen des Gehirns nachgebildet werden sollten, trug zu einer Debatte um die Möglichkeit einer Repräsentation des Weltwissens durch formallogische, symbolische Strukturen bei. Quantenphysik, Chaostheorie und Ansätze zu Emergenz, Selbstorganisation, Komplexität und dynamischen Systemen wurden dabei in Bezug auf eine Beschreibung des Gehirns und auf die Möglichkeiten und Grenzen maschineller Intelligenz diskutiert. Eine lineare Darstellung der philosophischen Begriffsdiskussion ist dabei nicht möglich. Technische Entwicklungen fanden großteils losgelöst von der philosophischen Diskussion statt. Philosophische Einwände und Beiträge wurden nur vereinzelt von Autoren rezipiert, welche die technologische Entwicklung von künstlicher Intelligenz voranbrachten. Auch die philosophische Arbeit zu dem Thema entbehrt einer linearen Entwicklung. Aus verschiedenen Perspektiven und Fachhintergründen entwickelten unterschiedliche Autoren eigene hermeneutische Zugänge für eine Interpretation der Technologien von künstlicher Intelligenz. Einige Autoren, deren philosophische Arbeiten zur künstlichen Intelligenz rezipiert 163
Minsky, Marvin: Berechnung. Endliche und unendliche Maschinen, Stuttgart 1971 S. 20. Minsky, Marvin: Maschinen sind mehr als sie scheinen, in: Ders. (Hg.): Maschinen wie Menschen, München 1968, S. 9–14, dort S. 13.
164
83
2 Künstliche Intelligenz und Transhumanismus
wurden, verfolgten die Thematik später selbst nicht systematisch weiter, wie z. B. die Brüder Dreyfus. Prägnant ist dabei jedoch in dieser Entwicklungsphase der starke Schwerpunkt auf der Frage, ob künstliche Intelligenz mit menschlicher Intelligenz gleichgesetzt werden kann und ob Defizite in technologischen Anwendungen nur eine Frage der Zeit sind oder ob die Intelligenz des Menschen durch Maschinen prinzipiell nie erreicht werden kann. Das Potential künstlicher Intelligenz sowie eine philosophische und normative Einordnung wird dabei in einer Analogie zu menschlicher Intelligenz beurteilt. Stattdessen wird die Frage nach einer Nutzbarmachung der prinzipiellen Unterschiedlichkeit in der Funktionsweise von maschinellen Abläufen in Abgrenzung zu menschlicher Intelligenz vergleichsweise wenig thematisiert. Die Gegenwartsliteratur zur Philosophie der künstlichen Intelligenz häuft sich mit Publikationen einer populärwissenschaftlichen Darstellung von Grundlagenwissen über Informatik und Computertechnologie verbunden mit einigen klassischen Fragestellungen aus der frühen Diskussionsgeschichte. Nicht alle Veröffentlichungen dieser Art müssen an dieser Stelle Erwähnung finden. Folgende Themen und Perspektiven können in der Gegenwartsphilosophie systematisiert werden: Transhumanistische Entwürfe wie von Ray Kurzweil setzen die grundsätzliche Möglichkeit voraus, mithilfe von künstlicher Intelligenz alle Bereiche der menschlichen Intelligenz nachzubilden und zu verbessern. Die Prognose zukünftiger Entwicklung nimmt dabei an, dass zu einem gewissen Zeitpunkt, welcher als „Singularität“ bezeichnet wird, die Intelligenz des Menschen von der Intelligenz der Maschinen überholt wird. Dies bedeutet für den Menschen die Möglichkeit, sich evolutionär höher zu entwickeln und die nächste Stufe der Evolution selbst mitzugestalten. Technologische Potentiale in der Entwicklung von künstlicher Intelligenz sollen dabei letztlich einer Überwindung der ältesten Probleme der Menschheit dienen, bis hin zur Überwindung des Todes. Die Arbeiten Ray Kurzweils werden noch nicht an dieser Stelle, sondern erst im nächsten Kapitel systematisch dargestellt und analysiert. Nick Bostrom, der von J. Loh zum Transhumanismus gerechnet wird, geht ebenso davon aus, dass den technologischen Weiterentwicklungen von künstlicher Intelligenz keine prinzipiellen Grenzen gesetzt sind. Sie sehen im Gegensatz zu Kurzweil jedoch darin nicht nur Potentiale, sondern auch Risiken und Gefahren, die bis zur Möglichkeit der Auslöschung der Menschheit durch eine künstliche Intelligenz reichen. Sein Ansatz fügt sich daher nicht in die argumentative Grundstruktur von Moravec und Kurzweil ein, die im nächsten Kapitel systematisiert wird und findet stattdessen am Ende dieses Kapitels Erwähnung. Deskriptive Ansätze wie von Manuela Lenzen zielen auf eine nüchternere Darstellung gegenwärtiger Möglichkeiten von künstlicher Intelligenz und absehbaren realistischen Prognosen für die weitere Entwicklung. Dabei werden wahrscheinliche gesellschaftliche 84
2.2 Philosophie und künstliche Intelligenz
Veränderungsprozesse diskutiert, die sich aus der Anwendung bereits bestehender Möglichkeiten ergeben. Wissenschaftsphilosophische Arbeiten wie von Roger Penrose und Klaus Mainzer versuchen, die technologische Interpretationsgeschichte des Phänomens der künstlichen Intelligenz fortzusetzen, welche eine Analogie von künstlicher Intelligenz und menschlichem Geist diskutiert. Dabei werden Veränderungen des wissenschaftlichen Weltbildes, die eine Abkehr von der klassischen Mechanik bedeuten, für die philosophische Beurteilung der künstlichen Intelligenz übertragen. Systematisch haben Dreyfus und Dreyfus eine Kritik an einer Gleichsetzung von menschlichem Geist und den Möglichkeiten von künstlicher Intelligenz erarbeitet, die jedoch vorrangig als Kritik an symbolverarbeitender, klassischer KI gelten kann. Auch Bernhard Irrgang erarbeitet eine Abgrenzung von Mensch und Maschine ausgehend von einer Perspektive der Leibphänomenologie und Technikhermeutik. Von jüngeren Autoren wie Catrin Misselhorn und Lukas Brand wird zudem ein neuer Ansatz verfolgt, der als Maschinenethik bezeichnet wird und eine Verschiebung der Thematik aufweist. In Abgrenzung zur Technikethik als Frage nach dem menschlichen Umgang mit Technik zielt die Maschinenethik auf die Möglichkeit, menschliche Moralvorstellungen in die Konstruktion künstlich intelligenter Systeme zu implementieren. In unterschiedlichen Fachdisziplinen werden zudem die technologischen Transformationsprozesse durch künstliche Intelligenz diskutiert. Soziologische Arbeiten thematisieren die gesellschaftlichen Veränderungsprozesse, welche durch eine zunehmende Digitalisierung in Verbindung mit Technologien der künstlichen Intelligenz einhergehen. Juristische Arbeiten thematisieren juristische Probleme, die mit der Weiterentwicklung künstlicher Intelligenz und durch deren Anwendungen entstehen. In der Gegenwartsliteratur finden sich auch normative Untersuchungen zu speziellen Anwendungsfragen, z. B. zu Sexrobotik oder autonomen Waffensystemen. Roger Penrose: Computerdenken Der Physiker und Mathematiker Roger Penrose widmete sich aus einer mathematisch-physikalischen Perspektive dem Spannungsfeld zwischen einem physikalischen Modell des Universums und dem Phänomen des Bewusstseins mit expliziten Rekursen auf Prozesse der Informationsverarbeitung in Computern und einer möglichen Analogie zu Denkprozessen beim Menschen. Seine Ansätze entwickelte er in den beiden Büchern Computerdenken165 und Schatten des Geistes.166
Penrose, Roger: Computerdenken. Die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik, Heidelberg 1991. Die englische Originalausgabe wurde 1989 veröffentlicht. 166 Penrose, Roger: Schatten des Geistes. Wege zu einer neuen Physik des Bewusstseins, Heidelberg / Oxford / Berlin 1995. Die englische Originalausgabe wurde 1994 veröffentlicht. 165
85
2 Künstliche Intelligenz und Transhumanismus
In Computerdenken stellt Penrose die Frage nach der Natur des menschlichen Geistes, bzw. Bewusstseins und ob ein Computer Geist besitzen kann.167 Penrose stellt darin nicht nur die algorithmischen Grundlagen von künstlicher Intelligenz dar, sondern untersucht dabei auch den Geltungsanspruch und die Grundstruktur der mathematischen Welt168 und die Wirklichkeitsauffassung der klassischen Physik.169 Diesen stellt er Paradigmenwechsel gegenüber, deren Bedeutung er für eine wissenschaftsphilosophische Einordnung des mathematischen und physikalischen Selbstverständnisses neu interpretiert. Hierzu gehört Gödels Unvollständigkeitstheorem auf der Seite der Mathematik170 und die Quantentheorie auf der Seite der Physik.171 In Schatten des Geistes bezieht er auch die mathematische Chaostheorie mit ein, um Grenzen vollständiger deterministischer Beschreibungen der Wirklichkeit zu skizzieren.172 Penrose vergleicht Modelle des Nervensystems173 mit Computermodellen des Gehirns174 und untersucht dabei mögliche Zusammenhänge mit quantenphysikalischen Vorgängen im Gehirn für ein besseres Verständnis des Bewusstseinsbegriffs.175 Letztlich sieht er aber auch mithilfe der Quantentheorie keinen wissenschaftlichen Zugang zu der Frage des Denkens: „Mir scheint, daß weder die klassische Physik noch die Quantenmechanik […] jemals zu erklären vermag, wie wir denken.“176 Penrose gelangt zu der Überzeugung, dass eine algorithmische Beschreibung von Denkprozessen inadäquat ist: „Es läßt sich plausibel vertreten, daß bei (bewußten) Denkprozessen eine wesentliche nicht-algorithmische Komponente im Spiel ist.“177 Auch „viele Teile der mathematischen Welt“ tragen „nicht-algorithmischen Charakter“,178 wodurch für Penrose eine Gleichsetzung einer streng algorithmischen Turing-Maschine mit dem Wesen des menschlichen Geistes nicht plausibel ist. Penrose kommt zu der Überzeugung, „daß der bewußte Geist nicht wie ein Computer funktionieren kann, auch wenn ein Großteil dessen, was mit geistiger Tätigkeit zusammenhängt, vielleicht so funktioniert.“179 Penrose, Roger: Computerdenken, a. a. O., S. 3. Ebd., S. 96ff. 169 Ebd., S. 145ff. 170 Ebd., S. 109ff. 171 Ebd., S. 218ff. 172 Penrose: Schatten des Geistes, a. a. O., S. 27ff. 173 Penrose: Computerdenken, a. a. O., S. 379ff. 174 Ebd., S. 383ff. 175 Ebd., S. 390. 176 Ebd., S. 394. 177 Ebd. 178 Ebd., S. 420. 179 Ebd., S. 437 167
168
86
2.2 Philosophie und künstliche Intelligenz
Die philosophische Debatte um den Begriff des Geistes verknüpft Penrose mit einem Verweis auf die Grenzen algorithmischer Prozesse: „Aufgrund des Standpunkts, den ich zu entwickeln suche, erscheint es darum als wahrscheinlich, daß nicht-algorithmische Prozesse in der physikalischen Welt eine sehr wichtige Rolle spielen. Ich behaupte, dass diese Rolle äußerst eng mit dem Begriff des ‚Geistes‘ verbunden ist.“180 Penrose weist dabei auch auf den Begriff der „Einsicht“ in die Gültigkeit einer wissenschaftlichen Aussage hin, welche nicht mit einer algorithmischen Beschreibung wiedergegeben werden kann und begründet dies mit der Unmöglichkeit, alle mathematischen Beweise algorithmisch darzustellen.181 Dabei verweist er auf die Unhintergehbarkeit der Dimension von Einsicht für einen Begriff des Bewusstseins: „Dieses ‚Einsehen‘ macht geradezu das Wesen von Bewußtsein aus. […] Sobald wir uns von der Gültigkeit des Gödelschen Satzes überzeugen, ‚sehen‘ wir ihn nicht nur ‚ein‘, sondern enthüllen damit zugleich, daß dieser Prozeß des ‚Einsehens‘ in seinem ureigensten Wesen nichtalgorithmisch ist.“182 In seinem einige Jahre später verfassten Buch Schatten des Geistes konkretisiert Penrose seine in Computerdenken dargestellten Ansätze mit dem besonderen Fokus auf dem Begriff des Geistes und einer Vermittlung zwischen dem Phänomen des Bewusstseins und einem physikalischen Weltbild. Er entwickelt dies anhand der geistigen Qualität, die ein „bewußtes Verständnis und insbesondere Mathematikverständnis“ auszeichnet183 und weist auf, dass dieses nicht als Rechenoperation formuliert werden kann: „Es ist prinzipiell unmöglich, daß eine solche Qualität als Eigenschaft bloßer Rechentätigkeit auftritt“.184 In seinem Fazit schlägt Penrose eine Beschreibung der Wirklichkeit in „drei Welten“ vor:185 eine platonisch-mathematische Welt, eine Welt der Physik und die „Welt unserer bewußten Wahrnehmung, aber gerade über sie wissen wir am wenigsten – jedenfalls soweit es sich irgendwie wissenschaftlich fassen lässt.“186 Auch wenn Penrose sich nicht direkt auf Husserl, Heidegger, Wittgenstein oder Welter bezieht, ließe sich eine inhaltliche Nähe zu der Einsicht in die Inkommensurabilität der Lebenswelt des Menschen für eine objektivierende Wissenschaft ziehen, wie sie im späteren Verlauf dieser Arbeit systematisch rekonstruiert wird.187
Ebd., S. 420. Ebd., S. 406f. 182 Ebd., S. 408. 183 Penrose: Schatten des Geistes, a. a. O., S. 517. 184 Ebd. 185 Ebd. 186 Ebd., S. 518. 187 Vgl. Kapitel 3.1.8 und Kapitel 4.3 dieser Arbeit. 180 181
87
2 Künstliche Intelligenz und Transhumanismus
Dreyfus und Dreyfus: Was Computer nicht können Die Brüder Hubert L. und Stuart E. Dreyfus publizierten in der 1980er Jahren beginnend die ersten Arbeiten mit dem Anspruch einer systematischen philosophischen Kritik der Möglichkeiten künstlicher Intelligenz. Ihr Schwerpunkt lag in einer kritischen Analyse des Anspruchs, Allgemeinwissen oder Weltwissen für künstlich intelligente Systeme zu formalisieren. Sie sahen in der Reduktion auf logische Rationalität kein adäquates Pendant zu menschlichem Wissen und wiesen auf grundsätzliche Grenzen formallogischer Systeme hin sowie auf die „Unmöglichkeit, Allgemein- (Commonsense-) beziehungsweise Alltagswissen in irgendeiner generellen Art und Weise zu repräsentieren.“188 Den Begriff des Alltagswissens, des Commonsense- oder Erfahrungswissens stellen sie als Grundlage menschlicher Handlungspraxis heraus, die sich einer formallogischen Abstraktion entzieht. Sie geben damit auch eine Antwort auf Rückschläge in der KI-Forschung für die Bearbeitung von Problemen, die für Menschen leicht zu lösen, für eine maschinelle Intelligenz aber bis zu diesem Zeitpunkt gar nicht lösbar waren, wie z. B. Mustererkennung oder das Verstehen von Kindergeschichten und Fabeln.189 Damit weisen sie die Möglichkeit zurück, sämtliche Aspekte menschlicher Intelligenz formalisieren und in einem logischen System darstellen zu können. Dreyfus und Dreyfus kritisieren eine „simplifizierte Auffassung von menschlichen Fähigkeiten und Sachkenntnissen.“190 Ihre „Grundthese ist, daß Computer als logische Denkmaschinen sich mit menschlicher Intuition und menschlichem Expertentum nicht messen können“.191 Sie wenden sich dabei an den Glauben an die Möglichkeit der Mechanisierung menschlicher Fähigkeiten und gegen ein menschliches Selbstverständnis als „abstrakte Verstandesmaschine“.192 Sie erarbeiten dabei auch ein Modell für die Aneignung von Wissen durch den Menschen in fünf Stufen vom Neuling zum Expertentum in lebensweltlichen Lernprozessen, welches dem Projekt einer logischen Formalisierung von Expertenwissen entgegengestellt wird.193 Rationalität und Regelwissen ist demnach für menschliche Experten eingebettet in lebensweltliches Erfahrungswissen, welches sich seinerseits einer möglichen Formalisierung entzieht. Sie beziehen sich dabei auf Phänomene höchster Leistungsfähigkeit (‚Flow‘) von menschlichen Experten, in denen Intuition und Kreativität sich mit einem euphorischen Hochgefühl Dreyfus Hubert L. und Dreyfus, Stuart E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition, Leck 1991, S. 104. 189 Ebd., S. 138. 190 Ebd., S. 12. 191 Ebd., S. 11. 192 Ebd., S. 15. 193 Ebd., S. 41–62. 188
88
2.2 Philosophie und künstliche Intelligenz
verbinden, wobei die Ganzheit dieses Prozesses jenseits einer möglichen Rationalisierung liege.194 Sie formulieren als Herausforderung das „Commonsense-Knowledge-Problem“, welches aus dem „Problem des gesunden Menschenverstandes (bzw. des Alltagsverständnisses)“ und dem „Problem mit veränderlichen Relevanzen“ besteht.195 Vieles, was für Menschen selbstverständlich ist, muss Computern „in Form von Fakten und Regeln“ einprogrammiert werden.196 Menschen hingegen lernen viele Aspekte dieses lebensweltlichen Wissens nicht in Form von Regeln oder Fakten, sondern durch ihr Zusammenspiel von Erfahrungswissen, sensomotorischem Erkunden der Welt, „durch Nachahmung, Versuch-und-Irrtum und Übung“.197 Das Problem einer Repräsentation lebensweltlichen Erfahrungswissens sehen Dreyfus und Dreyfus als prinzipiell unlösbar an und sie weisen bisherige Zugänge in der KI-Forschung als unzureichend für die Bearbeitung dieses Problems aus, weil „menschliches Erfahrungswissen nicht als organisierte Faktenmenge organisierbar ist“.198 Der Begriff des Erfahrungswissens wird daher für Dreyfus und Dreyfus zum Hauptargument für die Schwachstelle symbolverarbeitender künstlicher Intelligenz in formallogischen Systemen.199 Dreyfus und Dreyfus erarbeiten damit eine systematische Kritik der prinzipiellen Möglichkeiten symbolverarbeitender formallogischer Systeme.200 Tatsächlich erwiesen sich die Kritikpunkte von Dreyfus und Dreyfus an den prinzipiellen Möglichkeiten formallogischer Systeme in der symbolverarbeitenden künstlichen Intelligenz als zutreffend. Viele technische Probleme wie Mustererkennung, das Verstehen von Fabeln o. ä. konnten trotz zunehmender Rechenleistung nicht gelöst werden. Die philosophische Kritik von Dreyfus und Dreyfus an den prinzipiellen Möglichkeiten formallogischer Systeme und der symbolverarbeitenden künstlichen Intelligenz wird mittlerweile auch in der KI-Forschung akzeptiert. Ihre Kritikpunkte werden allerdings nicht für die Möglichkeiten von künstlichen neuronalen Netzen angenommen.201 Mit der Renaissance des Konnektionismus und der Entwicklung neuronaler Netze konnten manche Aufgabenbereiche von maschineller Intelligenz erfolgreich bewältigt werden, die mit symbolverarbeitender künstlicher Intelligenz nicht gelöst werden können. Tatsächlich ist die Funktionsweise von 196 197 198 199 200 201 194 195
Ebd., S. 66f. Ebd., S. 112f. Ebd., S. 113. Ebd., S. 116. Ebd., S. 124f. Ebd., S. 258. Ebd., S. 82ff. Russell, Stuart und Norvig, Peter: Künstliche Intelligenz. Ein moderner Ansatz, München 2012, S. 1180f.
89
2 Künstliche Intelligenz und Transhumanismus
künstlichen neuronalen Netzen derart, dass sie dem Anspruch von Dreyfus und Dreyfus, menschliches Erfahrungswissen zu simulieren, gerecht werden können, indem große Mengen an Daten und Situationen ausgewertet werden, anhand derer Ähnlichkeiten wiedererkannt werden sollen. Die Kritik von Dreyfus und Dreyfus muss daher als Kritik der „klassischen“, symbolverarbeitenden künstlichen Intelligenz eingeordnet werden und kann nicht ohne weiteres auf die Interpretation künstlicher Intelligenz, die auf der Grundlage künstlicher neuronaler Netze operiert, übertragen werden. Dreyfus und Dreyfus unterschätzten daher auch die Potentiale in der Weiterentwicklung von künstlicher Intelligenz, als sie z. B. daran zweifelten, dass Ergebnisse in der KI-Forschung jemals für militärische Zwecke genutzt werden könnten: „Heute, nachdem das amerikanische Militär die Erforschung der Künstlichen Intelligenz […] zwanzig Jahre lang unterstützt hat, fordert es die entwickelten Chips für seine Zwecke. Aber hat das Militär wirklich Chancen, seine Hoffnungen zu erfüllen? Sicher nicht. Der menschliche Geist ist jeder Maschine überlegen.“202 Die Kritik von Dreyfus und Dreyfus beinhaltet jedoch auch Aspekte, die für eine Beurteilung der Möglichkeiten künstlicher neuronaler Netze übertragen werden können. So ist Erfahrungswissen zwar für ausgewählte, spezifische Aufgaben für künstliche neuronale Netze „erlernbar“. Dieses aufgabenspezifische Erfahrungswissen entspricht jedoch nicht in jeder Hinsicht dem lebensweltlichen Wissen des Menschen, an welches dieser jedes neu erworbene Regelwissen zurückbindet. Menschliches Erfahrungswissen ist zurückgebunden an seine leibliche Konstitution und einen sozialen und kulturellen Kontext. Künstlich intelligente Systeme, die auf maschinellem Lernen mit künstlichen neuronalen Netzen aufbauen, können nicht ohne weiteres mit leiblich-lebensweltlichem Erfahrungswissen des Menschen gleichgesetzt werden. Die Einsichten in Grenzen einer Gleichsetzung von menschlicher und maschineller Intelligenz, die Dreyfus und Dreyfus herausgearbeitet haben, können also zumindest partiell auch auf Computertechnologien mit künstlichen neuronalen Netzen Gültigkeit beanspruchen. Dreyfus und Dreyfus übertragen die gewonnenen Einsichten aus der philosophischen Beurteilung der Möglichkeiten von künstlicher Intelligenz auch auf eine kritische Bearbeitung der philosophiegeschichtlichen Tradition: „Dank der KI-Forschung haben die Spekulationen Platons und Kants, der Geist würde nach Regeln arbeiten, schließlich ihre empirische Überprüfung darin gefunden, daß man versucht hat, auf logischen Maschinen menschenähnliches Verhalten zu erzeugen. Und nach zweitausend Jahren der Verfeinerung hat sich die traditionelle Auffassung vom Geist als unangemessen erwiesen.“203 Dementsprechend weisen Drey Dreyfus Hubert L. und Dreyfus, Stuart E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition, Leck 1991, S. 10. 203 Ebd., S. 138. 202
90
2.2 Philosophie und künstliche Intelligenz
fus und Dreyfus die Definition des Menschen als rationalem Tier zurück und beziehen eine kritische Position gegenüber der Schwerpunktsetzung von Rationalität für eine anthropologische Bestimmung, die bis zu Sokrates zurückreicht.204 Bernhard Irrgang: Leibliche Intelligenz Der Technikphilosoph Bernhard Irrgang stellt im Anschluss an die Kritik der Brüder Dreyfus die Rolle von Erfahrungswissen für die Intelligenz des Menschen sowie das Eingebettetsein von Intelligenz in den Leib des Menschen in den Mittelpunkt seiner Analysen.205 Der Geist des Menschen ist demnach nicht als logisch-formales System zu verstehen, sondern nur durch seine Einbettung in leibliche, affektive, emotionale und sensomotorische Kontexte.206 Einem Dualismus von Gehirn und Geist stellt Irrgang ein „Kompetenzmodell des menschlich-leiblichen Geistes“ entgegen.207 Daraus erarbeitet Irrgang eine systematische Zurückweisung der Berechenbarkeit menschlicher Umgangsformen.208 Die gegenseitige Verwobenheit der unterschiedlichen Ebenen in der menschlichen Praxis ist demnach nicht auflösbar.209 Irrgang knüpft an das Kompetenzmodell des menschlichen Geistes und seine Einbettung in leibliche Kontexte auch eine hermeneutische Rekonstruktion der Begriffe von Denken, Bewusstsein, Erfahrung, Wissen, Freiheit und Selbsterkenntnis an.210 Systematisch leitet Irrgang die leibliche Konstitution des menschlichen Geistes aus einer phänomenologischen Hermeneutik ab.211 Diese knüpft an den Begriff der Lebenswelt an.212 Irrgang bezieht sich dabei auf die Leibphilosophie Edith Steins im Anschluss an Edmund Husserl.213 Leibliche Subjektivität ist dementsprechend die unhintergehbare Grundbedingung für jede kognitive Erschließung der Welt. Leiblichkeit charakterisiert Irrgang kompetenzorientiert durch das unauflösbare Geflecht emotionaler, geistiger und kreativer Kompetenzen.214
Ebd., S. 269. Irrgang, Bernhard: Gehirn und leiblicher Geist. Phänomenologisch-hermeneutische Philosophie des Geistes, Stuttgart 2007. 206 Ebd., S. 184ff. 207 Ebd., S. 167ff. 208 Ebd., S. 183. 209 Ebd. 210 Ebd., S. 203–318. 211 Irrgang, Bernhard: Der Leib des Menschen. Grundriss einer phänomenologisch-hermeneutischen Anthropologie, Stuttgart 2009. 212 Ebd., S. 83ff, S. 135ff. 213 Ebd., S. 85. 214 Ebd., S. 183ff. 204 205
91
2 Künstliche Intelligenz und Transhumanismus
Dementsprechend bezieht Irrgang aus technikethischer Perspektive eine Position, die für eine sinnvolle Anwendung von Technologien mit künstlicher Intelligenz plädiert anstelle des Projekts der Nachbildung des menschlichen Geistes: „Im Übrigen besteht nach wie vor die Frage, warum künstliche Menschen und Roboter unbedingt menschenähnlich sein müssen, damit sie uns so faszinieren. Ich vermute einmal, dass es das Faszinosum Mensch selber ist, das uns anregt, derartige Gedankenexperimente in die Tat umzusetzen, um über technische Modelle unserer selbst herauszufinden, wer wir letztendlich selbst sind. Doch dies wird über technische Artefakte und technische Modelle immer nur ansatzweise gelingen.“215 Gegenüber einem mentalistischen Subjektivitätskonzept stellt Irrgang auch Aspekte der existentiellen Unverfügbarkeit des Leibes durch Geburt, Negativität, Leiden und Tod als sinnkonstitutive Bedingungen heraus.216 Klaus Mainzer: Gehirn, Computer und Komplexität Der Philosoph und Wissenschaftstheoretiker Klaus Mainzer entwickelt als studierter Mathematiker ausgehend von seinen frühen Arbeiten zu Geometrie,217 Zahlen,218 zu Grundlagenproblemen in der Geschichte der exakten Wissenschaften219 und zur Philosophie und Physik der Raum-Zeit220 eine systematische wissenschaftstheoretische und wissenschaftsgeschichtliche Diskussion um die philosophische Interpretation von Computertechnologien und künstlicher Intelligenz. Mainzer rekonstruiert in wissenschaftsgeschichtlichen Exkursen die Herausbildung der Mathematisierung der Welt und eines mechanistischen Verständnisses des Universums und des Menschen.221 Er bezieht sich dabei auf La Mettrie,222 Leibniz,223 Laplace224 und Hilbert.225 Irrgang, Bernhard: Posthumanes Menschsein? Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und Designer-Menschen. Anthropologie des künstlichen Menschen im 21. Jahrhundert, Stuttgart 2005, S. 167. 216 Irrgang, Bernhard: Der Leib des Menschen. Grundriss einer phänomenologisch-hermeneutischen Anthropologie, Stuttgart 2009, S. 250ff. 217 Mainzer, Klaus: Geschichte der Geometrie, Zürich 1980. 218 Ebbinghaus, Heinz-Dieter, Mainzer, Klaus u. a. (Hg.): Zahlen, Berlin / Heidelberg 1992. 219 Mainzer, Klaus: Grundlagenprobleme in der Geschichte der exakten Wissenschaften, Konstanz 1981. 220 Mainzer, Klaus: Philosophie und Physik der Raum-Zeit, Zürich 1988. 221 Mainzer, Klaus: Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014, S. 35–68. 222 Mainzer, Klaus: Leben als Maschine? Von der Systembiologie zur Robotik und Künstlichen Intelligenz, Paderborn 2010, S. 17. 223 Ebd., S. 18ff. 224 Mainzer, Klaus: Die Berechnung der Welt, a. a. O., S. 48ff. 225 Ebd., S. 57ff. 215
92
2.2 Philosophie und künstliche Intelligenz
Im Kapitel 2.3 dieser Arbeit werden diese wissenschaftsgeschichtlichen Vorbedingungen für die Entwicklung eines mechanistischen Welt- und Menschenbildes ausgeführt. Mainzer bindet seine Bearbeitung der Thematik auch an den Begriff des Lebens zurück.226 Mainzer weist in seinen Arbeiten auf Grenzen einer vollständigen Mathematisierung der Welt hin und arbeitet die Einsicht in die Unvollständigkeit der Mathematik anhand von Gödel und Turing heraus.227 Er koppelt den Erkenntnisstand gegenwärtiger Hirnforschung an eine wissenschaftstheoretische Einordnung von künstlicher Intelligenz zurück und bezieht Einsichten der Komplexitätsforschung und der Beschreibung dynamischer Systeme für eine Entwicklung von Computerphilosophie mit ein.228 Er weist damit auf Aspekte von Paradigmenwechseln in fachwissenschaftlichen Diskursen im 20. Jahrhundert, die eine Abkehr von einem mechanistisch-deterministischen Bild der Wirklichkeit kennzeichnen.229 Der menschliche Geist ist für Mainzer Resultat der biologischen Evolution der Lebewesen230 und muss als komplexes, dynamisches und emergentes System beschrieben werden,231 welches sich in leiblich-materiellen Kontexten entwickelt.232 Mainzer greift auf die Begriffe Komplexität, Chaos und Emergenz zurück, um Prozesse der Selbstorganisation von Organismen als charakteristisches Kriterium für Intelligenz zu beschreiben.233 Mainzer arbeitet Parallelen und Unterschiede zwischen organischen und künstlichen komplexen Phänomenen heraus.234 Systematisch vergleicht er den Erkenntnisstand neurowissenschaftlichen Forschungen über die Funktionsweise des menschlichen Gehirns mit Abläufen und Prozessen in Computertechnologien.235 Mainzer stellt dabei verschiedene Aspekte des menschlichen Gehirns dar, welche in gegenwärtigen Computertechnologien bisher nicht nachgebildet werden können. Sein Ausgangspunkt ist dabei der gegenwärtige Forschungsstand der Neurowissenschaften und der Anspruch, unser Selbstverständnis mithilfe eines Modells für Vgl. Mainzer, Klaus: Leben als Maschine?, a. a. O. Ebd., S. 69ff. 228 Ebd., S. 127ff. Systematisch hat Mainzer diesen Aspekt bereits herausgearbeitet in Mainzer, Klaus: Gehirn, Computer, Komplexität, Heidelberg 1997. 229 Vgl. Mainzer: Leben als Maschine?, a. a. O., S. 35–88. Vgl. Mainzer: Die Berechnung der Welt, a. a. O., S. 117–126. 230 Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 9–14. 231 Mainzer, Klaus: Komplexität, Paderborn 2008, S. 65. 232 Ebd., S. 70. 233 Ebd., S. 65–76. 234 Eine systematische Analyse der Grenzen und Möglichkeiten programmgesteuerter Maschinen in ihrer Abgrenzung zu biologischen dynamischen Systemen entwickelt Klaus Mainzer in: Computer – Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin 1994. 235 Ebd., S. 95ff, S. 176ff., S. 187ff., S. 374ff. 226 227
93
2 Künstliche Intelligenz und Transhumanismus
die Vernetzung von Wahrnehmung, Bewegung, Emotionalität, Kognition und Selbstbewusstsein zu erschließen.236 Zwischen biologischen Zellen in natürlichen Organismen und komplexen neuronalen Netzen in Computertechnologien sieht Mainzer dennoch Parallelen.237 Die Kriterien, welche für die Beschreibung des organischen Lebens gelten, sieht Mainzer grundsätzlich auch für die Entwicklung von Computersystemen als rekonstruierbar.238 Die Abgrenzung zwischen Natürlichem, Lebendigem und Künstlichem, Maschinellem sieht Mainzer daher als fließend.239 Die Frage, ob künstlichen komplexen dynamischen Systemen Bewusstsein zugeschrieben werden kann, sieht Mainzer als eine Frage der Definition des Bewusstseinsbegriffs an. Searles Behauptung, dass die Herausbildung von Bewusstsein in künstlichen Systemen wie Computern prinzipiell unmöglich sei, weist Mainzer zurück.240 Mainzer verdeutlicht in seinen Publikationen das Verhältnis von wissenschaftlichem Weltbild und der Interpretation von Computertechnologie. Dabei leistet Mainzer eine Rückbindung an die historische Entwicklung einer Mathematisierung der Welt und einer mechanistischen Deutung von Mensch und Welt.241 Das Konzept der vollständigen Berechenbarkeit der Welt erfährt dadurch eine wissenschaftsgeschichtliche Einordnung und wissenschaftstheoretische Eingrenzung.242 Mainzer stellt einer mechanistischen Konzeption des Universums die Paradigmenwechsel in empirischen Wissenschaften entgegen, die eine Abkehr von einer einheitlichen deterministischen Interpretation der Welt eingeleitet haben und überträgt diese Einsichten auf die philosophische Beurteilung von Computertechnologien mit künstlicher Intelligenz.243 Mainzer wendet sich damit gegen eine Deutung von Computertechnologie, die auf dem wissenschaftlichen Weltbild des 19. Jahrhunderts stehengeblieben ist.244 Stattdessen regt er zu einer interdisziplinären Bearbeitung der Gehirn-Geist-Debatte an und zielt auf eine Interpretation und ethische Beurteilung von Computertechnologie, die unserem gegenwärtigen Forschungsstand angemessen ist.245 Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 31–65. Ebd., S. 137-139. Vgl. Mainzer: Leben als Maschine?, a. a. O., S. 95f. 238 Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 210. 239 Ebd., S. 206. 240 Ebd., S. 210. 241 Mainzer: Die Berechnung der Welt, a. a. O., S. 35ff, S. 52ff, S. 58ff, S. 94ff. Vgl. Mainzer: Leben als Maschine?, a. a. O., S. 17–34. 242 Mainzer: Computer – Neue Flügel des Geistes?, a. a. O., S. 95ff, S. 176ff, S. 374ff. 243 Mainzer: Die Berechnung der Welt, a. a. O., S. 69ff, S. 117ff, S. 127ff. 244 Mainzer: Komplexität, a. a. O., S. 76. 245 Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 5. 236 237
94
2.2 Philosophie und künstliche Intelligenz
Mainzer stellt hierfür folgende Einsichten der mathematischen und empirischen Forschung im 20. Jahrhundert sowie folgende gegenwärtige Forschungsfelder zusammen, die für eine adäquate Beurteilung von Computertechnologien berücksichtigt werden müssen: die mathematische Nicht-Berechenbarkeit und Unvollständigkeit des Universums,246 die evolutionsbiologischen Grundlagen für die Entwicklung von Geist und Bewusstsein,247 die Forschungen zu Komplexität, Chaos und nichtlinearer Kausalität248 sowie zu Emergenz und Selbstorganisation in dynamischen Systemen.249 In seinem Überblick über Computerphilosophie rekurriert Mainzer auch auf Heidegger und bezieht eine kritische Position gegenüber einer dualistischen Aufspaltung in eine objektiv beschreibbare Wirklichkeit und eine Ebene subjektiver, bewusster Wahrnehmung. Dieser Tradition folgt nach Mainzer auch Turing, wenn sich die Nicht-Unterscheidbarkeit von Mensch und Maschine mit einer Zuschreibung von Bewusstsein verbindet.250 Dem stellt er Heideggers Kritik an einer solchen Aufspaltung gegenüber, nach der „wir uns immer schon in Abhängigkeiten und Handlungsbezügen mit unserer Umwelt, ihrer Technik, Wirtschaft und Gesellschaft“ befinden, als „In-der-Welt-sein“.251 Mainzer stellt keine abschließbare Einschätzung zu den Potentialen der zukünftigen Computerentwicklung in Aussicht.252 Für Bewusstseinsphänomene des Menschen bietet Mainzer eine stochastisch-probabilistische Deutung an.253 Die Entwicklung von emergenten Bewusstseinsstrukturen hält Mainzer auch in komplexen künstlichen Systemen für grundsätzlich möglich.254 Nicht die technische Machbarkeit ist für Mainzer zweifelhaft, sondern sie „ethische Frage, ob wir eine solche Entwicklung zulassen sollten“.255 Dazu gehört für Mainzer die Erarbeitung einer „Roboethik“, in welcher auch die Fragen beantwortet werden müssen, ob „Roboter mit Emotionen ausgestattet werden“ und ob „Roboter über Persönlichkeit mit Selbstbewusstsein verfügen“ sollten.256 Ethisch positioniert sich Mainzer für eine Rückbesinnung auf den Begriff der Menschenwürde und deren Unabhängigkeit von bestimmten Fähigkeiten, Leistungen oder Ebd., S. 84ff. Ebd., S. 65. 248 Ebd., S. 123ff. 249 Mainzer: Komplexität, a. a. O., S. 65. Vgl. Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 128ff. 250 Mainzer, Klaus: Computerphilosophie zur Einführung, Hamburg 2003, S. 17. 251 Ebd. 252 Mainzer: Leben als Maschine?, a. a. O., S. 238. 253 Mainzer: Komplexität, a. a. O., S. 76. 254 Mainzer: Leben als Maschine?, a. a. O., S. 243. 255 Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 210. 256 Mainzer: Leben als Maschine?, a. a. O., S. 242. 246 247
95
2 Künstliche Intelligenz und Transhumanismus
Eigenschaften, welche nicht durch die Weiterentwicklung von Computertechnologien infrage gestellt werden sollte.257 Zu dieser gehöre jedoch auch „die Möglichkeit, in seine Zukunft einzugreifen und sie gestalten zu können.“258 Den Begriff der Menschenwürde als prinzipiellen Unterschied zwischen Mensch und Maschine anzuführen, interpretiert Mainzer als „versteckte Eitelkeit“ in Analogie zum geozentrischen Weltbild. Künstliche Intelligenz sieht er ebenso wie jede Technik in der Geschichte der Menschheit als Erweiterung der menschlichen Möglichkeiten und als Instrument für den menschlichen Geist. In der Entwicklung künstlicher Intelligenz sollte daher ihr Dienstleistungsaspekt, „heilen und helfen zu können“, im Vordergrund stehen.259 Gegenüber der transhumanistischen Vorstellung einer technischen Reproduktion der menschlichen Personalität hebt Mainzer die Individualität des einzelnen Menschen hervor, die sich gerade in seiner Unverwechselbarkeit und auch in seinen Begrenzungen zeigt.260 Manuela Lenzen: Natürliche und künstliche Intelligenz Die studierte Philosophin und Journalistin Manuela Lenzen hat zwei Arbeiten publiziert, in welchen sie Grundlagenfragen zu künstlicher Intelligenz thematisiert und hierbei besonders die Rolle der Kognitionswissenschaften in den Blick nimmt. In ihrem 2002 erschienenen Buch Natürliche und künstliche Intelligenz stellt Lenzen den Intelligenzbegriff aus einer kognitionswissenschaftlichen Perspektive dar.261 Am Anfang steht dabei das Computermodell des Geistes.262 Gehirnprozesse werden dementsprechend als Daten und Symbole aufgefasst, deren Verarbeitung letztlich zur Bildung von mentalen Phänomenen führt, ohne dabei eine vollständige Gleichsetzung von Gehirn und Computer zu unterstellen.263 Kognitive Prozesse werden aus dieser Perspektive dennoch als Prozesse der Datenverarbeitung beschrieben: „Dem Computermodell des Geistes zufolge sind kognitive Prozesse ganz analog dazu, als Prozesse der Datenverarbeitung zu verstehen. Die Daten, auf die sie zugreifen, sind mentale Repräsentationen, die für dasjenige stehen, über das jemand nachdenkt oder das er wahrnimmt. […] Mentale Repräsentationen sind, wie die Daten in einem Computer, physisch realisiert, das heißt, es handelt sich um Strukturen im Computer, bzw. Mainzer: Computer – Neue Flügel des Geistes?, a. a. O., S. 805. Mainzer: Leben als Maschine?, a. a. O., S. 251. 259 Mainzer: Computer – Neue Flügel des Geistes?, a. a. O., S. 804. 260 Mainzer, Klaus: Computerphilosophie zur Einführung, Hamburg 2003, S. 160. 261 Lenzen, Manuela: Natürliche und künstliche Intelligenz. Einführung in die Kognitionswissenschaft, Frankfurt am Main 2002. 262 Ebd., S. 24. 263 Ebd. 257
258
96
2.2 Philosophie und künstliche Intelligenz
Gehirn.“264 Lenzen überträgt die Analogie von Computer und Gehirn auch für die Rolle von Algorithmen: „Außer den Daten benötigt ein Computer noch Anweisungen, wie mit diesen zu verfahren ist, die Algorithmen. Auch im menschlichen Geist gibt es dem Computermodell zufolge solche Algorithmen, mentale Regeln, die, wie die Subtraktions- und Additionsregeln beim Kopfrechnen, festlegen, was mit den Daten des Geistes zu geschehen hat. Die Analogie von Geist und Programm soll es ermöglichen, mithilfe der Computer etwas über das Funktionieren des Geistes zu lernen, indem man von den Algorithmen eines Computerprogramms Schlüsse auf die Algorithmen des Geistes zu ziehen versucht.“265 Lenzen stellt dabei kognitivistische Ansätze von Newell und Simon266 vor, welche die Möglichkeit voraussetzen, kognitive Fähigkeiten des Menschen durch symbolische Repräsentation zu erfassen: „Mit anderen Worten, es lässt sich erforschen, wie die kognitiven Aktivitäten des Menschen als Wirkungen eines physikalischen Symbolsystems erklärt werden können.“267 Sie bezieht sich dabei auf Jerry Fodors Ansatz „einer im Gehirn fest installierten Sprache des Geistes […], die das Medium der Datenverarbeitung im Kopf darstellt“.268 Als grundlegende Antwort der Kognitionswissenschaften auf das philosophische Leib-Seele-Problem stellt Lenzen Putnams Funktionalismus vor: „Die Antwort des Funktionalismus auf die Frage, was denn nun einen mentalen Zustand ausmacht, lautet: seine Funktion, die kausale Rolle, die er in einem Organismus spielt, seine charakteristischen Ursachen und Wirkungen.“269 Sie bezieht sich dabei auf die Annahme der kausalen Geschlossenheit der materiellen Welt.270 Der Begriff der Problemlösung steht dabei für ein kognitionswissenschaftliches Verständnis des menschlichen Geistes im Mittelpunkt.271 Auch Emotionen werden aus einem funktionalen Gesichtspunkt thematisiert: „Was nützen Gefühle?“272 Lenzen interpretiert die Computermetapher des Geistes als Anfang der Kognitionswissenschaften,273 sieht aber angesichts der Entwicklungen des Konnektionismus in der KI-Forschung die Annahme einer vollständigen symbolischen Repräsentation des Wissens im
Ebd., S. 25. Hervorhebung im Original. Ebd. 266 Vgl. Simon, Herbert A. und Newell, Allen: Informationsverarbeitung in Computer und Mensch, in: Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 2002, S. 112–145. 267 Ebd., S. 35. 268 Ebd., S. 36. Hervorhebung im Original. 269 Ebd., S. 28. 270 Ebd., S. 27. 271 Ebd., S. 76. 272 Ebd., S. 132. 273 Ebd. 264 265
97
2 Künstliche Intelligenz und Transhumanismus
Gehirn als überholt an274 und deutet auf eine Reflexion dynamischer Prozesse für ein besseres Verständnis des Gehirns.275 Lenzen bleibt dabei in ihrer Beschreibung der „natürlichen Intelligenz“ immer in einer analytischen Nähe zur Funktions- und Arbeitsweise von Computern. Die Computermetapher des Geistes wird dabei nicht aufgelöst, sondern bleibt die Beschreibungsperspektive für Phänomene der menschlichen Intelligenz. Ihre Publikation liefert daher keine Gegenüberstellung von künstlicher und natürlicher Intelligenz, sondern einen Versuch, wie funktionale Abläufe in Problemlösungsaufgaben des Menschen mithilfe einer Computermetapher des Geistes interpretiert und modelliert werden können. Eine Vertiefung der Aspekte von „natürlicher Intelligenz“, die nicht in einem Bezug zur Computermetapher des Geistes stehen, die also beispielsweise aus einer Perspektive der Biologie, der Psychologie oder der Anthropologie formuliert wäre, bleibt sie dabei schuldig. In ihrem 2018 veröffentlichten Buch Künstliche Intelligenz – was sie kann und was sie erwartet verzichtet sie folgerichtig bereits im Titel auf eine Systematisierung dessen, was die Intelligenz des Menschen betrifft.276 Ihre Arbeit versteht sich als Bestandsaufnahme unterschiedlicher Funktionsweisen künstlicher Intelligenz, verbunden mit einem Ausblick auf realistisch abschätzbare Entwicklungen mit einer Abgrenzung zu überzogenen Erwartungen oder Befürchtungen. Vordergründig ist dabei in ihren Arbeiten zu verschiedenen Aspekten von Intelligenz bei Mensch und Computer eine Zusammenfassung des gegenwärtigen Entwicklungsstandes der Computertechnologie sowie verschiedener Interpretationen dessen, was Computer leisten können. Sie diskutiert attributive Zuschreibungen wie solche des Denkens, des Lernens, der Kreativität oder Autonomie von Maschinen, indem sie die Rekonstruktion der jeweiligen Begrifflichkeiten im Kontext der technologischen Entwicklungen darstellt.277 Indem sie diese wiederum an alltagssprachliches Begriffsverständnis zurückbindet, ermöglicht sie eine pragmatische Beurteilung hinsichtlich der Anwendungs- und Entwicklungspotentiale von Technologien mit künstlicher Intelligenz und ihren Auswirkungen in unterschiedlichen gesellschaftlichen Bereichen wie Wissenschaft, Arbeitswelt, Militär und sozialer Welt. Dabei geht sie auch auf mögliche Gefahren und Risiken ein.278 Lenzen grenzt sich gegenüber transhumanistischen Utopien ebenso ab wie gegenüber dystopischen Deutungen technologischer Transformationsprozesse. Als eigene Utopie schlägt sie die Vorstellung einer Zukunft vor, in welcher wir künstliche Intelligenz ebenso selbstverständlich
276 277 278 274
275
Ebd., S. 95. Ebd., S. 103. Lenzen, Manuela: Künstliche Intelligenz. Was sie kann und was uns erwartet, München 2019. Ebd., S. 21–145. Ebd., S. 147–235.
98
2.2 Philosophie und künstliche Intelligenz
nutzen wie Elektrizität, „überzogene Erwartungen“ hinter uns gelassen haben und „ein Gleichgewicht zwischen den digitalen Welten und der analogen gefunden“ haben.279 Lukas Brand: Roboter als moralische Akteure Der Theologe Lukas Brand widmet sich der ethischen Herausforderung, dass autonome intelligente Systeme in Entscheidungssituationen gelangen können, die in den Bereich moralischer Dilemmata fallen.280 Brand bezeichnet künstlich intelligente Systeme, deren Analysen einer Situation unmittelbar in eine Handlung mit einer Relevanz für moralische Fragestellungen umgesetzt werden, als „künstliche moralische Akteure“.281 Dies könnte beispielsweise für autonome Staubsauger, Pflegeroboter und autonom fahrende Autos gelten.282 Er ordnet seinen Ansatz der Maschinenethik zu. „Die Maschinenethik behandelt also die Bedingungen der Entwicklung von Computern und Robotern, die explizite moralische Entscheidungen treffen sollen. […] Am Ende der Entwicklung stehen idealerweise Roboter, die in der Lage sind, Situationen als moralische Herausforderungen einzuschätzen und daraufhin selbständige Urteile auf einem menschenähnlichen Niveau zu fällen. Aus diesen Fähigkeiten ergeben sich wiederum Implikationen für die Behandlung der Roboterethik: Erst wenn nachgewiesen ist, dass Maschinen zu moralischem Handeln in der Lage sind, lässt sich sinnvoll begründen, in welchen Zusammenhängen sie auch autonome Entscheidungen fällen sollten.“283 Brand erarbeitet davon ausgehend eine Übertragung von Begriffen und Konzepten aus der Tugendethik von Aristoteles für die Entwicklung einer moralischen Urteilsfähigkeit von Robotern.284 „Ziel dieses Buches ist es, einen Ansatz zu entwickeln und als gangbar aufzuweisen, mit dem diese Hürde von künstlich intelligenten Maschinen gemeistert werden kann.“285 Brand fasst die Diskussion von philosophischen Grundfragen zusammen, die z. B. auf Personalität, Emotionalität oder Bewusstsein von Maschinen rekurrieren. Dabei bezieht Brand eine behavioristische Position, die mit der Zuschreibbarkeit von Intelligenz, Intentionalität oder Personalität von außen eine Analogie von Mensch und Maschine insbesondere für eine normative und moralische Einordnung begründet. Dabei knüpft Brand an Turing an, welcher die Frage, ob Maschinen denken können, ersetzt hat durch die Frage nach einer möglichen
281 282 283 284 285 279
280
Ebd., S. 251. Brand, Lukas: Künstliche Tugend. Roboter als moralische Akteure, Regensburg 2018, S. 30f. Ebd., S. 31. Ebd., S. 30f. Ebd., S. 31f. Ebd., S. 32f. Ebd., S. 33.
99
2 Künstliche Intelligenz und Transhumanismus
Verwechselbarkeit von Mensch und Maschine in Aufgaben der Sprachverarbeitung: „Wie es der Turing-Test bereits nahe legt, ist die entscheidende Einsicht […], dass die Antwort auf die Frage (1), wann ein Roboter als Akteur infrage kommt, wesentlich davon abhängt, ob der Eindruck entsteht, dass es sich bei ihm um einen Menschen oder wenigstens bei seinem Verhalten um menschliches Verhalten handelt. Dabei scheint es aber in der Natur des Menschen zu liegen, dem Roboter in dieser Hinsicht entgegenzukommen und das Verhalten einer Maschine zu vermenschlichen, das heißt insbesondere, ihm Intentionalität zuzuschreiben. Dass es grundsätzlich möglich ist, einen Roboter zu konstruieren, der vom Menschen als Akteur wahrgenommen wird, kann daher als gegeben angenommen werden.“286 Brand umgeht damit ebenso wie Turing die Frage nach der Relevanz einer tatsächlich vorhandenen bewussten Personalität, um überhaupt eine Übertragung von Begriffen wie Moral und Tugend für die Konstruktion von Robotern zu rechtfertigen. Zur Begründung für die Notwendigkeit der Entwicklung einer Maschinenethik geht Brand davon aus, dass eine technikethische Betrachtung im Sinne von künstlicher Intelligenz als Werkzeug von Menschen und eine Haftbarmachung von Nutzern jeder intelligenten Technik nicht mehr aufrechterhalten werden kann, wenn die Automatisierung von technischen intelligenten Akteuren zunimmt.287 Maschinen werden deshalb nicht mehr als Objekte und Werkzeuge im Sinne einer Technikethik, sondern als Subjekte aufgefasst.288 Brand diskutiert die Möglichkeiten einer Implementierung von utilitaristischen Ethiken in Roboterlogiken289 ebenso wie eine regelbasierte Ethik in Anknüpfung an eine Pflichtethik nach dem Vorbild von Kant.290 Eine utilitaristische Konzeption verfehlt dabei nach Brand das Ziel einer Verwechselbarkeit der moralischen Urteilsfähigkeit einer Maschine mit der eines Menschen im Sinne eines „moralisch komparativen Turing-Tests“.291 Da Kant seinen Autonomiebegriff als ethische Bestimmung gegen eine Verhaftung in materiellen und triebhaften Zwängen entwickelt hat, weist Brand eine Übertragung einer regelbasierten Ethik im Sinne Kants für die Entwicklung von Roboterethiken zurück: „Ergibt es dann überhaupt Sinn, über eine Ethik von Robotern aus kantischer Perspektive zu sprechen, wenn Roboter zwar keine naturwüchsigen Neigungen haben, die zu einem vernünftigen Begehren in Konkurrenz stehen, aber automatisch aus den gegebenen Pflichten die geforderten Handlungen umsetzen müssen[?]“292
Ebd., S. 78. Ebd., S. 80. 288 Ebd. 289 Ebd., S. 92ff. 290 Ebd., S. 97ff. 291 Ebd., S. 97. 292 Ebd., S. 100. 286 287
100
2.2 Philosophie und künstliche Intelligenz
Stattdessen schlägt Brand eine Ethik im Anschluss an den Tugendbegriff bei Aristoteles vor, um diesen für das Erlernen von Moral in künstlich intelligenten Systemen zu übertragen.293 Aristoteles leitet moralische Urteilsfähigkeit aus gesammelten Erfahrungen ab, welche eine angemessene Beurteilung konkreter Situationen ermöglichen.294 Die Überwindung des platonischen Dualismus von Körper und Seele bei Aristoteles durch eine jeweilige Rückbezogenheit von Körper und Seele lässt sich nach Brand auf die „Verbindung von Software und Hardware eines Roboters übertragen, die künstliche Intelligenz letzten Endes erst ermöglicht.“295 Für Brand kann damit auch der Begriff der „Seele“ für Roboter übertragbar werden: „Versteht man mentale Prozesse in diesem Sinne, hat auch eine entsprechende Maschine die ‚Seelenfähigkeit‘ des Denkens, die nach Aristoteles’ Auffassung für den Menschen wesentlich ist.“296 Brand bringt auch den Glücksbegriff bei Aristoteles als letztes Ziel menschlichen Wollens an.297 Dieser könne zwar nicht im Sinne der Empfindungsfähigkeit von Glück vollumfassend auf Maschinen übertragen werden. „Im Blick auf die Urteile von künstlicher Intelligenz kann Glück als letztes Ziel jedoch die gleiche Funktion erfüllen wie für menschliches Urteilen.“298 Brand bezieht sich dabei auf die Möglichkeit, anhand der Analyse großer Datenmengen Rückschlüsse auf politische Einstellungen, sexuelle Präferenzen und andere Vorlieben zu ziehen: „Die Datenanalyse erlaubt Rückschlüsse von beobachtbaren Merkmalen auf unser Gefühlsleben, unsere Wünsche, unsere Vorstellung vom guten Leben und schließlich auf das, was wir als letztes Ziel unserer Handlungen erstreben und das Aristoteles Glückseligkeit nennt. Diese verborgenen Informationen könnten von künstlichen neuronalen Netzwerken anhand von Beispielen gelernt werden, ohne dass wir in der Lage sein müssten, sie explizit angeben zu können.“299 Brand sieht den Erwerb moralischer Urteilsfähigkeit im Sinne des aristotelischen Tugendbegriffs für künstliche Akteure als grundsätzlich möglich an. „Nach Aristoteles ist diese Veranlagung das Ergebnis eines Lernprozesses, der im Falle der künstlichen Intelligenz im Training mit großen Datenmengen besteht. […] Die eigentliche Hürde, die eine künstliche Intelligenz in Bezug auf die nötige Veranlagung nehmen muss, ist, sich das Erfahrungswissen anzueignen, das für die Schulung der Charakter- und Verstandestugenden unerlässlich ist.“300
Ebd., S. 108. Ebd. 295 Ebd., S. 109. 296 Ebd. 297 Ebd., S. 110. 298 Ebd. 299 Ebd., S. 113. 300 Ebd., S. 131. 293
294
101
2 Künstliche Intelligenz und Transhumanismus
Auf die Frage, wie eine Quantifizierung von Glück, Emotionalität und anderen Aspekten, die mit dem Begriff der Moral und mit den Grundlagen menschlicher personaler Intelligenz zusammenhängen, genau realisiert werden soll, geht Brand nicht so explizit ein, dass sich daraus Ansatzpunkte für eine technische Umsetzung ergeben würden. Woher soll für künstliche moralische Akteure Erfahrungswissen generiert werden, das eine Herausbildung von moralischer Urteilsfähigkeit garantieren könnte? Ist zudem die Entwicklung einer personalen moralischen Autonomie möglich, ohne diese in offenen Kontexten sozialer Interaktionen zu entfalten? Menschen entwickeln ihre moralische Urteilsfähigkeit nicht losgelöst von ihrer existentiellen Lebenspraxis. Sie agieren von Geburt an in sozialen Kontexten und Rollen, innerhalb derer sich ein Verständnis von Moral sukzessive entfaltet. Dieses ist immer zurückgebunden an die jeweils eigene lebensweltliche Praxis. Ein Kind erlebt beispielsweise in der Beziehung zu seinen Eltern oder Betreuern das eigene Verhalten als angemessen und sozial anschlussfähig. Aus einem Beziehungskontext heraus erschließt sich erst der Sinn von Moralität. Die in praktischen Lebensvollzügen gelernten Einsichten werden dabei immer hinterfragt und weiterentwickelt. Zweifelhaft ist, ob eine nicht-organische Existenz, die also auch nicht unter der Bestimmung von Sterblichkeit und Leidensfähigkeit steht, in Kontexten einer offenen Interaktion zu den gleichen moralischen Ergebnissen kommen würde wie ein Mensch. Aus einer technikethischen Perspektive wäre außerdem einzuwenden, dass für die Anwendung von Technologien mit künstlicher Intelligenz in den Kontexten, die Brand nennt – Pflege, Verkehr, Militär – nicht die personale Autonomie des künstlichen Systems das Ziel der Entwicklung darstellt, sondern dessen zuverlässige Funktionalität. Es ist fraglich, ob eine Konstruktion von Technik wünschenswert ist, deren funktionelle Zielsetzung darin besteht, einen sozialen Bezug im Sinne einer Beziehungsebene aufrecht zu erhalten. Wie der Widerspruch zwischen verlässlicher, deterministischer Funktionalität von Technik mit dem Anspruch offenen Lernens, das der Autonomie des Menschen entspräche, vereinbart werden kann, lässt Brand ungeklärt. Wenn Brand von einer „Schulung der Charakter- und Verstandestugenden“301 spricht, gleichzeitig aber davon ausgeht, dass in robotischen Systemen eine Pflicht automatisch in eine Handlung umgesetzt wird,302 dann stellt sich die Frage, ob der Tugendbegriff für einen technischen Kontext überhaupt angemessen ist, da dieser ja auf die grundsätzliche Möglichkeit des Anderskönnens abzielt. Tapferkeit und Mut bilden sich nach Platon dort heraus, wo der Mensch seine Angst überwindet.303 Geduld wächst in Situationen, in denen ein Mensch zur
Ebd. Ebd., S. 100. 303 Platon: Laches, in: Werke in Acht Bänden, Gr./Dt., übers. v. F. Schleiermacher, hg. v. D. Kurz, 1. Band, Darmstadt 2011, S. 219–286, dort S. 273. 301
302
102
2.2 Philosophie und künstliche Intelligenz
Ungeduld neigt. Von Barmherzigkeit kann gesprochen werden, wenn auch eine Strafe gerechtfertigt wäre. Tugenden sind Kennzeichen des Menschen, mit Ambivalenzen und Widersprüchlichkeiten umzugehen und gründen in einer inneren Spannung, die in der entsprechenden Tugend eine mögliche Auflösung findet. Wie eine solche innere Spannung in rein quantitativen, formallogischen Strukturen nachgebildet werden soll, thematisiert Brand nicht. Catrin Misselhorn: Maschinenethik In ihren Grundfragen der Maschinenethik304 stellt die Philosophin Catrin Misselhorn die junge Disziplin der „Maschinenethik“ vor. Demnach stellt die Maschinenethik die Frage, „ob es moralisch richtig ist, Maschinen (genauer gesagt Computer oder Roboter) mit moralischen Fähigkeiten auszustatten und überlegt, wie diese Maschinen beschaffen sein sollen.“305 Besonders hebt sie die Frage hervor, „in welchen Bereichen Maschinen mit moralischen Fähigkeiten sinnvoll eingesetzt werden können und sollen.“306 Sie bezieht sich auch auf metaethische Fragestellungen: „Was sind überhaupt moralische Fähigkeiten? Dürfen Maschinen als moralisch Handelnde gelten? Wie lassen sich moralische Fähigkeiten in künstlichen Systemen implementieren?“307 Sie diskutiert dabei auch Einwände wie Searles „Chinesisches Zimmer“. Dennoch geht Catrin Misselhorn davon aus, dass auch phänomenales Bewusstsein theoretisch erklärbar sein wird und verweist dabei auf andere Phänomene, die lange Zeit als wissenschaftlich unzugängliche Phänomene galten, für die aber doch eine wissenschaftliche Erklärung oder Systematisierung gefunden werden konnte.308 Misselhorn bezieht sich auch auf Emotionalität und die Möglichkeit, diese in künstlichen Systemen nachzubilden.309 Eine solche „künstliche Emotionsforschung abstrahiert weitestgehend von den neurophysiologischen Details“ in beobachtbaren Prozessen, die mit der Emotionalität beim Menschen einhergehen und „geht von der Annahme aus, dass Emotionen eine bestimmte funktionale Rolle für die Kognition besitzen.“310 Misselhorn entwickelt davon ausgehend „eine funktionale Auffassung des moralischen Handelns“.311
Misselhorn, Catrin: Grundfragen der Maschinenethik, Stuttgart 2018. Ebd., S. 46. 306 Ebd., S. 47f. 307 Ebd., S. 48. 308 Ebd., S. 37. 309 Ebd., S. 41. 310 Ebd., S. 42. 311 Ebd., S. 37. 304
305
103
2 Künstliche Intelligenz und Transhumanismus
Dafür stellt sie drei Grundsystematiken normativer Ethiken vor: Utilitarismus,312 Kantische Ethik 313 und Tugendethik.314 Sie diskutiert auch Möglichkeiten für eine Übertragung des Autonomiebegriffs für maschinelle Akteure.315 Für eine Implementierung von Moral in künstlichen Systemen stellt Misselhorn regelbasierte Top-Down-Ansätze und Bottom-Up-Sätze vor, die auf der Grundlage maschinellen Lernens arbeiten.316 In Exkursen zu Fragen der angewandten Ethik analysiert sie schließlich Möglichkeiten zu Moralimplementierung im Bereich von Pflegesystemen,317 Kriegsrobotern318 und autonomem Fahren.319 Misselhorn weist für eine Anwendung von Begriffen jeweils diejenigen Definitionen und theoretischen Zugänge zurück, welche für Maschinen nicht angewendet werden können. So kommt sie nach einer Untersuchung, ob der Begriff „moralische Akteure“ für eine Maschinenethik angewendet werden kann, zu dem Schluss: „Der Funktionalismus macht es ihnen [den Maschinen] hingegen zu schwer, solange er mit dem Anspruch verbunden ist, echte geistige Zustände zu interpretieren.“320 Statt den Begriff „moralische Akteure“ aufzugeben, deutet sie künstliche Systeme mit einem „Belief-Desire-Intention-Softwaremodell“ als „innere Zustände, die als funktional äquivalent mit Überzeugungen und Pro-Einstellungen betrachtet werden können“.321 Sie lautet aus ihren formalen Definitionen sukzessive eine Übertragung von funktionaler Moralität ab, der für Maschinen implementiert werden könnte: „Sie besitzen Repräsentationen, die angeben, wie sich die Dinge in der Welt verhalten, in bestimmten logischen Beziehungen zueinander stehen und handlungsrelevant sind. Diese haben eine vergleichbare funktionale Rolle wie Überzeugungen bei Menschen. Darüber hinaus weisen sie auch motivationale Zustände auf, die angeben, wie die Welt beschaffen sein sollte, also Zustände, die funktional äquivalent mit Pro-Einstellungen sind. Ferner können sie Pläne entwickeln und verfolgen. Sie verfügen außerdem über Informationsverarbeitungsmechanismen, die sie dazu veranlassen, die Welt zu verändern, wenn sie nicht so ist, wie sie beschaffen sein sollte.“322 Auf Vorbehalte gegen eine Gleichsetzung von Mensch und Maschine weist Misselhorn zwar an verschiedener Stelle hin, etwa wenn sie schreibt, dass der Anspruch der künstlichen 314 315 316 317 318 319 320 321 322 312 313
Ebd., S. 53ff. Ebd., S. 58ff. Ebd., S. 64ff. Ebd., S. 76. Ebd., S. 97ff und S. 114ff. Ebd., S. 136ff. Ebd., S. 155ff. Ebd., S. 184ff. Ebd., S. 87. Ebd., S. 87f. Ebd., S. 88.
104
2.2 Philosophie und künstliche Intelligenz
Emotionsforschung nicht darin besteht, „künstliche Systeme mit echten Emotionen zu schaffen“323 oder „dass die BDI-Architektur weit unterhalb der Komplexität menschlichen Verhaltens liegt.“324 Aus diesen Einsichten zieht Misselhorn aber kaum Konsequenzen für ihre eigene Begrifflichkeit. Sie müsste dann ihre Analysen zu Fragen der angewandten Ethik auf ein neues Fundament stellen, denn sie schreibt selbst, dass metaethische Fragestellungen die Grundlage für Fragen der Anwendung sein müssen: „denn sollte sich herausstellen, dass es gar nicht möglich ist, Maschinen mit moralischen Fähigkeiten auszustatten, erübrigen sich die Probleme der angewandten Ethik.“325 Eine solche Konsequenz zieht Misselhorn jedoch nicht, auch wenn sie einen Transfer des Moralbegriffs auf maschinelle Prozesse einschränkt: „Sie können auch nicht darüber nachdenken, welche Theorie der normativen Ethik ihr Handeln leiten soll, ob sie Kants kategorischem Imperativ folgen sollten oder lieber dem utilitaristischen Prinzip der Nutzenmaximierung. Sie verfügen daher nicht über die für Zuschreibung moralischer Verantwortung notwendige Willensfreiheit.“326 In ihrer eigenen Argumentation folgt sie weitestgehend einer funktionalistischen Beschreibung von Emotionalität, Bewusstsein, Moral und Willensfreiheit, die mit einer Simulierbarkeit und Zuschreibbarkeit von Verhalten eine Analogie zwischen Mensch und Maschine begründet. Doch inwieweit ist eine funktionale Auffassung von Begriffen wie „Emotionalität“ oder „Moral“ überhaupt angemessen für ihre Verwendung in der menschlichen Sprache? Eine Deutung menschlicher Emotionen nur unter ihren funktionalen Aspekten scheint dem Wesen der Emotionalität des Menschen nicht gerecht zu werden. Wenn sexuelle Empfindungen von ihrem funktionalen Aspekt her definiert werden sollen, dann könnte beispielsweise das Ziel der Reproduktion oder die Funktion der Stabilisierung einer partnerschaftlichen Beziehung angeführt werden. Doch ist eine solche Beschreibung der menschlichen sexuellen Lebenspraxis angemessen? Spätestens seit der Abkehr von der katholischen Sexualmoral und mit der sexuellen Befreiungsbewegung wird sexuelle Aktivität nicht primär auf das Ziel der Fortpflanzung reduziert. Stattdessen verhindern viele Menschen mithilfe von Verhütungsmitteln gerade, dass in ihren sexuellen Praktiken die Entstehung eines Kindes möglich wäre. Menschen, die ihre Sexualpraxis mit wechselnden Sexualpartnern gestalten, scheinen auch kein Interesse an der Stabilisierung einer partnerschaftlichen Beziehung zu zeigen. Der funktionale Aspekt, der für eine biologische Beschreibung von Sexualität herangezogen wird, scheint die Intentionen von Menschen in ihren sexuellen Praktiken nicht adäquat wiederzuspiegeln. Selbstverständlich haben Emotionen soziale Auswirkungen und in diesem Sinne auch Funktionen in sozialen 325 326 323
324
Ebd., S. 43. Ebd., S. 88. BDI steht für das Belief-Desire-Intention-Softwaremodell, Anm. d. Autors. Ebd., S. 48. Ebd., S. 124.
105
2 Künstliche Intelligenz und Transhumanismus
Kontexten. Dennoch geht das Wesen der Emotionalität in einer funktionalen Bestimmung nicht auf. Eine ähnliche Problematik zeigt sich im Begriff der Moral, wenn dieser aus seinen funktionalen Aspekten hergeleitet wird. Ihren Anspruch, „eine funktionale Auffassung des moralischen Handelns“ zu entwickeln,327 löst Misselhorn nur insoweit ein, dass sie die Grundfrage diskutiert, inwieweit der Begriff des moralischen Handelns auf Maschinen übertragen werden kann. Sie stellt die soziale Funktion von Utilitarismus, Kantischer Pflichtethik und Tugendethik jeweils in einer Allgemeinaussage dar.328 Eine Explikation, wie diese Allgemeinaussagen in eine formalistische Systematik algorithmischer Systeme übertragbar sein sollen, führt sie hingegen nicht aus. In ihren konkreten Analysen z. B. zur „funktionalen Charakterisierung von Meinungen“ widmet sie sich der funktionalen Repräsentation von Sätzen zu wie die Meinung, „dass die Straße nass ist“ oder dass das Buch „Anna Karenina sich in der Bibliothek befindet“.329 Aus diesen faktischen Überzeugungen ließe sich auch ein Begriff von Intentionalität definieren, der auf Computer und Maschinen übertragen werden könnte: „Ist man der Meinung, dass Anna Karenina sich in der Bibliothek befindet und verspürt den Wunsch, das Buch zu lesen, so wird man sich auf den Weg zur Bibliothek machen. Nach dieser Auffassung können auch Computer mentale Zustände wie Meinungen oder Wünsche besitzen, sofern die entsprechenden funktionalen Beziehungen vorliegen.“330 Es ist fraglich, ob für eine philosophische Systematik Misselhorns Methodik plausibel scheint, wenn sie die Definition moralischer Grundbegriffe davon abhängig macht, wie gut die entsprechenden Definitionen in maschinelle Systeme eingebunden werden können, um anschließend zum Ergebnis zu kommen, dass eine Implementierung von moralischen Grundlagen in Maschinen prinzipiell möglich ist. Indem sie sich stark auf einen Ansatz des Funktionalismus bezieht, der von einer Computermetapher des Geistes ausgeht,331 setzt sie die Analogie zwischen Mensch und Maschine voraus. Ein systematischer Vergleich mit einer anderen Perspektive auf den menschlichen Geist, der also nicht auf der Argumentation einer Computermetapher des Geistes und einer funktionalistischen Deutung geistiger Phänomene aufbaut, findet nicht statt. Eine solche könnte beispielsweise eine philosophische Perspektive der Leibphänomenologie sein, die aus einem Apriori der leiblichen Wahrnehmung die Konstitution menschlicher Erkenntnisprozesse herleitet.332
329 330 331 332 327
328
Ebd., S. 37. Ebd., S. 57, S. 62 und S. 67. Ebd., S. 85. Ebd., S. 85. Ebd., S. 84. Vgl. Kap. 3.1.8, 3.4.5, 4.2 und 4.3 dieser Arbeit.
106
2.2 Philosophie und künstliche Intelligenz
Von der Ebene moralphilosophischer Grundfragen des Menschen ist der Weg zur Bibliothek zum Lesen von Anna Karenina doch weit entfernt. Auf moralische Probleme, die mit der Konstruktion von Technologien mit künstlicher Intelligenz in Anwendungskontexten entstehen können, nimmt Misselhorn zwar im zweiten Teil ihres Buches Bezug. In ihrer systematischen Grundlegung im ersten Teil fehlt aber eine explizite formallogische Ausformulierung eines moralischen Problems, der sich für eine Maschine als „moralischer Akteur“ ergeben könnte sowie eine systematische Rückbindung z. B. an die Moralphilosophie Kants. Wenn für die Konstitution von Moralität die Leidensfähigkeit, bzw. Fragilität, die leibliche unwiederbringliche Existenz jedes Individuums sowie die grundsätzliche Unableitbarkeit der Totalität der personalen Handlungspraxis und die existentielle Unsicherheit des Normativen ausschlaggebend sind, dann erweist sich eine funktionale Bestimmung von Moral als unangemessen für ihre Bedeutung in der lebensweltlichen Praxis des Menschen. Im Kapitel 4.2 dieser Arbeit wird ausgehend von einer Reflexion auf Einsichten der philosophischen Vernunftkritik und negativen Anthropologie und Moralphilosophie der Vorschlag entwickelt, auf Begriffe wie Moralität oder Autonomie für eine Beschreibung maschineller Abläufe zu verzichten, um sinnvolle Möglichkeiten von Mensch-Maschine-Interaktionen nicht durch eine vorschnelle Anthropomorphisierung von Technik zu erschweren. In Misselhorns Arbeit ist jedoch zu würdigen, dass sie die technologischen Entwicklungen von Computertechnologien und Robotik mit künstlicher Intelligenz insbesondere im Bereich moralisch problematischer Anwendungsfelder systematisch an philosophische Grundfragen und Grundbegriffe zurückbindet und auf diese Diskurse als konstitutiv für moralphilosophische Grundbestimmungen verweist. Misselhorn hat in einer jüngeren Publikation zum Thema Künstliche Intelligenz und Empathie333 ihren Ansatz weiterentwickelt.334 Sie umreißt in diesem Aufsatz das Spannungsfeld von künstlicher Intelligenz, Emotionalität und Empathie. Sie beleuchtet darin erstens den Entwicklungsstand zur automatisierten Emotionserkennung, also die Ebene der Rezeption menschlicher Emotionalität durch technische Systeme.335 Zweitens diskutiert sie die Frage, inwieweit technischen Systemen tatsächlich Empathie im Sinne einer echten Empfindungsfähigkeit zugeschrieben werden kann.336 Drittens untersucht sie die emotionale Bedeutung von Technik mit künstlicher Intelligenz und bezieht sich dabei auf menschliche Empathie mit Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Stuttgart 2021. 334 Dieser Aufsatz wurde erst publiziert, als die hier vorliegende Arbeit bereits als Dissertation eingereicht worden war. Misselhorn hat ihren eigenen Ansatz währenddessen deutlich weiterentwickelt und ausdifferenziert. An verschiedenen Stellen überschneiden sich ihre Argumentationen mit Einsichten, die in meiner Arbeit systematisch ausformuliert worden sind. 335 Ebd., S. 20–42. 336 Ebd., S. 43–90. 333
107
2 Künstliche Intelligenz und Transhumanismus
virtuellen Agenten und auf Freundschaft, Liebe und Sex mit Robotern.337 Zu allen Aspekten stellt Misselhorn zunächst den gegenwärtigen Stand der technischen Entwicklung dar, um anschließend ausgewählte Aspekte philosophisch zu diskutieren. Sie diskutiert dabei entweder auf der Ebene des Geltungsanspruchs, also ob die begriffliche Übertragung von Begriffen wie Empathie auf technische Systeme angemessen ist, oder auf der Ebene der Ethik: ob also die technischen Anwendungsmöglichkeiten ethische Problematiken aufweisen könnten. Der erste Teil ihres Aufsatzes, welcher die automatisierte Emotionserkennung thematisiert, beleuchtet die technischen Fortschritte in der Interpretation von Gesichtsausdrücken, stimmlichem Ausdruck und semantischer Inhalte in Formulierungen.338 Hinzukommen können Messwerte, die körperliche Veränderungen mit einbeziehen.339 In der Diskussion der technischen und ethischen Herausforderungen verweist Misselhorn auf Probleme der Generalisierbarkeit von Daten, insbesondere wenn künstliche Systeme im Bereich von Diversität und Rassismus offenbar vorurteilsbehaftet operieren. Sie erwähnt auch die ethische Problematik der totalen Beobachtbarkeit menschlicher Individuen, die mit einer zunehmend ausgebauten Emotionserkennung und Verarbeitung dieser Daten einherginge und verweist auf Foucaults Analysen zum Panoptikum.340 Sie betont damit auch die Notwendigkeit einer Diskussion um das Verhältnis zwischen Privatheit und Öffentlichkeit.341 Misselhorn weist zudem darauf hin, dass selbst eine zuverlässig richtige Mustererkennung menschlicher Emotionen in technischen Systemen nicht mit Empathie einhergeht. Stattdessen finden Berechnungen aufgrund von beobachtbaren, objektivierbaren Faktoren statt. In der Kombination von einer treffsicheren Wahrnehmung, einem berechnenden Kalkül und der Absenz von Empathie sieht Misselhorn eine „gewisse Parallele zu Psychopathen“342 und verweist damit auf eine Bedrohung, die von technischen Systemen auch für die menschliche Sozialität erwachsen kann. Noch fundamentaler wird ihre Kritik in ihren Untersuchungen zur Empathie. Treffend leitet sie die Fähigkeit zur Schmerzempfindung beim Menschen als Grundlage für die Herausbildung von Empathie und Moralität her.343 Technische Systeme, in denen menschliche Schmerzempfindung simuliert werden sollen, erschöpfen sich in einfachen Reiz-Reaktions-Schematiken. Eine solchermaßen verkürzte behavioristische Perspektive tangiert nicht die Ebene des
339 340 341
Ebd., S. 91–134. Ebd., S. 20–30. Ebd., S. 30–33. Vgl. hierzu auch Kap. 3.2.8 der vorliegenden Arbeit. Dieser Aspekt wird auch in der vorliegenden Arbeit (Exkurs in Kap. 4.1) als zentrale ethische Herausforderung der Gegenwart herausgestellt. 342 Misselhorn: Künstliche Intelligenz und Empathie, a. a. O., S. 41. 343 Ebd., S. 52f. 337
338
108
2.2 Philosophie und künstliche Intelligenz
phänomenalen Bewusstseins und ist demnach auch nicht mit Schmerzempfindung gleichzusetzen.344 Deutungsversuche, bisherige technische Erfolge unter dem Begriff der Empathiefähigkeit zusammenzufassen, weist Misselhorn systematisch zurück.345 Als brisanten Sonderfall erwähnt Misselhorn die Möglichkeit programmierbarer biologischer Organismen.346 Deren technische Entwicklung steht zwar noch in rudimentären Anfängen. Dennoch ergäbe sich aus der Konstruktion zwar technisch konstruierter, aber empfindungsfähiger Lebewesen eine neue ethische Problematik, weil diesen gegebenenfalls ein moralischer Status zukommen müsste, der an die Diskussion von Tierrechten anknüpfen könnte.347 Die dritte Perspektive von Misselhorns Arbeit zielt auf die Bedeutung von Technik für den Menschen und die Möglichkeit der emotionalen Bindung der Menschen an diese Technik in Kontexten von Empathie, Freundschaft, Partnerschaft und Sexualität.348 Sie diskutiert ausführlich die Frage, ob Empathie mit Robotern überhaupt ethisch relevant ist und kommt zu der klaren Position: „Ja, das ist der Fall! […] Es ist moralisch schlecht, Roboter gewohnheitsmäßig zu misshandeln, die Empathie auslösen, weil dies einen negativen Einfluss auf die moralische Urteilsfähigkeit, die moralische Motivation und die moralische Entwicklung hat.“349 Misselhorn unterstreicht damit die ethische Problematik, die durch eine Anthropomorphisierung von Technik entsteht. Daraus leitet sie aber keine Missbilligung einer solchen Anthropomorphisierung ab, sondern wirbt dafür, humane Umgangsweisen auch gegenüber Robotern aufrechtzuerhalten, um die Grundlagen der Humanität vor einer allgemeinen Aushöhlung zu bewahren.350 Außerdem verweist sie auf therapeutische Kontexte, in welchen der Einsatz humanoider Roboter gegebenenfalls sinnvoll sein kann.351 Die Übertragbarkeit von Verhaltensmustern, die Menschen gegenüber humanoiden Robotern entwickeln, auf die Interaktion von Mensch zu Mensch wird für Misselhorn in der ethischen Diskussion von Sexrobotern zu einem Grund, Praktiken mit Sexrobotern zumindest als moralisch fragwürdig zu bewerten.352 Aus der Frage nach der Möglichkeit eines echten partnerschaftlichen Verhältnisses zwischen Mensch und Maschine leitet Misselhorn eine fundamentalere Kritik an künstlichen Systemen ab: Gerade weil der Zugriff auf ein robotisches System allein der eigenen Bedürfnisbefriedigung dienen soll und nicht darauf ausgelegt ist, „ein echtes 346 347 348 349 350 351 352 344 345
Ebd., S. 76. Ebd., S. 86f und S. 134f. Ebd., S. 88–90. Ebd., S. 90. Ebd., S. 91ff. Ebd., S. 105. Ebd., S. 106f. Ebd., S. 107f. Ebd., S. 122.
109
2 Künstliche Intelligenz und Transhumanismus
Gegenüber in einer Liebesbeziehung“353 zu werden, droht der dinghaft-instrumentelle Umgang mit dem Roboter als Surrogat für eine interpersonale Beziehung, Tendenzen der Selbstverdinglichung zu verstärken,354 die letztlich dazu führen, dass „Menschen auf Maschinen reduziert werden“. Misselhorn schließt mit der Warnung, dass „die Omnipräsenz von künstlichen Systemen, die Emotionen erkennen und manipulieren, die Grundlagen unseres menschlichen Miteinanders und unserer demokratischen Gesellschaft zu zerstören“ vermag.355 Misselhorn verweist dabei auch auf die Arbeiten von Axel Honneth zum Begriff der Anerkennung und unterstreicht, dass der Umgang mit einem robotischen System keinesfalls den Kriterien für soziale Anerkennungsbeziehungen genügt.356 Sie nennt dabei auch den Begriff der „Unverfügbarkeit“357, leitet daraus aber noch keine systematische Kritik des technizistischen Ansatzes ab. Insgesamt muss die Misselhorns Arbeit zu Empathie und Emotionalität dahingehend gewürdigt werden, dass sie darin ihren ursprünglichen Ansatz stark weiterentwickelt hat, die Gleichsetzung von Mensch und Maschine deutlich klarer zurückweist und eine fundamentalere Kritik begrifflicher Vereinnahmungen wagt, die sie auch gut nachvollziehbar begründet. Misselhorn könnte dennoch aus ihren Ansätzen eine noch substantiellere Fundamentalkritik entfalten und diese noch systematischer begründen. So wird dem von ihr selbst angeführten Begriff der „Unverfügbarkeit“ leider nicht einmal eine Fußnote beigestellt, der auf die systematischen Arbeiten verweisen würde, die beispielsweise von Thomas Rentsch entwickelt worden sind, um die Grundlagen der menschlichen Moralität zu systematisieren.358 Indem Misselhorn die Schmerzempfindung zu den Grundbedingungen der Moralität zählt, bedient sich Misselhorn genau einer solchen Argumentationstruktur, die auf die Fragilität der menschlichen Existenz zielt, um damit die Konstitution der Moralität zu begründen. Ähnlich verhält es sich mit dem Begriff der Leiblichkeit, auf den Misselhorn sich zwar nicht explizit bezieht, ihn aber implizit voraussetzt und in ihre Kritik mit einfließen lässt. Misselhorn bezieht sich darauf, dass artifizielle Systeme nicht über die neurophysiologischen Grundlagen verfügen, die für die Herausbildung eines phänomenalen Bewusstseins notwendig wären. Sie erwähnt, dass der „Körper als wesentlicher Aspekt der Herausbildung von Empathie begriffen wird“.359 Auch verweist sie auf die Subjektivität der Ebene von Empfindungen, indem sie auf den Begriff des phänomenalen Bewusstseins rekurriert.360 Misselhorn könnte hierbei 355 356 357 358 359 360 353
354
Ebd., S. 128. Ebd., S. 129. Ebd., S. 134. Ebd., S. 129. Ebd., S. 133. Vgl. Kap. 3 dieser Arbeit. Ebd., S. 57. Ebd., S. 87.
110
2.2 Philosophie und künstliche Intelligenz
auf die Tradition der philosophischen Phänomenologie von Husserl bis Merleau-Ponty und Stein zurückgreifen, um ihre Kritik anhand tradierter Begriffe wie „Leiblichkeit“ oder „Lebenswelt“ systematisch zu entfalten und fundamental zu untermauern. Vielleicht hat Misselhorn diese Arbeiten aufgrund einer anders gelagerten Profilierung bisher nicht oder nur peripher zur Kenntnis genommen. Der Autor der hier vorliegenden Arbeit hofft, mit seiner systematischen Zusammenstellung der verschiedenen Denkschulen, die nicht immer in regem Austausch miteinander standen, an dieser Stelle dazu beizutragen, dass die von Misselhorn sehr prägnant formulierten Kritikpunkte noch systematischer und umfassender begründet werden können und dass die Einsichten aus dem einen Bereich der philosophischen Denktradition in den anderen Bereich übertragen werden können, um eine noch klarere Abgrenzung und ethische Diskussion der hier diskutierten Phänomene zu befördern. Nick Bostrom: Superintelligenz Nick Bostrom skizziert in seinem 2014 erschienenen Buch361 mögliche Szenarien, die zur Entwicklung einer „Superintelligenz“ führen könnten, einer künstlichen Intelligenz, die alle menschlichen Fähigkeiten nachbilden kann und übersteigt.362 Wenn eine vollständige Nachbildung aller menschlichen intellektuellen Fähigkeiten möglich ist, dann wäre durch die Weiterentwicklung der technischen Möglichkeiten bald auch damit zu rechnen, dass eine künstliche Intelligenz über die Fähigkeiten des Menschen hinausgeht. Bostrom charakterisiert Intelligenz durch eine quantitative Bestimmung von Rechenleistung.363 Bostrom stellt in seinem Buch verschiedene technische Ansätze für eine mögliche Realisierung eines solchen Projektes vor, die er systematisch diskutiert, z. B. eine „Gehirnemulation“, die „durch das Scannen und Modellieren der komputationalen Struktur eines echten Gehirns“ den Weg zur Erstellung einer „intelligenten Software“ erreichen will.364 Er stellt aber auch andere Wege dar, wie z. B. durch eine Gehirn-Computer-Schnittstelle365 oder durch eine kollektive Intelligenz als Netzwerk verschiedener Programme.366 Er nimmt dabei im Gegensatz zu transhumanistischen Entwürfen wie von Ray Kurzweil, die gerade in der Umsetzung eines solchen Projektes den Auftrag der menschlichen Spezies sehen, eine kritische Haltung gegenüber einem solchen Vorhaben ein. Er nimmt die möglichen Bostrom, Nick: Superintelligence. Paths, Dangers, Strategies, Oxford 2014. Deutsche Übersetzung: Superintelligenz. Szenarien einer kommenden Revolution, Berlin 2020. 362 Ebd., S. 41 (zitiert nach der deutschsprachigen Ausgabe). 363 Ebd., S. 44ff. Vgl. ebd., S. 113. 364 Ebd., S. 51ff. 365 Ebd., S. 71ff. 366 Ebd., S. 75f. 361
111
2 Künstliche Intelligenz und Transhumanismus
Konsequenzen, Risiken und Gefährdungen anhand vieler Beispiele in den Blick und analysiert technische Möglichkeiten, wie Menschen die Kontrolle über eine solche Technik behalten könnten und was in der Programmierung von Werten in einer solchen Superintelligenz berücksichtigt werden muss, um katastrophale Konsequenzen einer Verselbständigung der Technologie zu verhindern. Sein Buch versteht er daher als Appell an Denker und Politiker, um die zur Verfügung stehende Zeit zu nutzen, damit eine verselbständigte künstliche Superintelligenz sich nicht der menschlichen Kontrolle entzieht.367 Bostrom weist zwar darauf hin, dass eine künstliche Intelligenz „nicht viel mit einem Menschen gemeinsam haben“ muss.368 Er erarbeitet jedoch keine systematische Unterscheidung zwischen Mensch und Maschine, sondern bleibt für eine Bestimmung des Intelligenzbegriffs in einer quantitativen Ebene der Beurteilung stehen. Auch menschliche Intelligenz wird unter einer quantifizierten Bestimmung in Form von IQ-Punkten interpretiert.369 Es ist fraglich, ob eine quantitative Bestimmung von Intelligenz, wie es z. B. in IQ-Tests, in logischen Aufgaben oder komplexen Spielen angezielt ist, für eine Systematisierung des Verhältnisses von Mensch und Maschine hilfreich ist, da eine solche lediglich auf ein generiertes Output in einem Kontext abzielt, in welchem durch ein Regelwerk formale Kriterien für Erfolg oder Misserfolg gegeben werden können. Die menschliche Lebenspraxis steht hingegen nicht unter einer solchen quantitativen Bestimmbarkeit. Ich kann den Erfolg meines eigenen Lebens nicht abschließend skalieren. Vielleicht erscheint mir am Ende meines Lebens all das, was mich gegenwärtig antreibt, als sinnlos. Jede formale Skalierung menschlicher Intelligenz verkürzt diese um grundlegende Dimensionen ihrer Konstitution. Die Annahme, man könnte alle Phänomene des Universums begrifflich und quantitativ bestimmen, wird für Bostrom vorausgesetzt, wenn er in einem Gehirn-Scan und einer Modellierung des Gehirns die Möglichkeit zu einer Rekonstruktion des menschlichen Geistes sieht. Eine Gleichsetzung von Ich und Gehirn ist jedoch erkenntnistheoretisch nur schwer aufrechtzuhalten.370 Selbst in einer materialistisch-reduktionistischen Deutung der menschlichen Personalität müsste darauf reflektiert werden, dass die leibliche Konstitution eines Menschen nicht nur in seinem Gehirn gründet. Wie soll außerdem gewährleistet werden, dass ein solcher Scan tatsächlich die relevanten Strukturen erfassen kann, die für die Persönlichkeit eines Menschen wesentlich sind? In einer solchen Programmatik wird die
369 370 367
368
Ebd., S. 388ff. Ebd., S. 50. Ebd., S. 62. Systematisch untersucht die Grenzen dieser Gleichsetzung Markus Gabriel: Ich ist nicht Gehirn. Philosophie des Geistes für das 21. Jahrhundert, Berlin 2015.
112
2.2 Philosophie und künstliche Intelligenz
wissenschaftstheoretische Annahme deutlich, dass die Vermessung eines Gegenstands mit einer empirischen Methode auch das „Ding an sich“ transportieren kann, welches damit gemessen wird. Bostrom formuliert ausgehend von einem Programm zur vollständigen Formalisierung jedoch auch eine immanente Kritik an einem transhumanistischen Programm, insbesondere in der Diskussion konkreter Wertvorgaben, die sich für eine künstliche Intelligenz in einer Art und Weise verselbständigen könnten, dass das Ziel zwar formal erfüllt wird, aber die Intention der Programmierung zum Gegenteil des Beabsichtigten führt. So könnte die Zielvorgabe „Bring uns zum Lächeln!“ von einer komplexen künstlichen Intelligenz durch eine „Lähmung der menschlichen Gesichtsmuskeln, um den Mund zu einem permanenten strahlenden Lächeln zu verzerren“ formal erfüllt werden.371 Die Aufforderung „Mach uns glücklich!“ würde durch eine „Implantation von Elektroden in die Lustzentren unseres Gehirns“ erfolgreich umgesetzt.372 Die Aufgabe, die Produktion von Büroklammern zu maximieren, könnte durch eine künstliche Intelligenz unter der Zielvorgabe der Maximierung der Produktionsmenge immer weitergetrieben werden, bis „die Erde und dann immer größere Teile des beobachtbaren Universums in Büroklammern“ umgewandelt würden.373 Er bezeichnet solche Ereignisse als „bösartige Fehler“, deren Konsequenzen bis hin zur Auslöschung der Menschheit reichen könnten.374 Indem Bostrom auf die Bedrohungen einer Verselbständigung von Technologien mit künstlicher Intelligenz hinweist, appelliert er daran, dass über die Implementierung dieser Technologien gesellschaftliche und politische Diskurse geführt werden müssen. Die Zuspitzungen Bostroms können aus einer Perspektive der philosophischen Vernunftkritik auch dahingehend rekonstruiert werden, dass sie die Grenzen der Formalisierbarkeit menschlicher Werte illustrieren. Der Wert, dass alle Menschen glücklich sein sollten, erschließt sich für eine menschliche Einsicht offenbar anders als eine Maximierung messbarer Werte eines Organismus, die beispielsweise durch eine Stimulation durch Elektroden im Gehirn erreicht werden könnte. Begriffe, die im Raum normativer Sinnorientierung tradiert sind, scheinen sich einer formallogischen Definition oder Repräsentation zu entziehen. Sie sind Kennzeichen der Uneinholbarkeit und Unendlichkeit der menschlichen Sprache, deren Sinnpotentiale sich in keiner begrifflichen Bestimmung ganz erschöpfen können.
Bostrom, Nick: Superintelligenz. Szenarien einer kommenden Revolution, Berlin 2020, S. 171. Ebd., S. 172. 373 Ebd., S. 175. 374 Ebd., S. 170. 371
372
113
2 Künstliche Intelligenz und Transhumanismus
2.3 Transhumanismus: Die Optimierung des Menschen 2.3.1 Transhumanismus: Begriff, Autoren, Spielarten Mit Technologie in eine bessere Welt Erste Erfolge der KI-Forschung führten bei einigen Forschern zu dem Optimismus, innerhalb von wenigen Jahrzehnten alle verbleibenden Probleme der KI bewältigen zu können, um damit die Gesamtheit menschlich-personaler Intelligenz nachzubilden.375 Mit der stetig wachsenden Rechenleistung ergab sich aus dieser Annahme der Schluss, dass bald darauf eine künstliche Intelligenz auch weitaus leistungsstärker werden könnte als menschliche Intelligenz: Wenn wirklich alle Aspekte menschlicher Intelligenz durch künstliche Informatiksysteme nachgebildet werden können, dann wäre es nur eine Frage der Zeit, dass auch dieser Wissensstand weiterentwickelt wird und dabei eine neue, höhere Form der Intelligenz entsteht. Der Mensch hätte etwas über sich hinaus geschaffen. Ungeachtet zahlreicher Rückschläge in der Entwicklung der KI-Forschung hat sich aus dieser Vision eine Strömung gebildet, die sich selbst als „Transhumanismus“ bezeichnet. Ein prominenter Vertreter dieser Denkrichtung ist Ray Kurzweil, Leiter der technischen Entwicklung bei Google. Seine Grundthese ist, dass die nächste Stufe der Evolution vom Menschen selbst geschaffen werden müsste. In der Verschmelzung von Mensch und Technologie würde eine neue Bewusstseinsstufe geschaffen, durch welche die grundlegenden Probleme der Menschheit gelöst werden können. Dazu gehört die Erschließung allen Wissens über die Welt für jedes Individuum, die global-universelle Vernetzung der eigenen Identität mit anderen Intelligenzen, die Heilung unheilbarer Krankheiten, die Befreiung von lästigen Arbeiten, die Maximierung eines hedonistischen Individualismus, das Ende des Alterns und die Überwindung des Todes bis hin zur Befreiung des Menschen von der Bedrohung des Bösen durch eine rationale Superintelligenz, die nicht aufgrund von Todesangst oder Triebbehaftung aus egoistischen Motiven handeln muss. Wie bei jeder intellektuellen Bewegung ist selbstverständlich die genaue Ausformung der transhumanistischen Utopien unterschiedlich differenziert und akzentuiert. Als systematischer Grundzug bleibt jedoch allen Autoren gemeinsam, dass die gegenwärtige Technologie den Menschen auf eine neue Bewusstseinsebene und Lebensqualität heben kann, die über das bisher gewohnt Menschliche soweit hinausgeht, dass man tatsächlich diese als eine neue, höhere Form transhumaner Existenz bezeichnen kann, zu der im Vergleich das bisher gewohnt Menschliche als nahezu anachronistisch anmuten wird. Die konkreten Vorstellungen einer durch Technologie Vgl. z. B. Minsky, Marvin: Berechnung. Endliche und unendliche Maschinen, Stuttgart 1971, S. 20.
375
114
2.3 Transhumanismus: Die Optimierung des Menschen
optimierten Lebensqualität reichen von der sexuellen Selbstverwirklichung in paradiesischen virtuellen Realitäten über neurochirurgische Eingriffe durch Nanotechnik zur Erweiterung der intellektuellen und emotionalen Fähigkeiten bis hin zum Gehirn-Scan und BewusstseinsUpload auf eine nicht mehr körperliche Plattform, auf der man als unsterbliche posthumane Identität weiterlebt. Damit wären auch räumliche und zeitliche Beschränkungen der menschlichen Existenz überwunden. Diese utopischen Skizzen berufen sich üblicherweise auf bereits erreichte empirische Forschungserfolge sowie auf vielversprechende Forschungsansätze und beziehen auch philosophische und literarische Gedanken mit in die Argumentation ein, sodass ein komplexes Gewebe verschiedener Begründungsstrukturen entsteht, welches nicht auf den ersten Blick simpel dekonstruiert werden kann. Will man den Transhumanismus argumentativ und vernunftkritisch analysieren, so muss daher die darin implizit enthaltene Weltanschauung freigelegt werden. Spielarten des Transhumanismus Verschiedene Autoren können der Strömung des Transhumanismus zugeordnet werden. Trotz ähnlicher Motive, die diesen Autoren gemeinsam sind, weisen sie in ihren Entwürfen auch ein gewisses Maß an Varianz in Motiven, Zielstellungen und Begründungsstrukturen auf. Für eine differenzierte Systematisierung der verschiedenen Autoren, Zielstellungen und ihren Positionen hinsichtlich einer Philosophie des Geistes sei an dieser Stelle auf Janina Lohs Einführung in den Trans- und Posthumanismus verwiesen.376 Janina Loh unterscheidet in ihrer Einführung in drei verschiedene Denkrichtungen: „Transhumanismus“, „technologischer Posthumanismus“ und „kritischer Posthumanismus“. Nach ihrer Unterscheidung zielt der Transhumanismus auf die technologische Verbesserung und Optimierung des Menschen hin zu einer besseren Variante des Menschen, „zu einem Menschen x.0“377. Im Vordergrund stehe im Transhumanismus jedoch nicht die Überwindung des Menschen, sondern seine Optimierung.378 Zu den Motiven des Transhumanismus zählt Loh eine radikale Lebensverlängerung und Unsterblichkeit379, Kryonik 380 und Human Enhance-
Loh, Janina: Trans- und Posthumanismus. Zur Einführung, Hamburg 2018. Ebd., S. 32. 378 Ebd. 379 Ebd., S. 42–47. 380 Ebd., S. 48f. Kryonik bezeichnet „die direkt nach dem Tod vorgenommene Konservierung des menschlichen Körpers oder einzelner Organe durch Einfrieren in flüssigen Stickstoff bei –196°C, bis Unsterblichkeit garantiert werden und der Organismus wieder aufgewärmt, bzw. ‚wiederbelebt‘ werden kann.“ (Ebd.) 376
377
115
2 Künstliche Intelligenz und Transhumanismus
ment.381 Menschen, die den Visionen des Transhumanismus folgen, werden damit zu „Transhumanen“ oder „Cyborgs“.382 Im Gegensatz dazu stellt Loh den technologischen Posthumanismus als Programm einer Überwindung des Menschen dar. Technik wird dabei nicht mehr Mittel und Zweck zu einer Verbesserung des Menschen, sondern löst den Menschen letztlich „in seiner Rolle als Krone der Schöpfung“ ab.383 Technik wird selbst zum Ziel und Zweck des technologischen Posthumanismus, während im Transhumanismus diese zum Verbessern des Menschen dienen soll. Den Motiven eines technologischen Posthumanismus rechnet Loh demzufolge die Überwindung des biologischen Menschen zu. Zu diesem technologischen Programm gehören Loh zufolge Motive des Mind Uploading, virtuelle Unsterblichkeit384, Singularität385 und die Erschaffung einer Superintelligenz.386 Neben Transhumanismus und technologischem Posthumanismus stellt Janina Loh noch eine dritte Spielart vor, den kritischen Posthumanismus. In diesem wird ebenso wie im technologischen Posthumanismus die Überwindung des Menschen als Ziel formuliert, diese gründet jedoch nicht primär in technologischen Projekten, sondern in einem kritischen Ringen mit dem Humanismus. Technik wird dabei zwar eine „große emanzipatorische Kraft“ zugestanden, um ein nicht-humanistisches Menschenbild zu formulieren, doch steht die Kritik des Humanismus als „fundamentale Infragestellung bestimmter Momente des westlichen Denkens“387 im Vordergrund dieser Ausprägung. Für die vorliegende Arbeit sind die Themen des kritischen Posthumanismus nicht von primärer Relevanz. Indem die funktionalen, technischen Bestimmungen nur zu den Nebenthemen und nicht zu den Leitthemen der Strömung gezählt werden, sondern eher im Anschluss an Dekonstruktivismus und Vernunftkritik humanistische Vereinseitigungen des Menschen kritisch reflektiert werden, können diese Entwürfe nicht in die Linie des wissenschaftlichen Positivismus gestellt werden, die in dieser Arbeit kritisch thematisiert wird. Thematisch sind die Entwürfe dieser von Janina Loh zum Trans- und Posthumanismus zugeordneten Strömung dem Schwerpunkt der vorliegenden Arbeit daher zu fremd, als dass diese in Ansatz gebracht werden könnten. In der Differenzierung von Transhumanismus und technologischem Posthumanismus bezieht sich Janina Loh auf Oliver Krüger und schlägt eine solche differenzierende Unterscheidung
383 384 385 386 387 381
382
Ebd., S. 50–57. Ebd., S. 58–61. Ebd., S. 92. Vgl. ebd., S. 100–105. Vgl. ebd., S. 106–112. Vgl. ebd., S. 112–118. Ebd., S. 130.
116
2.3 Transhumanismus: Die Optimierung des Menschen
zur besseren Systematisierung vor.388 Krüger verweist in seiner Differenzierung in Trans- und Posthumanismus jedoch auch darauf, dass „die Transhumanisten selber offenbar keine Differenzierung zwischen Trans- und Posthumanismus vornehmen.“389 Auch Loh weist auf die starke inhaltliche Nähe zwischen Transhumanismus und technologischem Posthumanismus hin. Der technologische Posthumanismus kann demnach auch als „extreme Variante des Transhumanismus“ gedeutet werden.390 Hans Moravec und Ray Kurzweil, auf die in der vorliegenden Arbeit systematisch Bezug genommen wird, rechnet Janina Loh zu den Vertretern des technologischen Posthumanismus.391 Gerade in Bezug auf die Lektüre von Moravec und Kurzweil weist Loh selbst auf Überschneidungen zwischen „Transhumanismus“ und „technologischem Posthumanismus“ hin und dass sie daher eine Kritik an einer Differenzierung der Begrifflichkeiten als gerechtfertigt sieht. Loh deutet den technologischen Posthumanismus als „radikale Form“ des Transhumanismus. Um ihre Einteilung systematisch durchzuhalten, ordnet sie verschiedene Autoren, die sich selbst als Transhumanisten bezeichnen, dem technologischen Posthumanismus zu.392 In der vorliegenden Arbeit wird eine strenge Unterscheidung in Transhumanismus und technologischen Posthumanismus nicht durchgeführt. Zahlreiche Autoren bewegen sich zwischen diesen Polen. Eine Unterscheidung von Transhumanismus und technologischem Posthumanismus mag für eine differenzierende Darstellung verschiedener Autoren und Motive im Sinne einer Einführung hilfreich sein. In einer genaueren Analyse der immanenten Argumentation der Texte ist eine solche Unterscheidung jedoch kaum systematisch durchzuhalten. Auch bei Loh verschwimmen diese begrifflichen Ebenen immer wieder. So schreibt sie in ihrer Darstellung der Strömung des Transhumanismus in einem Abschnitt „Transhumane und Cyborgs“: „Das langfristige Ziel der transhumanistischen Bewegung ist die Verbesserung des jetzigen Menschen hin zu einem Menschen x.0. Das ist das posthumane Wesen transhumanistischer Transformationsbestrebungen. Doch nicht jede Modifikation macht aus dem Menschen gleich ein posthumanes Wesen. Auf dem Weg dahin führen etwaige Optimierungen zunächst zu der Schaffung alternativer menschlicher Lebensformen, die zwar in mancherlei Hinsicht Transformationen des Menschen darstellen, ohne jedoch
Krüger, Oliver: Virtualität und Unsterblichkeit. Die Visionen des Posthumanismus, Freiburg im Breisgau 2004, S. 111f. 389 Ebd. 390 Loh, Janina: Trans- und Posthumanismus. Zur Einführung, Hamburg 2018, S. 130. 391 Ebd., S. 15. 392 Ebd., S. 102f. 388
117
2 Künstliche Intelligenz und Transhumanismus bereits als Posthumane eingestuft werden zu können. Ganz allgemein lassen sich all diejenigen, die aktiv an ihrer Transformation zum posthumanen Wesen arbeiten, als Transhumane verstehen.“393
Transhumane wären damit Menschen auf dem Weg zum Posthumanen. Indem der Transhumanismus auf den Übergang des Menschen zum Posthumanen verweist, ordnet er sich ja bereits den Zielstellungen des Posthumanismus unter. Der innere Kern der rationalen Argumentation ist damit kaum zu unterscheiden. Der Wert des Menschen wird in beiden Ausprägungen durch seine Funktionalität bestimmt; diese kann technologisch verbessert werden. Entwürfe des technologischen Posthumanismus bleiben dieser instrumentellen Rationalität bis zur letzten Konsequenz treu, wenn ihre Argumentationen in einer Ablösung des biologischen Menschen durch die Technologie gipfeln. Wenn die letzte Zielstellung einer maximalen Verbesserung der funktionalen Aspekte des Menschen nicht aufgegeben wird, dann berührt jeder transhumanistische Entwurf diese „posthumanistischen“ Ansätze, als vollständige Unterordnung des Menschen unter instrumentelle und funktionale Aspekte. Mit Adorno und Horkheimer lässt sich die Tradition einer solchen instrumentellen Rationalität bis zu den Grundlagen der Aufklärung und sogar bis zu Homer zurückverfolgen.394 Für den Kern der vorliegenden Auseinandersetzung über das Verhältnis von Transhumanismus und sinnkonstitutiver Negativität ist eine Unterscheidung in Transhumanismus und Posthumanismus daher nicht hilfreich. Beide Strömungen zielen auf eine Transformation des Menschen. Beide verlagern den Bereich normativer Rede über die Bestimmung des Menschen auf seine Verschmelzung mit der von ihm geschaffenen Technologie. In Bezug auf Lohs Unterscheidung wäre der Transhumanismus vorläufig zum Posthumanismus; seine normative Zielsetzung würde jedoch letztlich auf den Posthumanismus zielen. Die vorliegende Arbeit folgt der These, dass Trans- und Posthumanismus letztlich in einer funktionalen Zuspitzung einer instrumentellen Rationalität gründen, welche auf einem positivistisch geprägten Menschenbild aufbaut. Ein solches Denken stellt sich in die Tradition einer „Dialektik der Aufklärung“, wie sie von Adorno und Horkheimer umrissen wurde; eine solche Dialektik der Aufklärung kann auf die philosophische Aufklärung noch nicht so eindeutig und unproblematisch bezogen werden wie auf Ausprägungen des Trans- und Posthumanismus. Sie bilden eine Radikalisierung des instrumentellen Zugriffs einer Rationalität, die das Wesen des Menschen in seiner Fähigkeit zur Herrschaft über die Natur begründet und die normative Bestimmung des Menschen genau darauf festlegt. Auch der Mensch fällt als Natur damit unter die Bestimmungen einer solchen instrumentellen Rationalität. In technologischen Ebd., S. 58. Vgl. Kap. 3.2.7 dieser Arbeit.
393
394
118
2.3 Transhumanismus: Die Optimierung des Menschen
Transformationsprozessen wird der ganze Mensch unter funktionale Bestimmungen gestellt. Die Zielstellung einer Herrschaft über die Natur durch die Technik führt damit auch zu einer Überformung des Menschen hin zu seiner technisierten Fassung. Der Transhumanismus bildet dann eine Vorstufe zum Posthumanismus. Die von Horkheimer und Adorno skizzierte „Dialektik der Aufklärung“ betrifft beide Spielarten ebenso wie die Tradition eines Herrschaftsanspruchs über die Natur mithilfe von Technik und Wissenschaft. Der Strömung des Transhumanismus werden daher in dieser Arbeit diejenigen Autoren und Arbeiten zugerechnet, die Loh als „Transhumanismus“ und „technologischen Posthumanismus“ differenziert, wobei letztere als Zuspitzung und radikalere Form der ersteren Strömung gelten kann. Im vorangegangenen Kapitel war bereits ein Ansatz von Nick Bostrom dargestellt worden, der zwar erkenntnistheoretisch manche Grundannahmen transhumanistischer Autoren teilt, aber zu anderen normativen Schlüssen kommt und eine kritische Position gegenüber einem technologischen Programm entwickelt, das auf die Überwindung des Menschen durch die Technologie zielt. Die Ansätze von Marvin Minsky, der ebenfalls zu den Autoren des Transhumanismus, bzw. technologischen Posthumanismus gerechnet werden kann,395 wurden im vorangegangenen Kapitel bereits kurz skizziert. Systematisch werden in diesem Kapitel besonders die transhumanistischen Entwürfe von Hans Moravec und Ray Kurzweil dargestellt und analysiert.
2.3.2 Hans Moravec: Mind Children Hans Moravec, einer der Vorreiter in den Forschungen und Entwicklungen zur Robotik sieht in Technologien mit künstlicher Intelligenz das Potential, dass vom Menschen geschaffene Technik die Leistungsfähigkeit des Menschen übertrifft und diesen überholt. Indem die Intelligenz des Menschen technisch nachgebildet wird, kann der Mensch „Kinder im Geiste“ schaffen, „gebaut nach unserem Bild und Ton, wir selbst in leistungsfähigerer Form. Wie die biologischen Kinder vorhergehender Generationen verkörperten sie die beste Hoffnung der Menschheit auf eine langfristige Zukunft. Um ihretwillen sollten wir ihnen jeden Vorteil verschaffen und uns verabschieden, wenn wir nicht mehr dazu beitragen können.“396 In der Konstruktion von künstlicher Intelligenz verbirgt sich ein Menschenbild, welches im Rationalen und Funktionalen das wesentlich Menschliche sieht. Künstliche Intelligenz wird daher
Vgl. Loh, Janina: Trans- und Posthumanismus a. a. O., S. 15. Moravec, Hans P.: Robot: Mere Machine to Transcend Mind, Oxford 2000, zit. nach Russell, Stuart und Norvig, Peter: Künstliche Intelligenz. Ein moderner Ansatz, 2. Auflage, München 2004, S. 1169.
395
396
119
2 Künstliche Intelligenz und Transhumanismus
als Reinform, Essenz des Menschlichen interpretiert und robotische Systeme als „Mind Children“397 des Menschen betrachtet. Die Unaufhaltsamkeit der technischen Weiterentwicklung Moravec deutet die technologischen Entwicklungen als eine naturgesetzliche Notwendigkeit. Für die Beschreibung der technischen Entwicklungen weist er auf das exponentielle Wachstum hin, welches er in der Steigerung der Rechenleistung von Computern seit dem Beginn ihrer Entwicklung nachzeichnet.398 Er deutet daher die Entwicklungen von Computertechnologie als „technologische Evolution“.399 Ausgehend von der Annahme, dass der exponentielle Trend in der Steigerung der Leistungsfähigkeit von maschinellen Rechenkapazitäten beibehalten wird, zeichnet Moravec eine Zukunft vor, in der alle Fähigkeiten des Menschen durch Computertechnologien und Robotik nachgebildet und übertroffen werden können. „Die Entwicklung von Computerleistungen ist wie eine allmähliche Überschwemmung. Vor einem halben Jahrhundert begann sie, das Flachland zu überfluten – menschliche Rechner und Buchhalter wurden vertrieben, doch die meisten von uns blieben trocken. Nun hat die Flut bereits die ersten Hügel erreicht und unsere Außenposten dort erwägen die Flucht. Auf den Gipfeln wähnen wir uns in Sicherheit, aber bei der derzeitigen Steigungsrate wird auch das Gebirge in einem weiteren halben Jahrhundert überschwemmt sein. Ich schlage vor, dass wir Archen bauen und uns auf ein Leben als Seefahrer einstellen! […] Wenn die Flut die dichter besiedelten Vorberge erreicht, werden Maschinen sich in Bereichen behaupten, die von einer größeren Anzahl von Menschen wahrgenommen werden. Das Bauchgefühl, dass in Maschinen etwas Denkendes steckt, wird sich immer weiter verbreiten. Wenn die höchsten Gipfel unter Wasser stehen, können Maschinen in allen Bereichen genauso intelligent handeln wie Menschen. Dann wird selbstverständlich sein, dass Maschinen einen Geist haben.“400 Indem Moravec die technologischen Entwicklungen als naturgesetzliche Bestimmung darstellt, deren Fortentwicklung unausweichlich ist, umgeht er die Frage nach der Verantwortung des Menschen für die von ihm entwickelte Technik. Moravec bezieht sich dabei auf die evolutionsbiologische Theorie des Artenkampfes, welche er auf das Verhältnis von Mensch und Technik überträgt. Moravec, Hans: Mind Children. Der Wettlauf zwischen menschlicher und künstlicher Intelligenz, Hamburg 1990. 398 Vgl. H. Moravec: When Will Computer Hardware Match the Human Brain? Journal of Evolution and Technology 1 (1998). Vgl. H. Moravec: Mind Children, S. 89–93. 399 Ebd. 400 H. Moravec: „When Will Computer Hardware Match the Human Brain?“, Journal of Evolution and Technology 1 (1998), dt. Übersetzung zit. nach Kurzweil: Menschheit 2.0, S. 293. 397
120
2.3 Transhumanismus: Die Optimierung des Menschen
Technologische Entwicklung als Fortsetzung des evolutionären Artenkampfes „Warum sollen wir dann ausgerechnet auf diese Ära der intelligenten Maschinen zurasen? Ich denke, die Antwort lautet, weil wir kaum eine andere Wahl haben, wenn wir wollen, dass unsere Kultur lebensfähig bleibt. Gesellschaften und Wirtschaften sind zweifellos denselben evolutionären Zwängen unterworfen wir biologische Organismen. Früher oder später werden sich diejenigen durchsetzen, die sich am raschesten ausbreiten und diversifizieren können. Kulturen stehen untereinander im Wettbewerb um die Ressourcen des ihnen zugänglichen Universums. Wenn Automation effizienter ist als Handarbeit, werden die Organisationen und Gesellschaften, die sich die Automation zueigen machen, reicher sein und besser dazu in der Lage, in schwierigen Zeiten zu überleben und sich unter günstigeren Verhältnissen auszubreiten.“401 Die Unausweichlichkeit der technologischen Entwicklungen, die Moravec skizziert, begründet er damit, dass ein Verzicht auf technologischen Fortschritt den Untergang einer Kultur bedeuten würde. Eine Selbstbeschränkung des technologischen Fortschritts als einziges Hindernis für eine solche Weiterentwicklung wäre Moravec zufolge mit einem kollektiven Suizid der Menschheit vergleichbar. „Gehen wir einen Schritt weiter und davon aus, dass die gesamte Menschheit sich vertraglich binden und beschließen würde, auf jeglichen technischen Fortschritt zu verzichten. Auf lange Sicht wären wir dann fast mit Sicherheit zum Aussterben verdammt. Das Universum ist eine Aneinanderreihung von Zufallsereignissen. Früher oder später wird sich ein für die Menschen tödlicher Virus entwickeln, gegen den kein Kraut gewachsen ist, oder ein größerer Asteroid wird mit der Erde zusammenstoßen oder die Sonne wird sich ausdehnen oder wir erleben eine Invasion von Außerirdischen oder ein schwarzes Loch wird die Milchstraße verschlingen. Je größer, je vielfältiger und je leistungsfähiger eine Kultur ist, desto besser kann sie äußere Gefahren erkennen und abwenden.“402 Die normativen Orientierungen für die technische Weiterentwicklung orientieren sich für Moravec am evolutionsbiologischen Artenkampf, deren Prinzipien und Gesetzmäßigkeiten menschliche Kulturen immer noch folgen sollen. Der Mensch wird damit unter die normative Zielstellung einer unablässigen Optimierung und Weiterentwicklung seiner Leistungsfähigkeit gebracht. Die Abschaffung des Menschen Die Nachbildung der menschlichen Intelligenz bildet für Moravec nicht den Abschluss der technologischen Entwicklungen. „Es gibt überhaupt keinen Grund zu der Annahme, dass das Hans Moravec: Mind Children, Hamburg 1990, S. 141. Ebd., S. 141f.
401
402
121
2 Künstliche Intelligenz und Transhumanismus
Äquivalent menschlicher Leistungsfähigkeit eine Obergrenze für diese Entwicklung darstellt. […] Wir werden ganz einfach deklassiert werden.“403 Der Wert des Menschen besteht einer solchen Logik zufolge in seiner Funktionalität. Indem der Mensch in die Lage kommt, Technik zu erschaffen, die funktionaler ist als er selbst, muss er den Imperativ der Optimierung dahingehend fortführen, dass er die Technik schafft, die als nächste Stufe der Evolution den Menschen selbst ablösen soll. Menschen werden damit zu „Wesen zweiter Klasse“ bestimmt, weil ihre Leistungsfähigkeit geringer ist.404 So fasst Hans Moravec in seinem Buch Mind Children die Möglichkeit zusammen, dass künstliche Intelligenz zwar das Potential hat, die Menschheit auszulöschen, aber als Geschöpf des Menschen, sozusagen als „Kinder im Geiste“ das Beste des Menschen, nämlich seine Intelligenz, auf einer höheren Stufe weitertragen würde.405 Gehirn-Scan und Seelenwanderung Moravec entwirft technologische Konzepte für die Realisierung eines Gehirn-Scans und Gehirn-Uploads, wodurch ein Übergang der menschlichen Persönlichkeit in ein künstliches, robotisches Medium ermöglicht werden soll.406 Damit stellt er letztlich die Überwindung des Menschen durch eine Auslöschung der biologischen Grundlage als normative Zielstellung technologischer Entwicklung dar. Hans Moravec beschreibt unter dem Stichwort „Seelenwanderung“ mögliche gehirnchirurgische Transplantationen, welche darauf zielen, Schicht für Schicht die Zellstruktur des menschlichen Gehirns zu scannen und in eine geeignete Simulationsverbindung zu übertragen, bis letztlich die Gesamtheit des Gehirns in einer neuen Struktur operieren kann.407 „Man hat Sie gerade in den Operationssaal geschoben. Ein Roboter in der Funktion des Gehirnchirurgen wartet auf Sie. Neben Ihnen steht ein Computer bereit, ein menschliches Äquivalent zu werden, wozu ihm nur ein geeignetes Programm fehlt. Ihr Schädel, aber nicht Ihr Gehirn, wird betäubt. Sie sind bei vollem Bewusstsein. Der Roboterchirurg öffnet Ihre Schädeldecke und legt die Hand auf die Oberfläche des Gehirns. Diese ungewöhnliche Hand ist dicht bestückt mit einer mikroskopischen Apparatur, und ein Kabel verbindet sie mit dem mobilen Computer an Ihrer Seite. Die Instrumente der
405 406 407 403
404
Ebd., S. 141. Ebd., S. 140. Ebd., S. 9f. Ebd., S. 151–156. Ebd., S. 151–156.
122
2.3 Transhumanismus: Die Optimierung des Menschen Roboterhand tasten die ersten Millimeter der Hirnoberfläche ab. Hochauflösende Resonanzmessungen entwickeln eine dreidimensionale chemische Karte, während Gruppen magnetischer und elektrischer Antennen Signale auffangen, die über die zwischen den Neuronen zuckenden Impulse Aufschluss geben. In Verbindung mit einem umfassenden Verständnis der menschlichen Neuronenstruktur ermöglichen diese Messergebnisse dem Chirurgen, ein Programm zu schreiben, das das Verhalten der obersten Schicht des abgetasteten Hirngewebes simuliert. Dieses Programm wird in einem kleinen Bereich des wartenden Computers installiert und aktiviert. Messergebnisse der Hand liefern Kopien der Inputsignale, die das Originalgewebe empfängt. Sie überprüfen zusammen mit dem Chirurgen die Genauigkeit der Simulation, indem Sie die Signale, die diese erzeugt, mit den entsprechenden Originalsignalen vergleichen. […] Damit Sie auch im weiteren Verlauf überprüfen können, ob die Simulation korrekt vor sich geht, erhalten Sie einen Druckknopf, mit dessen Hilfe Sie momentane ‚Testläufe‘ der Simulation auslösen können, um sie mit den Funktionen des Originalgewebes zu vergleichen. […] Solange Sie auf den Knopf drücken, wird ein kleiner Teil Ihres Nervensystems durch eine Computersimulation seiner selbst ersetzt. Sie drücken den Knopf, lassen ihn los und drücken ihn wieder. Sie dürfen keinen Unterschied merken. Sobald Sie zufrieden sind, wird die Simulationsverbindung dauerhaft etabliert. Das Gehirngewebe ist jetzt ohnmächtig – es empfängt Inputsignale und reagiert wie zuvor, aber sein Output wird ignoriert. Mikroskopische Manipulatoren an der Handoberfläche entfernen die Zellen in diesem überflüssigen Gewebe und bringen sie zu einem Absaugapparat. Die Hand des Roboterchirurgen senkt sich um den Bruchteil eines Millimeters tiefer in Ihr Gehirn, wobei sie ihre Messungen und Signale sofort der veränderten Position anpasst. Der oben beschriebene Prozess wird für die nächste Schicht wiederholt, und schon bald darauf befindet sich im Computer eine zweite Simulation, die mit der ersten und mit dem verbleibenden Originalgewebe des Gehirns in Verbindung steht. Schicht um Schicht wird das Gehirn zunächst simuliert und dann abgetragen. Schließlich ist Ihr Schädel leer, und die Hand des Chirurgen befindet sich tief in Ihrem Hirnstamm. Dennoch haben Sie weder das Bewusstsein noch den Faden Ihrer Gedanken verloren. Ihr Geist ist einfach aus dem Gehirn in eine Maschine übertragen worden. In einem letzten unheimlich anmutenden Schritt nimmt der Chirurg seine Hand aus Ihrem Schädel. Ihr plötzlich sich selbst überlassener Körper verfällt in Krämpfe und stirbt. Einen Augenblick lang empfinden Sie nur Ruhe und Dunkelheit. Dann können Sie die Augen wieder öffnen. Ihre Perspektive hat sich verändert. […] Ihr Geist ist jetzt an den glänzenden neuen Körper angeschlossen, dessen Form, Farbe und Material Sie selbst ausgesucht haben. Ihre Metamorphose ist abgeschlossen.“408 Ebd., S. 152–154.
408
123
2 Künstliche Intelligenz und Transhumanismus
Die Weiterentwicklung und Optimierung des Menschen führt damit zu einem Abschied von den biologischen, bzw. leiblichen Grundlagen der menschlichen Personalität. An Moravecs Entwürfe knüpft unter anderem Ray Kurzweil an.
2.3.3 Ray Kurzweil: Menschheit 2.0 Besonders umfassend skizziert wird das Projekt des Transhumanismus durch Ray Kurzweils Buch The singularity is near. When humans transcend biology (dt.: Menschheit 2.0)409. Kurzweil greift an verschiedener Stelle auf Moravecs Argumentationen zurück und entwickelt dessen Ansatz weiter.410 Kurzweil ist gegenwärtig der Leiter der technischen Entwicklung des ITUnternehmens Google und forscht selbst zu neuronalen Netzwerken und Mustererkennung. Kurzweil ist Erfinder des Flachbettscanners, verschiedener Schrift- und Spracherkennungssoftware sowie digitaler Musikinstrumente. Als Autor gilt er als einer der wichtigsten Leitfiguren des Transhumanismus. Jahrzehnte lang publizierte Kurzweil regelmäßig zum Verhältnis von Mensch und Technik, über intelligente Maschinen und eine von ihnen durchdrungene Gesellschaft sowie die Möglichkeit, das menschliche Leben mithilfe von Medizin und Technologie soweit wie möglich zu verlängern. Seine Publikationen sind dicht mit Fakten aus jeweils aktuellen fachwissenschaftlichen und technologischen Entwicklungen in verschiedenen Disziplinen gespickt, die seinen Ansatz untermauern sollen. Seine Entwürfe können als weitgehend repräsentativ für transhumanistische Utopien und zentrale programmatische Zielstellungen gelten.411 Die Grundzüge transhumanistischer Philosophie durchziehen sämtliche Publikationen von Kurzweil. In dieser Arbeit beziehe ich mich für die Darstellung seiner Position besonders auf sein 2005 erschienenes Buch The singularity is near (dt.: Menschheit 2.0).412 Ergänzend fließen Ausschnitte seiner argumentativen Position aus anderen Publikationen mit ein. Die argumentative Grundstruktur Kurzweils, die in Menschheit 2.0 systematisch dargestellt wurde, hat sich auch in späteren Publikationen nicht wesentlich geändert, sondern wurde lediglich mit neuen technologischen Fortschritten und einigen Korrekturen von Prognosen für die weitere technologische Entwicklung ergänzt. Das Werk kann also als zentral für die Gedankenwelt Kurzweils gesehen werden. Ray Kurzweil: The Singularity is near. When humans transcend biology (2005), deutsche Übersetzung von Martin Rötzschke: Menschheit 2.0, Berlin 2014. 410 Ebd., S. 24, S. 68, S. 121f, S. 205, S. 293. 411 Für eine differenziertere Analyse der unterschiedlichen Autoren im Transhumanismus vgl. Loh, Janina: Trans- und Posthumanismus, a. a. O. 412 Ray Kurzweil: Menschheit 2.0, a. a. O. 409
124
2.3 Transhumanismus: Die Optimierung des Menschen
Ray Kurzweil entwickelt in Menschheit 2.0 einen Entwurf für technologische Fortschritte, welche den Menschen über seine biologischen Grenzen hinausführen. Mit dem Begriff der „Singularität“, den Kurzweil im Titel anführt, bezeichnet er den Zeitpunkt, an dem der Mensch seine biologischen Wurzeln mithilfe von Technologie überwindet, weil intelligente Maschinen in allen Dimensionen leistungsfähiger sein werden als Menschen.413 Als Zukunftsprognose für den Zeitpunkt der Singularität markiert Kurzweil das Jahr 2045. In diesem Jahr, so Kurzweil, wäre nach aktuellen Prognosen die Rechenkapazität der jährlich produzierten Hardware eine Milliarde Mal leistungsfähiger als die gesamte menschliche Intelligenz.414 Die biologische Natur des Menschen könne dann überwunden werden.415 Mithilfe von immer schneller werdenden technologischen Fortschritten wird der Mensch, so Kurzweil, im Jahr 2045 in der Lage sein, seine biologischen Grundlagen soweit zu verstehen, zu heilen, zu reparieren und zu verbessern, dass er nicht nur seine eigenen körperlichen und kognitiven Kompetenzen auf ein Vielfaches des Natürlichen steigern kann, sondern auch Krankheit und Tod nicht mehr als unüberwindliche Schranke des Lebens hinnehmen muss. Seine Zukunftsprognosen für die technologische Entwicklung begründet Kurzweil ebenso wie Moravec mit dem Gesetz vom steigenden Ertragswachstum, dem exponentiellen Wachstum technologischer Entwicklung. Die Geschwindigkeit technologischer Entwicklungen erfolgt demnach nicht in linearer Geschwindigkeit, sondern mit exponentiellen Wachstumskurven. Empirisch belegt sieht Kurzweil dies im Bereich der Informatik mit dem Moore’schen Gesetz. Seit Mitte der 70er Jahre gelang es aller 24 Monate, die Speicherkapazität und Rechenleistung von Halbleiterchips zu verdoppeln. Durch die kürzeren Wege für Elektronen und die damit verbundene höhere Effektivität der Hardware verdoppelt sich das Preis-Leistungs-Verhältnis von Rechenleistung jedes Jahr.416 Ausgehend davon, dass die technologische Entwicklung der Rechenleistung von Computern in derselben Art und Weise exponentiell weiterwächst, gelangt Kurzweil zu den genannten Prognosen. Die Unausweichlichkeit der Entwicklung begründet Ray Kurzweil mit einem Bezug auf die Evolutionstheorie Darwins. Neben der biologischen Evolution der Lebewesen gebe es eine kulturelle und technische Evolution. Die technische Evolution kann nach Kurzweil in besonderer Art mithilfe von exponentiellen Wachstumskurven beschrieben werden.417 Ein wichtiger Meilenstein Der Begriff Singularität geht nach Kurzweil auf den Erfinder des modernen Computers, John von Neumann, zurück. Vgl. Kurzweil: Menschheit 2.0, a. a. O., S. 10. Vgl. zum Begriff der Singularität und seinen Konnotationen bei den verschiedenen Autoren des Trans- und Posthumanismus auch Janina Loh: Trans- und Posthumanismus, a. a. O., S. 106–111. 414 Kurzweil: Menschheit 2.0, a. a. O., S. 135. 415 Ebd. 416 Ebd., S. 56. 417 Ebd., S. 50–55. 413
125
2 Künstliche Intelligenz und Transhumanismus
in dieser Entwicklung ist die Technologie der künstlichen Intelligenz: Vormals unbelebte Materie wird intelligent. Künstliche Intelligenz nimmt als technologische Erfindung eine Sonderstellung ein, weil sie als vom Menschen geschaffene Technik das Potential hat, die Leistungsfähigkeit des Menschen zu übertreffen. So kann die vom Menschen geschaffene technische Welt mit der biologischen Materie, welche die bisherige Grundlage seines Lebens bildet, verschmelzen. Die Zukunft sieht Kurzweil in einer vollständigen Verschmelzung von Mensch und Maschine. Kurzweil schildert in Menschheit 2.0 eine Zukunft, in der die Leistungen menschlicher Intelligenz von denen der künstlichen Intelligenz in den Schatten gestellt werden. Um dahin zu kommen, sind drei Schritte notwendig: Umfassendes Verständnis des menschlichen Gehirns, die Nachbildung des Gehirns und schließlich davon ausgehend die technologische Optimierung des menschlichen Gehirns. Zuerst muss ein vollständiges empirisches Verständnis der biologisch-leiblichen Konstitution des Menschen erschlossen werden, in einem quantifizierenden Sinn, bzw. als Vermessung und Modellierung der kausalen Wirkzusammenhänge. Um Intelligenz zu simulieren, müssen Wirkungsweise und Funktionalität des menschlichen Geistes zunächst vollständig erklärbar und formalisiert darstellbar, bzw. funktional modellierbar werden. Gegenwärtige Schwierigkeiten und Grenzen der Forschung sollen mit den sich immer rasanter entwickelnden technischen Möglichkeiten bald als überwunden gelten. Einhergehend mit dem zunehmenden Verständnis über das menschliche Gehirn sollen Versuche der Nachbildung, bzw. Remodellierung laufen, ein „Reverse Engineering“ des menschlichen Gehirns. In seiner Publikation How to Create a Mind hat Kurzweil ein detailliertes Forschungsprogramm ausgehend vom jüngsten Forschungsstand der Neurowissenschaften und Informatik entworfen, um ein Reverse Engineering des Gehirns zu realisieren, in welchem die Bauweise des biologischen Gehirns zum Vorbild für eine technologische Simulation werden soll.418 Neuroimplantate u. ä. chirurgisch ans Nervensystem anzuschließen, kann Schnittstellen zwischen Mensch und Maschine ermöglichen.419 Das Jahr 2045 soll nach Kurzweil als Jahr der „Singularität“ eingehen, da die Rechenleistung von Computern eine Milliarde mal schneller sein soll als die der gesamten menschlichen Zivilisation.420 Die Möglichkeiten für die technische Verfügbarmachung der biologischen Grundlagen des menschlichen Lebens sieht Kurzweil vor allem in den technologischen Entwicklungen von drei Disziplinen: erstens Genetik, zweitens Nanotechnik und drittens Robotik und KI. Kurzweil
Kurzweil, Ray: How to Create a Mind. The Secret of Human Thought Revealed, London 2012. Deutsche Übersetzung von Jens Ole Beckers und Jan Schenkenberger: Das Geheimnis des menschlichen Denkens. Einblicke in das Reverse Engineering des Gehirns, Berlin 2014. 419 Vgl. Menschheit 2.0, a. a. O., S. 195f. 420 Ebd., S. 134. 418
126
2.3 Transhumanismus: Die Optimierung des Menschen
verwendet für das Zusammenspiel dieser Forschungsdisziplinen die Abkürzung „GNR“. Mithilfe von „GNR“ (Genetik, Nanotechnik, Robotik) soll die Folge die Verschmelzung von Mensch und Maschine sein. Genetik Genetik bedeutet für denjenigen, der den Menschen als große Maschine, als komplexen Computer betrachtet, nichts weiter als eine Kodierung von Informationen. Kurzweil bezeichnet Genetik als „Schnittmenge aus Biologie und Informatik“421 und fasst die biochemischen Prozesse rund um die DNS-Moleküle als „Computer des Lebens“ zusammen.422 Er bedient damit Wissen und Modelle aus der Informatik, um biologische Prozesse zu deuten. Genetik und Wissen über die Bedeutung der Gene des Menschen ist in diesem Sinn gleichbedeutend mit der Einsicht in den Bauplan einer riesigen Maschine. Die wachsende Geschwindigkeit, mit der menschliches Erbgut mittlerweile dekodiert und untersucht werden kann, bietet immer sichereres Wissen um die Konstruktionsgrundlagen des menschlichen Lebens. Ziel des Wissenszuwachses soll sein, Degenerationsprozesse, die durch Altern und Krankheiten auftreten, rückgängig zu machen und zu bekämpfen. Ziel ist also zum einen die Bekämpfung von Krankheiten wie Krebs, zum Anderen gehört auch der Wunsch nach Unsterblichkeit zu den Beweggründen für intensivere genetische Forschung.423 Genetik erschließt in diesem Sinne das Geheimnis des Lebendigen für einen technischen Zugang. Das Wunder des Lebens wird zugunsten einer technischen Verfügbarmachung in eine technische Sprache übersetzt. Als „Bauplan des Lebens“, nicht mehr nur im metaphorischen Sinn, sondern unmittelbar verstanden, wird Wissen über genetische Strukturen damit zum Herrschaftsinstrument für die Grundlagen des Lebendigen. Es kann somit auch die Schlüsselstelle darstellen, um existentielle Grenzen wie die des Todes und der leiblichen Bedingtheit personaler Existenz in den Raum der technischen Verfügbarmachung zu stellen. Aus diesem Grund wird Genetik zu einer Schlüsseldisziplin für die transhumanistische Utopie, mithilfe von Technologie die biologischen Grenzen des Menschen zu überschreiten. Dennoch bildet die Genetik nur einen Zwischenschritt zur Optimierung des Menschen, weil damit der Mensch noch in seinen biologischen Grenzen verhaftet bleibt: „So wichtig die beschriebene biotechnische Revolution auch ist – sobald ihre Möglichkeiten ausgereift sind, wird man an die inhärenten Grenzen biologischer Systeme stoßen.“424 Kenntnisse über die Genetik des Men 423 424 421
422
Ebd., S. 206. Ebd., S. 207. Vgl. ebd., S. 222. Ebd., S. 227.
127
2 Künstliche Intelligenz und Transhumanismus
schen würden jedoch die technische Verfügbarkeit über die Grundstrukturen des Lebendigen nur für die Mittel der Biochemie zugänglich machen. Eine Verschmelzung von Mensch und Maschine wäre in diesem Sinne noch nicht möglich. Man könnte zwar in biochemische Prozesse des menschlichen Organismus operativ oder therapeutisch eingreifen,425 müsste sich aber damit begnügen, dass menschliche Lebensprozesse grundlegend mit der Geschwindigkeit biochemischer Vorgänge ablaufen.426 Einen Ausweg aus dieser Beschränkung liefert Nanotechnik. Um die Intelligenz des Menschen mit den Möglichkeiten intelligenter Computertechnologie zu verschmelzen, müssen daher Schnittstellen zwischen organischem Leben und Robotiktechnologien gefunden werden. Nanotechnik „Durch Nanotechnik wird es möglich, die physikalische Welt, einschließlich unserer Körper und Gehirne, neu zu gestalten, Molekül für Molekül – und potenziell Atom für Atom.“427 Nanotechnik zielt auf eine technische Verfügbarmachung der kleinsten Strukturen und Subebenen von Materie. Nanotechnik wird damit zur „Schnittmenge aus Information und physikalischer Welt“.428 Mit Nanotechnik soll die Voraussetzung geschaffen werden, die Grundlagen der Materie und damit auch die Grundlagen der belebten Materie technisch umzugestalten. Ausgehend von der Prognose, dass immer effektivere Technik auf immer kleinerem Raum eingesetzt werden kann, skizziert Kurzweil die Konstruktionsmöglichkeiten für Nanocomputer und Nanobots. Diese können u. a. auch in der Blutbahn eingesetzt werden.429 In Tierversuchen wurden biologische mikroelektromechanische Systeme bereits erfolgreich angewandt.430 Damit wäre die technische Grundlage geschaffen, um mit nichtbiologisch konstruierter Technik in die biologischen Systeme organischer Lebewesen einzudringen und diese technisch umzugestalten, zu manipulieren. Im Bereich der Medizintechnik ergeben sich durch die Perspektive nanorobotischer invasiver Eingriffe eine Vielzahl neuer Therapiemöglichkeiten von Krankheiten. Kurzweil sieht darin auch eine weitere Möglichkeit, biologische Alterungsprozesse aufzuhalten.431
Ebd., S. 223. Ebd., S. 227. 427 Ebd., S. 227. 428 Ebd., S. 227. 429 Ebd., S. 254. 430 Ebd. 431 Ebd., S. 254f. 425
426
128
2.3 Transhumanismus: Die Optimierung des Menschen
Robotik und künstliche Intelligenz Künstliche Intelligenz ist die Schlüsseltechnologie für transhumanistische Visionen. Sobald die Entwicklungen der künstlichen Intelligenz die Leistungsfähigkeit von menschlicher Intelligenz erreicht haben, dann ist der Zeitpunkt gekommen, an dem Maschinen dem Menschen nicht nur ebenbürtig, sondern diesem bald überlegen sein werden.432 Höhere und genauere Gedächtnisleistung (Datenspeicherung), schnellere und eindeutige Kommunikation, einfacheres vernetztes Arbeiten unterschiedlicher Rechner sind dafür Beispiele. In den Entwicklungen der künstlichen Intelligenz werden verschiedene Systeme parallel genutzt, um Vorteile und Stärken zu kombinieren. Klassische symbolverarbeitende KI kann mit neuronalen Netzen, genetischen Algorithmen sowie probabilistischen Systeme verbunden werden.433 Damit sollen nicht nur verschiedene Aspekte von menschlicher Intelligenz abgedeckt, sondern auch die Leistungsfähigkeit des Menschen übertroffen werden.434 Während durch Genetik und Nanotechnik die Zugänge zu den biologischen Grundlagen des menschlichen Lebens freigelegt werden sollen, birgt künstliche Intelligenz das Potential, in einer neuen Fassung, sozusagen einer optimierten Essenz, das Wesen des menschlichen Geistes zu beinhalten und zu repräsentieren. So schreibt Kurzweil: „Von den drei Revolutionen, die zur Singularität führen (G, N und R) wird Revolution R die extremste sein: die Erschaffung nichtbiologischer Intelligenz, welche die menschliche übersteigt. Intelligentere Systeme verdrängen grundsätzlich Prozesse von geringerer Intelligenz, weshalb Intelligenz die stärkste Kraft des Universums ist. Das ‚R‘ in GNR steht für Robotik, doch der entscheidende Faktor ist starke KI (künstliche Intelligenz, die menschliche übersteigt). Dass in diesem Zusammenhang dennoch von ‚Robotik‘ die Rede ist, wird gemeinhin damit begründet, dass Intelligenz einen Körper – eine physische Präsenz – benötigt, um auf die Welt einzuwirken. Ich denke jedoch, physische Verkörperung wird dabei überbewertet, und halte Intelligenz für den springenden Punkt. Intelligenz findet immer einen Weg, die Welt zu beeinflussen, und schafft sich ihre eigenen Mittel der Verkörperung und der physischen Manipulation.“435 Während die menschliche Intelligenz als das wertvollste Element des Menschen noch in biologischen Schranken und Grenzen operieren muss, kann der menschliche Geist in der Form von künstlicher Intelligenz sozusagen losgelöst von jedweder Leiblichkeit operieren. Die Befreiung von der körperlichen Begrenzung des Geistes kristallisiert sich somit als Grundmotiv transhumanistischer Entwürfe heraus. 434 435 432 433
Ebd., S. 261. Vgl. ebd., S. 267–275. Ebd., S. 261. Ebd., S. 260f.
129
2 Künstliche Intelligenz und Transhumanismus
Die Verschmelzung von Mensch und Technologie Die Entwürfe des Transhumanismus beanspruchen eine Transformation der Lebenswelt des Menschen. Arbeitswelt und Freizeitkultur erfahren durch die Möglichkeiten und Dynamiken der Effizienzsteigerung durch künstliche Intelligenz und Digitalisierung einen grundlegenden Wandel. Auch Information und Wissen, Gesundheit und Leiblichkeit werden durch den Transhumanismus umfassend neugedeutet. Sämtliche Sozialstrukturen erleben eine Veränderung durch die Verschmelzung mit ihrer digitalen Repräsentation. Freundschaft, Liebe, Sexualität und auch die Fortpflanzung des Menschen sind darin eingeschlossen. Die gesamte menschliche Lebenswelt erfährt durch ihr Verflochtensein mit künstlichen Berechnungsprozessen grundlegende Veränderungen. Indem mit technologischen Konstruktionen die Strukturen des Lebendigen nachgebildet werden sollen, wird der Weg für eine Verschmelzung von Mensch und Maschine freigelegt. Weil der Mensch dadurch unabhängig von seinen biologischen, bzw. leiblichen Grenzen wird, erschließen sich ihm nie dagewesene Möglichkeiten zur Erweiterung seiner Fähigkeiten. Im Wesentlichen können die Folgen der technologischen Entwicklungen in unterschiedlichen Etappen betrachtet werden. Zunächst hilft künstliche Intelligenz als technisches Produkt bei der Lösung menschlicher Probleme.436 In diesem Sinn wird künstliche Intelligenz bereits heute vielfältig angewendet. In manchen Bereichen, wie z. B. der Analyse und Prognose von Aktienkursentwicklungen an der Börse oder für die Preisbildung im Hotelgewerbe, wurden menschliche Experten bereits von künstlicher Intelligenz abgelöst.437 Auch im Bereich von medizinischen Diagnoseverfahren ist die Genauigkeit künstlicher Intelligenz bereits jetzt größer als die von Menschen.438 Ein qualitativer Unterschied zum technischen Gebrauch von künstlicher Intelligenz durch den Menschen entsteht, wenn diese zunehmend autonom wird. Die Entwicklungen sind hierbei nicht schlagartig, sondern graduell. Indem künstliche Intelligenz in ihren Berechnungen, Diagnosen, Prognosen, Entscheidungen genauer, treffsicherer, zuverlässiger wird und im Vergleich mit den Leistungen menschlicher Intelligenz in diesen Bereichen den Menschen immer weiter übertrifft, wird der Mensch die künstliche intelligente Technik nutzen, um die Probleme in diesem Bereich für ihn zu lösen. Ebd., S. 282ff. Tuck, Jay: Evolution ohne uns, Kulmbach 2016, S. 238f. 438 Vgl. Patel, Vimla L. u. a.: The coming of age of artificial intelligence in medicine, in: Artificial intelligence in medicine, 46 (2009), S. 5–17. Vgl. auch Bevilacqua, Vitoantonio u. a.: 3D Virtual Colonoscopy for Polyps Detection by Supervised Artificial Neural Networks, in: Huang, De-Shuang, Gan, Yong, Prashan, Premaratne und Han, Kyungsook (Hg.): Bio-Inspired Computing and Applications. 7th International Conference on Intelligent Computing, ICIC 2011, Zhengzhou, China, August 11–14, 2011, Revised Selected Papers, Heidelberg u. a. 2012, S. 596–603. 436 437
130
2.3 Transhumanismus: Die Optimierung des Menschen
Die Autonomie von künstlicher Intelligenz erstreckt sich bisher jedoch weitestgehend auf Anwendungsgebiete, in denen Expertenwissen angewendet werden kann. Bereiche, in denen Allgemeinwissen, Weltwissen gefordert ist, sind für Systeme künstlicher Intelligenz wesentlich schwerer zu beherrschen als für menschliche Akteure.439 Dennoch ist diese Einschränkung für transhumanistische Autoren nur eine Frage der Zeit. Ausgehend von den exponentiellen Entwicklungstrends technologischer Fortschritte, welche Kurzweil seiner Argumentation vorausschickt, erwartet er mit der enormen Steigerung der Rechenleistung von autonomen Maschinen, dass diese bis zum Jahr 2045 in allen Bereichen menschlicher Intelligenz diesen überholen.440 Wenn künstliche Intelligenz in der Lage ist, ähnlich wie der Mensch mit der offenen Komplexität der ihn umgebenden Welt autonom zu interagieren, dann sind den Möglichkeiten von künstlicher Intelligenz keine Grenzen mehr gesetzt. Sie kann, wenn man diesem Gedankengang folgt, wissenschaftliche Forschungen betreiben, eigene Produkte entwickeln und herstellen, Energie gewinnen und eigene Ziele definieren und verfolgen.441 Wenn künstliche Intelligenz tatsächlich in der Lage sein wird, alle Bereiche menschlicher Intelligenz erfolgreich nachzubilden und den Menschen darin zu übertreffen, dann können die Vorteile von maschinellen intelligenten Systeme gegenüber dem Menschen dazu führen, dass diese zu einer autonomen Instanz wird, die sich dem Bereich bisheriger Technik entzieht, welche dem Menschen unterworfen ist und diesem für die Verfügbarmachung der Natur dienen soll. Künstliche Intelligenz könnte dann ein unabhängiger Akteur werden, welcher nicht mehr von einzelnen Anwendern kontrolliert wird. Statt eines Antagonismus von Mensch und künstlicher Intelligenz sieht Kurzweil begründet durch die sukzessiven Entwicklungen der Technologien das Szenario einer immer stärker werdenden Verschmelzung von Mensch und Maschine als realistische Entwicklung.442 Menschen optimieren sich durch Technologie selbst, werden damit zu Cyborgs.443 Kurzweil sieht die Zukunft nicht im Sieg der Technik über den Menschen, ebensowenig wie im Sieg des Menschen über die Technik. Stattdessen rückt die Verschmelzung von Mensch und Maschine, von künstlicher und natürlicher Intelligenz immer mehr in die Tiefe der biologischen Grundlagen des Menschseins. Durch die funktionalistische Deutung einzelner Organe des Menschen ergibt sich, kombiniert mit dem Imperativ zur maximalen Optimierung Vgl. Irrgang, Bernhard: Posthumanes Menschsein? Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und Designer-Menschen. Anthropologie des künstlichen Menschen im 21. Jahrhundert, Stuttgart 2005, S. 119 und S. 124f. 440 Kurzweil: Menschheit 2.0, a. a. O., S. 294f. 441 Ebd., S. 303. 442 Ebd., S. 263. 443 Ebd., S. 313. 439
131
2 Künstliche Intelligenz und Transhumanismus
und Leistungssteigerung die Konsequenz, dass sukzessive die biologischen Organe des Menschen ersetzt werden sollen. „Was sind wir also in den frühen 2030ern? Eliminiert haben wir: Herz, Lunge, rote und weiße Blutkörperchen, Blutplättchen, Bauchspeicheldrüse, die Schilddrüse und andere Hormonproduzenten, Nieren, Blase, Leber, die untere Speiseröhre, Magen, Dünndarm, Dickdarm und sonstige Därme. Übrig bleiben zunächst: Knochenskelett, Haut, Geschlechtsorgane, Sinnesorgane, Mund, obere Speiseröhre und Gehirn.“444 Die Transformationsprozesse der Verschmelzung der biologischen Struktur des Menschen mit technologischem Enhancement greifen bis in das Gehirn und in die Wahrnehmungsfähigkeiten des Menschen ein: „Nanobots in und um dein Nervensystem erzeugen die entsprechenden Sinnessignale: visuell, auditorisch, taktil und natürlich olfaktorisch. […] Für all unsere Wahrnehmungen, Empfindungen und Emotionen gibt es neuronale Korrelationen. Manche kann man punktgenau festmachen, andere sind das Ergebnis eines Aktivierungsmusters. So oder so wird es uns möglich sein, unsere emotionalen Reaktionen als Teil unserer virtuellen Erfahrungen zu verändern und zu erweitern.“445 Die Optimierung des Menschen Der Beginn der Verschmelzung von Mensch und künstlicher Intelligenz beginnt nach Kurzweil im Bereich medizinischer und therapeutischer Anwendungen. Das Motiv der Leidminderung wird zum Beweggrund, alles im Bereich des Möglichen zu unternehmen, um ein durch Krankheit oder Behinderung bedingtes Defizit oder Leiden des Menschen zu beheben oder zu lindern.446 Erfolge in der medizinischen Anwendung werden zum Auslöser, technologisches Enhancement in diesen Bereichen auch dort zu nutzen, um Potentiale des Menschen zu erweitern und zu vervielfachen.447 Kurzweil spricht von einem „menschlichen Körper 2.0“.448 Zu den Möglichkeiten des Human Enhancement gehört auch die Erweiterung des menschlichen Bewusstseins durch eine Verschmelzung mit virtuellen Realitäten.449 Der Mensch wird in eine „erweiterte Realität“ geführt, in welcher die Wahrnehmung der natürlichen Umwelt durch virtuelle Assistenten unterstützt wird, die u. a. einen Zugang zu allen online verfügbaren Informationen ermöglichen, welche für die gegenwärtige Aufgabe oder Situation relevant sind.450
Ebd., S. 311. Ebd., S. 324f. 446 Ebd., S. 313. 447 Ebd., S. 314, vgl. auch S. 305ff. 448 Ebd. 449 Ebd., S. 318. 450 Ebd. 444 445
132
2.3 Transhumanismus: Die Optimierung des Menschen
Die Möglichkeiten zur Verschmelzung von Mensch und Technologie scheinen durch eine Schnittstelle zwischen menschlichem Bewusstsein und virtueller Realität grenzenlos. Letztlich ergibt sich durch die immer größer werdende Bandbreite an Varianten zu Erweiterung, Enhancement, Optimierung oder Austausch der biologischen Grundlagen des menschlichen Körpers die Option zur Überwindung der eigenen Leiblichkeit und individueller Personalität, die für Kurzweil auch die Austauschbarkeit des Körpers und die Überschreitung der Begrenzung leiblich-individueller Personalität umfasst, um sich „nicht mit einer einzigen Persönlichkeit begnügen zu müssen“.451 Damit einher gehen Möglichkeiten des Neuroenhancement, welche das geistige Wachstum des Menschen in neue Dimensionen führen sollen.452 Der Zugang zu allem verfügbaren Wissen und die Möglichkeit, dieses per Download jederzeit abrufen zu können, wäre durch die Verschmelzung mit nichtbiologischer Intelligenz ein enormer Schritt für die Erweiterung der menschlichen Intelligenz.453 „Die drei ineinandergreifenden Revolutionen G, N und R werden beispielsweise unsere gebrechlichen menschlichen Körper der Version 1.0 in eine sehr viel beständigere und leistungsstärkere Version 2.0 überführen. Milliarden von Nanobots werden sich durch unsere Blutgefäße und unser Gehirn bewegen. Sie werden in unseren Körpern Krankheitserreger zerstören, Genfehler korrigieren, Schadstoffe eliminieren und viele andere Dinge tun, um unser physisches Wohlergehen zu gewährleisten. Als Ergebnis werden wir ewig leben können, ohne zu altern. In unserem Gehirn verteilte Nanobots werden mit unseren biologischen Neuronen interagieren. Dadurch wird eine vollständige virtuelle Realität geschaffen werden, die sowohl all unsere Sinne als auch die neuronalen Ausprägungen unserer Emotionen erfasst. Vor allen Dingen wird diese enge Verknüpfung von biologischem und nichtbiologischem Denken die menschliche Intelligenz entscheidend vergrößern. Die Kriegführung wird zu Nanobots und Cyberwaffen übergehen. Wir werden zunächst online lernen, doch sobald unsere Gehirne online sind, können wir Wissen und Können direkt herunterladen.“454 In der Steigerung der Lebenserwartung, die Kurzweil durch eine absehbare Beseitigung von 90–99 % der vermeidbaren Gesundheitsprobleme auf 150–1000 Jahre schätzt, sieht Kurzweil einen ersten Schritt in der Überwindung des Todes.455 Vollendet wird dieses Vorhaben durch den Übergang zu einer „nichtbiologischen Existenzform“.456
453 454 455 456 451
452
Ebd., S. 319. Ebd., S. 321f. Ebd., S. 343f. Ebd., S. 303f. Ebd., S. 328. Ebd., S. 329.
133
2 Künstliche Intelligenz und Transhumanismus
In der technischen Evolution bildet intelligente Technik den nächsten Schritt. Wenn künstliche Intelligenz sich im Gesetz des exponentiellen Wachstums weiterentwickelt, dann agieren neben dem Menschen auch künstliche Intelligenz im Universum als autonome Akteure, die nicht mehr vom Menschen abhängig sind und vielleicht als neue Spezies gedeutet werden können. Der Mensch wäre demnach nicht mehr die leistungsfähigste und intelligenteste Art im Universum, sondern die von ihm geschaffene Technik. Gehirn-Upload und Unsterblichkeit Ebenso wie Moravec sieht Kurzweil in technologischen Entwicklungen hin zu einem GehirnScan und einem Gehirn-Upload eine Möglichkeit, das eigene Bewusstsein in eine nichtbiologische Hardware zu übertragen: „Im einfachsten Szenario einer Gehirnportierung werden in einem Gehirnscan (sehr wahrscheinlich von innen) sämtliche relevanten Details erfasst, und der Zustand des Gehirns in einem anderen (sehr wahrscheinlich leistungsfähigeren Substrat) reproduziert.“457 Diese Daten gelten als das, was die Person ausmacht und sie können anschließend in eine „optimierte“ Substanz übertragen werden: in die vom Menschen geschaffene Technik. Kurzweil sieht darin eine Möglichkeit zum Übergang in eine nicht-biologische Existenzform: „Wenn heute unsere menschliche Hardware – unser Körper – versagt, so stirbt unsere geistige Software mit ihm. Das wird jedoch nicht mehr der Fall sein, wenn wir die Möglichkeit haben, die Tausende Billionen von Bytes an Informationen abzuspeichern, die unser Gehirn ausmachen (einschließlich unseres restlichen Nervensystems, dem Hormonsystem und anderen Strukturen unserer geistigen Software). Dann wird die Lebensdauer unserer geistigen Software nicht mehr vom durchgängigen Funktionieren eines bestimmten Hardwaremediums (sprich dem Überleben unseres biologischen Körpers und Gehirns) abhängig sein. Letzten Endes werden Software-Menschen weit über die engen Beschränkungen heutiger Menschen hinaus erweitert werden. Sie werden im Netz leben und Körper projizieren, wann immer sie es müssen oder wollen: virtuelle Körper in unterschiedlichen virtuellen Umgebungen, holografische Körper, Foglet-Körper, sowie mit Nanobotschwärmen und anderen Formen von Nanotechnik bestückte physikalische Körper. Gegen Mitte des einundzwanzigsten Jahrhunderts werden Menschen ihr Denken grenzenlos erweitern können. Dies ist eine Art von Unsterblichkeit, wobei gesagt werden muss, dass Daten und Informationen nicht unbedingt ewig Bestand haben: Die Lebensdauer von Informationen ist abhängig von ihrer Relevanz, Nützlichkeit 457
Ebd., S. 329.
134
2.3 Transhumanismus: Die Optimierung des Menschen und Zugänglichkeit. Wer je versucht hat, auf Informationen in einem veralteten, obskuren Format zuzugreifen (beispielsweise auf dem Magnetband eines Minicomputers von 1970), weiß um die Schwierigkeit bei der Erhaltung von Software. Wenn wir jedoch gewissenhaft mit unserer geistigen Software umgehen, regelmäßig Sicherungskopien erstellen und auf moderne Formate und Medien portieren, können wir eine Art Unsterblichkeit erreichen, zumindest als Software-Menschen. Später in diesem Jahrhundert wird es uns bemerkenswert erscheinen, dass es einmal Menschen gab, die ihr Leben lebten, ohne Backups ihrer allerwertvollsten Informationen – ihres Gehirns und Körpers – anzulegen.“458
Indem der Mensch zu einer Datenmenge wird, steht seine Existenz nicht mehr unter den Bestimmungen der Vergänglichkeit.
2.3.4.1 Erkenntnistheoretische Grundannahmen im Transhumanismus Die Quantifizierbarkeit der Welt Der Optimierungsgedanke erfordert ein Kriterium der Skalierbarkeit. Nur was gemessen werden kann, kann auch nachweisbar verbessert zu werden. Jeder Optimierung geht daher eine Quantifizierung ihres Gegenstands voraus. Auch Intelligenz muss deshalb skalierbar aufgefasst werden. Um die Komplexität des menschlichen Geistes für den Menschen greifbar machen zu können, müssen daher Modelle des Gehirns entwickelt werden, die immer besser die Komplexität des Gehirns abbilden können.459 Das umfassende Verständnis des menschlichen Gehirns und die Verfügbarmachung dieses Wissens für einen technischen Zugang mündet im Vorhaben eines „Reverse Engineering des Gehirns“.460 Im mathematischen Modell, welches ausgehend von empirischen Daten entwickelt wurde, sieht Kurzweil die Essenz des dahinterliegenden Musters. Auf Kurzweils Gleichsetzung von einer Gehirnsimulation mit einem biologischen Gehirn wurde bereits Kritik formuliert, z. B. von Thomas Ray.461 Er begründet die Komplexität neuronaler Ebd., S. 330. Als „Foglet“ bezeichnet Kurzweil einen „intelligenten Nanonebel“, „der beliebige Bilder und Klänge erzeugen kann“ (S. 29). Kurzweil bezieht sich dabei auf den Nanotechnik-Pionier J. Storrs Hall, auf den dieser Entwurf zurückgeht. (zit. nach Kurzweil: Menschheit 2.0, a. a. O., S. 525.) 459 Vgl. Kurzweil: Menschheit 2.0, a. a. O., S. 198f. 460 Ebd., S. 196ff. 461 Ray, Thomas: Kurzweils Turing Fallacy, in: Richards, Jay W. u. a.: Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong A. I., Seattle / Washington 2002, S. 116–127. Vgl. Ray Kurzweil: 458
135
2 Künstliche Intelligenz und Transhumanismus
Verarbeitung im Gehirn mithilfe einer Bandbreite chemischer Kommunikationsmechanismen, die durch nichtbiologische Technik nicht vollständig simuliert werden kann. Kurzweil fasst in seiner Antwort auf diese Kritik seine Grundüberzeugung zusammen, dass in einem mathematischen Modell der Wirklichkeit die gesamte Wirklichkeit enthalten ist: „Doch all diese Eigenschaften sind ohne Weiteres modellierbar und es gibt bereits große Fortschritte auf diesem Gebiet. Die Modellierungssprache ist Mathematik, und die Übersetzung mathematischer Modelle in entsprechende nichtbiologische Mechanismen (beispielsweise Computersimulationen oder Transistoren im Analogbetrieb) ist ein recht unkomplizierter Prozess. Die Übertragung von Hormonen über den Blutkreislauf beispielsweise ist ein Phänomen von extrem geringer Bandbreite, das sich problemlos modellieren und replizieren lässt. […] Wenn wir die Fortschritte in Neurobiologie, Scantechnik, Modellierung von Neuronen und Neuroimplantation und ähnlichen Gebieten verfolgen, so sehen wir, dass sich die hervorragenden Funktionalitäten biologischer Informationsverarbeitung mit beliebiger Genauigkeit reproduzieren lassen.“462 Kurzweil legt in seiner Argumentationsweise unmissverständlich dar, dass seiner Auffassung nach Quantifizierung und Formalisierung als Methoden der Verfügbarmachung der Welt hinreichend sind, um Materie, Gehirn und Geist zu modellieren, zu verstehen, nachzubilden und damit für eine technisch-instrumentelle Rationalität verfügbar zu machen. Das Wesen des Geistes wird auf seine Funktionalität reduziert.463 Die transhumanistische Weltanschauung knüpft damit an ein Grundanliegen von Philosophie und Wissenschaft an, alles Bestehende zu erkennen, zu verstehen und der menschlichen Vernunft verfügbar zu machen. Empirisch quantifizierbar ist nur, was in irgendeiner Weise als ein Ding, bzw. als mathematisch formalisierbares Muster aufgefasst werden kann – man muss ein Modell davon entwickeln können. Ideal ist eine möglichst konkrete Lokalisation in einer materiellen Struktur. Menschlicher Geist wird daher weitestgehend mit dem Gehirn identifiziert. Dieses wiederum kann vollständig messbar gemacht werden, um die zugrundeliegenden Strukturen und Muster zu beschreiben und für eine technische Rekonstruktion verfügbar werden zu lassen. So sagte Marvin Minsky: „Ich bin fest davon überzeugt, dass man mit einem Scanner, der über eine Auflösung von einem Angström verfügt, jedes einzelne Neuron im menschlichen Gehirn sichtbar machen kann. Man beobachtet dies tausend Jahre lang und sagt dann: ‚Wir wissen genau, was geschieht, wenn ein Mensch blau sagt.‘ Und dies wird von mehreren Generationen von Wissenschaftlern überprüft, so dass die Theorie schließlich gut fundiert ist. Wenn nichts Menschheit 2.0, a. a. O., S. 458 (Fußnote 17). Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 458. 463 „Der Sinn des Reverse Engineering des Gehirns ist nicht, den Stoffwechsel oder andere sperrige Prozesse biologischer Neuronen zu kopieren, sondern die entscheidenden Prinzipien der Informationsverarbeitung zu verstehen. Dass dies machbar ist, beweisen Dutzende aktuelle Projekte.“ (Ebd., S. 459.) 462
136
2.3 Transhumanismus: Die Optimierung des Menschen
schiefgeht, ist die Sache damit erledigt.“464 Geistig-Seelisches gründet im Materiellen und geht in diesem auf. Die materiellen Grundlagen der menschlichen Personalität können vermessen und quantifiziert werden; die daraus gewonnenen Daten sollen der Essenz der individuellen Person entsprechen. „Gehirn-Upload bedeutet, ein Gehirn bis ins letzte Detail zu scannen und in einem anderen geeigneten Medium nachzubilden. Dadurch würden die Persönlichkeit und sämtliche Erinnerungen und Fähigkeiten einer Person erfasst.“465 Empirisch gewonnene Daten sollen also identisch mit der Person sein – denn allein ausgehend von den aus einem GehirnScan usw. gewonnenen empirischen Daten soll eine technische Rekonstruktion der individuellen Personalität ermöglicht werden. Seele und Geist als Bezugsbegriffe von Personalität erfahren dabei eine funktionalistische Verdinglichung. Seelisch-Geistiges muss materialistisch gedeutet und reduktionistisch beschrieben werden, um in einem technologischen Entwurf des optimierbaren Menschen zu münden, in welchem auch seine Individualität und Subjektivität nur als technisch rekonstruierbare materielle Struktur aufgefasst wird. Weil Kurzweil nicht die materiellen Grundbausteine, sondern die mathematisch-formalen abstrakten Strukturen als essentielle Substanz der Wirklichkeit sieht, wehrt er sich dagegen, als Materialist bezeichnet zu werden. „Durch die Macht der Muster können wir die Möglichkeiten ‚einfacher‘ Materie übersteigen. Ich wurde zwar des Öfteren als Materialist bezeichnet, verstehe mich jedoch als ein Patternist*. Die emergente Kraft der Muster ermöglicht uns zu transzendieren. Die Materie, aus der wir bestehen, verändert sich ständig – von Bestand ist nur die transzendente Kraft unserer Muster. Die Dauerhaftigkeit von Mustern geht über explizit selbstreplizierende Systeme (in Biologie und Technik) hinaus. Leben und Intelligenz beruhen auf dieser Dauerhaftigkeit. Das Muster ist weitaus wichtiger als das Material, aus dem es besteht.“466 Eine Anknüpfung an die philosophische Tradition findet sich z. B. bei Aristoteles. Die Formursache bei Aristoteles hat Parallelen zum Musterbegriff bei Kurzweil. Indem Kurzweil den Wert von Mustern höher stellt als den Wert der Materie und mit Rückbezug auf den Emergenzbegriff467 davon ausgeht, dass Materie danach strebt, sich selbst zu organisieren und höhere Komplexitätsformen der Selbstorganisation anzustreben, geht Kurzweil auch von einer teleologischen Dynamik in materiellen Substanzen aus.468
John Horgan: An den Grenzen des Wissens. Siegeszug und Dilemma der Naturwissenschaften, Frankfurt am Main 2000, S. 300. 465 Kurzweil: Menschheit 2.0, a. a. O., S. 199. * „Pattern“ ist das englische Wort für Muster, Anm. d. Ü., vgl. S. 399. 466 Menschheit 2.0, a. a. O., S. 399. 467 Ebd., S. 498. 468 Ebd., S. 493f. 464
137
2 Künstliche Intelligenz und Transhumanismus
Empirismus wird als pragmatisch erfolgreichste Sicht auf die Natur und den Menschen aus diesem Grunde zur methodischen Grundlage für wissenschaftliche Erkenntnis, auf die sich der Geltungsanspruch des Transhumanismus beruft. Damit einher geht die Notwendigkeit einer vollständigen Vermessung, Quantifizierung, Mathematisierung und Formalisierung der Welt, der Natur und des Menschen. In der Sprache einer technisch-instrumentellen Rationalität wird auch der Mensch zum Objekt der Berechnung und muss in eine quantitative Sprache übersetzt werden. Die Welt kann demnach in Zahlen erfasst und in Bits nachgebildet werden. Die letzte Struktur der Wirklichkeit ist die Mathematik. Die ganze Welt besteht aus Zahlen. Nullen und Einsen genügen, um die Ganzheit der Wirklichkeit zu begreifen und nachzubilden. Der Transhumanismus knüpft damit an eine Tradition an, die in der Mathematisierung der Welt den Weg zu einem umfassenden Verständnis der Wirklichkeit sieht. Die Zahl ist die letzte Totalität des Seins.
2.3.4.2 Normative Grundannahmen im Transhumanismus Wissen und Macht Transhumanistische Konzepte gründen in einer Weltanschauung, welche ihre argumentative Grundlage vor allem aus Bezügen zur empirischen naturwissenschaftlichen Forschung und aus technologischen Fortschritten und Erfolgen bezieht. Technische Praxis als erfolgreiche Verfügbarmachung der Natur gilt dabei als Rechtfertigung dafür, sich auf dem richtigen Weg zu befinden. Begründet wird dies mit dem Rückgriff auf den evolutionären Artenkampf: wer gewinnt, bleibt. Technik hilft dabei, sich durchzusetzen, schafft Wettbewerbsvorteile und erhebt den Menschen zum Stärkeren. Technik als Macht über die Natur versetzt den Menschen in die Lage, natürliche Beschränkungen und Begrenzungen zu überwinden. Indem er sich verpflichtet, sich der Technik als Mittel zur Verfügbarmachung der Natur zu bedienen, stellt er aber auch den Menschen selbst unter die Kriterien der technischen Rationalität. Der Mensch muss sich selbst als in der Welt der Natur verortet objektivieren und unter den Kriterien einer technisch-instrumentellen Rationalität beschreiben, bewerten und umgestalten. Ein radikaler Positivismus, der den Dingen keinen Rest zugesteht, welcher sich einer rationalen Erschließung und Verfügbarmachung entzöge, sieht in der menschlichen Fähigkeit des Vernunftgebrauchs das Potential, sich des Universums und auch des Menschen vollends zu bemächtigen. Des Zusammenhangs zwischen Wissen und Macht ist Kurzweil sich bewusst, wenn er als letzten Satz seines Buches schreibt: „Dieser Fortschritt wird andauern, bis das ganze Universum in unseren Händen ist.“469 Ebd., S. 505.
469
138
2.3 Transhumanismus: Die Optimierung des Menschen
Optimierung des Menschen Transhumanistische Entwürfe streben eine Überwindung der defizitären Grundanlagen des Menschen an. Dazu gehören Krankheit, Tod, Böses, Unwissenheit und seine leiblichen Grenzen. Dass das Sich-Abfinden mit der Endlichkeit des Lebens und eine Lebensgestaltung unter dem Bewusstsein der Sterblichkeit eine Notwendigkeit für einen gelingenden Lebensentwurf ist, gilt nicht für den Ansatz des Transhumanismus, wenn Kurzweil über den Tod sagt: „Ich sehe Krankheit und Tod als Ärgernis, als Probleme, die es zu lösen gilt.“470 Die Grenzen des Menschen sind dazu da, um überwunden zu werden. Lebenssinn konstituiert sich für den Menschen nicht innerhalb dieser Grenzen, sondern seine Bestimmung liegt genau darin, sie zu überschreiten und sich nicht mit den Grenzen seiner Natur zufriedenzugeben. Technik kann den Menschen „besser“ machen, kann ihn optimieren, kann ihn über seine Grenzen führen. Der Imperativ zur Optimierung ist dabei absolut. Für Moravec und Kurzweil impliziert der Imperativ der Optimierung auch die Bereitschaft, die leibliche Konstitution des Menschen aufzugeben. Letztlich muss der Mensch sich selbst als dysfunktional erkennen und sich von seiner biologisch-leiblichen Struktur verabschieden. Der Mensch muss als seine letzte Aufgabe den nächsten Schritt der Evolution ermöglichen, indem er etwas schafft, das ihn überwindet. evolutionärer Artenkampf und Sozialdarwinismus Explizit wird als Begründungsstruktur für transhumanistische Argumentationen der Verweis auf die biologische Evolution der Lebewesen geliefert. Nach dem biologischen Artenkampf wäre demnach der nächste Schritt der Evolution nach dem Menschen die vom Menschen geschaffene autonome Technik, welcher erst gelänge, sich gegenüber dem organischen Leben durchzusetzen. Mit dem Abschied von der organischen, biologischen Struktur des Lebens wäre auch eine Überwindung von Sterblichkeit, Leid, moralischen Verfehlungen, Egoismus, Angst usw. erreicht, denn diese mangelhaften Attribute haften dem Menschen aufgrund seiner körperlichen defizitären Beschaffenheit an, welche sich im evolutionären Artenkampf entwickeln mussten. Transhumanistische Argumentationen beziehen sich daher in einem starken Maß auf eine darwinistische und teilweise auch sozialdarwinistische Sicht auf den Wert von Leben.471 Hans Moravec stellt menschliche Gesellschaften unter die normative Bestimmung des Wettbewerbs und permanenten Überlebenskampfes, dessen Erfolg nur durch technologischen Kurzweil: Menschheit 2.0, a. a. O., S. 211. Vgl. Vogt, Markus: Sozialdarwinismus. Wissenschaftstheorie, politische und theologisch-ethische Aspekte der Evolutionstheorie, Freiburg im Breisgau 1997.
470 471
139
2 Künstliche Intelligenz und Transhumanismus
Fortschritt und uneingeschränktes Wachstum garantiert werden könne.472 Unter jenes wird auch das Wesen des Menschen gestellt, wenn Kurzweil davon ausgeht, dass Prozesse von Enhancement in allen Ebenen des Menschseins die notwendigen Folgen gesellschaftlichen Fortschritts sein werden.473 Damit wird argumentativ eine Skalierbarkeit gesichert: Wer durch technologischen Fortschritt stark genug sein wird, um nicht durch Anderes verdrängt zu werden, bleibt. Alle Ebenen des Menschseins müssen immer weiter technologisch optimiert werden, um den Anschluss nicht zu verlieren. „Der Kampf um unser Überleben wird zu einer neuen Art kosmischer Olympiade, die jedes Jahr neue Wettkämpfe und neue Rekorde bringt. Obwohl wir unsterblich sind, müssen wir Stück für Stück sterben, wenn wir uns fürs Überleben qualifizieren wollen.“474 Kurzweil knüpft in seinen Argumentationen an Moravec an und leitet normative Bestimmungen der technologischen Entwicklungen von der evolutionsbiologischen Beschreibung des Artenkampfes ab. „Die natürliche Auslese schuf den Menschen, der Mensch erschuf die Technik, Mensch und Technik arbeiten nun zusammen an der nächsten technologischen Generation. In der Singularität wird zwischen Mensch und Technik keine Trennung mehr bestehen – nicht weil Menschen zu Maschinen werden, sondern weil Maschinen wie Menschen (und noch viel mehr) werden.“475
Moravec und Kurzweil beziehen sich in der Rechtfertigung ihres Ansatzes auf evolutionsbiologische Begründungsstrukturen einer Bestimmung des Menschen. Indem transhumanistische Entwürfe jedoch nicht bei der Biologie stehen bleiben, um einer gewissen Art oder Rasse den Vorzug in der Frage um das Überleben zu gehen, sondern das biologische Leben selbst als gegenüber dem technischen Produkt weniger lebenswert und mangelhaft bewerten, gehen sie über den Darwinismus hinaus. Zwar übernehmen sie von der darwinistischen Tradition den Wettbewerbsgedanken und den Kampf um das Überleben, doch zeigt sich darin auch eine Ablehnung von Leiblichkeit, die geistesgeschichtlich an platonische und religiöse Ideen erinnert. Leib, Affekt und personale Individualität verlieren demnach gegenüber dem Körperlosen, Rationalen und Universellen an Bedeutung. Während der Körper, das Gefühl und der Einzelne der Vergänglichkeit unterworfen sind, bleiben die Ideen, die logischen Einsichten und die allgemeinen Wahrheiten auch unabhängig vom Menschen bestehen. Die menschliche Moravec, Hans: Mind Children, a. a. O., S. 141f. Kurzweil: Menschheit 2.0, a. a. O., S. 303ff. 474 Moravec, Hans: Mind Children, a. a. O., S. 169. 475 Ebd., S. 41. 472 473
140
2.3 Transhumanismus: Die Optimierung des Menschen
Sehnsucht nach Ewigkeit findet hierin ihre Ausformulierung. Im Transhumanismus zeigt sie sich in der Unvergänglichkeit der immer wieder replizierbaren und reproduzierbaren Technik, in einer absolut ungefärbten logischen Rationalität des Algorithmus und in einer verallgemeinernden Universalität der arithmetischen Architektur, in welcher künstliche Intelligenz operieren kann. Primat der Wirtschaftlichkeit Die Fitnessfunktion im evolutionären Artenkampf wird für die technische Evolution übertragen in einen kompetitiven Ansatz: Leistungsfähigkeit und Effizienz von Individuen und Gesellschaften werden unter der Prämisse marktliberalen Wettbewerbs zu den bestimmenden Faktoren für die technische Entwicklung. Der Rekurs auf den evolutionären Artenkampf erfährt durch eine marktliberale Grundgesinnung transhumanistischer Autoren wie Moravec und Kurzweil eine Neudeutung im Sinne des kapitalistischen Wettbewerbsprinzips. Indem Kurzweil den marktwirtschaftlichen Wettbewerb und das Prinzip der Wirtschaftlichkeit und Gewinnmaximierung als gegenwärtige Selektionskriterien des Artenkampfs hinstellt, wird alle technologische Entwicklung zunächst unter kapitalistischen, marktwirtschaftlichen Gesichtspunkten bewertet: „Der Erfolgsmaßstab der technischen Evolution ist Wirtschaftlichkeit.“476 Moravec und Kurzweil konnotieren den biologischen Artenkampf der Lebewesen mit marktwirtschaftlichen Prinzipien, die dazu führen, dass menschliche Gesellschaften untereinander unter denselben Bestimmungen stehen wie im evolutionären Artenkampf die verschiedenen Arten von Lebewesen.477 Kurzweil sieht die Gesetzmäßigkeit der technologischen Weiterentwicklung an marktwirtschaftliche Prinzipien kapitalistischer Gesellschaften geknüpft. Als Pendant zum biologischen Artenkampf erweist sich bei Kurzweil das Gesetz der ökonomischen Wirtschaftlichkeit: „Der Wachstumsdruck des freien Marktes ist die treibende Kraft hinter der technischen Entwicklung und dem Gesetz vom steigenden Ertragszuwachs. Letzteres wirkt sich wiederum auf wirtschaftliche Zusammenhänge aus. Wachstumsdruck ist das Pendant zur natürlichen Auslese in der biologischen Evolution. Der Übergang zu immer intelligenteren und kleineren Maschinen ist das Ergebnis unzähliger kleiner Entwicklungsschritte – und jeder Einzelne davon hat wirtschaftliche Gründe. Maschinen, die ihrem Zweck besser dienen, sind von größerem Wert, und darum werden sie gebaut. […] Um diese
476
Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 39. Vgl. Hans Moravec: Mind Children, Hamburg 1990, S. 141.
477
141
2 Künstliche Intelligenz und Transhumanismus Entwicklung aufzuhalten, müssten wir den Kapitalismus abschaffen und jeglichen freien Wettbewerb unterbinden.“478
Wachstumsdruck, im englischen Original „economic imperative“, kann in diesem Kontext auch mit Wirtschaftlichkeit übersetzt werden und zielt auf das marktwirtschaftliche Prinzip der Gewinnmaximierung. Es tritt in kapitalistischen Gesellschaften an die Stelle des Überlebenskampfes der Lebewesen in der biologischen Evolution. Kurzweil überträgt so die Grundprinzipien der biologischen Evolutionstheorie auf die Bedingungen marktwirtschaftlichen Wettbewerbs: „Der Erfolgsmaßstab der technischen Evolution ist Wirtschaftlichkeit.“479 Evolutionsbiologisch ist das Ziel der Organismen im Artenkampf, möglichst viele überlebensfähige Nachkommen zu hinterlassen, um sich im Artenkampf durchzusetzen. Kurzweil verbindet die Prinzipien der Marktökonomie mit der Lehre vom Artenkampf und stellt somit marktwirtschaftlichen Wettbewerb unter Bestimmungen existentiellen Überlebenskampfs. Indem Kurzweil deskriptive Aspekte der Evolutionsbiologie mit dem technologischen Fortschrittsprogramm verbindet und dieses normativ als Aufgabe des Menschen formuliert, fallen seine Entwürfe auch in den Bereich sozialdarwinistischer Argumentation.480 Vermeidung der Verantwortungsfrage Technologische Entwicklung wird von Moravec und Kurzweil als Naturgesetzlichkeit dargestellt und nicht unter dem Vorbehalt der Verhandelbarkeit diskutiert. Indem die technologischen Entwicklungen von Kurzweil mit den Begrifflichkeiten von Naturgesetzen481 und „Schicksal“482 vorgezeichnet werden, wird aus einer Option eine Notwendigkeit. Statt rational und kritisch in demokratischen Diskursen die Möglichkeiten, Potentiale und Gefahren abzuwägen und in Kontexten alltäglicher Entscheidungs- und Handlungspraxis um vernünftige Vermittlungen für sinnvolle Anwendungen und ethische Grenzen von Forschung zu suchen, Ebd., S. 94f. Ebd., S. 39. 480 Vgl. hierzu Vogt, Markus: Sozialdarwinismus. Wissenschaftstheorie, politische und theologisch-ethische Aspekte der Evolutionstheorie, Freiburg im Breisgau 1997. Vogt stellt systematisch die Übertragung der von Darwin beschriebenen Prozesse auf die Bereiche von Ethik und Gesellschaftstheorie dar. Ausgehend von der Reflexion auf die Zuspitzung einer sozialdarwinistischen Gesellschaftstheorie in den Rassentheorien des 20. Jahrhunderts (ebd., S. 260–306) entwickelt Vogt eine transzendentalphilosophische Begründung von einer Ethik der Unverfügbarkeit des Menschen als philosophische Antwort (ebd., S. 333–359). 481 Vgl. Kurzweil: Menschheit 2.0, S. 56ff. 482 Ebd., S. 349. 478
479
142
2.3 Transhumanismus: Die Optimierung des Menschen
wird die technologische Entwicklung als eine übergeordnete, schicksalshafte Dynamik dargestellt, deren Eintreffen ohnehin nicht verhindert werden kann. Moravec und Kurzweil umgehen damit die Frage nach der Verantwortung für technische Erfindungen und Anwendungen. Da die Entwicklungen ohnehin unausweichlich sind, erübrigt sich eine normative Debatte. Kurzweil stellt eine unreflektierte, zwanghafte Anwendung von Technik zur Selbstoptimierung des Menschen als notwendige, unausweichliche Zukunftsentwicklung dar. Kurzweil stellt den Menschen damit ganz unter die Kriterien technischer Funktionalität. Wissenschaftlicher Fortschritt und seine Ausweitung auf den Menschen in allen Ebenen von Enhancement bilden eine schicksalhafte, unausweichliche Zukunft der Menschheit. So bezweifelt er prinzipielle Einschränkungen in der Weiterentwicklung der genetischen Forschung: „Aber die Gentechnik wird sich nicht aufhalten lassen – sie ist die Speerspitze unserer medizinischen Forschung, und die Liste gentechnisch erzielter Fortschritte wird immer länger.“483 Erste Anwendungen werden zwar nur für therapeutische Zwecke entwickelt. „Sobald eine Technologie zur Beseitigung eines Leidens entwickelt ist, lässt sich jedoch nicht verhindern, dass sie auch zur Steigerung normaler Fähigkeiten eingesetzt wird, und es wäre auch nicht unbedingt wünschenswert, dies zu verhindern.“484 In Bezug auf wissenschaftlichen Fortschritt und Enhancement-Potential stellt er nur ein Alles oder Nichts zur Auswahl. Moravec und Kurzweil stellen die Ebene technologischen Fortschritts unter die Bestimmung eines Entweder – Oder.485 Entweder die Menschheit verzichtet auf jeglichen technischen Fortschritt oder aber der technologische Fortschritt entwickelt sich ungebremst in seinen exponentiellen Dynamiken fort. Da ein Verzicht auf jeglichen Fortschritt keine realistische Option darstellt, schließen sie auf eine ungebremste Fortentwicklung. Ausgehend von der Annahme über die Unaufhaltsamkeit wissenschaftlichen Fortschritts blenden Moravec und Kurzweil Vermittlungs-, Entscheidungs- und Abwägungsprozesse aus, die in fachwissenschaftlichen, wissenschaftsethischen, gesellschaftlichen oder politischen Ebenen diskutiert werden könnten. Transhumanismus als Sendungsauftrag Als geistbegabte Wesen sind wir Menschen diejenigen, die eine Schlüsselrolle einnehmen können, um in der Erschaffung einer noch höheren Stufe der Evolution mithilfe von Technik das Universum seinem Schicksal entgegenzuführen und die Materie mit Intelligenz zu beleben.486 Ebd., S. 251. Kurzweil, Ray: Die Intelligenz der Evolution. Wenn Mensch und Computer verschmelzen, Köln 2016, S. 244. 485 Vgl. Moravec, Hans: Mind Children, a. a. O., S. 141f. Vgl. auch Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 429. 486 Vgl. Ray Kurzweil: Menschheit 2.0, Berlin 2014, S. 22, vgl. auch S. 349–376. 483
484
143
2 Künstliche Intelligenz und Transhumanismus
Die technologische Zukunftsvision nimmt damit die Sprache einer Art von Sendungsauftrag auf, die bereits an den Bereich religiöser Sinnorientierung grenzt.
2.3.4.3 Religiöse Motive im Transhumanismus Erlösungsphantasien und Technoreligiosität Die technologischen Entwicklungen künstlicher Intelligenz bieten zahlreiche Anwendungsmöglichkeiten mit praktischem Nutzen. Es ist jedoch fraglich, ob die Bestrebungen des Transhumanismus mit bloßem Nutzkalkül treffend analysiert werden können. Obwohl scheinbar einem aufklärerischen Ideal folgend, offenbart sich in den Versprechungen technologischer Fortschritte sowie im Anliegen, die biologischen Grenzen des Menschen zu überwinden, eine Erlösungshoffnung religiösen Charakters. Unsterblichkeit, Überwindung von Leid, Überwindung vom Bösen, Antwort auf die Orientierungslosigkeit des Menschen, Allwissenheit und Überwindung der leiblichen Grenzen des Menschen finden in den technologischen Zielsetzungen des Transhumanismus eine verdinglichte Entsprechung. Im Projekt, den Geist des Menschen nachzubauen und auf eine noch höhere Existenzform zu führen, schwingen Begriffe und Motive mit, die aus religiösen Kontexten entlehnt sind. Mit den Utopien der Überwindung von Leid und Krankheit bis zur Überwindung des Todes spielen transhumanistische Entwürfe auf traditionelle Topoi von religiöser Sprache an. Kurzweil bezeichnet sein Buch Menschheit 2.0 als „Geschichte vom Schicksal der Mensch-Maschinen-Zivilisation“487 und spricht in Bezug auf die technologische Weiterentwicklung vom „kosmischen Schicksal“.488 Die Singularität bezeichnet Kurzweil als „Transzendenz“ und stellt sie damit in einen Kontext religiöser Sinnorientierung.489 Moravec greift in seinen Darstellungen auf Begriffe wie „Unsterblichkeit“490, „Seelenwanderung“491 und „Auferstehung“492 zurück. Kurzweil stellt den religiösen Geltungsanspruch seines technologischen Projektes explizit dar: „Wir brauchen ohnehin eine neue Religion. Die Hauptfunktion von Religion war bisher, den Tod zu rationalisieren – etwas anderes blieb ja auch nicht übrig.“493 Die Unausweichlichkeit
Ebd., S. 5. Ebd., S. 349. 489 Ebd., S. 398. 490 Moravec, Hans: Mind Children, a. a. O., S.169. 491 Ebd., S. 151. 492 Ebd., S. 171. 493 Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 385. 487
488
144
2.3 Transhumanismus: Die Optimierung des Menschen
der technologischen Evolution deutet er teleologisch als Realisierung dessen, was im Begriff Gottes tradiert wurde: „Evolution bewegt sich unaufhaltsam in Richtung des Gottesbegriffs […]. Wir können die Befreiung unseres Denkens aus den engen Banden seiner biologischen Form somit als spirituelles Unternehmen auffassen.“494 Nach Ray Kurzweil „bewegt sich Evolution stets in Richtung größerer Komplexität, größerer Eleganz, größeren Wissens, größerer Intelligenz, größerer Schönheit, größerer Kreativität, größerer Liebe. Und Gott wurde durch all diese Dinge charakterisiert, mit einem Unterschied: unendliches Wissen, unendliche Intelligenz, unendliche Schönheit, unendliche Kreativität, unendliche Liebe. Evolution erreicht keine Unendlichkeit, doch mit ihrer exponentiellen Explosion bewegt sie sich gewiss in diese Richtung. Evolution bewegt sich also unaufhaltsam in Richtung dessen, was wir als Gott verstehen, erreicht jedoch nie völlig dieses Ideal.“495 Technologische Evolution wird damit unter die Bestimmung religiöser Sinnorientierung gestellt. Der Begriff der Evolution wird bei Kurzweil losgelöst von seinem biologischen Kontext des Artenkampfes und übertragen auf eine Ebene religiöser Idealität. Transzendenz bedeutet im Sinne des Transhumanismus, Begrenztheiten des menschlichen Lebens zu überwinden. Transhumanistische Konzepte charakterisieren diese Grenzen nicht als sinnkonstitutiv, sondern als defizitär, mangelhaft und überwindbar. Zu diesen Grenzen gehören die existentielle normative Orientierungslosigkeit des Menschen, die Verletzlichkeit und Fragilität der leiblichen Existenz sowie das Bewusstsein um die Endlichkeit und Unwiederbringlichkeit des menschlichen Lebens. Die Unsicherheit des Gewissens, um eine Unterscheidung zwischen Richtig und Falsch, zwischen Gut und Böse ringen zu müssen, die Suche nach einer Antwort auf die Frage Kants „Was soll ich tun?“ findet eine Entsprechung im Konzept einer rationalen Superintelligenz, deren Handlungsmotive nicht von Angst oder Egoismus gefärbt wären, sondern welche in der Lage wäre, die bestmögliche Handlungsoption zu berechnen und somit Orientierung für die Entwicklung von immer komplexeren Gesellschaften zu geben. Der Mensch wäre damit von der Last seines Gewissens befreit.496 Die Grenzen des menschlichen Wissens sollen durch einen Zugriff auf eine stetig wachsende Datenmenge über eine immer genauer vermessene Welt grenzenlos ausgeweitet werden. Erkenntnisgrenzen und Aspekte der Unwissenheit des Menschen werden durch eine nahezu perfekte Berechnung und Kontrolle der Welt abgelöst. In der umfassenden technologischen Optimierung des Menschen artikuliert sich der Wunsch nach einer Überwindung von Krankheit und Leiden, Schmerz und Verletzlichkeit
Ebd., S. 400. Ebd., S. 493f. 496 Markus Gabriel deutet derlei technische Entwürfe als „Entlastungsphantasien der Moderne.“ Vgl. Markus Gabriel: Ich ist nicht Gehirn, a. a. O., S. 323. 494 495
145
2 Künstliche Intelligenz und Transhumanismus
des Menschen, bis hin zur Erlösung von Tod und Vergänglichkeit der menschlichen Existenz durch Gehirn-Upload und Persönlichkeits-Transfer auf eine künstliche Hardware. Damit wird letztlich der Leib als Gefängnis der Seele überwunden. Eine semantische Nähe von transhumanistischen Entwürfen zu religiöser Sprache sieht auch Yuval Noah Harari, wenn er die weltanschaulichen Grundlagen des Transhumanismus als „Dataismus“ bezeichnet und ihren Sprachstil „messianisch“ nennt.497 Einlösungsversprechen traditioneller religiös-transzendenter Hoffnungen Das Versprechen, der Mensch könne mithilfe der Technologie seine biologischen Grenzen überwinden, mündet in der Möglichkeit von Unsterblichkeit. Indem der Mensch die Daten, welche sein Bewusstsein und seine Persönlichkeit ausmachen, hochladen kann, transzendiert er aus seiner leiblich-zeitlichen Begrenztheit in ein höheres Bewusstsein, das nicht mehr der Sterblichkeit und Begrenztheit menschlicher Existenz ausgesetzt ist.498 Auch das Ende von Krankheiten wird vorgezeichnet.499 Tod, Krankheit und das Böse sollen ihren Schrecken für den Menschen verlieren. Selbst die Überwindung des Bösen, der moralischen Fehlbarkeit wird mitunter postuliert. Künstliche Intelligenz könnte weniger egoistisch, rationaler, altruistischer werden, wenn wir sie dahingehend programmieren und somit den Egoismus, mit dem der Mensch sich in der Evolution durchsetzen musste, überwinden. Diesen Gedanken formuliert z. B. Thomas Metzinger aus: „Wenn wir wollen, dass es weiterhin Geist auf diesem Planeten gibt, dann könnten wir versuchen, postbiotische Intelligenzen zu erschaffen, die nicht leidensfähig sind und keinerlei Todesangst haben.“500 Der Transhumanismus hat damit die transzendentalen und religiösen Grundsehnsüchte des Menschen aufgegriffen. Dazu gehören Aspekte von Allwissenheit, Allgegenwart, Befreiung von Krankheit, Befreiung von der Fähigkeit zum Bösen, Befreiung vom Tod, Unsterblichkeit und Befreiung von den leiblich-biologischen Grenzen. Nach dem Abschied der Transzendenz
Yuval Noah Harari: Homo Deus. Eine Geschichte von Morgen, München 2017, S. 516. So interpretiert Harari z. B. auch den Titel von Kurzweils englischsprachigem Original The Singularity is Near, in welchem er einen Anklang an den Beginn der neutestamentlichen Evangelien hört: „das Himmelreich ist nahe herbeigekommen“ (Matthäus 3,2); vgl. Harari 2017, a. a. O., S. 516. 498 Vgl. Kurzweil: Menschheit 2.0, a. a. O., S. 329ff. Vgl. Kurzweil, Ray: Transcend. Nine Steps to Living Well Forever, 2009. 499 Kurzweil: Menschheit 2.0, a. a. O., S. 212ff. 500 Thomas Metzinger in einem Interview mit Terra Mater 03/2017, S. 134–138, dort S. 136. Dies wird bspw. möglich, wenn „wir ihr eine Art normativer Firmware implementieren, also einen Satz von Werten und Rechenregeln, den sie nicht verändern kann.“ (ebd., S. 136f). 497
146
2.3 Transhumanismus: Die Optimierung des Menschen
durch einen materialistischen Szientismus sollen alte Sehnsüchte der Menschheit nun doch eine technologische Realisierbarkeit finden. Indem in transhumanistischen Utopien an Erlösungsansprüche religiöser Sinntraditionen angeknüpft wird, erfährt die materialistische Weltanschauung eine neoreligiöse Überformung. Sinnstiftende Transzendenz ist nicht mehr außerhalb der Verdinglichung zu finden, sondern die Verdinglichung von Geist wird zur Programmatik sinnstiftender Transzendenz. Dazu gehören Sterblichkeit und Tod, dazu gehört aber auch die leiblich-zeitliche Begrenztheit personaler Individualität. In verschiedenen Dimensionen lassen sich Relikte religiöser Sprache in transhumanistischen Entwürfen wiederfinden. So kann Kurzweil „Singularität als Transzendenz“ bezeichnen.501 Transzendenz weist in diesem Sinn über den Menschen hinaus: Seine biologischen Begrenzungen sollen überwunden werden. Wenn die Verknüpfung der eigenen Identität mit einer allgegenwärtigen Wissenssphäre via Internet möglich wird, die nach Autoren wie Kurzweil sogar über die leibliche Sterblichkeit hinaus transzendiert werden kann, dann sind die klassischen göttlichen Attribute der Allwissenheit, Allgegenwart und Unsterblichkeit nunmehr für den Menschen technisch realisierbar. Mit dem Angebot des Transhumanismus sollen die transzendenten religiösen Sehnsüchte dem Menschen zur instrumentellen Verfügung angeboten werden: die Aufhebung der Erkenntnisgrenzen, die Entkopplung von einer räumlichen und zeitlichen existentiellen Bedingtheit, die Überwindung von Krankheit und Leid, die Überwindung der moralischen Orientierungslosigkeit des Menschen und des Bösen, die Loslösung von den Grenzen der Leiblichkeit, die Aufhebung der Begrenztheit des Lebens als Überwindung des Todes. Anstelle einer unverfügbaren, transzendenten Verheißung werden diese Versprechen nun praktisch einlösbar. Mit den technischen Möglichkeiten, die im Zuge der Entwicklungen von künstlicher Intelligenz, Genetik, Robotik und Nanotechnik möglich sind, soll menschliches Bewusstsein nicht nur nachgebildet werden, sondern auch mit den kreierten digitalen Plattformen, auf denen Bewusstsein sich entfalten kann, eine Möglichkeit für den natürlichen Menschen geschaffen werden, um seine leiblich-existentiellen Begrenzungen zu überwinden. Mit der Überwindung von Krankheit und Tod und sogar der Möglichkeit der Erlösung von der Möglichkeit des Bösen soll dem Menschen auch im Diesseits nachweisbar das zu leben möglich werden, was in der Religion für das Jenseits verheißen war. Jeder Negativität und Begrenzung steht nun eine transhumanistische Option ihrer Überwindung entgegen. Die Grenzen menschlicher Erkenntnis und Einsicht sollen einer absoluten Transparenz, Allsichtbarkeit und Allwissenheit weichen. Die Grenzen menschlicher Gestaltungsmöglichkeit sollen soweit erweitert werden, dass Machbarkeitsphantasien sich einer praktischen Allmacht immer weiter annähern. Die existentielle räumliche Eingrenzung des menschlichen Handlungsrahmens durch seine Leiblichkeit wird Kurzweil, Ray: Menschheit 2.0, a. a. O, S. 398.
501
147
2 Künstliche Intelligenz und Transhumanismus
ersetzt durch die Möglichkeit, mithilfe von virtuellen Welten und digitaler Vernetzung die leiblichen Grenzen zu überwinden und global-vernetzt, potentiell quasi omnipräsent zu agieren. Der Tod wird nicht mehr als sinnkonstitutive Grenze gedeutet, vor dessen Hintergrund in der menschlichen Lebenspraxis um sinnvolle Handlungsoptionen errungen werden muss, sondern als Problem, das endlich gelöst werden muss.502 Auch Entwürfe für die Überwindung des Bösen, der menschlichen moralischen Fehlbarkeit und Selbstsucht, werden in transhumanistischen Visionen formuliert. Allsichtbarkeit und Allwissenheit Absolute Transparenz aller Geschehnisse in unserer Welt, von detailliertesten Satellitenbildern bis hin zur vernetzten Analyse von Videoüberwachung mit Gesichtserkennung: Die wachsenden technologischen Möglichkeiten einer vernetzten Welt formen in ihrer Gesamtheit immer mehr das Bild einer gläsernen Welt, in der es keine Geheimnisse und keine Privatsphäre mehr gibt. Die absolute Transparenz bietet mit der Perspektive, dass kein Verbrechen und keine Menschenrechtsverletzung mehr unenthüllt sein wird, die technologische Nachbildung einer Instanz, vor der nichts verborgen bleibt, was geschieht, und durch die irgendwann eine Verantwortung für individuelles Handeln eingefordert werden kann, das sonst verborgen bliebe. Was in der traditionellen religiösen Sprache durch das eigene Gewissen und das Bewusstsein, dass vor einer richtenden Instanz für das eigene Leben Rechenschaft abgegeben werden muss, formuliert wurde, wird nun zum Element einer Allsichtbarkeit mit der Möglichkeit für juristische Konsequenzen im Diesseits. Auch der Einzelne kann durch die Möglichkeiten der vernetzten Omnipräsenz von Videokameras u. ä. Zuschauer sein in dem Spektakel der visuellen Teilhabe an anderen Orten. Jedes Individuum kann somit zu einem schauenden, allgegenwärtigen Gott werden, zu einem alles sehenden Auge.503 Damit einher geht der Zugriff auf das gesammelte Wissen der Menschheit. Wenn alles Wissen dieser Welt formalisiert und für jeden Menschen zugänglich wird, indem unser Nervensystem mit digitalen Wissensdatenbanken verschaltet und vernetzt wird, dann erreicht der so aufgerüstete Mensch eine Form maximaler objektivierter Allwissenheit im Sinne einer nahezu absoluten Aufklärung mit mathematisch größtmöglicher Genauigkeit. Doch das Versprechen einer Vernetzung mit den gesammelten Informationen der Menschheit suggeriert, dass Wissen und Erkenntnis über die Welt letztlich nicht mehr wesensmäßig begrenzt sein wird,
Ebd., S. 210f. Darauf spielt Dave Eggers in seinem Roman The Circle (New York 2014) an: „Now all humans will have the eyes of God.“ (S. 398) In dem Roman wird die Dystopie einer vollständig transparenten digitalen Gesellschaft entwickelt. Vgl. Kap. 3.2. und 3.3. dieser Arbeit.
502 503
148
2.3 Transhumanismus: Die Optimierung des Menschen
sondern dass über jeden Gegenstand in dieser Welt und jeden Menschen eine so große Menge objektivierbares und abrufbares Wissen bereitgestellt werden kann, dass die dem bloßen Auge verborgenen Attribute und Gesetzmäßigkeiten für den digital vernetzten Menschen sämtlich entschlüsselbar und einsehbar sein könnten.504 Unsterblichkeit, Überwindung des Todes und der leiblich-existentiellen Grenzen Die Möglichkeit der Vernetzung eines Gehirns mit einer virtuellen Welt, bzw. mit digitalen Systemen weltweit ermöglicht in einem ersten Sinn die Aufhebung der existentiellen Grenzen menschlicher Leiblichkeit. Die virtuelle Welt und ihre Simulationen ermöglichen eine Überwindung der phänomenalen Beschränkung des Leibes im Raum, nur an einem Ort konkret handeln zu können. In diesem Sinn soll auch das Problem des Todes gelöst werden. Alterungsprozesse sollen mithilfe von Nanomedizin u. ä. praktisch aufzuhalten sein, indem Zelldegenerationsprozesse durch Regeneration und Zellreparaturen kompensiert werden. Zu der Option der Lebensverlängerung durch die immense Weiterentwicklung medizinischer Möglichkeiten soll die Möglichkeit kommen, mithilfe eines Gehirn-Scans und eines Gehirn-Uploads das eigene Bewusstsein und die eigene Personalität auf eine posthumane Plattform hochzuladen. Damit wäre auch die existentielle Bedingtheit zeitlicher Beschränkung des menschlichen Lebens überwunden. Ein solches Transzendieren des menschlichen Bewusstseins, losgelöst vom eigenen Körper in einer optimierten technologischen Fassung weiterzuleben, soll dem alten platonischen Traum der Loslösung der Seele aus den Fesseln des Körpers nun eine praktische Möglichkeit zur Realisierung geben. „Es steht zu erwarten, dass eine volle Entfaltung der Bio- und Nanotechnik praktisch alle natürlichen Todesursachen beseitigen wird. Indem wir zu einer nichtbiologischen Existenzform übergehen, erhalten wir die Möglichkeit uns selbst zu ‚backupen‘ (Sicherungskopien jener Muster zu erstellen, welche unser Wissen, unsere Fähigkeiten und unsere Persönlichkeit ausmachen), und somit die meisten uns bekannten Todesursachen auszuschließen.“505 Einen solchen „Übergang zur nichtbiologischen Existenz“ skizzieren Moravec und Kurzweil mit der Möglichkeit eines „Gehirn-Uploads“.506 Die Loslösung des menschlichen Geistes von seiner biologisch-leiblichen Konstitution resultiert für Kurzweil in einer Befreiung seiner Grenzen. „Letzten Endes werden Software-Menschen weit über die engen Beschränkungen heutiger Menschen hinaus erweitert werden. Sie werden im Netz leben und Körper projizieren, Vgl. Kurzweil, Ray: Menschheit 2.0, a. a. O, S. 342f. Ebd., S. 328f. 506 Ebd., S. 329. 504
505
149
2 Künstliche Intelligenz und Transhumanismus wann immer sie es müssen oder wollen […]. Gegen Mitte des einundzwanzigsten Jahrhunderts werden Menschen ihr Denken grenzenlos erweitern können.“507
Überwindung des Bösen Transhumanistische Utopisten sehen verschiedene Ansätze für die Überwindung des Bösen. Eine Option wäre die Erschaffung einer Superintelligenz, die als omnipräsente Richter- und Lenkungsinstanz an die Stelle eines unsichtbaren Gottes treten würde. Diesem Szenario folgt Nick Bostrom in seinem Buch Superintelligence, das bereits im letzten Kapitel vorgestellt wurde.508 Er skizziert darin die Möglichkeit eines Supercomputers, welcher mit seiner Rechenleistung und seinem gebündelten Weltwissen in die Lage versetzt werden soll, die Probleme der Menschheit zu lösen. Bostrom greift darin auch Gefahren und Risiken auf, die sich durch die IT-Architektur für eine künstliche Superintelligenz ergeben könnten, wenn diese nicht nur sich selbst überlassen bliebe, sondern zur Verfolgung der eigenen Ziele tatsächlich wirkungsvoll in die Welt eingreifen kann.509 Für die Menschheit ergibt sich damit das Potential einer altruistisch-rationalen „Weltregierung“510, aber auch die Gefährdung durch eine andersartige Macht, welche gegebenenfalls den Wert des biologischen Lebens in seiner Verletzlichkeit nicht durch Empathie zu schätzen wissen könnte.511 Eine andere Aussicht auf die Überwindung des Bösen bestände in der Kreation postbiotischer Intelligenzen, deren Rationalität nicht durch Angst, Selbstbehauptungstrieb oder ähnliche defizitäre Triebstrukturen getrübt wäre, welche sich beim Menschen aufgrund seiner evolutionären Genese als grundlegende Antriebskräfte seines Handelns entwickeln mussten, um sich im Artenkampf behaupten zu können. Technische autonome Intelligenzen könnten vom Menschen „humaner“ konstruiert werden als Menschen, indem moralisches und rücksichtsvolles Handeln als Grundlage des robotoiden Handelns einprogrammiert wäre. Der Mensch würde sich dann in diese neue Gesellschaftsstruktur einfügen – oder von den postbiotischen Intelligenzen vernichtet werden, womit auch das Problem des Bösen gelöst wäre. Der Mensch hätte somit das Beste seines Wesens, die Essenz seines Geistes, an eine nach ihm kommende Generation besserer Kreaturen abgegeben und könnte sich nun getrost zurücknehmen. Die existentielle Orientierungslosigkeit des Menschen könnte somit
Ebd., S. 330. Bostrom, Nick: Superintelligence. Paths, Dangers, Strategies, Oxford 2014. 509 Ebd., S. 95ff, vgl. auch S. 159ff. 510 Bhaumik, Arkapravo: From AI to Robotics. Mobile, Social and Sentient Robots, Cornwall 2018, S. 350. 511 Vgl. zum Motiv der Artifiziellen Superintelligenz bei verschiedenen transhumanistischen Autoren auch Loh, Janina: Trans- und Posthumanismus, a. a. O., S. 112–118. 507
508
150
2.3 Transhumanismus: Die Optimierung des Menschen
durch die technologische Neuschöpfung einer ethisch saubereren, reineren Intelligenz überwunden werden. Allmacht und Schöpfung Gottes Transhumanistische Entwürfe sehen keine Grenzen des Fortschritts vor. Die Potentiale der Welterschließung durch die menschliche Rationalität sind prinzipiell unbegrenzt. Stattdessen liegen die Schlüssel für bisher dem menschlichen Zugriff verschlossene Bereiche des Lebens bereits in der Reichweite unserer Forschung. Die Entschlüsselung des Lebens und die Möglichkeiten der Re-, De- und Neukonstruktion des menschlichen Erbgutes ermöglichen einen direkten technischen Zugriff auf die Wurzeln des Lebens. Mithilfe von Nanotechnik, Nanomedizin und Nanorobotik könnte eine Umformung der organischen Materie möglich werden, hin zu einer vollständigen Verfügbarmachung des organischen Lebens für einen technischinstrumentellen Zugriff. Selbst neues Leben schaffen zu können und das bestehende Leben neu zu gestalten, läge damit in der Greifweite der technischen Rationalität. Darunter fällt auch die Idee Gottes, wenn Kurzweil sagt: „Existiert Gott? Ich würde sagen: Noch nicht.“512 Kurzweil sieht in der Weiterführung der technologischen Evolution die Aufgabe des Menschen, das Universum zu spiritualisieren. „Wir gehen davon aus, dass Menschen bewusst sind, zumindest, wenn sie sich entsprechend verhalten. Am anderen Ende des Spektrums steht die einfache Maschine, welcher wir kein Bewusstsein zusprechen. Kosmologisch betrachtet verhält sich das Universum derzeit eher wie eine einfache Maschine als wie ein bewusstes Wesen. Doch wie im vorigen Kapitel besprochen werden Intelligenz, Wissen, Kreativität, Schönheit und emotionale Intelligenz (zum Beispiel die Fähigkeit zu lieben) unserer Mensch-Maschinen-Zivilisation die Materie und Energie in unserer Umgebung erfüllen. Dann wird sich unsere Zivilisation weiter ausbreiten und sämtliche dumme Materie und Energie, die sie finden kann, in intelligente – transzendente – Materie und Energie verwandeln. In gewisser Weise könnte man sagen, dass die Singularität das Universum mit Geist erfüllen wird.“513 Kurzweil macht damit die Idee eines allgegenwärtigen Gottes zum technologischen Projekt: „Wenn wir die gesamte Materie und Energie des Weltalls mit unserer Intelligenz gesättigt haben, wird das Universum ‚erwachen‘, bewusst werden – und über fantastische Intelligenz verfügen. Das kommt, denke ich, Gott schon ziemlich nahe.“514 Nach der restlosen Quantifizierung des Universums soll Materie durch intelligente Technik neu zur Transzendenz befähigt werden.
John Rennie: The Immortal Ambitions of Ray Kurzweil: A Review of Transcendent Man; in: Scientific American; February 15, 2011. 513 Menschheit 2.0, a. a. O., S. 400. 514 Ebd., S. 385. 512
151
2 Künstliche Intelligenz und Transhumanismus
2.3.4.4 Das Menschenbild im Transhumanismus Seinem Begriff nach weist der Transhumanismus über den Menschen hinaus. Er knüpft damit an eine Tradition abendländischer Philosophie an, die einerseits zwar den Menschen als Maß aller Dinge515 zur Grundbestimmung aller Orientierungsfragen heranzieht, andererseits ausgehend von der Beschäftigung mit dem Menschen über diesen hinausgeht und nicht bei diesem stehen bleiben kann. Das Wesen des Menschen scheint von ihm selbst wegzuweisen auf etwas, was größer wäre als er selbst.516 In Utopien des Transhumanismus wird dieses Spannungsfeld dadurch aufgelöst, dass die vom Menschen geschaffene Technik als dasjenige Element herausgestellt wird, welches als höchste Leistung des Menschen gilt. Gegenüber dem Natürlichen, Leiblichen, Triebhaften stellt sich die Technik als rational, funktional und weniger störanfällig dar als der Mensch selbst. Wenn es dem Menschen gelingen sollte, diejenigen Attribute, welche ihn bisher als Herren über die Technik einsetzen ließen, auf die Technik selbst zu übertragen, dann wäre der Mensch als Herr über die Technik obsolet. Bis zur Erschaffung von künstlicher Intelligenz war keine vom Menschen geschaffene Technik zur Autonomie, zum selbständigen Handeln und Agieren fähig. Künstliche Intelligenz bildet erstmals in der Geschichte der Menschheit das Potential, zum autonomen Agenten zu werden, dessen Entscheidungen auch ohne das Mitwirken des Menschen getroffen werden, idealerweise nach rationalen Kriterien. Vollständige Quantifizierbarkeit des Menschen Grundlage des Transhumanismus bildet ein vereinfachender Szientismus, dessen Credo sich mit knappen Worten so ausdrücken lässt, dass alles Wirkliche vom Menschen gemessen, verstanden, erklärt und nachgebildet werden kann. Dazu zählt letztlich auch die Personalität des Menschen: sein Ich, sein Selbst, sein Geist, bzw. seine Seele. Auch dessen essentielle Grundstruktur der Wirklichkeit ist mathematischer Art. So schreibt Moravec: „Ihr Geist ist die abstrakte mathematische Eigenschaft, die dem alten und dem umgeformten Programm gemeinsam ist. Sie hängt nicht von einer besonderen Form des Programms ab. Der Geist, wie ich ihn definiert habe, ist also nicht nur nicht an einen bestimmten Körper gebunden, er ist noch nicht einmal an eine bestimmte Struktur gebunden.“517 Protagoras, nach Sextus Empiricus, Adversus mathematicos, VII, zit. nach T. Schirren und T. Zinsmaier (Hg. u. Üs.): Die Sophisten, gr./dt., Stuttgart 2003, S. 43. Bereits zu Platons Zeiten prägte dieser Satz das Denken in der abendländischen Philosophie, vgl. Platon: Theaitetos, 152a, S. 31. 516 So deutet Heidegger den Mensch als Zeichen: „Auf dem Weg in das Sichentziehende ist der Mensch ein Zeichen.“ (M. Heidegger: Was heißt Denken?, Stuttgart 2010, S. 10.) 517 Hans Moravec: Mind Children, a. a. O., S. 168. 515
152
2.3 Transhumanismus: Die Optimierung des Menschen
Vorausgesetzt wird dabei eine Computermetapher des Geistes. Das entsprechende Kriterium für die Skalierung von Intelligenz ist Rechenleistung. Im Vergleich der Intelligenz von Organismen stellen Moravec und Kurzweil die „Leistungsfähigkeit in Bits pro Sekunde“ dar.518 Das US-amerikanische Telefonsystem liegt damit über der Intelligenz einer Maus.519 Geist erfährt bei Transhumanisten eine rein quantitative Bestimmung. Auch Moravecs und Kurzweils Vorstellungen der Möglichkeiten eines Gehirn-Scans und -Uploads gründen auf einer vereinfachenden Auffassung des Geistes als mathematisch-formale Abstraktion, welche letztlich als Datenmenge beliebig nachgebildet und in verschiedenen materiellen Strukturen als bewusster Akteur agieren kann. Die zunächst materialistische Auffassung des Gehirns wird hier mit einem dualistischen Bild eines bewussten Geistes gespeist, welcher seine Individualität und Bewusstseinsstruktur behalten kann, wenn die Daten des Gehirns hinreichend erfasst und übertragen werden können. Im Kern eines materialistischen Reduktionismus verbirgt sich damit doch eine dualistische Auffassung. Immer wieder rekurriert Kurzweil auf einen subtil vorausgesetzten Substanzdualismus, der trotz der materialistischen Auffassung durchklingt: So bezieht sich Kurzweil zur Beschreibung von Emotionalität auf den Neuroforscher Arthur Craig, wenn er den unteren ventromedialen Nucleus als „System, das die Substanz Ich darstellt“ beschreibt. 520 Einerseits setzt Kurzweil mit diesen Bezügen voraus, dass das Ich des Menschen als Substanz irgendwo lokalisiert werden könnte. Gleichzeitig geht er davon aus, dass mit einer technologischen Nachbildung oder Simulation des Gehirns der personale Kern, das Ich eines Menschen übertragen wird. Dem Verständnis der menschlichen Person geht dabei eine radikale materialistische und funktionalistische Verdinglichung von Seele und Geist voraus. Der Mensch als Maschine Wenn Menschen als Maschinen beschrieben werden, dann kann auch eine Maschine menschlich werden.521 Die Computermetapher wird von Kurzweil nicht nur explizit für das Gehirn angewendet,522 sondern auch für die DNS-Struktur des Lebens. Kurzweil bezeichnet diese als „Computer des Lebens“.523 „Nach Milliarden von Jahren erschuf sich die Evolution einen
Ebd., S. 81. Vgl. Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 68f. Hans Moravec: Mind Children, a. a. O., S. 81. 520 Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 194. 521 Ebd., S. 41. 522 Ebd., S. 149ff, S. 460f. 523 Ebd., S. 207. 518
519
153
2 Künstliche Intelligenz und Transhumanismus
Computer, um digitale Daten in Form von DNS-Molekülen zu speichern und zu verarbeiten.“524 Auch die genetische Struktur des Menschen wird durch eine Analogie mit einem Computercode gleichgesetzt: „Hinter all den Wundern des Lebens und all dem Elend durch Krankheiten stehen Informationsprozesse, Softwareprogramme im Grunde, die erstaunlich kompakt sind. Das gesamte menschliche Genom ist ein sequenzieller Binärcode mit nur etwa achthundert Millionen Bytes an Information.“525 Eingriffe in den genetischen Code interpretiert Kurzweil als „Umprogrammierung“. Gene werden also als deterministischer Programmcode aufgefasst. „Designer-Babys bedeuten nichts anderes als die Umprogrammierung von biologischen Informationsprozessen – doch sie sind immer noch biologisch und unterliegen entsprechenden Einschränkungen.“526 Kurzweil wehrt eine fundamentale Unterscheidung von biologischen Systemen und maschinellen Systemen ab.527 Er bezieht sich dabei auch auf Kritiken, die bereits gegen ihn entwickelt worden waren, wie z. B. von Michael Denton.528 Auch wenn er zugesteht, dass Maschinen weitestgehend modular aufgebaut sind, während sich die Komplexität und Dynamik organischen Lebens nicht in einer solchen Modularität erschöpft, sieht Kurzweil diese beiden „Systemarten“ in einem „Kontinuum“.529 Unterschiede akzeptiert Kurzweil nur als vorläufige, nicht als prinzipielle Einschränkungen: „Es ist jedoch ein völlig ungerechtfertigter Argumentationsspruch, aufgrund der derzeitigen (im Schwinden begriffenen!) Einschränkungen menschengemachter Technik zu behaupten, biologische Systeme seien inhärent – und sogar ontologisch – etwas anderes.“530 Maschinenmetapher des Geistes, Computermetapher des Gehirns Dem Vorwurf, das Gehirn wäre keine Maschine, begegnet Kurzweil wie folgt: „Es ist nicht berechtigt, ein System [das Gehirn], dessen logischer Algorithmus an den physischen Aufbau dieses Systems gebunden ist, als ‚keine Maschine‘ zu bezeichnen. Denn wenn wir die Funktionsweise dieses Systems verstehen, mathematisch modellieren und dann in einem anderen System reinstanziieren können […], so können wir auch ersteres System als Maschine betrachten, auf
Ebd. Ebd., S. 206. 526 Ebd., S. 226. 527 Ebd., S. 497f. 528 Denton, Michael: Organism and Machine: The Flawed Analogy, in: Richards, Jay W. u. a.: Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong A. I., Seattle / Washington 2002, S. 78–97. 529 Menschheit 2.0, a. a. O., s. 497. 530 Ebd., S. 500. 524 525
154
2.3 Transhumanismus: Die Optimierung des Menschen
alle Fälle aber als etwas, das in maschineller Form reproduzierbar ist.“531 Kurzweil argumentiert hier zirkulär: Indem er betont, dass das, worauf es ankommt, ein funktionales Muster ist, kommt er zu dem Schluss, dass wir es nachbilden können, indem wir das entsprechende funktionale Muster nachbauen. Das Wesen eines Dings entspricht seiner Funktion. Wenn wir seine Funktionsweise verstehen, verstehen wir alles. Wenn wir seine Funktion simulieren, dann bilden wir die Ganzheit seines Wesens ab. Nachdem zum Verständnis des menschlichen Gehirns ein mathematisch-formalisiertes Maschinenmodell entworfen wird, kann das biologische Gehirn mit diesem gleichgesetzt und wiederum als Maschine beschrieben werden. Eine solche funktionalistische Verdinglichung des Geistes blendet jede systematische erkenntnistheoretische Reflexion aus, die auf die Bedeutung des Subjekts oder der Beobachterperspektive im wissenschaftlichen Erkenntnisprozess reflektiert. Kurzweil reduziert den menschlichen Geist und menschliche Personalität damit auf funktionale Aspekte. Was darin nicht aufgeht, ist offenbar irrelevant. Nur oberflächlich geht Kurzweil daher auf „die lästige Bewusstseinsfrage“532 ein. „Oft wird von Bewusstsein gesprochen, als sei es eine offensichtliche Eigenschaft, die jederzeit erkannt und überprüft werden kann. Doch wenn wir eines über das Bewusstsein sagen können, so ist es folgendes: Es gibt keine beweiskräftige Tatsache, um sein Vorhandensein festzustellen.“533 Der Bewusstseinsbegriff geht in keiner objektivierenden oder funktionalen Beschreibung auf, sondern bildet erst die Voraussetzung für jede mögliche Objektivierung. Bewusstsein kann demnach nicht funktionalistisch nachgebildet werden. Für eine transhumanistische Anthropologie erweist sich der Begriff daher als sperrig, bzw. mit Kurzweils Worten: als „lästig“. Der Geist als mathematisches Muster Moravec deutet die Beschaffenheit des Geistes als abstrakt-mathematische Struktur: „Im Kapitel 4 habe ich den Gedanken entwickelt, dass der Geist eines Menschen eine Struktur ist, die sich auf viele verschiedene Körper oder Speichermedien übertragen lässt. Im weiteren Verlauf der Überlegung bin ich zu dem Schluss gekommen, dass der Geist durch unendlich viele verschiedene Strukturen repräsentiert werden kann, die nur in einer bestimmten abstrakt-mathematischen Hinsicht äquivalent sind. Die subjektiven Erfahrungen einer Person sind eine abstrakte Eigenschaft, die allen Strukturen dieser Klasse gemein sind. Die Person würde also, unabhängig von ihrer Struktur, mit der sie ausgerüstet ist, dasselbe empfinden. Das führt zu der Frage, warum der Geist, wenn er letztlich eine mathematische Abstraktion ist, eine materielle Ebd., S. 460f. Ebd., S. 386f. 533 Ebd., S. 388. 531
532
155
2 Künstliche Intelligenz und Transhumanismus
Gestalt braucht? Existieren mathematische Eigenschaften nicht auch, wenn sie zufälligerweise nirgends niedergeschrieben sind? Gibt es die milliardste Stelle von Pi nicht auch, selbst wenn es uns noch nicht gelungen ist, sie auszurechnen? Entsprechend lässt sich fragen, ob die abstrakten mathematischen Beziehungen, die die Gefühle einer Person ausmachen, nicht auch existieren, wenn es keine geeignete Hardware gibt, um das Programm auszuführen.“534 Der Mathematik wird von Moravec gegenüber der körperlichen Welt eine unhintergehbare Wirklichkeit und Substantialität zugeschrieben: die Zahl Pi existiert beispielsweise unabhängig von uns. Wenn Geist nur eine mathematische Struktur ist, braucht er gar keinen Körper. Auch Gefühle sind demnach „abstrakte mathematische Beziehungen“.535 Ähnlich charakterisiert auch Kurzweil den Geist des Menschen als „komplexes Muster“, welches in Form von Daten quantifiziert, formalisiert und nachgebildet werden kann: „Eine Person kann, ohne Abschätzigkeit, als komplexes Muster (eine Form von Wissen) betrachtet werden, das verloren geht, wenn der Mensch stirbt – zumindest ist das heute der Fall, da wir noch keine Möglichkeit haben, auf dieses Wissen zuzugreifen und Sicherungskopien zu erstellen.“536 Diesen Gedankengang wendet er auch auf sich selbst an, wenn er schreibt: „Ich bin ein sich entwickelndes Muster.“537 Ausgehend von dieser Abstraktion entwickelt Kurzweil eine Übertragung sämtlicher Begriffe des psychisch-phänomenalen Lebens des Menschen auf Maschinen: „Meine These lautet, dass zukünftige nichtbiologische Wesen, die über die Komplexität und die Muster des menschlichen Gehirns verfügen, über dieselbe Intelligenz und Emotionalität (zum Beispiel ‚Sehnsüchte‘) verfügen werden.“538 Auch Begriffe, die sich der Formalisierbarkeit entziehen, überträgt Kurzweil auf maschinelle Medien: „Wenn wir alle Vorgänge des Körpers und des Gehirns ausreichend genau emulieren und dann auf ein anderes Medium übertragen, warum sollte dieses Medium kein Bewusstsein haben?“539 In dieser materialistisch-reduktionistisch verfassten Sprache verbirgt sich eine dualistische Deutung des Menschen, dessen „Muster“ als personale Essenz losgelöst von ihrer leiblichen Struktur in andere Materie übertragen werden können, um eine Loslösung personaler Individualität von leiblicher Begrenztheit zu begründen.540 Der menschliche Geist wird dabei im Gehirn lokalisiert und mit diesem identifiziert. Eine erfolgreiche Vermessung und
Moravec, Hans: Mind Children, a. a. O., S. 240. Ebd. 536 Menschheit 2.0, a. a. O., S. 382. 537 Ebd., S. 397. 538 Ebd., S. 493. 539 Ebd., S. 386. 540 Ebd., S. 399. Vgl. Moravec: Mind Children, S. 168 und S. 240. 534 535
156
2.3 Transhumanismus: Die Optimierung des Menschen
Rekonstruktion der menschlichen Gehirnstrukturen ist dementsprechend der methodische Entwurf zur Unsterblichkeit der menschlichen Personalität. Im Kampf gegen den Tod gibt es in transhumanistischen Entwürfen damit zwei unterschiedliche Strategien. Die erste Strategie umfasst medizinische und therapeutische Eingriffe, um natürlichen Todesursachen entgegenzuwirken, Krankheiten und Alterungsprozesse aufzuhalten und die Dauer des biologischen Lebens zu verlängern. Kurzweil hat auch diese Möglichkeiten in einer separaten Publikation mit dem Titel Transcend in den Blick genommen.541 Kurzweil nimmt dabei Bezug auf alle medizinischen und therapeutischen Möglichkeiten, um das biologische Leben so lange zu verlängern, bis die technologischen Entwicklungen so weit fortgeschritten sind, dass die biologischen Grundlagen des Lebens von neuen Technologien abgelöst werden können. Medizinische Prävention und Früherkennung, Entspannungstechniken, Ernährung, Gewichtsabnahme, medikamentöse Unterstützung und Nahrungsmittelergänzung, Sport und Entgiftungsprogramm bilden dafür ein umfassendes Programm mit praktischen Handlungsvorschlägen. Kurzweil folgt in seiner eigenen Lebensgestaltung einem solchen Programm: „Ich habe alles daran gesetzt, meine Biochemie zu reprogrammieren. Ich schlucke jeden Tag 250 Tabletten und erhalte jede Woche ein halbes Dutzend intravenöse Behandlungen […] Techniker, der ich bin, messe ich den Spiegel von Dutzenden Nährstoffen (wie Vitaminen, Mineralien und Fetten), Hormonen und Stoffwechselprodukten in meinem Blut und anderen Körperproben (wie Haaren und Speichel). Im Großen und Ganzen sind meine Werte, wie sie sein sollen, doch ich nehme kontinuierliche Feineinstellungen meines Programms vor […]. Mein Programm mag extrem erscheinen, aber es funktioniert und ist – nach meinem derzeitigen Wissensstand – optimal.“542 Die zweite Strategie zielt auf einen Abschied vom biologischen Organismus als Grundlage individueller Personalität und auf die Suche nach einem besseren „Berechnungssubstrat“543, bzw. „Hardwaremedium“544 für die individuelle Personalität. Der erste Ansatz ist nichts genuin Neues, sondern gehört zum Selbstanspruch medizinischer Tradition seit der Antike: Leben ist zu schützen und zu bewahren, Tod und Krankheiten gilt es mit allen medizinischen Möglichkeiten zu verhindern. Der zweite Ansatz hingegen erweist sich als Gegensatz: Die Leiblichkeit des Menschen soll hier nicht bewahrt, sondern abgeschafft, überwunden werden. Im ersten Ansatz erweist sich die leibliche Personalität des Menschen als wertvoll und schützenswert, im zweiten als abgewertet, mangelhaft und vorläufig. Sie muss deshalb überwunden und durch eine bessere Form ersetzt werden. In der Kurzweil, Ray: Transcend. Nine Steps to Living Well Forever, New York 2009. Menschheit 2.0, a. a. O., S. 211f. 543 Ebd., S. 331. 544 Ebd., S. 330. 541
542
157
2 Künstliche Intelligenz und Transhumanismus
Verknüpfung beider Ansätze zeigt sich eine weltanschauliche Struktur, welche die Rationalität des Menschen als dessen Essenz begreift, welche losgelöst von seiner leiblichen Struktur existieren kann. Transhumanistische Entwürfe stellen sich mit dieser Argumentation in eine philosophische Tradition: einerseits der Idealisierung des Geistigen, Allgemeinen und Unsterblichen, welche bereits an Platon anknüpft, 545 andererseits an einen scharfen Dualismus von Descartes, welcher die personale Identität als losgelöste Substanz von ihrer körperlichen Einbettung auffasst.546 Die Argumentationsstruktur bedient sich dabei jedoch eines reduktionistischen Materialismus. Die materielle Grundstruktur beseelter Körper wird dabei aus einer Perspektive untersucht, welche alles Seiende unter einer Computermetapher betrachtet. Das Gehirn ist deshalb rational, weil es wie ein Computer funktioniert: Es wird anhand seiner Rechenkapazität bewertet.547 Indem biochemische Prozesse funktional als Rechenprozesse gedeutet werden, der Voraussetzung einer Maschinenmetapher des Geistes und einer Computermetapher des Lebens548 folgend, bedient sich Kurzweil eines Zirkelschlusses. Intelligenz wird durch Rechenkapazität bestimmt, die Funktionalität des Gehirns in seinem Vergleich zum Computer bestimmt. Der Computer ist demnach zwangsläufig als intelligent bestimmt, da Rechenkapazität ja als Kriterium für Intelligenz gesetzt wurde. Die Leistungsfähigkeit des organischen Lebens findet in der Rechenleistung der zugrundeliegenden materiellen Strukturen das Bewertungskriterium für eine quantitative Beurteilung der Lebensqualität. Bevor ein Computer mit einem menschlichen Gehirn verglichen wird, gilt es deshalb, das Gehirn als Computermodell zu begreifen. Kurzweil stellt Gehirn und Computer in eine Analogie, spricht von der „Software des Gehirns“549 und antwortet auf die Frage: „Ist das Gehirn ein Computer?“.550 Indem es als „analoger Computer“ beschrieben wird, erweist es sich einem digitalen Computer gegenüber als defizitär: „Ein analoger Computer kann nicht alle Funktionen eines digitalen Computers erfüllen.“551 Detailliert stellt Kurzweil in How to Create a Mind552 ein Konzept für ein Reverse Engineering des Gehirns vor und bringt Vorschläge für eine vollständige Simulation des menschlichen Gehirns553 sowie konkrete Bau Vgl. Platon: Symposion 210b-212a, vgl. auch 207a. Vgl. Descartes, René: Meditationes de Prima Philosophia / Meditationen über die Erste Philosophie, lat./dt., Stuttgart 2005, S. 205 und S. 219. 547 Vgl. Kurzweil: Menschheit 2.0, a. a. O., S. 121. Vgl. Hans Moravec: Robot. Mere Machine to Transcend Mind, Oxford 2000, S. 108. Vgl. Moravec: Mind Children, a. a. O., S. 81. 548 Menschheit 2.0, a. a. O., S. 207. 549 Ebd., S. 145. 550 Ebd., S. 149. 551 Ebd., S. 150. 552 Kurzweil, Ray: How to Create a Mind, London 2012. 553 Ebd., S. 125. 545
546
158
2.3 Transhumanismus: Die Optimierung des Menschen
pläne für dessen Rekonstruktion.554 Dem voraus geht die Maschinenmetapher des Geistes, welche den gesamten Menschen als Maschine versteht. Kurzweil beschreibt organisches Leben unter mechanistisch-funktionalen Bestimmungen, wenn er von der „Mechanik von Vögeln“ schreibt oder das menschliche Gehirn als „Musterbeispiel“ „für die Entwicklung intelligenter Software“ bezeichnet.555 Dieser sprachliche Stil der Analogie des Organischen zum Mechanistisch-Funktionalen durchzieht alle Bereiche: „Wenn heute unsere menschliche Hardware – unser Körper – stirbt, so stirbt unsere geistige Software mit ihm.“556 Der Mensch als Prototyp All dies fordert zu einem neuen Selbstverständnis des Menschen heraus. Im Transhumanismus wird der Mensch als Maschine, das Gehirn als Computer aufgefasst. Der Mensch als Produkt einer zufälligen Evolution erweist sich als derart unvollkommen, dass seine Rolle im Universum nicht mehr die einer „Krone der Schöpfung“ sein kann. Der Mensch ist stattdessen nur ein Zwischenglied in der Entwicklung einer noch höheren Intelligenz, die er zwar selbst erschafft, die ihn aber letztlich überholen und die Leistungen des Menschen in den Schatten stellen wird. Künstliche Intelligenz stellt einen Weg zur Optimierung des Menschen dar. Indem der Mensch in diesem Atemzug als defizitär gebrandmarkt wird, gilt es, bei einer philosophischen vernunftkritischen Analyse transhumanistischer Utopien auch die Bewertungskriterien offenzulegen, welche in transhumanistischen Entwürfen vorausgesetzt werden. Die defizitäre Struktur des Menschen wird dabei zur Grundlage für die Notwendigkeit einer Überwindung des Menschen durch die Technik. „Unsere Körper und Gehirne sind – Plastizität hin oder her – von recht starrer Architektur. […] Mein Körper 1.0 hat so viele Einschränkungen, und dann muss man ihn auch noch mühsam instand halten – ganz zu schweigen von der geistigen Eingeschränktheit.“557 Die gesamte biochemische Konstitution des Menschen wird als mangelhaft bewertet: „DNS-basierte Intelligenz ist ja so schrecklich beschränkt und langsam.“558 Interpretiert wird die biochemische Konstitution dabei durch ihren Vergleich mit der Funktionalität von Computern: „Die biologische Evolution ist beschränkt auf Denkprozesse (Musterkennung, logische Analyse, Lernen und andere kognitive Fähigkeiten), die auf extrem langsamen chemischen Schaltungen beruhen.“559 Mangelhaft ist der Mensch dabei vor allem in
556 557 558 559 554 555
Ebd., S. 172ff. Menschheit 2.0, a. a. O., S. 146. Ebd., S. 330. Ebd., S. 204. Ebd., S. 33. Ebd., S. 314.
159
2 Künstliche Intelligenz und Transhumanismus
seiner Funktionalität: Er wird krank, alt und stirbt. Radikal spitzt sich das transhumanistische Bild des Menschen als Mängelwesen zu, wenn „der Mensch als Krankheit“ bezeichnet wird.560 Die Rechenleistung seines Gehirns schöpft er nicht aus, sein Arbeiten ist im Vergleich zum maschinellen Arbeiten ineffizient, der Mensch ist auch in seiner psychosozialen Stabilität so störanfällig, dass er seine eigene Spezies immer wieder bekämpft. Moravec deutet die funktionalen Möglichkeiten für die Konstruktion von Robotern im Vergleich zur Emotionalität des Menschen sogar als normativ überlegen. So deutet Moravec die funktionale Dienstbarkeit von Robotern als Selbstlosigkeit und bezieht sich dabei auf den Agape-Begriff aus der christlichen Ethik.561 Sozusagen das Beste des Menschen, seine ungetrübte Rationalität, wird von seiner triebhaften Leiblichkeit entkoppelt und verselbständigt. So ist es für Kurzweil möglich, Maschinen mit künstlicher Intelligenz als bessere Menschen zu bezeichnen: „Tatsächlich werden diese zukünftigen Maschinen sogar menschenartiger sein als jetzige Menschen.“562 Der Mensch erhebt damit die Technik über sich selbst und stellt seinen Selbstwert unter seine eigene technische Konstruktion. Auch durch Möglichkeiten des Human Enhancement oder der genetischen Manipulation können die Einschränkungen der Biologie des Menschen nicht vollständig überwunden werden. Hans Moravec und Ray Kurzweil zufolge werden wir immer nur „‚Roboter zweiter Klasse‘ bleiben, egal wie viel wir an unserer DNS-basierten Biologie herumfeilen.“563 Der Mensch ist dabei letztlich selbst als Defizit, als vorläufig, als Mängelwesen aufgefasst, weil seine biologische Struktur in funktionalen Beschreibungen offenbar nicht aufgeht. Die Biologie ist als letzte „Beschränkung“ des Menschen daher schließlich auch zu überwinden. Für Moravec wird die Frage zentral: „Gibt es irgendeine Möglichkeit, unseren Geist aus unserem Gehirn zu befreien?“564 Die Verhaftung in den biologischen Grenzen ist für Moravec und Kurzweil eine Einschränkung, die erst durch einen Übergang in eine nichtbiologische Existenz überwunden werden kann.565 Da Rechentechnik verbessert und erweitert werden kann, wird die geschätz So Robert Ettinger in: Man into Superman, New York 1972, zit. nach Becker, Philipp von: Der neue Glaube an die Unsterblichkeit. Transhumanismus, Biotechnik und digitaler Kapitalismus, Wien 2015, S. 27. Ettinger gilt als „Vater der Kryonik“, bei welcher der menschliche Körper nach dem biologischen Tod bei -196°C eingefroren und „konserviert“ wird. Vgl. Loh, Janina: Trans- und Posthumanismus. Zur Einführung, Hamburg 2018, S. 48. 561 „The robot would be exhibiting pure selfless, nonjudgmental devotion, the kind of love a good dog or a superb friend offers–what the Greeks and the Christians call ‚agape‘“. (Hans Moravec: Robot. Mere Machine to Transcend Mind, Oxford 2000, S. 119.) 562 Ebd., S. 389. 563 Kurzweil, Ray: Menschheit 2.0, S. 205. Vgl. Moravec: Mind Children, S. 140. 564 Moravec, Hans: Mind Children, S. 152. 565 Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 329. 560
160
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
te „Rechenkapazität des menschlichen Gehirns“ nach Kurzweils Prognose in der Mitte des 21. Jahrhunderts um ein Vielfaches durch künstliche Intelligenz um ein Vielfaches übertroffen werden.566 Kurzweil spricht von einer „allmählichen aber unerbittlichen Verschiebung zu einem überlegenen nichtbiologischen Denken.“567 Für Kurzweil steht fest: Die „biologische Intelligenz werden wir hinter uns lassen“.568 Obwohl Moravec und Kurzweil ihre normative Einordnung der technologischen Evolution aus der Biologie herleiten, soll der Mensch diese zuletzt hinter sich lassen. Weil der biologische Körper des Menschen als zu mangelhaft und dysfunktional abgelehnt wird, soll er die körperliche Einbettung der menschlichen Personalität überwinden. Erst mit einem Abschied von der leiblichen Struktur des personalen Menschsein erfolgt eine „Befreiung unseres Denkens aus den engen Banden seiner biologischen Form“.569 Der Geist des Menschen muss seine körperlichen Schranken überwinden, um unsterblich werden zu können.
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch Dieses Kapitel beleuchtet die geistesgeschichtlichen Hintergründe, die für die Herausbildung von künstlicher Intelligenz und Transhumanismus von besonderer Relevanz sind. Im ersten Teil dieses Kapitels werden thematisch die wichtigsten Gedanken und Motive skizziert, die geistesgeschichtlich als Wegbereiter von künstlicher Intelligenz und Transhumanismus gedeutet werden können. Den Einstieg bildet eine Skizze über das Androidenmotiv in der Literatur. Der Schwerpunkt liegt jedoch in der Herausbildung einer empirischen Wissenschaftlichkeit, welche mit einer Quantifizierung und Formalisierung der Welt die Natur beschreiben, erfassen und beherrschbar machen will. Dazu gehört die philosophische Annahme, dass die Wirklichkeit in der Sprache der Mathematik vollständig erfasst werden kann und dass letztlich alle Zusammenhänge des Seins in Zahlen dargestellt werden können. Die mathematische Form wird dabei letztlich nicht nur als Modell aufgefasst, sondern in der Zahl, in der Formel, im Muster kann die Essenz dessen abgebildet werden, was damit beschrieben wird. Die Zahl deutet die Wirklichkeit nicht nur, sondern bildet sie ab. Diese Linie geht von Pythagoras über Galilei, Leibniz und Laplace und reicht bis zu transhumanistischen Autoren der Gegenwart. Damit einher geht die Herausbildung eines mechanistischen Menschenbildes, welches den 568 569 566 567
Ebd., S. 121. Ebd., S. 203. Ebd., S. 385. Ebd., S. 400.
161
2 Künstliche Intelligenz und Transhumanismus
Menschen als Maschine beschreibt. Zu den philosophischen Wegbereitern der künstlichen Intelligenz und des Transhumanismus gehören auch die Arbeiten zu Logik und Sprachphilosophie, deren systematische Ansätze in der Entwicklung von KI-Architekturen eine wichtige Rolle einnehmen sollten. Im zweiten Teil dieses Kapitels wird ein Überblick entwickelt über wichtige Autoren der Philosophiegeschichte, deren Annahmen über das Verhältnis von Mathematik und Wirklichkeit einen bedeutenden Einfluss auf die philosophische Deutung von Computertechnologien und auf transhumanistische Entwürfe haben. Im dritten Teil des Kapitels wird in einem Exkurs rekonstruiert, wie die menschliche Personalität als Untersuchungsgegenstand der empirischen Wissenschaft zuerst objektiviert, dann materialistisch und zuletzt funktionalistisch gedeutet wurde.
2.4.1 Philosophie und Literatur als Wegbereiter der künstlichen Intelligenz Die Vorgeschichte zum Begriff der künstlichen Intelligenz rekurriert letztlich bis zur Philosophie und Mythologie der Antike. Historische Schwerpunkte finden sich in der Philosophie der Aufklärung sowie in der Literatur der Romantik. Die Vorgeschichte zum Begriff der künstlichen Intelligenz beinhaltet vor allem eine mechanistische Auffassung des Menschen, die letztlich mit einem fortschreitenden Verständnis einerseits des Menschen, andererseits von Technik und Technologie die Rekonstruierbarkeit des Menschen mithilfe von Technik anzielen kann. Die Rekonstruktion der philosophischen und literarischen Vorgeschichte zum Konzept der künstlichen Intelligenz erfolgt an dieser Stelle nur mit ausgewählten Autoren, deren Texte für eine philosophische Beurteilung der gegenwärtigen Entwicklungen herangezogen werden können. Für eine ausführlichere systematische Untersuchung mit einem Schwerpunkt auf die historischen Entwicklungen sei verwiesen auf Publikationen zur Geschichte der Informatik.570 Dennoch ist die hier als Vorgeschichte zur Begriffsbildung der künstlichen Intelligenz bezeichnete Rückschau auf die Herausbildung eines mechanistischen Welt- und Menschenbildes für eine Einordnung der Technologien mit künstlicher Intelligenz und auch transhumanistischer Entwürfe äußerst bedeutsam. Das Welt- und Menschenbild von Denkern und Wissenschaftlern wie Galilei, Descartes, Leibniz und Laplace hat die Zielstellungen sowie die Deutungen von Computertechnologien und künstlicher Intelligenz
570
Vgl. Naumann, Friedrich: Vom Abakus zum Internet. Die Geschichte der Informatik, Darmstadt 2001. Vgl. auch Bruderer, Herbert: Meilensteine der Rechentechnik. Zur Geschichte der Mathematik und der Informatik, Berlin / Boston 2015.
162
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
nicht nur angeregt, sondern prägt die Diskurse bis heute. In der Literatur wird mit dem Androidenmotiv das Spannungsfeld zwischen Mensch und menschenähnlicher Technik als Faszinosum und Bedrohung verarbeitet.
2.4.1.1 Das Androidenmotiv in der Literatur Seit der Antike hat der Gedanke autonomer nicht-menschlicher Geschöpfe immer wieder Autoren inspiriert. Am eindrücklichsten sind vielleicht in der jüdischen Legende vom „Golem“ die Hoffnungen und Ängste zusammengefasst, die der Mensch mit der Idee von künstlichen autonomen Geschöpfen verbindet. Weitere Beispiele sind E. T. A. Hoffmanns Novelle „Der Sandmann“571 und Mary Shelleys Roman „Frankenstein“572. In der Science-Fiction-Literatur und -Filmkunst erlebt das Motiv mit den Entwicklungen der Computertechnologie immer wieder neue Inszenierungen. Allen Geschichten gemeinsam ist die Problematisierung des Verhältnisses von Mensch und Technik, von Schöpfer und Geschöpf und das Spannungsfeld von Nutzen und Bedrohung, welches mit der technischen Verfügbarmachung der Natur einhergeht. Das Motiv des Maschinenmenschen entbehrt dabei einer optimistischen Naivität, dass der technische Fortschritt des Menschen grundsätzlich unproblematisch wäre. Der Gedanke, dass der Mensch, indem er im Zuge seiner wissenschaftlichen und technischen Verfügbarmachung der Welt die Komplexität seiner eigenen Konstitution einholt, deutet auf eine Grenze wissenschaftlichen Fortschritts, an welcher der Mensch sich über die Motive und Konsequenzen seines Handelns neu besinnen muss. Wenn der Mensch selbst zum Ziel und Opfer seiner technischen Bezugnahme auf die Welt wird, droht sein Verhältnis zur Technik sich in sein Gegenteil zu verkehren. Technik dient dazu, die Natur zu kontrollieren; indem der Mensch die Technik auf ein Niveau bringen möchte, das über ihn selbst hinausgeht, kann der Mensch mit der Unterwerfung der Natur unter die Technik auch sich selbst ihr unterwerfen, vielleicht ohne es zu beabsichtigen. Der Mensch kann seine Natürlichkeit nicht überwinden und findet sich immer wieder als Teil der Natur, welche er seiner technischen Herrschaft unterwirft. Dass er nicht selbst Sklave der Technik werde, mit welcher er sich über die Natur zu erheben gedachte, ist die Herausforderung, die im literarischen Motiv des Maschinenmenschen artikuliert wird.
Hoffmann, E. T. A.: Der Sandmann (1816), Frankfurt am Main 1986. Ähnlich greift auch E. T. A. Hoffmanns Erzählung Die Automate das Androidenmotiv auf: Hoffmann, E. T. A.: Die Automate, in: Ders.: Poetische Werke, Dritter Band, Berlin 1958, S. 411–444. 572 Shelley, Mary: Frankenstein, or The Modern Prometheus (1818), hg. v. M. K. Joseph, Oxford 1969. 571
163
2 Künstliche Intelligenz und Transhumanismus
Stammlinien des Androidenmotivs in der Literatur Zum Motiv des Maschinenmenschen in der Literatur gibt es bereits ausführliche Arbeiten, welche die verschiedenen Spielarten des Motivs systematisieren.573 Das Androidenmotiv lässt sich in drei „Stammlinien“574 unterteilen. Die erste Linie umfasst dabei die magisch-mystische Vorstellung einer Erschaffung von Menschen oder menschenähnlichen Kreaturen aus unbelebter Materie. Sie beginnt bei Schöpfungsgeschichten in verschiedenen Kulturkreisen und gipfelt in der Golemliteratur des Mittelalters. Eine zweite Linie kann als biologische Verfügbarmachung des menschlichen Lebens gedeutet werden. Literarisch wurde dies im Frankenstein-Roman ausformuliert, als wissenschaftliche Idee klingt die Vorstellung in der genetischen Reproduzierbarkeit (Klonen) des Menschen und in der Optimierung seines Erbgutes nach. Als dritte Linie kann die technische Automatenentwicklung bewegter Maschinen vom antiken Automatentheater Herons bis zur künstlichen Intelligenz abgegrenzt werden.575 Im Transhumanismus werden alle drei Stammlinien des Androidenmotivs zusammenlaufen. Die erste Linie fasst die Belebung des Unbelebten als magisches oder göttliches Geschehen auf. Unbelebte Materie soll durch Technologie intelligent werden. Obwohl sich der argumentative Ansatz transhumanistischer Autoren primär auf einen wissenschaftlichen Positivismus stützt, nennt Kurzweil den Bezug zum Magischen explizit, wenn er schreibt: „Hinreichend fortschrittliche Technik ist von Magie nicht zu unterscheiden.“576 Auch die zweite Stammlinie der biologischen Verfügbarmachung des menschlichen Lebens gehört zum Programm des Transhumanismus. Schließlich ist auch die dritte Linie der Entwicklung bewegter Maschinen und Automaten in den Visionen zu Robotik und künstlicher Intelligenz bis hin zur Reproduzierbarkeit des Menschen in transhumanistischen Entwürfen enthalten. Antike: Göttliches Handwerk und die Belebung von Materie Die Idee von Automaten geht bis in die antike Mythologie zurück. So schuf in Homers Ilias der Schmiedegott Hephaistos bereits den kupfernen Androiden „Talos“, der die Insel Kreta für
Vgl. z. B. Wittig, Frank: Maschinenmenschen. Zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik, Würzburg 1997. Eine gute Übersicht findet sich auch bei: Michelson, Walter: Wesen und Schöpfer. Ein kleiner Katalog, in: Walter Michelson, Sascha Serfözö, Fritz Franz Vogel (Hg.): Der künstliche Mensch. Artificial Life vom Golem zum Cyborg, Wädenswil 1999, S. 13–35. 574 Nach Wittig, Frank: Maschinenmenschen. Zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik, Würzburg 1997, S. 12f. 575 Ebd. 576 Vgl. Kurzweil: Menschheit 2.0, a. a. O., S. 4. 573
164
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
König Minos bewachte. Göttliche Schöpfer konnten der unbelebten Materie Leben einhauchen. Es gab auch im antiken Ägypten bereits Versuche, das göttlich-geheimnisvolle Wirken zu simulieren: Menschenähnliche Orakel gaben in ägyptischen Tempeln den Hilfesuchenden göttlichen Rat, das Orakel sprach. Die Technik dahinter war ebenso simpel wie wirkungsvoll: In den Orakeln waren Menschen versteckt, welche die Interaktion ermöglichten.577 Bis heute wirkt es fast magisch, wenn die Resultate menschlicher Intelligenz in einer technischen Hülle scheinbar selbständig mit dem Menschen interagieren können. Die Dimensionen der technischen Verfügbarmachung und die Ebene von religiöser Sinnorientierung können dabei inhaltlich eng miteinander verbunden sein. Letztlich können die Schöpfungsmythen, deren mündliche Überlieferung noch vor die Zeit der Schrift zurückreichen dürfte, als erste Rohfassung des „Androidenmotivs“ gelten, denn dort werden Menschen „hergestellt“ in einer Analogie zum technischen Handwerk: der Mensch ist der Ton, Gott ist der Töpfer.578 Platon spricht mit dem Begriff des Demiurgen (δημιουργός, wtl. „Handwerker“)579 von einem göttlichen „Weltbaumeister“580. Leben resultiert einer solchen Auffassung zufolge aus einem zwar göttlichen, aber doch handwerklichen Erzeugen her. Von der Antike bis zur Gegenwart finden sich in der Weltliteratur unterschiedliche Ausformulierungen des Androidenmotivs. Der Golem: Hilfe und Bedrohung Eine religiöse Variante des Androidenmotivs findet sich in der jüdischen Legende vom Golem.581 Das Wort Golem geht auf die hebräische Bibel zurück und bezeichnet dort die „Urform“ des Menschen.582 Die jüdische Golemmystik, die sich im engeren Sinne motivisch in der mittelalterlichen Kabbala herausbildet, setzt zunächst als symbolischer Akt der rituellen Urchs, Max: Maschine, Körper, Geist. Eine Einführung in die Kognitionswissenschaft, Frankfurt am Main 2002, S. 24. Vgl. zum Androidenmotiv in der griechischen Mythologie und den Anfängen von automatisierter Technik in der Antike auch Sauer, Lieselotte: Marionetten, Maschinen, Automaten. Der künstliche Mensch in der deutschen und englischen Romantik, Bonn 1983, S. 11ff. 578 Vgl. Die Bibel nach der Übersetzung Martin Luthers mit Apokryphen, rev. Fassung 1984, Stuttgart 1999, Gen. 2,7; Jes 29,16; Röm 9,20f. 579 Vgl. Platon: Timaios, 29a, in: Werke in Acht Bänden, Gr./Dt., übers. v. F. Schleiermacher, hg. v. D. Kurz, 7. Band, Darmstadt 2011, S. 1–209, dort S. 35. 580 Vgl. Gatzemaier, Matthias: Demiurg, in: Mittelstraß, Jürgen und Carrier, Martin: Enzyklopädie Philosophie und Wissenschaftstheorie, Bd. 2: C-F, Weimar 2005, S. 150. 581 Vgl. Singer, Isaac Bashevis: Der Golem. Eine Legende (1982), Düsseldorf 2001. Vgl. auch Idel, Moshe: Der Golem. Jüdische magische und mystische Traditionen des künstlichen Anthropoiden, Frankfurt am Main 2007. 582 Die Bibel, a. a. O., Psalm 139,16, mit dem hebräischen Wort galmi. Vgl. Goodman-Thau, Eveline: Golem, Adam oder Antichrist, in: Goodman-Thau, Eveline, Mattenklott, Gert und Schulte, Christoph: Kabbala und die Literatur der Romantik, Tübingen 1999, S. 81–134, dort S. 89. Vgl. auch Schäfer, 577
165
2 Künstliche Intelligenz und Transhumanismus
Bestätigung einer Schöpfungskosmologie ein.583 In der talmudischen Tradition und anderen Teilen der jüdischen Überlieferung kulminieren die Geschichten um die Belebung unbelebter Materie mithilfe kabbalistischer Magie in der Erschaffung eines unbesiegbaren „Golem“. Der Golem wird aus Lehm geschaffen und in einem Ritual zum Leben erweckt, um bei einer Bedrohung des jüdischen Volkes dieses zu beschützen; gerät er aber außer Kontrolle, so wird er selbst zur Bedrohung. Besonders in der romantischen Literatur wird die dunkle, bedrohliche Seite des Golem hervorgehoben.584 Charakteristisch für die Golem-Überlieferung ist die zeitweilige und damit vorübergehende Beschwörung des Golems durch einen Rabbiner.585 Die Golemlegende unterscheidet sich darin von der dystopischen Literatur und der Science-Fiction-Literatur des 20. und 21. Jahrhunderts, in der eine Rückkehr zur Normalität nicht immer ohne weiteres möglich ist.586 Der Sandmann: Technik und Narzissmus In E. T. A. Hoffmanns Erzählung „Der Sandmann“587 verliebt sich der Protagonist Nathanael, obwohl dieser glücklich verlobt ist, in eine andere junge Dame namens Olimpia in seinem Haus. Olimpia hört all den literarischen Entwürfen und Schwärmereien von Nathanael geduldig zu, während seine Verlobte Klara sich immer wieder besorgt über seine melancholische Ader äußert. Der Protagonist steigert sich in seiner Liebe zu Olimpia in einen schwärmerischen Rausch, begleitet von Aussagen wie „O du herrliches, du tiefes Gemüt, […] nur von dir allein werd’ ich ganz verstanden.“588 Voraus geht dieser leidenschaftlichen Verliebtheit eine angstbesetzte Erinnerung an die Kindheit des Protagonisten: Sein Vater hatte nachts immer wieder chemisch-physikalische Experimente mit einem fremden Mann namens Coppelius durchgeführt, der ihm von seinen Eltern als „der Sandmann“ vorgestellt worden war. Eines Tages hatte sich Nathanael hinter einer Gardine versteckt und die beiden bei ihren Experimenten beobachtet. Er verriet sich aber selbst, als es ihm zu schauerlich wurde und wurde daraufhin von Coppelius wütend
585 586 583
584
587
588
Peter: Der Golem in Berlin, in: Bilsky, Emily D. und Lüdicke, Martina (Hg.): Golem, Berlin 2016, S. 4–7, dort S. 4. Vgl. Sigrid Mayer: Golem. Die literarische Rezeption eines Stoffes, Frankfurt am Main 1975, S. 15–17. Vgl. Schäfer 2016, a. a. O., S. 6. Vgl. Singer, Isaac Bashevis: Der Golem. Eine Legende (1982), Düsseldorf 2001. Für eine umfangreiche Darstellung der Golem-Überlieferung in der jüdischen Tradition vgl. Moshe Idel: Der Golem. Jüdische magische und mystische Traditionen des künstlichen Anthropoiden, Frankfurt am Main 2007. Vgl. Hoffmann, E. T. A.: Der Sandmann (1816), Frankfurt am Main 1986. Ebd., S. 53.
166
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
und gewaltsam gefasst – im Folgenden vermischen sich Alptraum und Erinnerung in der Erzählung. Nathanaels romantische Liebe zu Olimpia steigert sich immer stärker, bis er ihr schließlich – ungeachtet der Verlobung mit Klara – einen Heiratsantrag machen möchte. In diesem Augenblick kommt Nathanael jedoch in einen Streit zwischen Olimpias Vater und Coppelius, die sich um eine mechanisch konstruierte Holzpuppe streiten. Es stellt sich heraus, dass es sich bei der Dame Olimpia um eine maschinelle Konstruktion als wissenschaftliches Experiment gehandelt hat, die von Coppelius und einem anderen Wissenschaftler, der Olimpia als seine Tochter ausgegeben hatte, konstruiert worden war. Auch wenn der Protagonist und seine Verlobte sich wieder versöhnen, verliert sich der Hang zu schwärmerischer Melancholie und düsterem Fatalismus bei Nathanael nicht. Die Erzählung endet mit einer Begebenheit, bei welcher Nathanael in Begleitung von Klara, seiner Verlobten, auf einem Turm in einen rauschhaften Wahnsinn fällt, in welchem er erfolglos versucht, Klara vom Turm zu werfen, sich aber letztlich selbst herunterstürzt. Hoffmann verbindet in seiner Erzählung die Fortschritte in Wissenschaft und Technik mit dem literarischen Motiv des Unheimlichen. Die Novelle inspirierte später Sigmund Freud, der in seiner 1919 erschienenen Studie ‚Das Unheimliche‘ ausgehend von dieser Novelle Grundbegriffe der Psychoanalyse entwickelte, unter anderem den Begriff des Narzissmus.589 Die Androide Olimpia kann den schwärmerischen Dichtungen stundenlang ohne Widerspruch oder ein Zeichen von Langeweile zuhören. Antropomorphe Technik birgt auch das Potential, durch „Selbstbespiegelung“ die narzisstischen Bedürfnisse des Menschen anzusprechen.590 Science-Ficiton-Literatur und -Filme Seit der Entwicklung von Computern und den Anfängen der Robotik erlebt das Androidenmotiv eine populäre Neubelebung in zahlreichen Science-Fiction-Romanen und Filmen. An das literarische Motiv von E. T. A. Hoffmanns „Sandmann“ knüpft beispielsweise der Film „Her“ von Spike Jonze an, in welchem sich der Protagonist nach einer gescheiterten Beziehung in sein intelligentes Betriebssystem verliebt.591 Eine hermeneutisch fruchtbare Einbeziehung von Science-Fiction-Literatur und -Filmen für die Fragestellung der Arbeit könnte leicht uferlos werden. Dennoch können gerade die dystopischen Elemente in Science-Fiction-Literatur als vernunftkritische Auseinandersetzung
Jochen Schmidt: Die Tragödie der Selbstverfallenheit, in: Hoffmann: Der Sandmann, a. a. O., S. 63– 84, dort S. 63. 590 Ebd., S. 82. 591 Spike Jonze (Regisseur): Her. A Spike Jonze lovestory, Spielfilm, Hamburg 2014. 589
167
2 Künstliche Intelligenz und Transhumanismus
mit dem ambivalenten Spannungsfeld von Technologie zwischen Potential und Bedrohung sichtbar werden. Erwähnt werden soll an dieser Stelle Isaac Asimov, in dessen Werken die Interaktion von Menschen mit Robotern ein zentrales Motiv ist.592 Auf ihn gehen die Asimov’schen Robotergesetze zurück, die in der Robotik bis heute als mögliche Orientierung für die Konstruktion von Robotern diskutiert werden. Diese Gesetze lauten: „1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen. 2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz. 3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.“593
Catrin Misselhorn analysiert die Asimov’schen Gesetze und ihre Bedeutung für die Herausbildung einer Maschinenethik und weist auch die anwendungsbezogenen Schwächen und normative Probleme aus, die sich aus einer Implementierung ergeben würden.594 Auch wenn die anwendungsorientierte Programmierung dieser Gesetze im Bereich der Science-Fiction liegt, formulieren Asimovs Entwürfe bereits grundlegende Probleme, die sich im Bereich der Moralimplementierung für robotische Systeme ergeben können.595 Die technischen Fortschritte lassen das Androidenmotiv nun immer greifbarer werden – es rückt von der Mythologie in den Bereich der Technologie und manche Publikationen bewegen sich in einem mittlerweile fließenden Übergang zwischen Fiktion und technischer Realität. Charakteristisch ist dabei in jüngeren literarischen Entwürfen die Zuspitzung technischer Möglichkeiten in Dystopien als Visionen möglicher Zukunftsgesellschaften, in denen der Mensch seine gegenwärtige Freiheit einbüßen würde. Nicht nur die Literatur, sondern insbesondere das Medium des Films ist hier zur Ausdrucksform von Ängsten, Ambivalenzen und Dystopien im Spannungsfeld des technologischen Siegeszuges geworden. Als struktureller Unterschied zur Literatur früherer Epochen, welche das Androidenmotiv als jeweils singuläres Ereignis aufgriff, nach dessen Ende eine Rückkehr zum vorhergehenden „natürlichen“ Zustand möglich wurde, kann in dystopischen Entwürfen die Problematisierung eines irreversiblen gesellschaftlichen Veränderungsprozesses durch die Technologisierung der Gesellschaft Vgl. Asimov, Isaac: Ich, der Robot. Science-Fiction-Erzählungen, Berlin 1982. Vgl. Asimov, Isaac: Die Grundregeln der Robotik, in: Bilsky und Lüdicke: Golem, Berlin 2016, S. 18. 594 Misselhorn: Grundlagen der Maschinenethik, a. a. O., S. 109ff. 595 Ebd., S. 114. 592 593
168
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
und eines damit einhergehenden totalitären Anspruchs gelesen werden.596 An späterer Stelle in dieser Arbeit wird versucht, einige Beispiele der dystopischen Literatur in eine kritisch-konstruktive Ethik zu übertragen.
2.4.1.2 Die Vermessung von Welt und Mensch Worin gründet der Optimismus, alles Bestehende mit den Perspektiven einer mathematischtechnischen rationalen Instrumentalität fassen, umfassend beschreiben, nachbilden und weiterentwickeln zu können? Der Anspruch geht zurück auf das Denken der philosophischen Aufklärung und birgt sich bereits im Anliegen der antiken Philosophen, den Dingen auf den Grund zu gehen, Verallgemeinerbares im Vergänglichen zu finden und Mythologisch-Dogmatisches durch empirisch Verifizierbares zu ersetzen. Kein Geheimnis bleibt grundlegend entzogen, jedes Rätsel wird irgendwann entschlüsselbar. Defizite des Wissens um die Welt sind demnach immer nur Defizite auf Zeit. Der Fortschritt der wissenschaftlichen Erkenntnis wird auch das bisher Unangetastete noch dechiffrieren können. Alle Wirklichkeit der Natur kann in die Sprache der Mathematik übersetzt werden und damit dem Zugriff der menschlichen Zweckrationalität überführt werden. Seiendes, Dasein und das Sein selbst werden irgendwann quantifizierbar, denn was sich der Messbarkeit entzieht, wird als irreal und mythologisch gebrandmarkt: Wenn das Sein nicht auch als Zahl ausgedrückt werden kann, dann ist offenbar nur Seiendes real. Allein dem Messbaren und Quantifizierbaren wird Wirklichkeit zugestanden. Was sich der Quantifizierung entzieht, ist unwirklich. Quantifizierung und Formalisierung als Schlüssel zur Wirklichkeit Die Argumentationen des Transhumanismus und die Philosophie der künstlichen Intelligenz wurzeln in philosophischen Denktraditionen, die in der Quantifizierung und Formalisierung der Welt den Schlüssel zur Erkenntnis der Wirklichkeit sehen. Diese gehören zu den Grundprinzipien für die Herausbildung einer empirischen Wissenschaftlichkeit. Gleichzeitig sind sie die Grundlage für die informationstheoretische Architektur von künstlicher Intelligenz. Um eine künstliche Intelligenz mit operationalen Regeln und Algorithmen auszustatten, anhand derer sie mit ihrer Umwelt interagieren kann, muss die Umgebung, die Umwelt in eine mathematische Sprache überführt werden. Für eine solche technische Verfügbarmachung der Welt sind dabei zwei Ansätze relevant: einerseits die Quantifizierung der Welt, i. e. die Annahme, dass die Welt, die Natur und auch der Mensch so detailliert vermessen werden kann, dass Heller, Ágnes: Von der Utopie zur Dystopie. Was können wir uns wünschen?, Wien 2016, S. 71ff.
596
169
2 Künstliche Intelligenz und Transhumanismus
die daraus gewonnenen Zahlen, bzw. Daten für das operative Interagieren einer künstlichen Intelligenz mit ihrer Umgebung so zuverlässig genutzt werden können, dass eine störungsfreie Anwendung in offenen Kontexten gewährleistet werden kann. Damit einher geht der zweite Ansatz der Formalisierung der Welt. Zahlen und Symbole müssen in entsprechenden Formeln und Befehlsketten eingefügt werden, sodass die operative Abfolge der Befehlsverarbeitung eine sinnvolle Aufgabenbewältigung durch die künstliche Intelligenz gewährleisten kann. Den Ansätzen der Quantifizierung und Formalisierung der Umwelt für eine künstliche Intelligenz als technische Herangehensweisen für die Konzeption einer KI-Architektur entsprechen Haltungen, welche für die Argumentationslinie eines wissenschaftlichen Positivismus von unhintergehbarer Bedeutung sind. Die Mathematisierung und Quantifizierung der Natur wird ebenso wie die Formalisierung aller Wirkzusammenhänge in der Natur in Form von Naturgesetzen zu einer Prämisse für die wissenschaftliche Arbeit. Herausgearbeitet hat diese Entwicklung in der Geschichte der europäischen Wissenschaftlichkeit u. a. anhand von Galileo Galilei der Philosoph Edmund Husserl.597 Nicht nur in den Zahlen, sondern erst in ihren Zusammenhängen und Wechselwirkungen, in der Erkenntnis der in der Natur wirkenden Gesetze und in einer mathematisch exakten Darstellung derselben gipfelt die wissenschaftliche Enträtselung des Universums und ihre technische Verfügbarmachung. Zentrale Bedeutung für die Herausbildung dieses Ansatzes haben verschiedene Wissenschaftler und Philosophen wie Galilei, Descartes, Leibniz, La Mettrie oder Laplace,598 deren Ansätze im folgenden Kapitel skizziert werden. Doch gehen dessen Anfänge bereits bis zur Herausarbeitung einer komplexen formalen Logik bei Aristoteles zurück.599 In der analytischen Sprachphilosophie fließen später die Ansprüche einer vollständigen Formalisierung der sprachlichen Wirklichkeit des Menschen durch formallogisches Schließen zusammen. Die Welt als Uhrwerk Die Abwendung von der Religion als wichtigster Instanz zur Orientierung in den existentiellen Fragen nach Sinn und Wahrheit und die Hinwendung zur empirischen Wissenschaft kennzeichnet das Zeitalter der Neuzeit, beginnend von der Renaissance über die Zeit der philosophischen Aufklärung bis zur Moderne. Die Beschreibung der Natur in determinierten Vgl. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, Hamburg 1996. 598 Vgl. u. a. Sauer, Lieselotte: Marionetten, Maschinen, Automaten. Der künstliche Mensch in der deutschen und englischen Romantik, Bonn 1983, S. 35–57. 599 Vgl. Kaufmann, Hans: Die Ahnen des Computers. Von der phönizischen Schrift zur Datenverarbeitung, Wien 1974, S. 83–86. 597
170
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
Kausalzusammenhängen wird dabei zum vorherrschenden Weltmodell. Wenn alle Vorgänge in dieser Welt durch strenge kausale Gesetze bestimmt sind, dann erweist sich die Welt letztlich als komplexe Mechanik, als Uhrwerk. Ein immer besseres Verständnis der Naturgesetze führt damit zu einem Wissen um die Wahrheit über die Welt und ihre Strukturen. Dies fordert das Selbstverständnis des Menschen heraus, der letztlich auch sich selbst als Teil dieser mechanistisch beschriebenen Welt definieren wird und sich denselben Zusammenhängen unterworfen sieht. Die Welt als mathematisches Modell Häufig wurden in philosophischen Perspektiven auf die Entstehung von Weltbildern einzelne Denker in den Mittelpunkt der philosophischen Analyse gestellt, wie z. B. Galileo Galilei in Edmund Husserls Krisis der europäischen Wissenschaften.600 Die Mathematisierung und Mechanisierung der Welt im Sinne einer Deutung der beobachtbaren Wirklichkeit kann jedoch nicht nur auf einzelne Denker zurückgeführt werden, sondern bildet eine Linie der geistesgeschichtlichen Tradition europäischen Denkens.601 Ebenso irreführend wäre eine dualistische Gegenüberstellung von einer „mathematischen“ Weltsicht gegenüber einer religiösen, existentiellen oder sinnlich-ästhetischen Haltung gegenüber der Welt. Viele Denker vereinten einen Bezug zu mehreren Perspektiven auf die Welt, wie z. B. Leibniz, der nicht nur mathematische Modelle der Wirklichkeit weiterentwickelte, sondern auch theologisch arbeitete. Der Bezug auf die philosophiehistorischen Vorbedingungen einer Weltsicht ist daher immer mit der Gefahr der vereinseitigenden Darstellung von Autoren der Geistesgeschichte verbunden. Dennoch gehört das Nachzeichnen einer historischen Linie der Deutungsgeschichte von Wirklichkeit zu den Werkzeugen der philosophischen Arbeit seit Platon und Aristoteles. Der Exkurs an dieser Stelle der Arbeit zielt nicht darauf, dem Anspruch eines systematischen historischen Überblicks gerecht zu werden. Stattdessen ist das Ziel dieses Exkurses, den Anspruch der Objektivierung, Quantifizierung, Mathematisierung und Formalisierung der Welt nachzuzeichnen. Dieser Anspruch ist seit dem Bestehen einer empirischen Wissenschaftlichkeit nahezu eine Selbstverständlichkeit. Gerade die philosophische Vernunftkritik des 20. Jahrhunderts zielte aber gerade darauf ab, diese Selbstverständlichkeit zu erschüttern. Dies nachzuzeichnen wird Aufgabe des dritten Kapitels dieser Arbeit sein. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie, hg. v. Walter Biemel, Haag 1976. 601 Dijksterhuis zeichnet z. B. in Die Mechanisierung des Weltbildes (Heidelberg 1956) diese Geschichte von Pythagoras bis Newton nach und bezieht auch systematisch die Naturwissenschaft im Mittelalter ein. 600
171
2 Künstliche Intelligenz und Transhumanismus
Für die vorliegende Arbeit ist die Gegenüberstellung beider Linien wichtig: sowohl die Grundannahme der Möglichkeit einer Vermessung, Mathematisierung und Formalisierung der Wirklichkeit als auch die Einsicht in die Grenzen eines solchen Vorhabens. An dieser Stelle erfolgt also der Versuch, das Vorhaben einer vollständigen Quantifizierung und Formalisierung der Wirklichkeit von seinen historischen Wurzeln her zu beleuchten. Die Anfänge der Computerentwicklung sind mit diesem Vorhaben eng verbunden, weil in der Konstruktion von Computern als intelligenten Maschinen die Möglichkeit greifbar wurde, die Logik und Rationalität des Menschen losgelöst von seiner leiblichen, emotional-triebhaft getrübten Struktur nachzubilden. Bis heute prägt die Grundannahme, die Wirklichkeit könnte durch mathematische Formeln vollständig begriffen und nachgebildet werden, das wissenschaftstheoretische Selbstverständnis vieler Wissenschaftler und Ingenieure, auch und gerade im Forschungsgebiet der künstlichen Intelligenz.
2.4.1.3 Der Mensch als Maschine: Das Menschenbild der künstlichen Intelligenz Eine dogmatische Setzung eines einheitlichen Menschenbildes, welches Forschungen zur künstlichen Intelligenz oder Entwürfen des Transhumanismus zugrunde liegen würde, wäre der Komplexität und Vielzahl von Forschern aus unterschiedlichen Fachdisziplinen, deren Ergebnisse und Methoden mit in das wissenschaftliche Gesamtbild einfließen, unangemessen.602 Dennoch lassen sich Grundzüge skizzieren, welche als Forschungsfolie häufig einem Bild des Menschen vorausgehen. Hierzu gehört ein mechanistisches Verständnis vom Menschen. Nach Max Urchs stellt man sich dabei „in der Regel den menschlichen Geist als eine aus verschiedenen Elementen bestehende Maschine vor, deren Bestandteile ohne wesentlichen Erkenntnisverlust auch einzeln untersucht werden können.“603 Ein holistisches Verständnis menschlicher Personalität wird dabei zugunsten einer Theoriebildung über funktionelle Abläufe kognitiver Prozesse aufgegeben. Die „Vorstellung des menschlichen Geistes als Rechenmaschine“604 geht letztlich auf Leibniz zurück, welcher bereits die Grundlagen für eine Mathematisierung Vgl. Urchs, Max: Das Menschenbild der künstlichen Intelligenz, in: Reichhardt, Anna Katharina und Kubli, Eric (Hg.): Menschenbilder, Bern 1999, S. 117–152, dort S. 120. 603 Ebd., S. 120. Das Verständnis des Menschen als Maschine wurde von weiteren Autoren formuliert, so z. B. J. K. Wezels „Grundriss der menschlichen Maschine“ (1784/85). Vgl. hierzu Künzel, Werner und Bexte, Peter: Maschinendenken / Denkmaschinen. An den Schaltstellen zweier Kulturen, Frankfurt am Main 1996, S. 17–43. Auch Jean Paul und Marquis de Sade zählen zu den Autoren, welche eine mechanistische Auffassung des menschlichen Geistes vorbereiteten, vgl. ebd., S. 44–77. 604 Urchs 1999, a. a. O., S. 122. 602
172
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
philosophischen Denkens und menschlicher Sprache entwickelte.605 Doch die Herausbildung eines mechanistischen Menschenbildes kann nur als Entwicklung verstanden werden, die sich in verschiedenen Generationen von Philosophen immer weiter präzisierte. Diese Ansätze gehen nach der Erfindung der Computer dahin über, dass die neue Technologie als Metapher für die Funktionsweisen des menschlichen Gehirn Verwendung finden konnte. Als „Computermetapher des Geistes“ wird menschliche Intelligenz nunmehr unter dem Gesichtspunkt untersucht, inwieweit die Prozesse des Gehirns, welche den Geistestätigkeiten des Menschen offenbar zugrunde liegen, mit einer Analogie zu Rechenprozessen in einem Computer beschrieben werden können.606 Die Mensch-Maschine-Metapher gründet in einer Weltanschauung, die in der Philosophiegeschichte dem Materialismus und Determinismus zugerechnet wird. Die ersten Philosophen, die eine solche Weltanschauung formuliert haben, waren wohl Leukipp und Demokrit. Neuansätze materialistischer Philosophie wurden ab dem 16. Jahrhundert formuliert, um im französischen Materialismus des 18. Jahrhunderts eine erste Blütezeit zu erreichen.607 Letztlich hat auch die Idee autonomer Automaten eine lange Geschichte in der Philosophie, die weit hinter die Anfänge ihrer technischen Möglichkeiten zurückreicht – ausformuliert z. B. von Julien Offray de La Mettrie.608 Die Vision eines Maschinenmenschen war motiviert vom Siegeszug der wissenschaftlich-technischen Rationalität: Alles konnte der Mensch sich zu Füßen werfen, indem er die Mechanismen der Natur mithilfe der empirischen Wissenschaft durchschaute und sie sich mithilfe der Technik zunutze machte. Innerhalb der Natur verortete sich auch der Mensch und nur folgerichtig musste er versuchen, sein eigenes Wesen als Mechanik zu deuten. Philosophie als Wegbereiter der Informatik: Philosophisches Vordenken von künstlicher Intelligenz Informatik hat eine Vorgeschichte. Ohne Mathematik, Logik, Sprachphilosophie und Linguistik hätte künstliche Intelligenz niemals entwickelt werden können. Die Technologien zur künstlichen Intelligenz knüpfen an eine Vorgeschichte an, die auch Vorarbeiten der philosophischen Tradition aufgreift. Diese umfasst die Bereiche der Logik und Sprachphilosophie ebenso wie die Traditionslinien von Mechanismus, Determinismus, Physikalismus. Logische Grundkonzepte, die bis heute für die Entwicklung der Logik und Informatik gelten, gehen Vgl. Urchs 1999, a. a. O., S. 122f. Ebd., S. 123f. 607 Für eine ausführlichere Darstellung der historischen Entwicklung materialistischen Denkens vgl. Schmidt, Alfred: Geschichte des Materialismus, Leipzig 2017. 608 De La Mettrie, Julien Offray: L’homme machine (1748). Die Maschine Mensch, französisch-deutsch, hg. v. Claudia Becker, Hamburg 1990. 605
606
173
2 Künstliche Intelligenz und Transhumanismus
teilweise bis auf Aristoteles zurück. Logik bildet seitdem eine der Grunddisziplinen abendländischer Philosophie. In ihrer Komplexität und in ihren historischen Entwicklungen ist sie immer wieder Gegenstand der Grundlagendiskussion um die Bedingungen von Erkenntnis, Wahrheit und wissenschaftlicher Theoriebildung. Die Dimensionen ihrer historischen Genese können hier nicht vollständig rekonstruiert werden. Für die Entwicklung von künstlicher Intelligenz erwies sich die detaillierte Herausbildung einer mathematischen Logik jedoch als notwendige Grundvoraussetzung. Zahlreiche logisch-theoretische Konzepte zur Problemlösung, die in der Programmierung von künstlicher Intelligenz ihre Anwendung finden, stammen aus der Philosophie. Dass menschliches Denken von künstlicher Intelligenz genutzt und teilweise erfolgreich nachgebildet werden kann, gründet in den Erfolgen verschiedener philosophischer Disziplinen, deren theoretische Einsichten für die Informatik und die Entwicklung von künstlicher Intelligenz nutzbar gemacht werden konnten. Die Disziplinen, deren Bedeutung für die KI-Entwicklung besonders zentral ist, sind Logik, Sprachphilosophie, Linguistik und Analytische Philosophie. In diesen Disziplinen wird versucht, menschliches Wissen und Denken so vollständig wie möglich zu formalisieren. Alltagssprache wird dabei in eine formallogisch-mathematische Sprache übertragen. Nur so ist es für eine künstliche Intelligenz möglich, auch in Prozessen und Kontexten zu funktionieren, die für den Menschen bedeutsam sind. Alltagssprachliches und lebensweltliches menschliches Wissen wird formalisiert und damit für eine künstliche Intelligenz operationalisierbar. Bestimmte Ausschnitte der Lebenswelt werden quantifiziert (mithilfe von Dateninput, Nutzereingaben, Sensorik u. ä.) und anschließend in formallogischen Architekturen mit komplexen Rechenoperationen weiterverarbeitet. Ohne die theoretische Konzeption der philosophischen Logik, der analytischen Sprachphilosophie und Linguistik wäre die konkrete technische Realisierung von künstlicher Intelligenz nicht möglich gewesen. F. L. G. Frege als Begründer der mathematischen Logik ist hier als Pioniergestalt zu nennen für die Entwicklung einer mathematischen Formallogik, welche in der Entwicklung von künstlicher Intelligenz eine bedeutende Rolle spielen sollte, weil sein Transfer der mathematischen Logik auf die Analyse des Wahrheitswertes alltagssprachlicher Sätze einen Zugang geschaffen hat, um nichtmathematisches Wissen für Computertechnologien operationalisierbar werden zu lassen.609 Auch wenn Frege den Geltungsanspruch seines Zugangs selbst nicht auf die Argumentationsgrundlage für die Weltanschauung einen physikalistischen Reduktionismus übertrug, so lieferte doch die mathematische Exaktheit, mit welcher Frege alltagssprachliche Sätze für eine mathematische Analyse zugänglich machen wollte, die Grundlegung, auf welcher später andere Sprachphilosophen wie W. v. O. Quine u. a. aufbauen sollten, um ein Vgl. Hansen, Frank-Peter: Geschichte der Logik des 19. Jahrhunderts. Eine kritische Einführung in die Anfänge der Erkenntnis- und Wissenschaftstheorie, Würzburg 2000, S. 176–184.
609
174
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
Programm für die vollständige Formalisierung der Welt und der menschlichen Sprache im Sinne eines physikalistischen Materialismus zu entwickeln.610
2.4.2 Autoren der Philosophiegeschichte und ihre Bedeutung für künstliche Intelligenz und Transhumanismus Griechische Antike: Die Suche nach dem Unvergänglichen In der griechischen Philosophie der Antike stellen verschiedene Autoren die Frage nach dem, was sich in einer ständig verändernden Welt als das Unvergängliche erweist. Der Wechselhaftigkeit der Sinneswahrnehmungen als „Schein“ wird die Suche nach einem allgemeingültigen, gleichbleibenden Prinzip entgegengestellt. Die Entwürfe der Vorsokratiker, bestimmte Elemente als grundlegende Ur-Prinzipien zu benennen, stellen den Anfang dieser Suche dar.611 Einen Höhepunkt bildet die Ideenlehre Platons, die als ewiger, unveränderlicher Gegenentwurf zur sinnlich wahrnehmbaren Welt entwickelt wird. Pythagoras: Die Zahl als Grundstruktur der Wirklichkeit Der deutlichste Fokus auf der Bedeutung der Zahl und der Mathematik für die Erkenntnis der Wirklichkeit kann in der griechischen Antike bei Pythagoras nachgewiesen werden. Der Mystizismus, der sich aus einer zunehmenden Abkehr von der sinnlichen Welt im Pythagoreismus entwickelte, ließ diesen zur Geheimlehre werden, die durch Weltflucht gekennzeichnet war und als esoterisch-religiöse Bewegung interpretiert werden kann. Diese Weltflucht zeigt sich auch in der Verschwiegenheit und in der Verweigerung zum öffentlichen Diskurs. Weder Pythagoras noch seine unmittelbaren Schüler hatten schriftliche Zeugnisse über diese Lehre hinterlassen. Nur indirekt, aus den Überlieferungen, lassen sich Grundzüge der pythagoreischen Philosophie rekonstruieren.612 Erst später veröffentlichte ein Pythagoreer namens Philolaos ein Buch, in welchem Grundgedanken der pythagoreischen Schule zum Ausdruck kamen.613 Die philosophische Rezeptionsgeschichte hat die pythagoreischen Gedanken bereits in der Antike zu rekonstruieren und zu systematisieren versucht.614 Vgl. William van Orman Quine: Grundzüge der Logik, Frankfurt am Main 1990. Vgl. Mansfeld, Jaap u. Primavesi, Oliver (Hg.): Die Vorsokratiker, Stuttgart 2012, S. 47f, S. 89f, S. 407. 612 Mansfeld und Primavesi (Hg.): Die Vorsokratiker, a. a. O., S. 99. 613 Ebd. 614 Ebd., S. 98ff. 610 611
175
2 Künstliche Intelligenz und Transhumanismus
Mithilfe von Zahlenverhältnissen sollen typische Beziehungen in Naturerscheinungen ausgedrückt werden.615 Pythagoras und die Schule der Pythagoreer entwickelten Beschreibungen von Zahlenverhältnissen in Musik, Geometrie, Physik und Astronomie.616 Die Zahl wurde somit als „tiefeste Ursache, als Ursprung des Seins“ betrachtet.617 Philolaos fasste in seiner Schrift zusammen: „Und es hat wahrhaft alles, was man erkennen kann, Zahl, denn es ist nicht möglich, irgendetwas zu verstehen oder zu erkennen ohne diese.“618 Aristoteles beschrieb die Lehre der Pythagoreer wie folgt: „Da nun im Mathematischen die Zahlen der Natur nach das erste sind und sie, statt in Feuer, Erde und Wasser, eben in den Zahlen viele Übereinstimmungen mit den seienden und werdenden Dingen zu erkennen glaubten – eine bestimmte Eigenschaft von Zahlen sei ‚Gerechtigkeit‘, eine andere ‚Seele‘ und ‚Verstand‘, wieder eine andere ‚der angemessene Augenblick‘ [gr.: καιρός], und in der gleichen Weise jede andere auch dieses oder jenes; und sie fanden außerdem die Eigenschaften und Verhältnisse der Harmonien in den Zahlen – da nun die gesamte Natur ihnen in allen übrigen Hinsichten den Zahlen nachgebildet zu sein schien und die Zahlen das erste seien in der gesamten Natur, nahmen sie an, die Elemente der Zahlen seien die Elemente aller seienden Dinge, und die ganze Welt sei, wie erwähnt, Harmonie und Zahl. […] Offenbar betrachten sie die Zahlen als Prinzip, und zwar zum einen als Stoff für die seienden Dinge, zum anderen als Bestimmtheiten und Zustände. […] Aus der Eins entstehe die Zahl, und die ganze Welt bestehe, so behaupten sie, aus Zahlen.“619 Als Zusammenfassung der pythagoreischen Lehre können die Sätze stehen: „Alles entspricht der Zahl“620 und: „Die Dinge sind Zahlen“.621 Dijksterhuis sieht darin den ersten Pfeiler der klassischen Naturwissenschaft.622 Auch der Glaube an eine Unsterblichkeit der Seele gehörte zu der pythagoreischen Lehre.623 Indem die Seele einerseits als Zahl,624 andererseits als unsterblich charakterisiert wird, lässt sich eine Parallele zu transhumanistischen Entwürfen ziehen, welche die Seele als mathematisches Muster auffassen. Bereits in der pythagoreischen Tradition war die Befreiung von den Einschränkungen des Körpers ein Schritt zur Vollendung des Menschen hin zum Göttlichen, Dijksterhuis: Die Mechanisierung des Weltbildes, a. a. O., S. 5. Vgl. Mansfeld und Primavesi (Hg.): Die Vorsokratiker, a. a. O., S. 145. 617 Dijksterhuis: Die Mechanisierung des Weltbildes, a. a. O., S. 5. 618 Mansfeld und Primavesi (Hg.): Die Vorsokratiker, a. a. O., S. 147. 619 Ebd., S. 147–149. 620 Ebd., S. 147. 621 Dijksterhuis: Die Mechanisierung des Weltbildes, a. a. O., S. 6. Vgl. Aristoteles: Metaphysik, 985b, Stuttgart 2010, S. 30. 622 Dijksterhuis: Die Mechanisierung des Weltbildes, a. a. O., S. 6. 623 Mansfeld und Primavesi (Hg.): Die Vorsokratiker, a. a. O., S. 173. 624 Ebd., S. 147. 615 616
176
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
wie es in dem rituellen pythagoreischen Ausruf zum Ausdruck gebracht wird: „Glücklicher und Seliger du – ein Gott wirst du sein statt ein Mensch.“625 Die Abkehr vom Sinnlichen und die Hinwendung zum Unstofflichen wurde dabei als Reinigung (κάθαρσις) der Seele gedeutet, als „Befreiung aus den Banden der Sinnlichkeit“.626 Die Höherstellung der abstrakt allgemeinen Zahl gegenüber der sinnlichen Wahrnehmung im Pythagoreismus findet in transhumanistischen Entwürfen ihr Pendant in der Bereitwilligkeit, die leiblich-existentielle Konstitution des Menschen durch eine mechanische Konstruktion zu ersetzen, deren formallogische Grundstruktur den Prinzipien der Berechenbarkeit folgt. Die Einschränkung einer mathematischen Rationalität durch eine leiblich konstituierte „Sinnlichkeit“ wäre damit überwunden. Die Zahl ist für den Pythagoreismus wie für den Transhumanismus die höchste und reinste Form der Existenz. Platon: Abstraktion als Wahrheit Platons Philosophie knüpft an pythagoreische Lehren an.627 Platon systematisiert die Kritik am Vorläufigen in den sokratischen Dialogen. Was sich gegen die philosophischen Fragen von Sokrates nicht bewähren kann, erweist sich als scheinhaft. Im Ringen um unveränderliche Beschreibungen, um Einsicht in die grundlegenden Prinzipien der Wirklichkeit gelangt Platon zu einer Ebene höchster Abstraktion, die als „Ideenlehre“ systematisiert worden sind. Die Grundeinsicht Platons setzt dabei in der Vergänglichkeit des Einzelnen, des Augenblick und des sinnlich Verfügbaren an. Demgegenüber formuliert Platon als Kriterium für die Suche nach Wahrheit einen Vorrang des Allgemeinen vor dem Besonderen und Einzelnen. Das Spannungsfeld des platonischen Anliegens, im Einzelnen das Allgemeine zu suchen und zu sehen, ohne dass in Letzterem das Erste aufginge, wird z. B. im Symposion deutlich: In der Stufenschau des Schönen gilt es, von der Schönheit des einzelnen Körpers beginnend bis zur Einsicht in die allgemeine Idee des Schönen zu gelangen.628 Hier haftet dem Einzelnen gegenüber dem Allgemeinen in Platons Darstellung das Defizit des Vorläufigen an.629 Allerdings skizziert Platon im selben Dialog, dass das Wesen der Philosophie gerade darin bestehe, die Einsichten nicht besitzen zu können, da ja gerade das Wesen der Liebe darin bestehe, das zu suchen, was man liebt. Der weisheitsliebende Philosoph müsse demnach immer auf der Suche
Ebd., S. 181. Dijksterhuis: Die Mechanisierung des Weltbildes, a. a. O., S. 6. 627 Mansfeld und Primavesi (Hg.): Die Vorsokratiker, a. a. O., S. 151f. 628 Platon: Symposion, 210a–212a, in: Werke III, übersetzt v. F. Schleiermacher, Darmstadt 2011, S. 209– 394, dort S. 343–351. 629 Symposion 210b–212a, vgl. auch 207a. 625
626
177
2 Künstliche Intelligenz und Transhumanismus
bleiben, um wahrhaft Liebender, Wahrheitssuchender zu bleiben.630 Wissen und Nichtwissen sind damit dialektisch miteinander verwoben und eine Einsicht in eine allgemeine Wahrheit muss nicht den normativen Wert des Einzelnen und Besonderen negieren, da das Allgemeine nicht verdinglicht und instrumentalisiert werden kann, wenn es philosophisch verstanden werden soll. Die Erkenntnis des Unvergänglichen ist für Platon eine Möglichkeit für den Menschen, Anteil am Ewigen zu bekommen. Die Seele ist demnach für Platon nicht wie der Körper der Vergänglichkeit unterworfen.631 Der Körper als Gefängnis der Seele steht unter einer Bestimmung von Vorläufigkeit. Erst mit dem Tod könne die Seele von den Beschränkungen des Körpers befreit werden: „ob wir wohl glauben, dass der Tod etwas sei? – Allerdings, fiel Simmias ein. – Und wohl etwas anderes als die Trennung der Seele von dem Leibe? Und das heiße tot sein, wenn abgesondert von der Seele der Leib für sich allein ist und auch die Seele abgesondert von dem Leibe für sich allein ist. Oder sollte wohl der Tod etwas anderes sein als dieses?“632 Der Leib als Verankerung des personalen Selbst in einer sich ständig wandelnden Umgebung ist auch den Zeichen der Vergänglichkeit und des Wandels unterworfen. Dem Philosophen, der nach dem Unwandelbaren fragt, ist seine leibliche Konstitution daher Anlass zur Trübung einer reinen Erkenntnis: „Wann also trifft die Seele die Wahrheit? Denn wenn sie mit dem Leibe versucht, etwas zu betrachten, dann offenbar wird sie von diesem hintergangen. – Richtig. – Wird also nicht in dem Denken, wenn irgendwo, ihr etwas von dem Seienden offenbar? – Ja. – Und sie denkt offenbar am besten, wenn nichts von diesem sie trübt, weder Gehör noch Gesicht noch Schmerz und Lust, sondern sie am meisten ganz für sich ist, den Leib gehen lässt und soweit irgend möglich ohne Gemeinschaft und Verkehr mit ihm dem Seienden nachgeht. – So ist es. – Also auch dabei verachtet des Philosophen Seele am meisten den Leib, flieht von ihm und sucht, für sich allein zu sein?“633 Platon versteht die Seele als eine Substanz, die dem Körperlichen grundsätzlich verschieden ist und diesem entgegengesetzt wird. Sie steht im Gegensatz zum vergänglichen Körper und wird damit als unvergänglich aufgefasst. Indem der Philosoph auch schon in seinem Leben das Unvergängliche hinter dem Vergänglichen sucht und sich abwendet von seinen körperlich bedingten Sinneswahrnehmungen, ist der Tod die Vollendung der Philosophie: die Abkehr vom Körperlichen. „Und wird nicht das eben die Reinigung sein, was schon immer in unserer Rede vorgekommen ist, dass man die Seele möglichst Vgl. Symposion, 220a–e, 204a–c. In Phaidon, dem Dialog vor dem Tod des Sokrates, führt dieser verschiedene Beweise für die Unsterblichkeit der Seele aus, die auf die Unterschiedlichkeit zwischen Seelischem und Körperlichem rekurrieren. Vgl. Platon: Phaidon, in: Werke in Acht Bänden, Gr./Dt., übers. v. F. Schleiermacher, hg. v. D. Kurz, 3. Band, Darmstadt 2011, S. 1–208. 632 Phaidon, 64c. 633 Phaidon, 65b–d. 630 631
178
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
vom Leibe absondere und sie gewöhne, sich von allen Seiten her aus dem Leibe für sich zu sammeln und zusammenzuziehen und soweit wie möglich, sowohl gegenwärtig als hernach, für sich allein zu bestehen, befreit, wie von Banden, von dem Leibe? – Allerdings, sagte er. – Heißt aber dies nicht Tod, Erlösung und Absonderung der Seele von dem Leibe? – Allerdings, sagte jener. – Und sie zu lösen streben immer am meisten, sagte er, nur allein die wahrhaft Philosophierenden; und eben dies also ist das Geschäft der Philosophen, Befreiung und Absonderung der Seele von dem Leibe, oder nicht? – Offenbar. – Also wäre es ja, wie ich anfänglich sagte, lächerlich, wenn ein Mann, der sich in seinem ganzen Leben darauf eingerichtet hätte, so nahe wie möglich an dem Gestorbensein zu leben, hernach, wenn eben dieses kommt, sich ungebärdig stellen wollte? Wäre das nicht lächerlich?“634 Die Idealisierung der abstrakten Erkenntnis führt bei Platon dazu, dass das Bewusstsein um Leiblichkeit als Grundbedingung für Erkenntnis überhaupt verloren wird. Die Seele wird als Substanz gedeutet, die letztlich im Körper eingesperrt ist. Eine Loslösung der Seele als immaterielle Substanz und als Sitz des Denkens, bedeutet die Vollendung dessen, wonach Philosophen streben. An das Ideal der Befreiung des Geistes aus den Beschränkungen des Körpers knüpfen transhumanistische Entwürfe an. Der normative Unterschied besteht darin, dass Platon gerade durch die Unterschiedlichkeit von Seele und Körper die Aufgabe des Menschen darin sah, Erkenntnis zu erwerben. Transhumanisten hingegen verstehen die Personalität des Menschen als messbare Größe und versuchen, die mathematischen Strukturen und Muster, die quantifizierte Form der Personalität zu finden, um diese in technische Konstruktionen zu implementieren, die eine verbesserte körperliche Version darstellt. An die Stelle der platonischen Ideen des Unvergänglichen sind mathematische Muster getreten. René Descartes (1596–1650): Leben als Maschine, Denken als Geist René Descartes gilt als einer der einflussreichsten Philosophen und Mathematiker der frühen Neuzeit. Er entwickelte die mathematischen Grundlagen der Koordinatengeometrie und der analytischen Geometrie, die in einem engen Zusammenhang mit seinem Ideal von Erkenntnis der Wirklichkeit stehen.635 Er setzte sich aus einer Perspektive als Mathematiker mit den Themen der mittelalterlichen Scholastik auseinander: Gott und die Seele wurden zu Untersuchungsgegenständen seiner philosophischen Diskussion.636 In seinem Werk entfaltet sich systematisch die Problematik, die sich aus dem Konflikt zwischen theologischer Dogmatik auf Phaidon, 67c–d. Störig, Hans-Joachim: Kleine Weltgeschichte der Philosophie, Frankfurt am Main 2006, S. 357f. 636 Ebd., S. 358. 634 635
179
2 Künstliche Intelligenz und Transhumanismus
der einen Seite und einer empirischen Wissenschaftlichkeit und mathematischen Beschreibung der Welt auf der anderen Seite ergeben. Ausgehend von der Unhintergehbarkeit der Selbsterfahrung des Menschen als denkendes und zweifelndes Wesen setzt Descartes das Ich als letzte unverrückbare Gewissheit.637 Descartes leitet die Gewissheit über die Möglichkeit zur Erkenntnis von Wahrheit von der Idee Gottes ab.638 Die Möglichkeit des Irrtums wiederum gründet in der Freiheit des Menschen, die Gott ihm verliehen habe, um eine vollkommene Welt zu schaffen.639 Descartes entwickelt ausgehend davon eine dualistische Konzeption der Welt: Auf der einen Seite steht die Welt des Denkens, des Geistes, des Ich – und auf der anderen Seite die Welt der ausgedehnten Körper, die nach den Gesetzen der Mechanik beschrieben werden können.640 Wie die mechanisch-naturgesetzliche Welt des Körperlichen mit der freien Welt des denkenden Geistes vermittelt werden kann, beantwortete Descartes nicht systematisch.641 Die auf Descartes zurückgehende dualistische Einteilung in eine materielle, objektiv beschreibbare Welt und die Ebene des subjektiven Geistes prägt bis heute die philosophische Debatte. Indem Descartes die Welt des Geistes durch das Denken charakterisiert, fallen auch Tiere ganz unter die Bestimmungen der körperlich-mechanischen Welt, weil er ihnen nicht die Fähigkeit zu denken zuschreibt.642 Descartes prägte den Begriff der „Tiermaschinen“.643 Bei Descartes wird das organische Leben der Tiere vollständig unter die Gesetzmäßigkeiten der Mechanik gestellt. Tiere sind demnach mit Automaten gleichzusetzen. Descartes spaltet die Welt in zwei Bereiche. Die Welt der Körper, einschließlich der Tiere steht dabei ganz unter Ebd., S. 359. Descartes, René: Meditationes, a. a. O., S. 73. Descartes, René: Meditationen über die Erste Philosophie, a. a. O., S. 133. 639 Störig: Kleine Weltgeschichte der Philosophie, a. a. O., S. 360. 640 Ebd., S. 361. 641 Descartes vermutete als Organ der Interaktion die Zirbeldrüse. Vgl. Descartes, René: Über den Menschen, Heidelberg 1969, S. 112. Dies erwies sich schon in der nächsten Generation derer, die seine Philosophie weiterentwickelten, als unzureichend. Störig: Kleine Weltgeschichte der Philosophie, a. a. O., S. 362ff. Vgl. zu Descartes’ Auffassung einer möglichen Interaktion zwischen Körper und Seele über die Zirbeldrüse: Perler, Dominik: Repräsentation bei Descartes, Frankfurt am Main 1996, S. 123ff. 642 „[…] wenn es solche Maschinen gäbe, die die Organe und die äußere Gestalt eines Affen oder irgendeines anderen vernunftlosen Tieres hätten, wir kein Mittel besäßen, um zu erkennen, dass sie nicht in allem die gleiche Natur wie die Tiere aufwiesen.“ (Descartes, René: Discours de la Méthode / Bericht über die Methode, frz./dt., Stuttgart 2012, S. 105.) Vgl. auch Störig: Kleine Weltgeschichte der Philosophie, a. a. O., S. 361. 643 Vgl. zum cartesischen Begriff der „Tiermaschinen“ und zur Problematik des Begriffs: Schneider, Martin: Das mechanistische Denken in der Kontroverse. Descartes’ Beitrag zum Geist-Maschine-Problem, Stuttgart 1993, S. 283–292. 637
638
180
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
den Bedingungen der mechanischen Gesetze.644 Auch der menschliche Körper steht letztlich unter diesen Bestimmungen mechanistischer Naturgesetzlichkeit. „Aber eine Uhr, die aus Rädern und Gewichten besteht, folgt ebenso genau allen Naturgesetzen […] So kann ich auch den menschlichen Körper als eine Art Maschine ansehen, die aus Knochen, Nerven, Muskeln, Adern, Blut und Haut zusammengepasst ist und auch geistlos all die Bewegungen ausführt, wie sie jetzt unwillkürlich, also ohne den Geist, ablaufen.“645 Demgegenüber erhebt sich das Denken als Reich des Geistes und der Freiheit, als Gabe des Göttlichen aus dieser mechanischen Welt heraus. Dem Menschen allein bleibt ein gottgegebener Geist, ein Ich zugestanden, welches in mechanistischen Beschreibungen der Welt nicht aufgehen soll. Dieses ist durch Denken, durch Rationalität charakterisiert. Descartes bereitete mit seiner dualistischen Gegenüberstellung zweier Welten die Grundlage für die Zuspitzungen transhumanistischer Entwürfe vor, die in der Verselbständigung von Logik in maschinellen Systemen eine Höherentwicklung des Menschen sehen. Die Personalität leitet sich für Descartes gerade nicht aus seiner Leiblichkeit ab, sondern von seiner Fähigkeit zum Denken. Rationalität wird damit der Gegenpol zum Mechanischen. Die Welt der Körper, die Welt der Mechanik umfasst auch den Leib. Diese körperliche Welt ist für Descartes letztlich eine Maschinen-Welt. Auch Lebewesen werden nur als Uhrwerk, als Maschinen beschrieben. Unter die Bestimmungen dieser Maschinen-Welt fällt auch der menschliche Körper, sein Leib. Er kann somit nicht die Grundlage für die Personalität des Menschen bilden, die auch durch Denken gekennzeichnet ist. Der Leib steht unter mechanistischen Bestimmungen wie alles Materielle. Nur das Rationale erhebt den Menschen über diese Reduktion auf mechanische Wirkzusammenhänge. Die mechanistische Beschreibung des Menschen gipfelt nicht erst in transhumanistischen Entwürfen, sondern bereits bei Descartes in Konzepten zur Rekonstruktion von Maschinen, die wie Menschen beschaffen sein sollen. In seiner Schrift De Homine (Über den Menschen) entwickelt Descartes einen Bauplan für eine menschenähnliche Maschine.646 Die Analogie zwischen dem menschlichen Körper und einer Maschine setzt er dabei voraus: „Ich stelle mir einmal vor, dass der Körper nichts anderes sei als eine Statue oder Maschine aus Erde.“647 Er entwickelt dabei auch eine materialistische Konzeption kognitiver und sensueller Leistungen wie des Gedächtnisses.648 Vgl. zum mechanistischen Verständnis biologischer Organismen bei Descartes auch Becker, Karin: Philosophische Diskussion der künstlichen Intelligenz und des künstlichen Bewusstseins. Denkmaschinen, Frankfurt am Main 2004, S. 47. 645 Vgl. Descartes, René: Discours de la Méthode / Bericht über die Methode, frz./dt., Stuttgart 2012, S. 105. Vgl. auch Descartes, René: Meditationes, a. a. O., S. 201f. 646 Descartes, René: Über den Menschen, Heidelberg 1969, S. 43. 647 Ebd., S. 44. 648 Ebd., S. 110. 644
181
2 Künstliche Intelligenz und Transhumanismus
In seinem Entwurf setzt er zwar anfangs noch voraus, dass eine solche Maschine gleichermaßen Körper und Seele haben müsste.649 Seinem mechanistisch-deterministischen Programm folgend, mit welchem er auch sämtliche körperlich-organischen Prozesse vollständig zu beschreiben beansprucht, eliminiert Descartes am Ende dieses Entwurfs letztlich das Konzept einer immateriellen Seele. Zwischen Mensch und Uhrwerk besteht demnach kein substantieller Unterschied mehr. Das Kriterium der erfolgreichen Nachahmung menschlichen Verhaltens wird auch bei Descartes bereits zur Zielstellung einer solcher maschinellen Konstruktion.650 Gegenüber der mechanistischen Welt der Körper entwickelt Descartes das Reich des Denkens, der Rationalität als Welt des Geistes, des Göttlichen und der Freiheit. Logik und Rationalität sind für Descartes das Kriterium für Geist und Transzendenz. Der Mensch steht zwischen beiden Welten. Sein Körper steht unter den Bestimmungen der mechanischen Naturgesetzlichkeit, doch sein Denken steht im Reich der Freiheit, des Geistes und des Göttlichen. Rationalität ist das Kriterium dafür, dass der Mensch sich über die Welt der mechanisch determinierten Körper erheben kann. Indem Descartes die Beschreibung der Tierwelt als die Welt des organischen Lebens vollständig unter mechanistische Bestimmungen stellt, wird die Rationalität des menschlichen Geistes als unvermittelbare diametral entgegengesetzte Bestimmung des genuin Menschlichen aufgefasst. Die leibliche Konstitution Ebd., S. 43. „Ich wünsche, dass man schließlich aufmerksam beachte, dass alle Funktionen, die ich dieser Maschine zugeschrieben habe, z. B. die Verdauung der Nahrung, das Schlagen des Herzens und der Arterien, die Ernährung und das Wachstum der Glieder, die Atmung, das Wachen, Schlafen, die Aufnahme des Lichtes, der Töne, der Gerüche, des Geschmacks, der Wärme und anderer solcher Qualitäten über die äußeren Sinnesorgane, den Eindruck ihrer Wahrnehmungen auf das Organ des Sensus communis und der Einbildungskraft, die Zurückhaltung oder Verankerung dieser Ideen im Gedächtnis, die inneren Bewegungen des Appetits und der Gemütsbewegungen und schließlich die äußeren Bewegungen aller Glieder, die sowohl den Bewegungen der Objekte, die sich den Sinnen darbieten, als auch den Gemütsbewegungen und den Eindrücken, die sich im Gedächtnis befinden, in passender Weise so folgen, dass sie so vollkommen wie möglich die eines richtigen Menschen nachahmen: ich wünsche, sage ich, dass man bedenke, dass die Funktionen in dieser Maschine alle von Natur aus allein aus der Disposition ihrer Organe hervorgehen, nicht mehr und nicht weniger, als die Bewegungen einer Uhr oder eines anderen Automaten von der Anordnung ihrer Gewichte und ihrer Räder abhängen. Daher ist es in keiner Weise erforderlich, hier für diese (die Maschine) eine vegetative oder sensitive Seele oder ein anderes Bewegungs- und Lebensprinzip anzunehmen […]“ (Ebd., S. 136.) Stellen in anderen Texten lassen vermuten, dass dem erhaltenen ersten Teil der Schrift ursprünglich ein zweiter Teil folgte, in welcher er die Seele beschreibt, der jedoch verlorengegangen ist oder von Descartes vernichtet wurde, weil sie ihm selbst unzureichend schien. (Vgl. ebd., S. 135, Fußnote des Hg. Karl E. Rothschuh.) Die mechanistische Beschreibung des organischen Lebens erfolgt bei Descartes mit dem Anspruch einer systematischen Vollständigkeit, die letztlich eine Vermittlung zwischen einer rationalen immateriellen Seele und einem restlos durch mechanische Prozesse bestimmten Körper unmöglich werden lässt.
649 650
182
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
des Menschseins ist in diesem Zug abgewertet auf Mechanisches. In der cartesischen Scheidung eines Körper-Geist-Dualismus verbirgt sich eine Überhöhung des Rationalen als einseitige Betrachtung einer vermeintlichen Außenwelt unter mechanistisch-deterministischen Bestimmungen. Diese Rationalität wird wiederum als das genuin Menschliche ins Zentrum der Selbstbestimmung des Menschen gerückt. Bei Descartes bildet es noch als gottgegebene Seele die verdinglichte Garantie autonomer Selbstbestimmung in einer ansonsten mechanistisch konzipierten Welt. Künstliche Intelligenz stellt für Transhumanisten wie Moravec die Essenz des Rationalen und des Logischen dar. Maschinen mit künstlicher Intelligenz erheben sich daher ebenso wie der Mensch über die Welt der mechanisch determinierten Körper. Ihnen kann Geist zugeschrieben werden, weil sie Anteil an der Sphäre des Logischen haben. Indem künstliche Intelligenz losgelöst ist von den triebhaften, körperlichen Bedürfnissen des Menschen, stellt sie eine reinere und höhere Form ungetrübter Rationalität, puren Geistes dar. Die leiblich-konstitutiven Bedingungen des Geistes sind für Descartes ebenso wie für Transhumanisten wie Kurzweil und Moravec von geringer Relevanz.651 Galileo Galilei (1564–1641): Die Vermessung der Welt Galileo Galilei leistete im Anschluss an Kopernikus wichtige Beiträge für die Weiterentwicklung und Systematisierung der astronomischen Wissenschaften. Er entwickelte das Fernrohr weiter und vergrößerte damit die Möglichkeit zu astronomischen Entdeckungen. Gleichzeitig setzte er sich dafür ein, dass die astronomische Forschung nicht mehr nur als mathematische Grundlage für Berechnungen gesehen wurde, sondern eine Beschreibung der Himmelskörper liefern könnte.652 Damit stellte er sich in eine Reihe von Nikolaus Kopernikus und Giordano Bruno, deren astronomische Entdeckungen als Gefährdung der theologischen Dogmatik ihrer Zeit interpretiert worden waren.653 Edmund Husserl deutet in seiner Krisis der europäischen Wissenschaften654 Galileis Werke als wichtigen Schritt in der Grundlegung der empirischen Wissenschaftlichkeit. In der
Vgl. Descartes: Meditationes, a. a. O., S. 205 und S. 219. Vgl. zu einer detaillierteren Auseinandersetzung mit der Tradition des cartesischen Dualismus und ihrer Rekonstruktion im Kontext von Kybernetik und Maschinendenken: Schneider, Martin: Das mechanistische Denken in der Kontroverse. Descartes’ Beitrag zum Geist-Maschine-Problem, Stuttgart 1993. Vgl. auch Beckermann, Ansgar: Descartes’ metaphysischer Beweis für den Dualismus, Freiburg / München 1986, S. 24ff. 652 Toulmin, Stephen und Goodfield, June: Modelle des Kosmos, München 1970, S. 203. 653 Ebd., S.196f. 654 Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie, hg. v. Walter Biemel, Haag 1976. 651
183
2 Künstliche Intelligenz und Transhumanismus
Annahme, durch eine Vermessung und Überführung eines Phänomens in ein mathematisches System die „Wahrheit“ eines Objektes greifen zu können, sieht er eine Grundannahme im Selbstverständnis empirischer Wissenschaftlichkeit: „Die Konzeption dieser Idee eines rationalen unendlichen Seinsalls mit einer systematisch es beherrschenden rationalen Wissenschaft ist das unerhört Neue. Eine unendliche Welt, hier eine Welt von Idealitäten, ist konzipiert als eine solche, deren Objekte nicht einzelweise unvollkommen und wie zufällig unserer Erkenntnis zugänglich werden, sondern eine rationale, systematisch einheitliche Methode erreicht – im unendlichen Fortschreiten – schließlich jedes Objekt nach seinem vollen An-sich-sein.“655 Die Messbarkeit von Phänomen fungiert dabei als Brücke zwischen subjektiver Wahrnehmung und objektiver Wahrheit in Form von „Limesgestalten“ als immer größerer Annäherung an die Wahrheit.656 Die Messkunst wird damit zur Methode der Erschließung objektiver Wahrheit in Raumzeitlichkeit. „Wie immer eine solche Methodik ausgebildet ist, da haben wir damit auch die Relativität der subjektiven Auffassungen überwunden, die nun einmal der empirischanschaulichen Welt wesentlich ist. Denn auf diese Weise gewinnen wir eine identische irrelative Wahrheit, von der jedermann, der diese Methode zu verstehen und zu üben vermag, sich überzeugen kann. Hier also erkennen wir ein wahrhaft Seiendes selbst – obschon nur in Form einer vom empirisch Gegebenen aus stetig zu steigernden Approximation an die geometrische Idealgestalt, die als leitender Pol fungiert.“657 Naturwissenschaft bleibt dabei immer „Hypothese“ und „Bewährung“, ein unendlicher Progressus, aufsteigende Vervollkommnung.658 Husserl sieht in diesem Ansatz eine Vereinseitigung und Idealisierung der Objektivierbarkeit von Phänomenen und eine dualistische Aufspaltung in eine sinnlich wahrnehmbare subjektive Lebenswelt und eine idealisierte, mathematisierte Form objektiver Erkenntnis.659 Das Denken, das sich von der sinnlichen Anschauung der Natur losgelöst und verselbständigt hat, idealisiert seine Gegenstände, unterstellt der Wirklichkeit die Gültigkeit von Gesetzen, die der Mensch anhand seines Denkens von seinen Beobachtungen ableitet. „Gleich mit Galilei beginnt also die Unterscheidung der idealisierten Natur für die vorwissenschaftlich anschauliche Natur.“660
Ebd., S. 21. Ebd., S. 27. 657 Ebd. 658 Ebd., S. 44. 659 Vgl. zu Galileis Mathematisierung der Natur und zu Husserls Rekonstruktion des galileischen Naturverständnisses auch Janich, Peter: Die Galileische Geometrie, in: Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991, S. 164–179. 660 Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, a. a. O., S. 53. 655
656
184
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
Gottfried Wilhelm Leibniz (1646–1716): Universelle Mathematik Gottfried Wilhelm Leibniz entwickelte eine mathesis universalis, in welcher Denken und Wissen auf Rechnen zurückgeführt werden soll.661 Alle wissenschaftlichen Probleme sollen demnach durch Rechenkalküle gelöst werden können.662 In seinem Programm der mathesis universalis soll jedes Problem in eine lingua universalis in Form einer symbolischen Rechensprache übersetzt werden.663 Durch allgemeine mechanische Rechenverfahren könne jedes Problem entschieden werden, jeder mechanische Naturprozess könne durch Rechenautomaten simuliert werden.664 Leibniz entwickelte damit als erster die Hypothese eines vollständigen mathematischen Systems zur Beschreibung der Welt sowie ein Konzept zur Kodierung wissenschaftlicher Fragen und Probleme in der Sprache der Mathematik.665 Leibniz stellte sich die Welt als ein „perfektes Uhrwerk vor, in dem jeder Zustand wie durch ineinandergreifende Zahnräder determiniert wird.“666 Auch Tiere und Menschen sind Teil dieses komplexen Mechanismus. In seiner Monadologie entwickelt Leibniz auch ein Modell „natürlicher Automaten“. Leibniz spricht vom Lebewesen als einer „organischen Maschine“.667 „So ist jeder organische Körper eines Lebewesens eine Art von göttlicher Maschine oder natürlichem Automaten, der alle künstlichen Automaten unendlich übertrifft. Denn eine durch Menschenkunst gebaute Maschine ist nicht auch Maschine in jedem ihrer Teile. […] Aber die Maschinen der Natur, d. h. die lebendigen Körper, sind noch in ihren kleinsten Teilen, bis ins Unendliche hinein, Maschinen.“668 Die systematischen Entwürfe von Leibniz gelten als erste Grundlegung für das Konzept der Berechenbarkeit von Welt, Sprache und Denken, wodurch er auch als Wegbereiter für die Entwicklung der Informatik gilt. Julien Offray de La Mettrie (1707–1751): Die Maschine Mensch Der Maschinenmensch hat in der europäischen Geistesgeschichte eine lange Tradition. Bereits 1748 publizierte Julien Offray de La Mettrie eine anonyme Schrift „L’homme machine“, die in Mainzer, Klaus: Leben als Maschine, Paderborn 2010, S. 19. Ebd., S. 20. 663 Ebd., S. 23. 664 Ebd., S. 23f. 665 Ebd., S. 24. 666 Ebd. 667 Vgl. Leibniz, Gottfried Wilhelm: Neues System der Natur und der Verbindung der Substanzen sowie der Vereinigung zwischen Seele und Körper, in: Fünf Schriften zur Logik und Metaphysik, Stuttgart 1995, S. 21–34, dort S. 25. 668 Gottfried Wilhelm Leibniz: Monadologie, §64, zit. nach Mainzer: Leben als Maschine, a. a. O., S. 20. 661
662
185
2 Künstliche Intelligenz und Transhumanismus
seinerzeit unerhört provokanter Weise den Menschen und alle Lebensabläufe des Menschen mit denen einer Maschine verglich.669 Er beschreibt als Arzt und Philosoph alle Abläufe des menschlichen Körpers als mechanistisch-funktional determiniert und zieht damit eine Analogie zur Maschine. Er bedient sich auch der Metapher eines Uhrwerks: „Der Körper ist nur eine Uhr.“670 An anderer Stelle schreibt er: „der menschliche Körper ist ein Uhrwerk, aber gewaltig und mit so viel Kunstgriff und Geschicklichkeit konstruiert […]“671. Die Existenz einer immateriellen Seele, wie sie Descartes angenommen hatte, weist La Mettrie zurück: Die „Seele“ lokalisiert de La Mettrie im Gehirn: „denn wie die Beine zum Laufen hat das Gehirn seine Muskeln zum Denken. Ich spreche von jenem anregenden und heftigen Prinzip, das Hippokrates ενορμων (die Seele) nennt. Dieses Prinzip gibt es wirklich und es hat seinen Sitz im Gehirn, am Ursprung der Nerven, durch die es seine Macht auf den gesamten übrigen Körper ausübt. Von hier erklärt sich alles, was man erklären kann, bis hin zu den überraschenden Wirkungen der Krankheiten der Einbildungskraft.“672 La Mettrie entwickelt damit eine vollständig materialistische Deutung der Seele. Er beschreibt ebenso wie vor ihm Descartes und Leibniz Tiere als Maschinen und vergleicht diese Tiere als komplexe Maschinen mit Menschen: „wie könnte es da abwegig sein zu denken, dass Wesen, Maschinen, die fast so vollkommen sind wie wir, geschaffen sind, um zu denken und die Natur zu empfinden?“673 Damit weist er eine prinzipielle Abgrenzung des Menschen zu Tieren und Maschinen zurück: „Bedarf es noch weiterer Ausführungen […], um zu beweisen, dass der Mensch nur ein Tier oder eine Zusammensetzung von Triebfedern ist, die sich alle gegenseitig aufziehen, ohne dass man sagen könnte, an welchem Punkt des menschlichen Kreises die Natur den Anfang gemacht hat? Wenn diese Triebfedern sich voneinander unterscheiden, so ist es doch nur durch ihre Lage und durch einige Kraftgrade, und niemals durch ihre Beschaffenheit und folgerichtig ist die Seele nur ein Bewegungsprinzip bzw. ein empfindlicher materieller Teil des Gehirns, den man – ohne einen Irrtum befürchten zu müssen – als eine Haupttriebfeder der ganzen Maschine betrachten kann […].“674 Julien Offray de La Mettrie führt in einer polemischen Zuspitzung die Unterscheidung zwischen Spiritualismus und Materialismus als letztlich einzig mögliche Sichtweisen auf die Seele des Menschen an.675 Vieles, was seelisch oder geistig scheint, erweist sich demnach doch als De La Mettrie, Julien Offray: L’homme machine. Die Maschine Mensch, französisch-deutsch, hg. v. Claudia Becker, Hamburg 1990. 670 Ebd., S. 111. 671 Ebd., S. 121. 672 Ebd., S. 103f. 673 Ebd., S. 75. 674 Ebd., S. 111. 675 Ebd., S. 21. 669
186
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
rein körperlich bedingt. Der Mediziner ist damit derjenige Experte, der durch die Fähigkeit zur empirischen Untersuchung des Körpers Einsichten über die Seele des Menschen erlangen kann, während Philosophen und Theologen hierzu auf keine Erfahrungswerte zurückgreifen könnten, sondern mit ihren Konzepten im Vorurteilsbehafteten und im Bereich der Hirngespinste bleiben.676 Julien Offray de La Mettrie formulierte nicht nur die These, dass der Mensch im Grunde nur eine Maschine sei, sondern deutete bereits an, dass mit dem Fortschreiten der Technik auch vom Menschen Konstruiertes in der Lage sein werde zu sprechen und menschlich zu handeln. So prognostizierte de La Mettrie schon die Möglichkeit, mit technischen Mitteln die Sprachfähigkeit des Menschen in einer Maschine zu simulieren, „[…] um einen Sprecher anzufertigen – eine Maschine, die nicht länger als unmöglich betrachtet werden kann in den Händen eines neuen Prometheus.“677 De La Mettrie schuf damit die Grundlage für Ideen, die mit der Entfaltung von Computertechnologien auf der Grundlage von künstlicher Intelligenz nun in den Bereich technologischer Machbarkeit gerückt sind. Pierre-Simon Laplace (1749–1827): Die Welt als mathematisches Modell Laplace hatte 1799 auf Newtons Mechanik aufbauend ein fünfbändiges Werk über Mechanik verfasst.678 Laplace zufolge geht mit dem mechanistischen Determinismus der Welt auch ihre Berechenbarkeit einher. Die Universalgültigkeit eines strengen Kausalprinzips setzt er für alle Abläufe im Universum voraus, wenn er in seinem Philosophischen Versuch schreibt: „Wir müssen also den gegenwärtigen Zustand des Weltalls als die Wirkung seines früheren und als die Ursache des folgenden Zustands betrachten. Eine Intelligenz, welche für einen gegebenen Augenblick alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage der sie zusammensetzenden Elemente kennte, und überdies umfassend genug wäre, um diese gegebenen Größen der Analysis zu unterwerfen, würde in derselben Formel die Bewegungen der größten Weltkörper wie des leichtesten Atoms umschließen; nichts würde ihr ungewiss sein und Zukunft wie Vergangenheit würden ihr offen vor Augen liegen. Der menschliche Geist bietet in der Vollendung, der er der Astronomie zu geben verstand, ein schwaches Abbild dieser Intelligenz dar. Seine Entdeckungen auf dem Gebiete der Mechanik und Geometrie, verbunden mit der Entdeckung der allgemeinen Gravitation, haben ihn in Stand gesetzt, in demselben analytischen Ausdruck die vergangenen und zukünftigen Zustände des Weltsystems zu umfassen.
Ebd., S. 27. Ebd., S. 121. 678 Vgl. Kinnebrock, Werner: Bedeutende Theorien des 20. Jahrhunderts. Relativitätstheorie, Kosmologie, Quantenmechanik und Chaostheorie, München 2013, S. 12. 676
677
187
2 Künstliche Intelligenz und Transhumanismus
Durch Anwendung derselben Methode auf einige andere Gegenstände seines Wissens ist er dahin gelangt, die beobachtenden Erscheinungen vorauszusehen, die gegebene Umstände herbeiführen müssen. All diese Bemühungen beim Aufsuchen der Wahrheit wirken dahin, ihn unablässig jener Intelligenz näher zu bringen, von der wir uns eben einen Begriff gemacht haben, der aber immer unendlich ferne bleiben wird. Dieses dem Menschen eigentümliche Streben erhebt ihn über das Tier, und seine Fortschritte auf diesem Gebiete unterscheiden die Nationen und Jahrhunderte und machen ihren wahren Ruhm aus.“679 Von seinen Zeitgenossen wurde die Idee einer solchen Intelligenz als „Laplacescher Dämon“ bezeichnet.680 Er bezeichnet eine Perspektive absoluter Objektivität, die alle kausalen Prozesse und Abläufe des gesamten Universums und alle relevanten Informationen kennen würde. Da Laplace von einem strengen Determinismus der Welt ausging, folgt daraus, dass aus einer solchen Perspektive die vollständige Berechenbarkeit der Welt folgen würde und alles Geschehen vorhersagbar wäre. Ein solches mechanistisches Weltbild sieht in einer mathematischen Beschreibung der Wirklichkeit den Gehalt letzter Objektivität und Wahrheit, gegenüber der sich jede subjektive Perspektive als vorläufig erweist.
2.4.3 Die Vergegenständlichung der menschlichen Personalität Im Zuge der Erfolge des aufklärerischen Positivismus etablierte sich als wissenschaftlicher Zugang zu den seelisch-geistigen Potentialen des Menschen die empirische Erforschung ihrer materiellen Grundlagen heraus. An die Stelle der Theologie und Metaphysik traten zunächst Psychologie und Medizin, später Hirnforschung und Informatik, um der Frage empirisch nachzugehen, was Seele und Geist, bzw. die Psyche des Menschen ausmacht. Kausalität, Mechanismus und schließlich Determinismus wurden zu leitenden Deutungsparadigmen für die komplexe Wirklichkeit psychophysischer Intelligenz des Menschen. Wenn psychische Phänomene tatsächlich restlos durch physisch-materielle Prozesse beschrieben und erklärt werden können und ein physikalistisch-materialistischer Reduktionismus die Bewusstseinsfrage beantworten könnte, dann wäre die seelisch-geistige Personalität des Menschen womöglich vollständig als mechanischer Prozess zu deuten. Platon und Descartes deuten die Seele als nicht-materielle Wesenheit. Mit einer empiristischen Aufklärung wird jedoch auch der Glaube an eine unsterbliche Seele als
De Laplace, Pierre Simon: Philosophischer Versuch über die Wahrscheinlichkeit (1814), Leipzig 1932, S. 1f. 680 Mainzer, Klaus: (Hg.): Quanten, Chaos und Dämonen. Erkenntnistheoretische Aspekte der modernen Physik, Mannheim 1994, S. 10. 679
188
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
mythisch-metaphysischer Ballast verabschiedet. Doch bleibt der Begriff der Seele, des Bewusstseins, des Geistes lange Zeit ein Rätsel der Philosophie und wird dort als Leib-Seele-Problem, bzw. als Philosophie des Geistes seit Jahrhunderten diskutiert. Ziel ist dabei vorwiegend, die Seele als Bereich der materiellen Wirklichkeit kohärent in einem naturwissenschaftlich materialistischen Weltbild zu verankern. Dies erfordert Möglichkeiten, die Seele, das unverfügbare Innenleben des Menschen, messbar werden zu lassen. Die empirisch-naturwissenschaftlichen Fachdisziplinen, in denen das seelisch-geistige Erleben und Verhalten untersucht werden, sind Psychologie, Neurowissenschaften, Endokrinologie, Humangenetik und letztlich die Informatik als Entwicklung von künstlicher Intelligenz. Die wissenschaftliche Vergegenständlichung der Seele kann in drei Schritten nachgezeichnet werden: Erstens wird die Seele in der Psychologie objektiviert. Die Psychologie sucht nach Gesetzmäßigkeiten, mit denen das Psychische von außen beschrieben werden kann. Neben dem Objektiven bleibt in der Psychologie dabei der Geltungsanspruch des Subjektiven erhalten. Die zweite Radikalisierung der Verdinglichung der Seele mündet in ihrer materialistischen Verdinglichung. In den Neurowissenschaften werden die biochemischen und physikalischen Gesetzmäßigkeiten der Gehirntätigkeit untersucht: Man will „dem Gehirn beim Denken zuschauen“.681 Flankiert werden die Versuche, die Emotionalität und Personalität des Menschen zu enträtseln, von Endokrinologie und Humangenetik. Die dritte Radikalisierung bildet die funktionalistische Verdinglichung der Seele und der Versuch ihrer Nachbildung. Wesentlich sind demnach die Funktionen und Kompetenzen des Geistes. Diese können mithilfe von künstlicher Intelligenz einzeln nachgebaut und simuliert werden – um sie schließlich zu etwas zusammenzufügen, was wir irgendwann vielleicht mit menschlicher Personalität gleichsetzen. Die Objektivierung des Subjektiven: Psychologie als Empirie der Seele Die Psychologie widmet sich dem seelischen Erleben des Menschen. Der subjektive Charakter des Psychischen behält dabei neben dem Anspruch nach Objektivierung seinen Geltungsanspruch: Nicht nur Beobachtbarkeit aus der 3.-Person-Perspektive, sondern auch Erlebbarkeit aus der 1.Person-Perspektive zählt als Kriterium der „Wirklichkeit“.682 Zu den klassischen Methoden in der psychologischen Forschung zählen daher auch Gespräch und Fragebogen, um lebensweltliches Wissen und subjektives Empfinden in ausgewählten
681
Gabriel, Markus: Ich ist nicht Gehirn, a. a. O., S. 19f. Maderthaner, Rainer: Einführung in die Psychologie, in: Kastner-Koller, Ursula und Deimann, Pia (Hg.): Psychologie als Wissenschaft, Wien 2006, S. 13–34, dort S. 17.
682
189
2 Künstliche Intelligenz und Transhumanismus
Situationen einzubeziehen und auswertbar werden zu lassen.683 Die Frage nach Subjektivität und Objektivität ist dabei nach wie vor umstritten. Das Bestreben nach möglichst hoher „Wissenschaftlichkeit“ erfordert eine möglichst große Objektivität der Forschungsmethoden, während das Einbeziehen subjektiver Standpunkte für das Verstehen der komplexen Lebensrealität eines anderen Menschen sich bislang nach wie vor als unumgänglich erwiesen hat.684 Die materialistische Verdinglichung des Psychischen: Biologische Psychologie und Neurowissenschaften Der Psychologie als gesamter Fachwissenschaft mit einer methodenkritischen Darstellung in ihrer gegenwärtigen Komplexität gerecht zu werden, wäre eine eigene, umfassende Arbeit. Zu groß sind die methodischen Unterschiede und die zugrundeliegenden Prämissen und Weltbilder beispielsweise von Psychoanalyse, Systemischer Therapie, Biologischer Psychologie. In der Biologischen Psychologie werden die materiellen Grundlagen des Seelischen in den Blick genommen als das offenbar Wesentliche, Unhintergehbare unseres Seins. Der Untersuchungsgegenstand einer Psychologie, die sich auf die messbaren Quantitäten des psychischen Erlebens konzentrieren will, wird die körperliche Grundlage des Menschen, also die biochemisch und physikalisch messbare Konstitution der Aspekte des Körpers, die mit der Subjektivität des Menschen offenbar objektiv korrelieren. Dazu zählt das menschliche Gehirn, bzw. das zentrale Nervensystem als materieller Verortungsversuch von personaler Identität und Bewusstsein, dazu zählen Hormone und andere biochemische Grundlagen unseres Erlebens und dazu zählen auch die Informationen über den „Bauplan“ menschlichen Lebens, unsere Gene. Naturwissenschaftliche Fachdisziplinen, die sich diesen materiellen Substraten mit offenbar psychischer Korrelation widmen, sind Neurowissenschaften bzw. Hirnforschung, Endokrinologie und Humangenetik. Diese Aspekte werden in der psychologischen Forschung auch als „Biologische Psychologie“ zusammengefasst.685 Die Objektivierung des Seelischen führt damit zu ihrer Vermessung und Quantifizierung. Elektrische, magnetische, chemische und molekulare Vorgänge im Gehirn können von keiner Disziplin allein verstanden werden, daher sind die Forschungen interdisziplinär.686 Hirnforschung, Sinnesphysiologie, Somatosensorik, Endo-
Kubinger, Klaus D.: Psychologische Diagnostik, in: Kastner-Koller / Deimann 2006, a. a. O., S. 139– 154, dort S. 150. 684 Maderthaner: Einführung in die Psychologie, a. a. O., S. 29. 685 Birbaumer, Niels und Schmidt, Robert F.: Biologische Psychologie, Heidelberg 2010. 686 Ebd., S. 2f. 683
190
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
krinologie, Genetik, Kognitionswissenschaften und die Rolle des peripheren Nervensystems spielen dabei eine Rolle. Als Fazit zum Verhältnis von Subjektivem und Objektivem steht dabei nicht selten ein physikalistischer Reduktionismus.687 Seelisch-geistiges Erleben, die Ich-Perspektive, wäre demnach vollständig und restlos aus den materiell beobachtbaren und empirisch messbaren Elementen abzuleiten. Die Biologische Psychologie vereint verschiedene Wissenschaften wie Neurowissenschaften und Humangenetik, die ihrerseits jedoch auch eigenständige Fachwissenschaften sind und der Biologischen Psychologie historisch vorausgingen. In der Biologischen Psychologie werden diese Untersuchungen zusammengetragen und neu geordnet. Für alle hier genannten Bereiche trifft jedoch zu, dass der Begriff der Seele, bzw. Psyche eine methodische Einschränkung erfährt. Der subjektive Standpunkt wird zunehmend unwichtiger, wenn die objektiv messbaren materiellen Grundlagen des psychischen Erlebens untersucht und systematisiert werden. Die Verdinglichung der Seele erfährt eine materialistische Reduktion. Im Spannungsfeld zwischen Objektivität und Subjektivität ist hier scheinbar ein Objektivitätsideal auch in Bezug auf das seelisch-geistige Leben des Menschen erreicht. Die Annahme, alles Wirkliche könne man auch allein mit empirisch-wissenschaftlichen Forschungsmethoden beobachten, in wissenschaftlichen Termini beschreiben und erklären, kann in einer kompletten Ausblendung der Subjektivität münden. Das Bestreben, alles Seiende mit objektiv Messbarem zu identifizieren, betrachtet auch die Subjektivität nur als Objektives. Das Gehirn wird mit dem Ich identifiziert, bzw. wird das Ich im Gehirn gesucht als etwas zu Messendes. Wenn das Ich nicht gemessen werden kann, so steht ihm auch keine Realität zu. Die restlose Tilgung des Seelischen aus dem menschlichen Leib reduziert diesen zum Körper, zur bloßen Materie. Beide Begriffe, Seele und Leib, werden somit hinfällig. Was bleibt, ist Materie, dessen Aspekt des Psychischen formalistisch so in die Konzeption eingepasst werden muss, dass sie keine gesonderte Entität mehr darstellen muss, sondern als bloßes Perspektivproblem übergangen werden kann.688
Ebd., S.7: „Zum Leib-Seele-Problem ist festzuhalten, dass psychische Prozesse und Verhalten vollständig und ausschließlich von der Hirntätigkeit abhängig sind. Eine Wirkung psychischer Prozesse auf die physiologischen Vorgänge des Gehirns besteht nicht.“ 688 Die früheste Ausformulierung dieser Konzeption findet sich bei den vorsokratischen Atomisten Leukipp und Demokrit. Demnach bestehe auch die Seele aus kleinen, feinteiligen und unteilbaren Elementen. (Demokrit, nach Aristoteles: De anima / Über die Seele, A 2 405a 5f / DK 68 A 101, zit. nach Mansfeld und Primavesi: Die Vorsokratiker, a. a. O., S. 716f.) Bereits für Demokrit ergibt sich dadurch ein Defizit in der Vermittlung von seiner Erkenntnistheorie und seiner Ethik. Auch Epikur greift eine atomistisch-körperliche Konzeption der Seele auf (Hist. Wörterbuch der Phil., Bd. 9, a. a. O., S. 6f). 687
191
2 Künstliche Intelligenz und Transhumanismus
Von der materialistischen Verdinglichung zur funktionalistischen Abstraktion In transhumanistischen Zielstellungen führen Quantifizierung und Formalisierung des Psychisch-Geistigen zu Visionen einer vollständigen Verfügbarmachung der menschlichen Personalität. Der Mensch wird als komplexe Maschine aufgefasst, die nicht nur vollständig analysiert, vermessen, beschrieben und verstanden werden kann, sondern die auch nachgebildet und letztlich mithilfe von technologischen Möglichkeiten verbessert werden soll. Sollte es gelingen, das Gehirn komplett über seine materielle Beschaffenheit und Wirkungsweise zu untersuchen und zu verstehen und sollte es möglich sein, die einzelnen Bausteine zu rekonstruieren, so wäre bestenfalls auch eine detailgetreue Nachbildung der menschlichen Intelligenz und des menschlichen Geistes möglich. Dieses Projekt wird in Entwürfen des Transhumanismus formuliert. Die zugrundeliegende Annahme über das Verhältnis von Leib und Seele ist dabei behavioristisch, bzw. funktionalistisch: Wenn Leistungen des menschlichen Geistes so simuliert werden können, dass ein außenstehender Beobachter den Output einer künstlichen Intelligenz nicht von den Ergebnissen menschlicher Intelligenz unterscheiden kann, dann werden wir den entsprechenden Maschinen auch Bewusstsein, Emotionen etc. zuschreiben.689 Die Seele, bzw. der Geist des Menschen wird somit als Ergebnis der Rechenleistung einer Art Computer aufgefasst.690 Informatik und Neurowissenschaften verschränken sich in Geltungsanspruch und Begründungsstrukturen. Beide Bereiche prägen einander in der Theorie- und Modellbildung. KI-Forschungen orientieren sich am menschlichen Denken bei der Simulation von Intelligenz, Neurowissenschaften orientieren sich an Computermodellen bei der Untersuchung des menschlichen Gehirns.691 Marvin Minsky, einer der Pioniere in den Forschungen zu KI, war davon überzeugt: „Es gibt keine klare Grenze zwischen der Psychologie und Artifizieller Intelligenz, weil das Gehirn selbst so eine Art Maschine ist.“692 Um das Gehirn als biologisches Organ, welches wohl am stärksten mit dem menschlichen Geist korreliert, zu verstehen, sind offenbar Rückkopplungen an Modelle, die sich auf greifbarere Dinge aus unserer Lebenswelt beziehen, nötig. Dabei zeigt sich „die Tendenz, einfach immer die gerade am
Turing, Alan M.: Kann eine Maschine denken?, in: Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 39–78. 690 Teichert, Dieter: Einführung in die Philosophie des Geistes, Darmstadt 2006, S. 93f. 691 „Könnte es vielleicht sein, dass sich die Begriffe ‚Bewusstsein‘, ‚Geist‘, ‚Intelligenz‘ oder ‚Wille‘, wie sie Neurobiologen verwenden, bereits so stark an Computermodellen orientieren, dass sie deshalb experimentell bestätigt werden? […] Man beweist nicht, dass Geist aus Materie stammt, sondern setzt das bereits voraus, indem man Geist mit Hilfe von hirnbiologischen Prozessen definiert.“ (Ewald, Günter: Gehirn, Seele und Computer. Der Mensch im Quantenzeitalter, Darmstadt 2006, S. 11.) 692 Minsky, Marvin: Mentopolis, Stuttgart 1990, S. 328. 689
192
2.4 Die Welt in Zahlen: Die Mathematisierung von Welt und Mensch
weitesten entwickelte naturwissenschaftliche Disziplin auch zur Deutung nervöser Prozesse heranzuziehen.“693 Der Geist als mathematische Struktur: Die funktionalistische Reduktion der Personalität Die Informatik lieferte mit der Entwicklung des Computers als anschauliches datenverarbeitendes System auch einen neuen Ansatz für ein Verständnis des menschlichen Geistes. Denken, Wahrnehmen, Sprechen und Wissen wurden in den Kognitionswissenschaften als Prozesse von Datenverarbeitung verstanden.694 Das Computermodell des Geistes wurde in dieser Fachdisziplin zum leitenden Modell für ein besseres Verständnis über den Menschen.695 Der Mensch muss also zuerst eine Maschine bauen, mit der er sich vergleichen kann, um etwas über sich selbst zu erfahren. Der Zugang zur Seele, zur Personalität des Menschen, erfolgt mittels der Technisierung des Gehirns. Forschungen zu Gehirn-Maschinen-Schnittstellen („Brain Machine Interface“) stellen ein experimentelles Feld dar, in dem die Technisierung des Gehirns nicht mehr nur analytisch-deskriptiv, sondern technisch-konstruktiv erschlossen werden soll. Der Weg zu einer Selbstoptimierung in Form einer Optimierung von Gehirnfunktionen unter technisch-quantitativen Gesichtspunkten ist damit möglich geworden.696 Kränkungen für das menschliche Selbstbild Sigmund Freud sprach davon, dass „die Eigenliebe der Menschheit bis jetzt drei schwere Kränkungen von seiten der wissenschaftlichen Forschung erfahren hat.“697 In der kopernikanischen Wende hin zum heliozentrischen Weltbild erfuhr der Mensch zuerst seine „kosmologische Kränkung“, nach der die Erde nicht mehr Mittelpunkt des Universums war. Durch die Theorie der Entstehung der Arten nach Charles Darwin widerfuhr ihm „die zweite, biologische Kränkung“: Der Mensch ist nunmehr „nichts anderes und nichts besseres als die Tiere“. Freud stellt sich selbst in diese prominente Reihe: „Am empfindlichsten trifft wohl die dritte Kränkung,
Guttmann, Gieselher: Biologische Psychologie, in: Psychologie als Wissenschaft, a. a. O., S. 109–122, dort S. 110. 694 Lenzen, Manuela: Natürliche und künstliche Intelligenz. Einführung in die Kognitionswissenschaft, Frankfurt am Main 2002, S. 9. 695 Ebd., S. 24. 696 Vgl. Müller, Oliver: Zwischen Mensch und Maschine. Vom Glück und Unglück des Homo faber, Berlin 2010, S. 18f. 697 Sigmund Freud: Eine Schwierigkeit der Psychoanalyse, in: Imago. Zeitschrift für Anwendung der Psychoanalyse auf die Geisteswissenschaften V (1917), S. 1–7, dort S.4. 693
193
2 Künstliche Intelligenz und Transhumanismus
die psychologischer Natur ist.“698 Mit diesen Worten von Freud können auch die materialistischen und funktionalistischen Reduktionen der Seele zusammen mit dem transhumanistischen Projekt der Nachbildung des menschlichen Geistes als weitere Kränkungen gedeutet werden, wenn die Personalität des Menschen nicht nur Untersuchungsgegenstand einer quantifizierenden Wissenschaft sein soll, sondern die Nachbildung des menschlichen Geistes durch eine künstliche Intelligenz dahin führt, dass der Mensch, der sich als Maschine deutet, von Maschinen ersetzt wird, die besser sind als er selbst.699
Ebd. Vgl. Wittig, Frank: Maschinenmenschen. Zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik, Würzburg 1997, S.14.
698
699
194
3 Negativität und philosophische Vernunftkritik Das Bild von Mensch und Welt, das im letzten Teil der Arbeit skizziert wurde, gründet in der Annahme, dass es für den wissenschaftlich restlos aufgeklärten Menschen keine Grenzen mehr geben wird. Alles in der Welt kann vermessen und formalisiert, in Zahlen und Naturgesetzen abgebildet werden. Mit den Formulierungen von Horkheimer und Adorno bedeutet das: „Es soll kein Geheimnis geben, aber auch nicht den Wunsch seiner Offenbarung.“1 Damit untersteht es auch dem Herrschaftsanspruch der menschlichen Vernunft über die Natur.: „Das Wissen, das Macht ist, kennt keine Schranken.“2 In den Entwürfen des Transhumanismus radikalisieren sich die Visionen einer vollständigen Entgrenzung des Menschen: Weder der Erkenntnis noch den technischen Möglichkeiten noch der menschlichen Existenz sind endgültige Grenzen gesetzt. Der Mensch kann alles quantifizieren, alles messen, alles rekonstruieren, alles optimieren und alles überwinden – auch den Tod, auch den Menschen selbst. Grenzen, wenn es sie gibt, sind immer nur vorläufig und sie sind dazu da, um überwunden zu werden. Doch was verliert der Mensch mit seinen Grenzen? Dieser Frage widmet sich die vorliegende Arbeit. Grenzen des Menschlichen In der Philosophiegeschichte wurde die Bedeutung von Grenzen für den Menschen in vielen verschiedenen Perspektiven diskutiert. Als Charakteristikum der Philosophie gilt seit Sokrates vielleicht der Zweifel. Er drückt den Kern des philosophischen Fragens aus: Wissen wir das? Sind wir uns dessen sicher? Philosophie beschäftigt sich seit Sokrates mit den Grenzen des Wissens. Philosophisches Fragen gründet im Nichtwissen. Das Fragen nach Gerechtigkeit ist auch ein Fragen nach den Grenzen des Handelns. Die Religionskritik, die für Sokrates, Kant, Feuerbach, Nietzsche und viele andere selbstverständlich zum Wesen des philosophischen Fragens gehört, widmet sich den Grenzen der Religion und ihres Deutungsanspruchs. Letztlich kreist das philosophische Fragen um die Grenzen des Menschen und um die Grenzen des Menschlichen. Anders Max Horkheimer und Theodor W. Adorno: Dialektik der Aufklärung, Philosophische Fragmente, Frankfurt am Main 1990, S. 9. 2 Ebd., S. 10. 1
195
3 Negativität und philosophische Vernunftkritik
als in transhumanistischen Entwürfen wurden in der Philosophie diese Grenzen nicht nur als Probleme gedeutet, die schnellstmöglich gelöst werden müssen. Stattdessen erweisen sich viele Grenzen als bedeutsam für den Menschen in seiner Existenz. Was wäre, wenn wir alles wüssten? Könnten wir dann noch fragen? Wie würden wir einander behandeln, wenn wir auf einen Blick alles wüssten, was die Persönlichkeit des Menschen ausmacht? Dialog und Sprache wären irrelevant. Vertrauen gäbe es ebensowenig wie Überraschungen. Könnten wir uns gegenseitig als freie Individuen behandeln, wenn wir alle unsere Wünsche, vergangene wie zukünftige Handlungen durch strenge Kausalprinzipien rekonstruieren und vorhersagen könnten? Manche Grenzen sind keine Probleme, die gelöst werden könnten, sondern sie bilden einen Horizont, in dem die menschliche Lebenspraxis sich erst entfalten kann. Für Sokrates ist das Nichtwissen, die Einsicht in das eigene Unwissen, der Beginn der Philosophie: die Offenheit, zu fragen, zu suchen, neugierig zu bleiben. Auch die philosophische Ethik und Normativität ringt um Grenzen des Menschen, die eine Freiheit erst ermöglichen: Was darf der Mensch nicht tun? Welche Beschränkung der Handlungspraxis ist notwendig, um eine lebenswerte Gesellschaft zu ermöglichen? Was wäre, wenn mich mein Nachbar jederzeit bestehlen, verletzen und töten könnte? Auch im Bereich des Normativen gründet Freiheit in den Grenzen des Menschen als Selbstbeschränkung ihrer Handlungspraxis. Es handelt sich um Grenzen, die für den Menschen erst die Möglichkeit schaffen, nach Sinn zu fragen und vielleicht Sinn zu finden oder sinnvoll zu leben. Sie sind „sinnkonstitutiv“. Grenzen sind zunächst negativ. Sie negieren jeweils etwas anderes. Nichtwissen ist die Negation von Wissen. Wenn ich meinen Nachbarn nicht töten darf, negiert diese Pflicht meine Möglichkeiten zur Selbstjustiz. Diese Negativität ist aber jeweils nicht absolut, sondern schafft Raum für etwas Neues: Weil wir einander nicht töten, leben wir wesentlich entspannter als ohne diese Beschränkung. Weil ich so vieles nicht weiß, kann ich noch dazulernen. Die Rede von Grenzen, die für die menschliche Lebenspraxis von unhintergehbarer Bedeutung sind, lässt sich mit dem Begriff der „sinnkonstitutiven Negativität“ zusammenfassen. Selbstverständlich ist nicht jede Grenze sinnkonstitutiv, nicht jede Beschränkung zu bejahen. Doch die Visionen des Transhumanismus, die eine systematische Abschaffung jeder Grenze anzielen, bergen auch Gefahren. Eine philosophische Perspektive muss daher fragen, welche Grenzen des Menschen zum Raum der sinnkonstitutiven Negativität gehören und wo die Grenzen des Menschlichen liegen. Aufbau des Kapitels Das vorliegende Kapitel führt im ersten Schritt in die Begrifflichkeit der sinnkonstitutiven Negativität und Vernunftkritik ein. Systematisch knüpft die hier vorliegende Argumentationslinie an die Arbeiten von Thomas Rentsch an. Ausgehend von Heidegger und Wittgenstein 196
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit
erschließt Rentsch in der Vernunftkritik des 20. Jahrhunderts Aspekte von Negativität in ontologischer, logischer, ethischer, anthropologischer, religionsphilosophischer und erkenntnistheoretischer Perspektive. Seiner Hermeneutik folgend werden in der vorliegenden Arbeit auch andere Autoren und Perspektiven von sinnkonstitutiver Negativität und Vernunftkritik in den Blick genommen. Insbesondere geht die vorliegende Arbeit in der Rekonstruktion von Paradigmenwechseln in empirischen Fachwissenschaften des 20. Jahrhunderts unter dem Blickwinkel von Vernunftkritik und Negativität über die von Thomas Rentsch formulierten Ansätze hinaus, wenn diese sich für eine Diskussion transhumanistischer Begründungsstrukturen als fruchtbar erweisen.
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit Negativität umfasst als generalisierender Begriff eine Vielzahl an Perspektiven, Phänomenen und Aspekten. In Erkenntnistheorie, Logik, Sprachphilosophie, Wissenschaftstheorie, Ontologie, Metaphysik, Anthropologie, Religionsphilosophie, politischer Philosophie, Sozialphilosophie und Ethik sind Aspekte von Negativität unhintergehbar. Die Bedingungen und Grenzen leiblichen Lebens, lebensweltlicher Praxis und individueller Lebensgestaltungen sind von Dimensionen sinnkonstitutiver Negativität durchzogen. Ontologisch begegnet Negativität als Nichts, Nichtigkeit, Versagung oder als Tod.3 Erkenntnistheoretisch bildet Nichtwissen als Möglichkeit von Philosophie die Grundlage für jede mögliche Erkenntnis überhaupt. Wissenschaftstheoretisch wird Negativität als Falsifizierbarkeit zum Kriterium empirischer wissenschaftlicher Praxis. Sprachphilosophisch zeigt sich Negativität als Unverfügbarkeit sprachlicher Praxis für eine vollständige Formalisierbarkeit. Metaphysisch umfasst Negativität das Dahinterfragen hinter die Möglichkeitsbedingungen menschlicher Lebenspraxis (als „Daseinsgrund“) oder als Systematisierungsversuch von Dimensionen von Transzendenz. Logisch kann Negativität als Negation aufgefasst werden. Als Verneinung bildet Negativität die Bedingung für jedes logische Schließen und für einen analytischen Zugang zu Sprache, wobei das Negative dort in den Dienst des Affirmativen tritt.4 Anthropologisch kann Negativität als Offenheit, als „Neinsagenkönnen“5, als „Unableitbarkeit unserer Handlungen“ sowie als „Nichtobjektivierbarkeit der singulären Totalität unseres personalen Lebens“6 gedeutet werden. Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000, S. 9. Adorno, Theodor W.: Negative Dialektik, Frankfurt am Main 2013, S. 9. 5 Rentsch: Negativität und praktische Vernunft, a. a. O., S. 9. 6 Ebd., S. 15, im Original kursiv. 3 4
197
3 Negativität und philosophische Vernunftkritik
Religionsphilosophisch artikulieren sich im Fragen nach dem Verhältnis des Menschen zur Transzendenz Aspekte von Negativität als Bedingungen für Sinnkonstitution. Als intersubjektive Unverfügbarkeit kann sozialphilosophisch von Negativität als Grundbedingung gesellschaftlicher Praxis gesprochen werden. In konfligierenden Interessen und Interdependenzen zeigt sich die Fragilität menschlichen Zusammenlebens in nichtidealen Gesellschaften und Umwelten, worauf aus einer Perspektive der Politischen Philosophie Antwortversuche formuliert werden. In den Dimensionen des moralischen Scheiterns, des Bösen, des Unrechts, der Schuld zeigt sich Negativität ethisch und moralphilosophisch als Versuch zur Bewältigung von menschlicher Fragilität und Zerbruch. Lebensweltlich kann mit Negativität die Uneinholbarkeit der Fülle alltäglicher Lebenspraxis beschrieben werden, die existentialphilosophisch als Orientierungslosigkeit, als „Geworfenheit“, als Notwendigkeit zu einer normativen, sinnkonstitutiven dialogischen Auseinandersetzung in Kontexten offener Lebenspraxis aufgefasst wird. Wenn Negativität auf solche Art zu einem generalisierenden Überbegriff über eine Vielfalt an Perspektiven wird, dann kann Negativität als Leitmotiv in der Tiefenstruktur der vernunftkritischen Philosophie des 20. Jahrhunderts gedeutet werden.7 Während bei Hegel das Negative zum Element des Zusammenhalts in seiner Systematik der Offenheit wurde,8 gliederten die unterschiedlichen Facetten und Perspektiven von Negativität im Anschluss an Hegel immer weiter auf. In der Psychoanalyse Freuds, in der Ökonomiekritik von Marx, in der Existenzphilosophie von Kierkegaard und in der Religionskritik Feuerbachs und Nietzsches artikulierte sich eine Zuspitzung auf einzelne Aspekte von Negativität in einer Radikalität, die zunächst zu einer zunehmenden Distanzierung von systematischen, affirmativen Entwürfen führte.9 Im 20. Jahrhundert werden verschiedene Phänomene von Negativität als eigenständige Perspektiven unabhängig voneinander ausformuliert, so in der Phänomenologie Husserls, in der Ontologiekritik Heideggers, in der Kritischen Theorie von Horkheimer und Adorno oder in der Sprachkritik Wittgensteins. Einige dieser Perspektiven werden in den folgenden Vgl. Rentsch, Thomas: Philosophie des 20. Jahrhunderts. Von Husserl bis Derrida, München 2014, S. 6. 8 Die Bedeutung der Arbeiten Hegels zur Systematisierung von Negativität in einer Vielfalt von Erscheinungsformen kann für die geistesgeschichtliche Entwicklung nach ihm nicht unterschätzt werden. Eine umfassende hermeneutische Einbeziehung der Arbeiten Hegels würde an dieser Stelle jedoch zu weit führen, zumal Hegels Begriffs- und Sprachgebrauch in seinem Bezug zu jüngeren Entwürfen häufig erst expliziert und rekonstruiert werden muss, um vereinseitigende Interpretationen seines Werks zu vermeiden. Für eine systematische Rekonstruktion von Negativität und Vermittlung bei Hegel vgl. Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000, S. 213–251. 9 Vgl. Rentsch, Thomas: Philosophie des 20. Jahrhunderts. Von Husserl bis Derrida, München 2014, S. 7–10. 7
198
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit
Kapiteln, die in ihrer Darstellung den vier Fragen Kants folgen, aufgegriffen und in die Systematik dieser Arbeit einbezogen. So ergibt sich in der Rekonstruktion der vernunftkritischen Potentiale sinnkonstitutiver Negativitätsphänomene eine Antwortperspektive auf positivistische Verkürzungen und Vereinseitigungen in transhumanistischen Entwürfen. Sie tragen einem einerseits kritischen Bewusstsein für Unverfügbarkeit, Entzogenheit, Transzendenz als unhintergehbare Bedingung für jede mögliche Erkenntnis und Handlungspraxis Rechnung und begegnen andererseits der Einsicht kritischer Philosophie, dass angesichts der Bedrohung durch Verdinglichungs- und Entfremdungsprozesse sowie der Möglichkeit des individuellen oder gesellschaftlichen Scheiterns um die Unhintergehbarkeit des begrifflich nicht Fassbaren in Form von Freiheit als Offenheit gesellschaftlich wie individuell gerungen werden muss. Diese Perspektiven sollen in der vorliegenden Untersuchung für Fragestellungen zu künstlicher Intelligenz und für eine kritische Analyse transhumanistischer Entwürfe fruchtbar gemacht werden. Abgrenzungen: irreführende Auffassungen des Negativitätsbegriffs Der Begriff der Negativität kann leicht missverständlich aufgefasst werden. Jede Vergegenständlichung von Negativität selbst unterläuft das, was mit dem Begriff eigentlich ausgedrückt werden soll. Das „Nichts“ kann nicht als ein Ding aufgefasst werden, die „Null“ ist keine Zahl wie jede andere. „Negativität“ ist nicht das Ziel von Moral, sondern deren Möglichkeitsbedingung. An dieser Stelle sollen irreführende Auffassungen des Negativitätsbegriffs skizziert werden, um Fehlinterpretationen zu vermeiden. Negativität als Aporetik Gerade in der Rezeption der Kritischen Theorie von Horkheimer und Adorno oder in Ansätzen des Dekonstruktivismus, z. B. von Foucault oder Derrida, darf der Versuchung, die herausgearbeiteten Aspekte der Negativität zu hypostasieren, nicht nachgegeben werden. Ein solcher „Defaitismus der Vernunft“10 würde ihrer eigenen begrifflichen Arbeit zum Opfer fallen, würde dort aufgeben, wo das Leben erst beginnt, bzw. wo die philosophische Vernunft die Grenze dessen aufweisen kann, wo von Leben gesprochen werden kann. Im Sinne von Wittgenstein ist erst hinter der begrifflichen Leiter jenes zu finden.11 Negativität als Einsicht in die negativen Bestimmungen des Menschen darf bei diesen nicht stehen bleiben. Unwissen, Adorno, Theodor W.: Negative Dialektik, Frankfurt am Main 2003, S. 15. Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung, Frankfurt am Main 2003, Punkt 6.54 (S. 111).
10 11
199
3 Negativität und philosophische Vernunftkritik
Schuld und Tod sind nicht die letzten Begriffe als Ende von Philosophie. Sie bilden vielmehr Begriffe des Anfangs – in ihrer Bewusstwerdung liegt das Potential zu neuer Gestaltung. Kritisiert wird in dieser Arbeit vor allem die Bedrohung einer Verleugnung dieser sinnkonstitutiven Bestimmungen menschlichen Wissens, menschlicher Handlungspraxis, menschlicher Sinnorientierung und menschlicher Selbstbestimmung, wie sie beispielsweise in positivistisch begründeten Argumentationen des Transhumanismus stattfindet. Daraus ergibt sich eine Überformung von Sinn durch Verdinglichung. Negative Sinndimensionen entziehen sich jeder Verdinglichung und begrifflichen Verfügbarmachung. Der kritische Akzent dieser Arbeit gegenüber positivistischen Verkürzungen gründet in eben dieser Bewusstwerdung um die Gefahren des Unterlaufens dieser negativen Sinnbestimmungen für den Menschen. Dennoch können die Aspekte von Negativität, die gegenüber einer solchen Verdinglichung in Ansatz gebracht werden, nicht selbst wiederum verdinglicht werden. Eine solche Vereinseitigung zugunsten des Negativen würde bedeuten, jenes als Endpunkt der Philosophie zu hypostasieren statt ihre Bedeutung als Anfangsbestimmung jeglicher Philosophie zu unterstreichen. Negative Dimensionen menschlicher Praxis sind immer da – sie sind unhintergehbar und bestimmen Erkenntnis- und Handlungsdimensionen des Menschen in allen Ebenen. Dennoch endet philosophische Praxis ebensowenig wie lebensweltliche Praxis in diesen negativen Bestimmungen. Die Auseinandersetzung mit unseren Grenzen des Wissens und der Unhintergehbarkeit von Erkenntnisgrenzen des Menschen begründet gerade die Notwendigkeit zu vernünftiger Reflexion statt diese aufzugeben. Die Bewusstwerdung um Dimensionen des unausweichlichen Schuldigwerdens in der menschlichen Existenz ermöglicht erst eine verantwortungsvolle Haltung gegenüber Welt und Mensch statt diese in einen Bereich von Beliebigkeit oder Resignation zu verweisen. Die Auseinandersetzung mit Sterblichkeit und Tod verleiht der menschlichen Existenz gerade ihre unwiederbringliche Bedeutung statt diese auszuhöhlen. Wenn philosophische Arbeit in ihrer Rekonstruktion von sinnkonstitutiver Negativität bei den Negativbestimmungen stehen bleibt und diese zum Endpunkt des Philosophierens erhebt, dann löst sich Negativität in Aporetik, Ausweglosigkeit auf. Gerade darin verabschiedet sie sich aber von ihren eigenen Bestimmungen. Negativität bezeichnet Grenzen von menschlicher Erkenntnis, Handlungspraxis, Sinnorientierung und Selbstbestimmung, die wiederum zur Möglichkeitsbedingung neuer Gestaltung wird. In diesem Sinn müssen Begriffe, die in dieser Arbeit verwendet werden, eingeordnet werden, um Missverständnisse zu vermeiden. So bezeichnet der Begriff der „Entzogenheit“ nicht, dass das Jeweilige einfach nicht da wäre und dass eine Rede davon oder eine Untersuchung des jeweiligen Gegenstandes unsinnig wäre. Stattdessen ist ein „Entzogenes“ immer ein jeweils „Vorhandenes“, „Gegebenes“, das jedoch gleichzeitig über sich selbst hinausweist. Der Begriff der „Entzogenheit“ bedeutet etwas anderes als den „Entzug“ einer Sache im Sinne eines 200
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit
Wegnehmens oder Wegseins. Mein Gegenüber ist mir als menschliche Person nicht nur entzogen, wenn sie woanders ist als ich bin und ich nicht weiß, wo sie sich aufhält. Sie ist mir auch prinzipiell entzogen, wenn sie mir gegenübersteht und mit mir interagiert, weil ich im Ereignis der Begegnung niemals die Totalität ihres Wesens gänzlich fassen könnte. Sie bleibt mir zwar zugänglich, aber gleichzeitig weist ihre Anwesenheit auf eine vielschichtige Dimension von Bestimmungen, die ihr als Person zwar zugehören, die ich aber nie ganz einholen kann. Als solche bleibt jede Person mir gegenüber ein Geheimnis, eine ganze Welt von Ereignissen, eine nie vollständig rekonstruierbare Dimension innerer Unendlichkeiten. Daher ist alles, was mir zugänglich ist, dennoch mir gleichzeitig entzogen. Auch der Begriff der „Unverfügbarkeit“ weist in dieselbe Richtung. Selbstverständlich ist der Angestellte einer Firma dem Chef als Arbeitskraft verfügbar. Viele Dinge, Aspekte, Menschen sind in gewissen Kontexten „verfügbar“ im Sinne eines Zugriffs durch eine Instanz mit einem jeweiligen Ziel. Der Begriff der Unverfügbarkeit darf nicht als eine Leugnung solcher Zusammenhänge verstanden werden. Stattdessen bezeichnet der Begriff die Einsicht in die Begrenztheiten jedes instrumentellen Zugriffs und Verständnisses. Der Angestellte kann als Mensch nicht allein durch seine funktionale Bestimmung in seinem Arbeitsverhältnis umfassend beschrieben werden. Jedes bloß instrumentelle Verständnis kann als Verkürzung von Komplexität gedeutet werden. Speziell für den Umgang zwischen Menschen kann eine Reduktion auf instrumentelle, funktionale Aspekte als Bestimmung von „Verfügbarkeit“ als ethisch problematisch herausgearbeitet werden. Unverfügbar sind stattdessen zahlreiche Phänomene für den Menschen ihrem Wesen nach, weil sie sich immer auch in ihrem Vorhandensein schon entziehen. Die Aspekte von Entzogenheit und Unverfügbarkeit beziehen sich jedoch nicht nur auf Menschen, sondern auch auf Gegenstände, Tatsachen und selbst auf Elemente von Logik oder Wissenschaft. „Geld“ kann durchaus verfügbar sein – gerade für Philosophen ist dies zwar keine Selbstverständlichkeit, doch auch für sie hat Geld zumeist eine lebensweltlich eingebettete instrumentelle Bedeutung. Geld kann selbstverständlich in marktökonomischen Analysen durchaus in einer rein mathematisch und formallogisch konzipierten Systematik Gegenstand von Berechnungen werden. Zugriffe auf Geld sind häufig unter instrumentelle Bestimmungen gestellt: Geld dient einem Zweck, die Anhäufung von Geld eröffnet neue Optionen des Zugriffs auf die Welt. Dennoch ist Geld immer zugleich mehr. Geld ist charakterisiert durch seine soziale Bedeutung, es rekurriert auf die komplexe und sozial eingebettete Emotionalität des Menschen in Form von Sicherheitsgefühl, Angst, Neid, Macht, Ohnmacht, Stolz, Scham. Diese Dimensionen sind wiederum nicht auf instrumentelle Bestimmungen oder formale Repräsentationen reduzierbar. Ihre Elemente gehen in einer mathematischen Sprache nicht auf: Angst kann nicht als Negativwert eines Sicherheitsgefühls aufgefasst werden, Ohnmacht nicht als Negativwert von Macht – beides ist oft dialektisch miteinander verwoben. Die Sicherheit 201
3 Negativität und philosophische Vernunftkritik
des Geldes impliziert die Angst vor ihrem Verlust. Die vermeintliche Macht, die mit Reichtum einhergeht ist begleitet von der Ohnmacht des Unwissens, ob man selbst nur aufgrund seines Reichtums geliebt wird oder vielleicht sogar gerade deshalb aus einer sozialen Gruppe ausgegrenzt wird. Geld ist auch ohne seine geschichtliche Dimension nicht denkbar. Wert erhält es nur durch Anerkennungsprozesse, als Zuschreibung von Menschen. Auch vorrangig instrumentell genutzte Begriffe sind immer mehr als ein bloß instrumenteller Aspekt ihrer Beschreibung. Auch der Begriff der „Unableitbarkeit“ menschlicher Handlungen zielt nicht auf die prinzipielle Unmöglichkeit von Vorhersagen über menschliches Verhalten ab. Erfahrene Pädagogen oder Eltern können das Verhalten von Schülern oder Kindern in gewissen Kontexten vorhersagen. Dennoch werden sie mitunter überrascht – weil menschliche Handlungen nicht ausnahmslos ableitbar von Vorerfahrungen erfolgen. Der Begriff der Unableitbarkeit bezeichnet diesen Aspekt negativer Vernunfteinsicht in eine sinnkonstitutive Grenze menschlicher Erkenntnispraxis. Könnte menschliches Verhalten restlos determiniert werden, dann fielen Dimensionen von Offenheit und Vertrauen weg, die aber unhintergehbar den Sinn menschlicher Handlungspraxis mitbestimmen.12 Dass in einzelnen Situationen das Verhalten von Menschen aus dem Wissen von Vorerfahrungen mit einer hohen Wahrscheinlichkeit abgeleitet werden kann, unterläuft die Einsicht in diese sinnkonstitutive Grenze menschlicher Erkenntnis nicht. Wenn ein Auto auf eine Menschenmenge zurast, dann ist absehbar, dass die Menschen jede Möglichkeit zur Flucht, zum Ausweichen ergreifen. Aus dem Wissen um den Überlebenstrieb des Menschen und sein instinktives Fluchtverhalten kann, verbunden mit dem Wissen um seine Vorerfahrung um die Bedrohung durch ein schnellfahrendes Auto, ein solches Verhalten ziemlich sicher abgeleitet werden. Eine solche Ableitbarkeit von Verhalten ist jedoch niemals restlos gegeben, weil immer Ebenen von Vorwissen unverfügbar sind, die jedoch das Verhalten mitbeeinflussen können. Ein Mensch kann sich trotz seines Überlebenstriebs zum Sterben entschließen und den Suizid als Ausweg aus inneren Konflikten und Zerbrüchen wählen. Unter ähnlichen Erfahrungsbedingungen entwickeln und entscheiden sich Menschen unterschiedlich. Aspekte der Unableitbarkeit menschlicher Handlungen weisen daher auf Grenzen der Berechenbarkeit und Vorhersagbarkeit, die wiederum sinnkonstitutiv für die lebensweltliche Praxis werden. Mit diesen Einsichten verknüpft ist auch der Begriff der „Unabschließbarkeit“. Er bezeichnet ebensowenig wie andere Begriffe sinnkonstitutiver Negativität die Leugnung der Abschließbarkeit konkreter Aufgaben und Prozesse. Jede Arbeit ist irgendwann zunächst abgeschlossen. Der Tod bildet einen Abschluss, ein Ende des biologischen Lebens. Dennoch impliziert jeder Abschluss, jedes Ende ein Hinausweisen über diesen Abschluss. Nach dem Abschluss einer Vgl. Rentsch, Thomas: Negativität und praktische Vernunft, a. a. O., S. 15.
12
202
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit
Arbeit steht häufig ein Produkt, mit dem etwas Neues angefangen werden kann. Auch nach dem Tod eines Körpers ist dieser nicht einfach weg – die organischen Bestandteile seines Körpers bestehen fort und werden in biochemischen Prozessen umgeformt. Leichname verrotten, auf Friedhofserde wachsen Blumen. Aspekte der Personalität des Menschen sind auch mit dem Tod nicht abgeschlossen – die Liebe der verstorbenen Eltern, die hinterlassenen Werke und Errungenschaften, die moralischen Dimensionen des zeitlich begrenzten Handelns des Menschen wirken fort. Die Musik von Johann Sebastian Bach, die Einsichten Newtons und Kants, die Schulderfahrungen aus der Zeit des Nationalsozialismus sind mit dem biologischen Tod der personalen Akteure nicht abgeschlossen. Die religiös tradierte Rede von Ewigkeit und Unendlichkeit erweist angesichts der moralischen Dimension personalen Handelns ihren Sinn. Der Begriff der Unabschließbarkeit bezeichnet damit die Unhintergehbarkeit von Offenheit, die in menschlicher Lebenspraxis sich verwirklicht. Auch der Begriff der „Irreduzibilität“ ist als Kurzform einer philosophischen Reduktionismuskritik nicht als Abweisung von Reduktionsversuchen zu einer Handhabbarmachung von Komplexität zu verstehen. Auch in der vorliegenden Arbeit musste vieles verkürzt dargestellt werden. Keine wissenschaftliche Theorie, keine Alltagsbewältigung kommt ohne eine Reduktion von Komplexität der vielschichtigen Wirklichkeit aus. Komplexe Phänomene können und müssen in Theorien wie in Alltagssituationen reduziert werden auf einige Aspekte, die für die jeweilige Theorie oder Situation bedeutsam sind. Dennoch bleiben die Phänomene als Phänomene irreduzibel. Der von ihnen gebildete Begriff fasst nicht das Phänomen selbst. Der Begriff als Reduktion weist damit zurück auf das Phänomen als Irreduzibles. Der Ehering birgt nicht die Liebe des Ehepaares, sondern symbolisiert sie und verweist auf sie. Der Begriff des Transhumanismus, der in dieser Arbeit formuliert ist, vermag nicht die Komplexität und Totalität dessen zu greifen, was in diesem sich alles wiederfinden kann. Ray Kurzweils Sehnsucht nach einer besseren Welt, sein Fragen über den Menschen hinaus, sein Glaube an die schier unbegrenzten Möglichkeiten der Technologien – all das kann hier nur erahnt, mühsam rekonstruiert und begrifflich gestreift werden. Selbst im direkten Dialog mit ihm könnte man diese Ebene nie greifen. Sogar Ray Kurzweil selbst sind diese Ebenen irreduzibel vorläufig – er kann die Bedingungen für ihre Entstehung und ihr Vorhandensein ebensowenig restlos herleiten wie ein Außenstehender. Diese Bestimmungen sind auch in ihrer Offenheit irreduzibel. Die jeweilige Konkretion der Vorstellung einer durch Technologie besser gestalteten Welt verändert sich auch bereits im Prozess ihrer Verwirklichung. Dies zeigt sich bereits in seinen Publikationen – sie geben keine unveränderliche, starre Vorstellung wieder, sondern variieren. Irreduzibilität widerspricht Reduktionen nicht. Eine philosophische Kritik reduktionistischer Positionen deutet auf die Probleme hin, die entstehen, wenn die unhintergehbare Irreduzibilität der Aspekte geleugnet wird, die in begrifflicher, theoretischer und lebensweltlicher Praxis reduktiv verarbeitet werden. Die Theorie, der Begriff, die Praxis stehen dann als gleichwertiger 203
3 Negativität und philosophische Vernunftkritik
Ersatz für das vorangegangene Phänomen, ja gar als das Fassen des eigentlichen „Wesens“, eines sozusagen gefilterten Kerns, damit gar als reinere, geläuterte Form des Ursprünglichen. In Bezug auf ein begriffliches wie theoretisches Verständnis von Sachverhalten, Dingen, Menschen, Lebenswelten wie spezifischer Teilbereiche menschlicher Lebenspraxis entfaltet der Begriff des „Inkommensurablen“, bzw. der Inkommensurabilität seinen Sinn. In der Überführung eines Gegenstands in ein begriffliches Verständnis findet bereits eine Veränderung statt, die das Ursprüngliche nicht mehr vollständig beinhaltet, sondern auf dieses lediglich verweisen kann. So sind Gegenstände gegenüber Begriffen, Begriffe gegenüber ihrer formalisierten Darstellung und auch Wahrheitsansprüche in ihrem Kontext gegenüber einem anderen Kontext zunächst inkommensurabel. Dennoch können alle diese Prozesse und Überführungen wichtig und sinnvoll sein, wenn dabei das Bewusstsein um diese unhintergehbare Inkommensurabilität vorhanden ist. So können die theoretischen Modelle des Unbewussten für eine psychologische Beschreibung des Menschen in seinem Selbstverhältnis einen hilfreichen Zugang für den Menschen sein, um Lebensfragen, innere Konflikte und Sinnorientierungen bearbeiten zu können. Dennoch bleibt die Dimension des Unbewussten selbst für jede Theoriebildung inkommensurabel. Die Theorie deutet auf die Dimension und bietet einen Zugang zu dieser – in diesem Zugang bleibt sie jedoch prinzipiell eine Ebene der Entzogenheit des personalen Selbst für jedes Individuum. Die Begriffe, mit denen in dieser Arbeit Aspekte sinnkonstitutiver Negativität bezeichnet werden sollen, stehen damit in einem dialektischen Verhältnis zu einem grundsätzlichen Vorhandensein eines Jeweiligen, was sich in seiner Entzogenheit zeigen kann. Was sich nicht zeigt oder in irgendeiner Weise als zugänglich erweist, kann auch keine Aspekte der Entzogenheit und Unverfügbarkeit aufweisen. Den Begriffen der Negativität, der Entzogenheit, der Unverfügbarkeit, der Unableitbarkeit, der Unabschließbarkeit, der Irreduzibilität, der Inkommensurabilität stehen daher immer auch Begriffe gegenüber, welche die Vorhandenheit kennzeichnen können: Begriffe der Hinwendbarkeit, Zugänglichkeit, Offenheit gegenüber Phänomenen und Ereignissen. Sie sind dialektisch mit den Begriffen der Negativität verwoben und bedingen erst ihren Sinn. Beide Aspekte sind irreduzibel gleichursprünglich. Die philosophische Kritik dieser Arbeit grenzt Begriffe der sinnkonstitutiven Arbeit daher nicht gegenüber „positiven“ Begriffen jedweder Art ab. Eine Abgrenzung erfolgt stattdessen gegen philosophische Positionen, in welchen die Bedeutung sinnkonstitutiver Negativität generell geleugnet wird. Sie umfasst Positionen theoretisch-begrifflicher Handhabbarkeit von Wirklichkeit, eines physikalistisch-positivistischen Reduktionismus der Welt auf Elemente, welche in der Sprache einer empirischen Wissenschaftlichkeit ausgedrückt werden können. Eine Abgrenzung erfolgt gegen einen bloß instrumentellen Zugriff auf die Welt im Sinne einer totalen Verfügbarkeit von Welt und Mensch unter rationalen und ökonomischen Bestimmungen. Eine Abgrenzung erfolgt auch gegenüber einem Dogmatismus, in welchem rational 204
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit
begründete Setzungen methodische und prozessuale Aspekte hypostasieren und verdinglichen. Ein solcher Dogmatismus kann wissenschaftlicher, philosophischer oder theologischer Natur sein. Sinnkonstitutive Negativität wird erkenntnistheoretisch in dieser Arbeit von einer positivistischen Abbildtheorie der Wirklichkeit und eines mechanistischen Verständnisses des Universums abgegrenzt. Systematische Analysen zum Verhältnis von Negativität in Erkenntnistheorie, Ethik, Religionsphilosophie und Anthropologie Aspekte von Negativität in ihrem Verhältnis zu praktischer Vernunft und Sinnkonstitution menschlicher Lebenspraxis bilden in dieser Arbeit die Folie für eine Kritik transhumanistischer Utopien. Negativität und Vernunftkritik stehen als Möglichkeitsbedingungen für jegliche Erkenntnistheorie, Ethik und Anthropologie im Gegensatz zu einer positivistischen Abbildtheorie der Wirklichkeit. Sie liefern damit sowohl für die expliziten Zielformulierungen transhumanistischer Entwürfe als auch für die ihnen zugrundeliegenden Annahmen über die Welt und den Menschen einen vernunftkritischen Zugang. In diesem Kapitel werden Aspekte von Negativität und Vernunftkritik dargestellt, um anschließend für eine Hermeneutik transhumanistischer Utopien fruchtbar gemacht zu werden. Das Spannungsfeld von Vernunftkritik und Negativität berührt Fragen der Erkenntnistheorie, Ethik, Religionsphilosophie und Anthropologie. Damit stehen diese Untersuchungen in direktem Bezug zu den vier Fragen Kants. Als Antworten auf diese Frageperspektiven skizzieren sie Grenzen menschlicher Erkenntnis ebenso wie normative und moralische Grenzen. Sie können auch als Dimensionen von Transzendenz interpretiert werden, welche im Anschluss an eine vernunftkritische Rekonstruktion religiöser Traditionen die Sinnkonstitution des Menschen in dem verorten, was einer instrumentellen Rationalität entzogen und unverfügbar bleibt. Damit ergibt sich auch eine Perspektive auf den Menschen als von seinen Grenzen her bestimmte Dimensionalität von Freiheit, Würde, Vertrauen, Sozialität und Offenheit, welche einen Gegenentwurf zu einer positivistischen Verdinglichung und empiristisch-reduktionistischen Verkürzung seiner Personalität auf quantifizierbare, formalisierbare und funktionale Aspekte bildet. In seiner unhintergehbaren Multidimensionalität von leiblichen, seelischen und geistigen Dimensionen bildet die Personalität des Menschen eine irreduzible Ganzheit, welche nicht einer Synthese seiner nur isoliert formalisierbaren Einzelaspekte entspricht. Negativität und Vernunftkritik als Grundbedingung von Erkenntnis, Ethik und Sinnkonstitution reichen bis zu den Anfängen sprachlicher Überlieferung der Menschheit in mythischen, religiösen und philosophischen Texten zurück. Als Grundbedingungen für Erkenntnis, Sinnkonstitution und Moral durchziehen Aspekte von Negativität und Vernunftkritik die gesamte 205
3 Negativität und philosophische Vernunftkritik
Philosophiegeschichte und sie finden in der Philosophie des 20. Jahrhunderts eine facettenreiche Neuformulierung.13 Eine Einführung in das Verhältnis von Negativität und Sinnkonstitution kann daher an dieser Stelle nur eine Auswahl von Autoren einbeziehen, anhand derer grundlegende Dimensionen von Negativität skizziert werden, die für die vorliegende Diskussion um das Spannungsfeld von Transhumanismus, künstlicher Intelligenz, Menschenbild, Sinnkonstitution und Normativität bedeutsam sind. Für Vertiefungen zur jeweiligen Thematik wird an entsprechenden Stellen auf Sekundärliteratur verwiesen. Die Aspekte von Negativität und Sinnkonstitution werden anhand der vier Fragen Kants als thematische Schwerpunktfelder in den Blick genommen. Erstens stellen sich also Fragen über Negativität im Verhältnis zu menschlichen Erkenntnisprozessen, zweitens Fragen über Negativität im Hinblick auf ihr Verhältnis zur Herausbildung von Normativität. Drittens werden die Einsichten der Vernunftkritik auf das Verhältnis von Transzendenz übertragen. Viertens schließlich ergeben sich aus diesen Darstellungen Ausblicke auf Ansätze zu einer Anthropologie, welche aus einem Bewusstsein um die vernunftkritischen Bedingungen von Erkenntnis, Sinn und Handlungspraxis Grundaspekte zu einem Selbstverständnis des Menschen anbietet, welche über positivistische Engführungen hinausweisen und die Multidimensionalität menschlicher Personalität in einem holistischen Verständnis des Menschen ermöglicht. Die jeweiligen Abschnitte führen zunächst über Anknüpfungspunkte aus der Philosophiegeschichte in die Denktradition von Negativität und Vernunftkritik ein. Anschließend wird daraus ein systematisches Verständnis expliziert. Dieses kann dann in einen Bezug zu einer Untersuchung transhumanistischer Entwürfe gesetzt werden. Die erste Frage Kants widmet sich den Bedingungen für Wissen und Erkenntnisprozesse des Menschen. Für die vernunftkritische Perspektive wird diese Fragestellung zu einer Untersuchung der sinnkonstitutiven Grenzen des Wissens. Als solche bestimmen sie auch die Möglichkeitsbedingungen für Erkenntnis als Einsicht in Negativität. Nichtwissen wird damit zur Bedingung philosophischer Erkenntnis. Die letztendliche Unverfügbarkeit der Welt und des Menschen für die menschliche Rationalität setzt den Menschen in ein dialogisches Verhältnis nicht nur zu seinen Mitmenschen, sondern auch zu sich selbst und zu der ihn umgebenden Welt, zu welcher er sich in ein Verhältnis setzt. Dieses Verhältnis ist durch Offenheit geprägt. Aspekte der sinnkonstitutiven Offenheit menschlicher Erkenntnisprozesse können anhand verschiedener philosophischer, vernunftkritischer und wissenschaftstheoretischer Einsichten des 20. Jahrhunderts rekonstruiert werden. Sie umfassen Untersuchungen zur menschlichen Sprache, welche sich durch pragmatische, dialogische, kontextbezogene, performative sowie 13
Vgl. Rentsch, Thomas: Philosophie des 20. Jahrhunderts, a. a. O.
206
Negativität und Sinnkonstitution – Einführung in die Begrifflichkeit
einem letzten Daseinsgrund entzogene Offenheit auszeichnet. Sie widerspricht dem Vorhaben einer vollständigen Formalisierbarkeit der Welt. Für die Möglichkeitsbedingungen wissenschaftlicher Erkenntnisse erweist sich die wissenschaftliche Methode als ebensowenig formalistisch reduzierbar wie die menschliche Alltagssprache. In der Voraussetzung lebensweltlicher Vorerfahrung, welche sich einer vollständigen Formalisierung entzieht, zeigt sich die Irreduzibilität menschlicher Erkenntnisprozesse in ihrem Verhältnis zu einer Offenheit gegenüber der Welt ebenso wie einer prinzipiellen Unverfügbarkeit im Hinblick auf eine restlose Formalisierung der Welt. Als Grundbedingung für Erkenntnis erweist sich das menschliche Bewusstsein irreduzibel für Ansätze materialistisch-reduktionistischer Verdinglichung. Das Subjektive entzieht sich einer restlosen Überführung in reine Objektivität. Die sozialen, kulturellen und kontextuellen Vorbedingungen wissenschaftlicher Erkenntnisprozesse bilden einen unvermeidbaren, nicht idealisierbaren Beobachterstandpunkt, welcher zur Bedingung empirischer Erkenntnis überhaupt wird. Daraus leitet sich ein Verständnis der Offenheit des Universums in seinem Verhältnis zu menschlichen Erkenntnisprozessen ab. Wissenschaftstheoretisch geht damit ein Abschied vom Verständnis der Welt als eines vermeintlich geschlossenen Systems restlos formalisierbarer Gesetzmäßigkeiten einher. Aspekte der Offenheit drücken sich in Paradigmenwechseln empirischer Wissenschaften des 20. Jahrhunderts in verschiedener Weise als Abschied von geschlossenen, deterministischen Auffassungen der Welt aus. So rücken mathematische und physikalische Arbeiten die Unhintergehbarkeit einer Unvollständigkeit jeder Theorie und wissenschaftlichen Modellbildung in das Interesse von wissenschaftlicher Theoriebildung und empirischer Forschungspraxis. Die irreduzible Offenheit organischen Lebens als Nichtaufgehen in Begrifflichkeiten formeller Rationalität findet in biologischen Forschungen ihren Ausdruck, welche die Bedeutung von Selbstorganisation, Kontextualität und Sozialität auch für ein Verständnis des biologischen Lebens als unhintergehbar ausweisen. Der Anspruch einer vollständigen Formalisierung der Welt wird damit in einer ethischen und moralischen Perspektive problematisch. Das Selbstverständnis des Menschen als offen, verantwortlich und frei in seinem Handeln, wird durch einen formalistisch-deterministischen Reduktionismus unterlaufen und ausgehöhlt. Prinzipiell widerspricht er damit den Grundlagen einer freien Gesellschaft, in welcher die Würde des Menschen wie seine Fehlbarkeit vorausgesetzt werden. Ein Wissenschaftsverständnis der restlosen Reduzierbarkeit der Welt und des Menschen auf quantifizierbare und formalisierbare Begriffe widerspricht damit diesen Grundlagen von Normativität und Moralität. So ergibt sich aus der Frage nach dem Verhältnis des Menschen zu Wissen und Erkenntnis auch die Frage nach der Normativität und Moralität, zu welcher der Mensch sich in Bezug zu setzen sucht. Die existentielle Unsicherheit des Menschen in dieser Frage wird zu einer 207
3 Negativität und philosophische Vernunftkritik
Grundbedingung für die Herausbildung einer vernunftkritischen Ethik. Die Offenheit und Unabschließbarkeit von menschlichen Erkenntnis- und Wissensprozessen gilt dabei auch für den Bereich normativen Fragens. Die Unverfügbarkeit von Handlungsmotiven und -orientierungen umfasst Dimensionen der intrapersonalen Entzogenheit im Bereich des Unbewussten oder Unterbewussten sowie der interpersonellen Entzogenheit im Bereich der Sozialität. Ethischem Formalismus steht in einer vernunftkritischen Position eine Rückbesinnung auf die sinnkonstitutiven Grundbedingungen von Moralität als Unverfügbarkeit entgegen. Normativität ist existentiell dem Menschen nicht einfach gegeben, sondern muss als Entzogenes gesucht werden. Der Wandel im Bereich des Normativen von affirmativ-formalistischen Systematiken hin zu einer kritischen Theorie der Normativität gründet im Missverhältnis von dogmatischem Formalismus zu offener situativer Sinnorientierung in existentiellen Lebensvollzügen. Dennoch ergeben sich aus der Rekonstruktion von Negativität im Bereich menschlichen Denkens und Handelns auch Anschlusspotentiale für eine Ethik anthropologischer Vernunftkritik, welche aus der Grundkonstitution von Unverfügbarkeit und Entzogenheit des Menschen Aussagen über die Grundlagen von Normativität ableiten kann. Die Aporetik affirmativer Sprache im Bereich des Normativen verdeutlicht sich auch in literarischen Gesellschaftsentwürfen, deren inhaltliche Schwerpunktsetzung sich von der Utopie zur Dystopie gewandelt hat. An die Stelle eines idealisierten Gesellschaftsentwurfs im Sinne eines umsetzbaren, verfügbaren utopischen Programms trat die Dystopie als Artikulation einer Bedrohung von Freiheit und Offenheit menschlicher Gesellschaftsformen durch Totalitarismus, Verdinglichung oder Entfremdungsprozesse. Utopische Entwürfe als Ausdruck von Hoffnung und affirmativer Handlungsorientierung wurden damit abgelöst durch eine kritische Position, welche die Unhintergehbarkeit menschlicher Freiheit durch Tendenzen der Vereinnahmung und Vereinheitlichung bedroht sieht. Die Frage nach der Hoffnung führt als dritte Frage Kants zum Verhältnis des Menschen zur Transzendenz. Diese bildet als unhintergehbare Dimension seines Daseinsgrundes und seiner Existenzbedingungen einen Bezugspunkt für die Fragen zu Erkenntnis, Normativität und Selbstbestimmung des Menschen. Die vernunftkritische Rekonstruktion der negativen Bedingungen für Erkenntnis und Handlungsorientierung bildet damit einen systematischen Anschluss an mythologische und religiöse Grundeinsichten über die Grenzen instrumenteller Rationalität und das Verhältnis von Negativität, Erkenntnis und Handlungsorientierung. Im Versuch, die fragmentarische und unverfügbare Offenheit der menschlichen Konstitution dennoch als holistische Identität zu beschreiben, führt die Frage nach dem Bezug des Menschen zum Absoluten, Unverfügbaren auch zur Frage nach einer möglichen Selbstbestimmung des Menschen. So nimmt die vierte Frage Kants das Wesen des Menschen in den Blick. Für eine vernunftkritische Perspektive bedeutet dies, die Einsichten in Aspekte von sinnkonstitutiver Negativität 208
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
für ein Selbstverständnis des Menschen zu übertragen, welches diesen Aspekten Rechnung trägt. Eine solche Anthropologie der Offenheit kennzeichnet den Menschen als suchendes Dialogwesen, welches weder über den Anderen, noch über die Welt noch über sich selbst restlos verfügen könnte im Sinne eines programmatisch-instrumentellen Zugriffs. So kann gerade wegen seiner Unsicherheit in Wissens- und Handlungsfragen der Mensch sich selbst unter Gesichtspunkten von Selbstorganisation, Selbstbewusstsein und Autonomie, intersubjektiv mit der gegenseitigen Annahme und Zuschreibung von Freiheit, Würde und Vertrauen beschreiben. Aus dieser Anthropologie der Offenheit ergeben sich Anschlusspotentiale für eine Kritik des Transhumanismus, des empirischen Positivismus sowie für mögliche Vermittlungsansätze technologischer Transformationsprozesse, zu denen auch die Entwicklungen im Bereich künstlicher Intelligenz gehören. Die technologischen Innovationen, Leistungen und Fortschritte im Bereich der künstlichen Intelligenz konfrontieren damit den Menschen auch mit einem Selbstbild funktionalistischer Verdinglichung, mit welchem in Ansätzen des empirischen Positivismus der Mensch als Teil der Natur nur noch unter Gesichtspunkten einer instrumentellen Rationalität und unter Kriterien von Quantifizierung und Formalisierung aufgefasst wurde. Ausgehend von der Einsicht in die sinnkonstitutiven Grundbedingungen menschlicher Erkenntnis, Normativität, Sinnorientierung und Selbstbestimmung kann eine Beschreibung des Menschen als Maschine ebenso wie die Computermetapher des Geistes systematisch zurückgewiesen werden. An die Stelle der Aporetik eines reduktionistisch-deterministischen Mechanismus tritt damit ein konturiertes Menschenbild irreduzibler Fragilität, aus welcher sich eine begründete Annahme von Würde und Freiheit des Menschen ableiten lässt.
3.1 Negativität und Erkenntnis – Was können wir nicht wissen? „φύσις κρύπτεσθαι φιλεῖ“ „Die Natur liebt es, sich zu verbergen.“ Heraklit14
In diesem Kapitel wird das philosophische Bewusstsein um Grenzen des Wissens aus verschiedenen Perspektiven umrissen. Seit Sokrates ist Philosophie ein Fragen nach diesen Grenzen. Bis zur Philosophie der Gegenwart finden sich unterschiedliche Zugänge in der Philosophiegeschichte zum Verhältnis von Negativität und Wissen. Als Grenzziehung zu einer naiven 14
Heraklit, zit. nach Mansfeld, Jaap u. Primavesi, Oliver (Hg.): Die Vorsokratiker, Stuttgart 2012, S. 259.
209
3 Negativität und philosophische Vernunftkritik
Annahme, die Natur könnte vom Menschen wie aus einem Buch abgelesen werden, sind diese verschiedenen Zugänge in einer jeweils ganz anderen Sprache formuliert als positivistische Modelle. An dieser Stelle kann nicht einfach eine Aussage stehen über das, was man alles nicht aussagen kann. Die Grenzziehung der philosophischen Vernunft über die Grenzen des Wissens ist immer ein Ringen, ein Suchen, ein Fragen. Die Entwürfe sind oft nicht so systematisch formuliert wie die Modelle der Wirklichkeit, die sie zu kritisieren versuchen. Anlass des Fragens ist die Ahnung, dass hinter dem Modell noch etwas liegt, was nicht im Modell begriffen worden ist. Da gibt es ein „Mehr“ – doch vermag man es nicht selbst zu greifen, sonst würde man ja ein neues Modell anbieten. Was liegt hinter dem Modell? Wie viel wissen wir von dem, was wir beschreiben? Wie gehen wir mit dem um, was wir nicht wissen? In diesem Kapitel werden Grenzen des Wissens umrissen, die für eine Reflexion positivistischer und transhumanistischer Grundannahmen über Welt und Mensch von unhintergehbarer Bedeutung sind. Sie umfassen Grenzen der Erkenntnis, Grenzen der Sprache und Grenzen der Wissenschaft.
3.1.1 Grenzen der Erkenntnis Das Bewusstsein um unhintergehbare Grenzen des Begreifens ist ein Motiv der Philosophiegeschichte seit der Antike. An dieser Stelle werden schlaglichtartig einige Autoren dieser Philosophiegeschichte genannt und für die Rezeption transhumanistischer Entwürfe als Antwort auf positivistische Grundannahmen fruchtbar gemacht. Sokrates steht als Leitfigur der europäischen Philosophie am Anfang des fragenden Denkens. Er ist der Antagonist des selbstbewussten Erfahrungswissens. Systematisch wird in Platons Dialogen entwickelt, wie Wissen kein Besitz, kein Verfügbares sein kann, sondern eine Dimension, dergegenüber der Mensch sich nur dialogisch-offen, fragend und suchend verhalten kann. Sokrates formuliert damit als erster ein Bewusstsein darüber, dass wir nie die Welt und ihre Zusammenhänge ganz begreifen und verstehen können. Gleichzeitig leitet er aus diesen Dimensionen der Unwissenheit her ab, dass genau darin sich Sinn konstituieren kann: im offenen Suchen, im Staunen, im Fragen. Derjenige, der meint, alles verstanden zu haben, verliert diese Sinndimensionen. Systematisch ringt Immanuel Kant um die Grenzen des Verstehens. Was kann der Mensch verstehen und begreifen und worin gründet unser Wissen über die Welt? Kant rückt dabei die Entzogenheit der „Dinge an sich“ in das Blickfeld der philosophischen Analyse. Gleichzeitig entwickelt er argumentative Hinführungen zu dem, was wir nicht aus unseren Erfahrungen ableiten können, was aber für unser menschliches Selbstverständnis sich als unhintergehbar erweist. 210
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Im 20. Jahrhundert ringen verschiedene Philosophen aus unterschiedlichen Perspektiven um die Grenzen des Wissens und des Denkens. An dieser Stelle werden Einsichten von Adorno und Heidegger skizziert, welche die prinzipielle Unverfügbarkeit und Entzogenheit als wesentliche Kernelemente von begrifflichem Denken und beschreibender Sprache charakterisieren. Sokrates: Nichtwissen als Erkenntnisbedingung Als Einsicht in die Grenzen menschlichen Wissens geht das Bewusstsein um Negativität im Sinne von Nichtwissen als Erkenntnisbedingung bis zu Sokrates zurück. Im Symposion skizziert Platon, wie ein Wissensverständnis dialogisch-offen konzipiert werden muss, um den Dimensionen menschlichen Fragens gerecht werden zu können. Wissen als Besitz und abgeschlossenes Resultat steht in diesem Sinne einem offenen Suchen entgegen, welche um die Unabschließbarkeit des eigenen Erkenntnisprozesses weiß. Platon stellt die Philosophie als Liebe zur Weisheit daher im Symposion in die semantische Nähe zum Begriff des Eros als liebendes Begehren. Platon nimmt unter Bezug auf die mythologische Überlieferung eine Charakterisierung des Eros als Mangel und als Bedingung für Erkenntniszuwachs vor: Eros als Sohn von Penia und Poros15, der Armut und des Weges. Wenn Philosophie die Freundschaft und Liebe zu Weisheit, bzw. Wissen bezeichnen soll, dann setzt dies nach Platon voraus, dass man zuvor ein Nichtwissender werde; denn Liebe bedeutet, zu suchen, was man liebt, Begehren bedeutet, Mangel zu leiden an dem, was man entbehrt. So kennzeichnet Platon im Symposion den Wissens- und Erkenntnisbegriff durch ein Bewusstsein um das eigene Nichtwissen, aus dem erst eine Haltung von Offenheit gegenüber Erkenntnisprozessen steht, welche den Dimensionen menschlichen Suchens gerecht werden können. In einem solchen durch Offenheit gekennzeichneten Erkenntnisprozess führt nach Platon jede Einsicht zu neuen Möglichkeitsbedingungen für weitere Erkenntnisse. In seiner Darstellung der „Stufenschau des Schönen“ skizziert Platon einen Prozess dynamischen Wissenserwerbs, bei dem von der Einsicht in die Schönheit eines einzelnen Körpers aus immer umfassender und abstrakter ein allgemeiner Schönheitsbegriff im Sinne einer Idee des Schönen gefunden werden kann. Einer solchen Einsicht gegenüber kann der Mensch sich nicht mehr in der Haltung einer Zweckrationalität bewegen, sondern tritt in ein dialogisch-suchendes Verhältnis.16 Platon: Symposion, a. a. O., 203b-d. Poros (Πόρος; „Ausweg“, „Weg“) ist der Gegenbegriff zur Aporie (ἀπορία), „Ausweglosigkeit“. Πενία ist die Armut, als Begriff wie als Göttin. 16 Platons Ideenlehre kann als Darstellung fixer Kategorien allgemeiner Beschreibungen auch kritisiert werden, wenn diese als „fertige“ Resultate verstanden werden. Eine solche Rezeption des von Platon dokumentierten sokratischen Philosophierens unterstellt jedoch, dass Platon die von ihm selbst formulierten Grundbedingungen für jede mögliche Erkenntnis des Menschen selbst wieder vergisst. Gerade in der Wahl des Dialogs als Darstellungsform der sokratischen Philosophie zeigt sich jedoch, 15
211
3 Negativität und philosophische Vernunftkritik
Das sokratische Fragen als Bewusstsein von Nichtwissen ist die Grundlage für eine philosophische Haltung, die im Wissen nicht einen „Besitz“ der Wahrheit und der Wirklichkeit sieht, sondern eine Dimension, dergegenüber der Mensch immer wieder neu sich öffnen muss, fragend-suchend, im Dialog. Wissen ist demnach nie abschließbar fertig. Alles Wissen ist vorläufig. Immanuel Kant: Vernunft und Unbegreiflichkeit In seiner Kritik der reinen Vernunft untersucht Kant systematisch die Grenzen und Bedingungen der menschlichen Erkenntnis. Er unterscheidet dabei zwischen „Ding an sich“ und seiner „Erscheinung“. Damit deutet Kant auf Aspekte sinnkonstitutiver Negativität im Bereich der Erkenntnis und Wissenschaftstheorie, wenn er schreibt, dass wir „von keinem Gegenstande als Dinge an sich selbst, sondern nur so fern es Objekt der sinnlichen Anschauung ist, d. i. als Erscheinung, Erkenntnis haben können […]“17 Seine Kritik beschreibt er selbst als „zwar negativ, aber […] in der Tat von positivem und sehr wichtigem Nutzen“.18 Er erläutert die Unverfügbarkeit der Wirklichkeit für eine objektive Naturerkenntnis im Sinne einer Abbildtheorie der Wirklichkeit, die das Bestehende in ihren wissenschaftlichen Begriffen zu greifen wähnt: „Das Objekt bleibt an sich selbst immer unbekannt.“19 Kant weist damit auf eine Ebene von Unverfügbarkeit und Entzogenheit, die hinter allen Erkenntnisprozessen der Dinge in der Natur als wesentliche Grundbestimmung erhalten bleibt. „Sollte Natur das Dasein der Dinge an sich selbst bedeuten, so würden wir sie niemals, weder a priori noch a posteriori, erkennen können. Nicht a priori, denn wie wollen wir wissen, was den Dingen an sich selbst zukomme, da dieses niemals durch Zergliederung unserer Begriffe (analytische Sätze) geschehen kann, weil ich nicht wissen will, was in meinem Begriffe von einem Dinge enthalten sei (denn das gehört zu seinem logischen Wesen), sondern was in der Wirklichkeit des Dinges zu diesem Begriff hinzukomme und wodurch das Ding selbst in seinem Dasein außer meinem Begriffe bestimmt sei. […] Auch a posteriori wäre eine solche Erkenntnis der Natur der Dinge an sich selbst unmöglich. Denn wenn mich Erfahrung Gesetze, unter denen das Dasein der Dinge steht, lehren soll, so müssten diese, sofern sie Dinge an sich selbst betreffen, auch außer meiner Erfahrung ihnen zukommen. Nun lehrt mich die Erfahrung zwar, was da sei und wie es sei, niemals
dass die dialogische Offenheit als Unabschließbarkeit von menschlichen Erkenntnisprozessen auch nicht von der Konzeption einer fertigen und unverrückbaren Ideenlehre abgelöst werden könnte. 17 Kant, Immanuel: Kritik der reinen Vernunft, Stuttgart 2009, B XXIV, S. 34. 18 Ebd. 19 Kant, Immanuel: Prolegomena zu einer jeden künftigen Metaphysik, Leipzig 1979, S. 52 (§19).
212
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
aber, dass es notwendigerweise so und nicht anders sein müsse. Also kann sie die Natur der Dinge an sich selbst niemals lehren.“20 Naturerkenntnis ist daher kein unmittelbares Ablesen der Zusammenhänge in der Natur, sondern immer ein aktiver Akt des menschlichen Verstandes. Der Mensch konstruiert und entwirft Zusammenhänge in Form von Naturgesetzen, die zu den Erscheinungen passen, die er in seinen Wahrnehmungen erlebt. „Der Verstand schöpft seine Gesetze (a priori) nicht aus der Natur, sondern schreibt sie dieser vor.“21 Naturerkenntnis ist damit nicht unmittelbar gegeben. Die „Dinge an sich“ können von uns nicht begriffen und erfasst werden, sondern nur ihre Erscheinungen. Ausgehend davon entwickeln wir Modelle und Gesetze, die für unsere Perspektive ein stimmiges Bild von Natur und Wirklichkeit ergeben. Dennoch lassen sich nicht alle Einsichten in dieser Art und Weise von den Naturerscheinungen ableiten. Kant systematisiert diese Aspekte sinnkonstitutiver Vernunftkritik mit seiner Unterscheidung in Verstand und Vernunft. Der Verstand fasst beobachtbare Erfahrungen in Regeln.22 Die praktische Vernunft fordert ein, das zu denken, was der Verstand nicht in Regeln fassen kann. Kant formuliert diese „Postulate der reinen praktischen Vernunft“: „Unsterblichkeit“, „Freiheit“ und „Dasein Gottes“. Die praktische Vernunft setzt diese Postulate als Voraussetzungen, welche zu Begriffen berechtigen, „deren Möglichkeit auch nur zu behaupten sie sich sonst nicht anmaßen könnte.“23 Um dem Menschen in seiner Ganzheit gerecht zu werden, fordert die Vernunft, das Unbegreifliche an den Grenzen der Vernunft zu verorten. „Und so begreifen wir zwar nicht die praktische unbedingte Notwendigkeit des moralischen Imperativs, wir begreifen aber doch seine Unbegreiflichkeit, welches alles ist, was billigermaßen von einer Philosophie, die bis zur Grenze der menschlichen Vernunft in Prinzipien strebt, gefordert werden kann.“24 Systematisch hat Immanuel Kant die negativen Bedingungen für menschliche Erkenntnisprozesse herausgearbeitet. Indem er darlegt, wie Naturgesetze nicht unmittelbar aus der Natur abgelesen werden können, sondern als Zuschreibung des menschlichen Verstandes eine Leistung und Konstruktion des Menschen ist, erarbeitet Kant den Abschied von einer simplifizierenden Abbildtheorie der Wirklichkeit und von einem positivistischen Reduktionismus. Das „Ding an sich“ bleibt einer vollständigen Erfassung durch die menschliche Rationalität entzogen. Die Konzeption einer formalistisch-instrumentellen Rationalität ergänzt er durch eine transzendentale Anthropologie. Die Bedingungen für Wissen und Erkenntnis gründen damit Kant: Prolegomena, a. a. O., S. 47 (§14). Kant: Prolegomena, a. a. O., S. 74 (§36). 22 Kant, Immanuel: Kritik der reinen Vernunft, Stuttgart 2009, S. 385 [A 303 / B 359]. 23 Kant, Immanuel: Kritik der praktischen Vernunft, Stuttgart 1992, S. 209f [238]. 24 Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, Stuttgart 2008, S. 112. 20 21
213
3 Negativität und philosophische Vernunftkritik
nicht mehr nur in einer Methodik des Verstandes, mithilfe dessen der Mensch seine Beobachtungen und Erfahrungen zu verallgemeinern imstande ist, sondern auch in der Einsicht der Vernunft in die Grundbedingungen für Erkenntnis, Moral und Sinnorientierung, welche nicht aus Erfahrungen notwendig abgeleitet werden können, sondern welche als Grundbedingung für menschliche Praxis axiomatisch gesetzt werden müssen: Als „Postulate der reinen praktischen Vernunft überhaupt“ sind diese „nicht theoretische Dogmata, sondern Voraussetzungen in notwendig praktischer Rücksicht“.25 Demzufolge ordnet sich der instrumentelle Gebrauch der Natur durch die menschliche Verstandestätigkeit mit Kant in eine Systematisierung der Offenheit des Menschen gegenüber Anderen, gegenüber sich selbst und gegenüber der Einsicht in die Grundbedingungen von Moralität und Interexistentialität ein. Kant erarbeitet damit die Grundargumentation für einen ethischen Universalismus, welcher sich gerade nicht als eine positivistische Schlussfolgerung aus einer empirischen Methodik ableiten lässt, sondern als Einsicht in sinnkonstitutive Negativität zu einer Möglichkeitsbedingung für Erkenntnis und Moralität wird.26 Theodor W. Adorno: Grenzen des Begriffs Theodor W. Adorno hat in seinem systematischen Werk Negative Dialektik das Missverhältnis eines begrifflich-instrumentellen Zugriffs auf die Welt im Sinne eines moralisch defizitären Programms freigelegt. Demnach besteht in der Annahme einer Identifikation eines Gegenstands mit seinem Begriff eine Verkürzung der Komplexität des Seins. Gegenüber einer solchen Gleichsetzung bleibt hingegen immer etwas, was in diesem Begriff nicht aufgeht, bei Adorno das „Nichtidentische“ oder „Nichtbegriffliche“.27 Es bildet als Dimension der Unverfügbarkeit etwas, was einem instrumentellen Zugriff durch die Rationalität des Menschen entzogen bleibt.28 Rationalität beinhaltet damit auch eine Bedrohung im Sinne einer Abstumpfung oder Kant: Kritik der praktischen Vernunft, a. a. O., S. 209. Vgl. für eine vertiefende Systematisierung dieser Argumentation für die Grundlegung von Moralphilosophie: Rentsch, Thomas: Die Konstitution der Moralität. Transzendentale Anthropologie und praktische Philosophie, Frankfurt am Main 1999. 27 Adorno, Theodor W.: Negative Dialektik, Frankfurt am Main 2013, S. 23. 28 „Sie [die Negative Dialektik, Anm. d. Autors] stellt den Versuch dar, das, was der Philosophie heterogen ist, ihr Anderes, man könnte vorgreifend sagen: das Nichtbegriffliche in die Philosophie mit hineinzunehmen, – bei Hegel die Identifikation des Nichtidentischen; im Sinne der Fragestellungen, die ich Ihnen exponiere, viel eher nicht das Nichtbegriffliche hineinzunehmen, sondern es in seiner Nichtbegrifflichkeit zu begreifen. Und dadurch würde Philosophie sich, um fähig zu sein, von dem Wesentlichen zu reden, das ihr so vielfach entgleitet, sich mit dem einzulassen haben, was sie, in ihrer traditionellen Gestalt bis hinauf zu Hegel […] gerade uns unterschlägt; das, was sie in ihrer traditionellen und, wie man wohl hinzufügen darf, in ihrer affirmativen Gestalt mit Bedacht durch 25
26
214
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Blindheit gegenüber der Wirklichkeit. Adornos Begriffskritik kann hermeneutisch auch für eine Kritik des formallogischen und positivistischen Reduktionismus übertragen werden. In der Grenzziehung des Geltungsanspruchs von affirmativen Aussagen kann mit Adorno die Systematik von sinnkonstitutiver Negativität als Offenheit, Entzogenheit und Unverfügbarkeit der Welt und des Menschen gegenüber einem totalen Zugriff durch eine instrumentelle Zweckrationalität gestützt werden. Seine Problematisierung des Wissensbegriffs unter dem moralischen Gesichtspunkt des Schuldigwerdens des Begriffs an der Wirklichkeit rückt das Verhältnis von Wissen und Macht als ethisches Problem in den Blick.29 Adorno hat Aspekte des Ungenügens des Begriffs an der Wirklichkeit in seinem Werk zur Negativen Dialektik systematisch ausgearbeitet. „Befriedigt schiebt begriffliche Ordnung sich vor das, was Denken begreifen will.“30 Adorno sieht in der begrifflichen Identifikation eine Verschränkung von Denken und Herrschaft: „Ich habe jedenfalls die feste Absicht, Ihnen zu zeigen, daß die Momente, welche die Realität als antagonistische Realität prägen, die gleichen sind, welche auch den Geist, den Begriff also, zu seinen immanenten Widersprüchen verhalten. Mit anderen Worten: es handelt sich beide Male um das Prinzip der Herrschaft, der Naturbeherrschung, die sich dann ausbreitet, die sich dann fortsetzt in der Herrschaft von Menschen über Menschen und die ihre geistige Reflexion findet in dem Prinzip der Identität: in dem immanenten Bestreben allen Geistes, sein Anderes, das was an ihn herangetragen wird oder worauf er stößt, sich gleichzumachen und dadurch in seinen eigenen Herrschaftsbereich hineinzuziehen.“31 Dabei erweist sich jeder Begriff als inkommensurabel mit dem, was er bezeichnen will. Der Begriff einer Sache ist nicht identisch mit der Sache selbst. Adorno bezeichnet diese Diskrepanz unter Rückgriff auf Hegel als das „Nichtidentische“.32 In keiner Bestimmung der Wirklichkeit ihre Maschen schlüpfen läßt.“ Adorno, Theodor Wiesengrund: Vorlesung über Negative Dialektik, Frankfurt am Main 2007, S. 88. 29 „Dialektik ist das konsequente Bewusstsein von Nichtidentität. Sie bezieht nicht vorweg einen Standpunkt. Zu ihr treibt den Gedanken seine unvermeidliche Insuffizienz, seine Schuld an dem, was er denkt.“ (Negative Dialektik, a. a. O., S. 17.) Die Zusammenführung des Schuldbegriffs mit der Insuffizienz des begrifflichen Denkens erläutert Adorno in seinen Vorlesungen während der Arbeit an der Negativen Dialektik: „Der Gedanke, der identifiziert, tut ja durch die Identifikation jedem einzelnen Begriff immer Gewalt an.“ (Vorlesung über Negative Dialektik, a. a. O., S. 51.) Die Fülle der Wirklichkeit muss reduziert, abstrahiert werden, um sie in einem Begriff fassen zu können. Die Wirklichkeit wird ihrer immanenten Unergründlichkeit und Uneinholbarkeit beraubt, wenn mit begrifflich-identifizierendem Denken beansprucht wird, diese zu fassen und für einen instrumentellen Gebrauch verfügbar werden zu lassen. 30 Adorno, Theodor W.: Negative Dialektik, Frankfurt am Main 2013, S. 17. 31 Adorno, Theodor Wiesengrund: Vorlesung über Negative Dialektik, Frankfurt am Main 2007, S. 21. 32 Vgl. Georg Wilhelm Friedrich Hegel: Wissenschaft der Logik I, Werke Bd. 5, Zweite Auflage, Frankfurt am Main 1990, S. 93.
215
3 Negativität und philosophische Vernunftkritik
geht diese vollständig auf, weder der Welt noch eines ihrer Phänomene. In keiner begrifflichen, funktionalen, mathematischen oder theoretischen Bestimmung eines Phänomens kann dieses ganz gegriffen, begriffen werden. Auch wenn wir Prozesse, Vorgänge und Phänomene in einer mathematischen Sprache beschreiben können, so bildet diese Perspektive nur einen möglichen Zugang zu diesem Phänomen. In jeder Bestimmung der Wirklichkeit fügt der Mensch der phänomenalen Wahrnehmung etwas hinzu. Eine mathematische, theoretische oder empirische Bestimmung eines Phänomens wird nicht passiv aus der Natur „abgelesen“, sondern ist ein Akt der aktiven Zuschreibung durch den Menschen. Zwischen dem Begriff und dem Gegenstand ist eine Diskrepanz, etwas, was nicht identisch ist. Damit setzt jeder Begriff nicht nur eine neue Realität, sondern verdeckt auch etwas Ursprüngliches. „Der Gedanke, der identifiziert, tut ja durch die Identifikation jedem einzelnen Begriff immer Gewalt an; und die Negation der Negation ist eigentlich gar nichts anderes als die ἀνάμνησις jener Gewalt, also die Rechenschaft darüber, daß ich, indem ich zwei Begriffe, die einander entgegenstehen, in eins gesetzt habe, zwar auf der einen Seite einer Notwendigkeit in ihnen gefolgt bin, zugleich aber auch ihnen Gewalt angetan habe, die korrigiert werden muss.“33 Thomas Rentsch fasst in seiner Rezeption Adornos zusammen, „dass sich im Setzen einer Unterscheidung gleichzeitig und notwendigerweise etwas verdeckt – Setzung und Verdeckung sind gleichursprünglich.“34 Diese Einsicht in „Nichtidentität wird für Adorno maßgeblich: „Dialektik ist das konsequente Bewusstsein von Nichtidentität. Sie bezieht nicht vorweg einen Standpunkt. Zu ihr treibt den Gedanken seine unvermeidliche Insuffizienz, seine Schuld an dem, was er denkt.“35 Indem die Diskrepanz zwischen Begriff und Wirklichkeit in Adornos Sprache mit dem moralphilosophischen Begriff der „Schuld“ in Zusammenhang gebracht wird, schlägt Adorno eine Brücke von seiner Negativen Dialektik zu seinem früheren Werk Dialektik der Aufklärung, das er gemeinsam mit Max Horkheimer verfasst hatte und worin er die Verschränkung von Wissen und Herrschaftsanspruch problematisiert hatte. Adorno deutet Wissen als Anspruch einer vollständigen Verfügbarmachung der Natur durch den von einem Gegenstand gebildeten Begriff somit auch aus einer moralphilosophischen Perspektive.36 Zu Adornos Negativer Dialektik ist von verschiedener Seite bereits Kritik entwickelt worden.37 Thomas Rentsch sieht in Adornos Ansatz eine „Überstrapazierung“ und extravagan Adorno: Vorlesung über Negative Dialektik, a. a. O., S. 51. Rentsch: Negativität und praktische Vernunft, a. a. O., S. 262. 35 Ebd., S. 17. 36 Dies wird im nächsten Kapitel, welches sich mit den Grundlagen der Normativität auseinandersetzt, ausgeführt (3.2.). 37 So weist Thomas Rentsch gemeinsam mit A. Wellmer auf die Aporetik einer Schuldhaftigkeit des Denkens hin, die sich durch eine dualistische Gegenüberstellung eines idealisierten ‚Absoluten‘ und 33
34
216
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
te Forcierung des Gesichtspunktes der konstitutiven Fragilität. Einer aporetischen Deutung setzt er entgegen, „dass das Nichtidentische, die in einer jeweiligen Unterscheidung gleichsam unterschlagenen Aspekte und Hinsichten, einzig und allein in einer gemeinsamen Verständigung von Personen miteinander ‚aufgeholt‘ und ‚eingeholt‘ werden kann.“38 Das „Nichtidentische“ kann nicht seinerseits hypostasiert werden und auch das „konsequente Bewusstsein von Nichtidentität“39 bleibt, wenn es nicht vernunftkritisch aufgeschlossen wird, aporetisch. Der von Adorno systematisch herausgearbeitete Kernaspekt von Nichtidentität, dass also ein Begriff niemals mit seiner Sache aufgeht, kann jedoch für eine Positivismus- und Transhumanismuskritik neu erschlossen werden. In den Entwürfen von Moravec und Kurzweil wird die Messbarkeit der Welt und die mathematische Modellierung des Geistes als Verfügbarmachung der Dinge selbst interpretiert. Wenn das Gehirn nur genau genug gescannt, messbar gemacht werden kann, dann erfassen wir das Wesen der Personalität des Menschen mit diesen Daten. Die erkenntnistheoretische Grundannahme in diesen Entwürfen ist die der vollständigen Identität durch mathematische Modellierung: die Zahl entspricht ihrem Gegenstand. Martin Heidegger: Denken und Entzogenheit Zahlreiche weitere Autoren haben Dimensionen von Negativität als Grundbedingung für menschliche Erkenntnis thematisiert. So charakterisiert Martin Heidegger das Denken des Menschen als Wegweisen, als Einsicht in ein Unvermögen und als passiv-zulassendes Einlassen. Damit formuliert er einen Gegenentwurf zu einem instrumentellen Zugriff auf die Natur als Verfügbares, Beherrschbares. „Wir gelangen in das, was Denken heißt, wenn wir selber denken. Damit ein solcher Versuch glückt, müssen wir bereit sein, das Denken zu lernen. Sobald wir uns auf das Lernen einlassen, haben wir auch schon zugestanden, daß wir das Denken noch nicht vermögen.“40 Die Einsicht in die grundsätzliche Unverfügbarkeit und Entzogenheit meiner selbst, des Anderen und der Welt wird als Bewusstsein um das eigene Unvermögen damit zur Grundvoraussetzung für Denken und Erkenntnisgewinn. Heidegger stellt sich damit in die Linie Platons, in welcher sich das Eingeständnis in die eigene Unwissenheit als Grundbedingung für jeden Erkenntnisgewinn erweist. „Der Mensch kann denken, insofern er die Möglichkeit dazu hat. Allein dieses Mögliche verbürgt uns noch nicht, dass wir es vermögen. Denn einer ‚totalen Verdinglichung‘ entwickelt. (Rentsch: Negativität und praktische Vernunft, a. a. O., S. 263f.) 38 Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000, S. 262. 39 Adorno: Negative Dialektik, a. a. O., S. 17. 40 Martin Heidegger: Was heißt denken?, in: Vorträge und Aufsätze, Stuttgart 2004, S. 123–138, dort S. 123.
217
3 Negativität und philosophische Vernunftkritik
etwas vermögen heißt: etwas nach seinem Wesen bei uns einlassen, inständig diesen Einlass hüten. Doch wir vermögen immer nur solches, was wir mögen, solches, dem wir zugetan sind, indem wir es zulassen.“41 Heidegger umkreist damit das Phänomen sinnkonstitutiver Negativität als Erkenntnisbedingung, indem er die Passivität der Erkenntnis mit der Wortwahl des Empfangens und Einlassens kennzeichnet. Erkenntnis ist fragil und entzogen und muss dialogisch erfragt werden. Als grundsätzlich Entzogenes und Unverfügbares ist es dem Menschen gleichsam wie eine Spur zugänglich, sodass der Mensch sich diesem dennoch zuwenden kann. Gerade als Sich-Entziehendes erweist sich daher das Nicht-Instrumentalisierbare als dasjenige, was sich als Nichtwissen und als Einsicht in Negativität zur Grundbedingung für menschliche Erkenntnisprozesse überhaupt herausbilden kann. „Das zu-Denkende wendet sich vom Menschen ab. Es entzieht sich ihm, indem es sich ihm vorenthält. Das Vorenthaltene aber ist uns stets schon vorgehalten. Was sich nach der Art des Vorenthaltens entzieht, verschwindet nicht. Doch wie können wir von dem, was sich auf solche Weise entzieht, überhaupt das geringste wissen? Wie kommen wir darauf, es auch nur zu nennen? Was sich entzieht, versagt die Ankunft. Allein – das Sichentziehen ist nicht nichts. Entzug ist hier Vorenthalt und ist als solcher – Ereignis. Was sich entzieht, kann den Menschen wesentlicher angehen und inniger in den Anspruch nehmen als jegliches Anwesende, das ihn trifft und betrifft. Man hält die Betroffenheit durch das Wirkliche gern für das, was die Wirklichkeit des Wirklichen ausmacht. Aber die Betroffenheit durch das Wirkliche kann den Menschen gerade gegen das absperren, was ihn angeht, – angeht in der gewiß rätselhaften Weise, daß das Angehen ihm entgeht, indem es sich entzieht. Der Entzug, das Sichentziehen des zu-Denkenden, könnte darum jetzt als Ereignis gegenwärtiger sein denn alles Aktuelle.“42 Heidegger ringt in diesen Passagen um ein Verständnis des Negativen und Entzogenen als für jede menschliche Sinnkonstitution unhintergehbare Grundbedingung. Die Offenheit und Unabschließbarkeit des Denkens kann aufgrund der Multidimensionalität menschlicher Vernunft als Bedingung für Philosophie, Erkenntnis und Wissen gekennzeichnet werden. Vernunftkritik als Positivismuskritik Die hier in Kürze skizzierten Ansätze von Vernunftkritik umreißen ein Feld von Positivismuskritik, das systematisch als Linie philosophischen Denkens herausgestellt werden kann. Zahlreiche weitere Denker und Texte könnten angeführt werden, die sich mit den Grenzen des begreifenden Denkens auseinandersetzen. Ebd. Ebd., S. 128f.
41
42
218
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Jeder Begriff, sei er wissenschaftlich oder philosophisch, deutet auf einen Gegenstand und versucht, Wesentliches in einer Sprache zu fassen. Dennoch geht vieles, was einen Gegenstand ausmacht, nicht in einem von ihm gebildeten Begriff auf. Das Modell eines Gehirns greift das Gehirn nicht selbst. Die Vermessung eines Gegenstands erfasst nicht sein Wesen. Die wissenschaftliche Beschreibung ist nur ein Zugang zur Fülle der Wirklichkeit. Ein Orchesterstück von Mozart kann unter unzählig vielen Perspektiven beschrieben werden. Selbstverständlich kann man auch eine physikalische Beschreibung der Musik formulieren: das Material der Instrumente, Schwingungen und Schallwellen, akustische Verhältnisse – all das sind wichtige Aspekte der Wirklichkeit. Doch erschöpft sich der Klang selbst, die Musik, nicht in einer physikalischen Beschreibung. Ein solches Orchesterstück mag nur einige Minuten lang sein und doch ist es für eine begreifende Vernunft letztlich entzogen. Was man über diese wenigen Minuten Musik sagen kann, ist hingegen schier unbegrenzt. Die harmonischen Verhältnisse, rhythmische und melodische Strukturen können musiktheoretisch analysiert werden. Aus dem Kontext der Zeit können kompositorische Aspekte aus verschiedenen Perspektiven beleuchtet werden. Auch musikgeschichtliche Zusammenhänge mögen eine Rolle spielen; vielleicht spielt dieses oder jenes Motiv auf dieses oder jene andere Musikstück seiner Zeit an. Das Orchester ist wiederum ein soziales System, dessen Interaktionen auf psychische Ebenen der einzelnen Musiker verweisen, die ihrerseits nicht einmal von ihnen selbst bewusst sind. Für jeden Zuhörer spielen lebensweltliche Erfahrungen eine Rolle: Der Eine hört im Duett der wechselseitig erklingenden Motive einen koketten Flirt, der Andere denkt dabei an spielende Kinder. Was man darüber aussagen kann, ist dennoch nie die Musik selbst. Die Musik selbst verklingt, ihr Wesen ist ein vorübergehendes. Sprache kann sich einem jeden Gegenstand jeweils nur annähern.
3.1.2 Grenzen der Sprache In der Sprache muss Wissen formuliert werden, um für den Menschen verfügbar werden zu können. Grenzen des Wissens sind damit immer auch Grenzen der Sprache. „Die Grenzen meiner Sprache sind die Grenzen meiner Welt.“43 Schon der frühe Wittgenstein deutet an, dass hinter diesen Grenzen nicht nichts ist, sondern alles, nur in einer anderen Form: „Wir fühlen, daß selbst, wenn alle möglichen wissenschaftlichen Fragen beantwortet sind, unsere Lebensprobleme noch gar nicht berührt sind.“44 Die philosophische Vernunftkritik des Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung, Frankfurt am Main 2013, S. 86; Punkt 5.6. 44 Ebd., S. 110f; 6.52. 43
219
3 Negativität und philosophische Vernunftkritik
20. Jahrhunderts ringt aus verschiedenen Perspektiven immer wieder um das Verhältnis von Sprache und Wissen. Kierkegaard spricht bereits vom Reich der Sprache, das die Grenzen eines angrenzenden Reiches nur erahnen kann. Am Beispiel der Musik beschreibt Kierkegaard, wie das Reich der Sprache ringend nur das Reich der Musik umschreiben kann, ohne dieses sprachlich begreifen zu können. „Wenn ich mir zwei aneinandergrenzende Reiche dächte, von denen ich mit dem einen ziemlich genau bekannt und mit dem andern gänzlich unbekannt wäre, und es würde mir nicht gestattet, jenes unbekannte Reich zu betreten, wie sehr ich es auch wünschte, so wäre ich dennoch imstande, mir eine Vorstellung davon zu machen. Ich würde bis an die Grenze des mir bekannten Reiches hinauswandern, ihr beständig folgen, und würde, indem ich dies täte, mit dieser Bewegung den Umriss jenes unbekannten Landes beschreiben und auf diese Weise eine allgemeine Vorstellung von ihm haben, obgleich ich nie meinen Fuß hineingesetzt hätte. Und wenn dies nun eine Arbeit wäre, die mich sehr beschäftigte, wenn ich unermüdlich wäre in meiner Genauigkeit, so würde es zuweilen wohl auch geschehen, dass mir, indem ich wehmütig an meines Reiches Grenze stünde und sehnsuchtsvoll in jenes unbekannte Reich hinüberschaute, das mir so nah und doch so fern wäre, mitunter eine kleine Offenbarung zuteil werden. […] Das mir bekannte Reich, zu dessen äußerster Grenze ich gehen will, um die Musik zu entdecken, ist die Sprache.“45 Kierkegaard nimmt damit eine Dimension von Sprachkritik vorweg, die z. B. in Adornos Negativer Dialektik, aber auch bei Ludwig Wittgenstein eine systematische Ausarbeitung finden wird. Sprache kann das Reich jenseits der Sprache nur erahnen, das Dahinterliegende bleibt jedoch letztlich unverfügbar und entzogen. Ludwig Wittgenstein: Sprache als Bild und Transzendenz Kierkegaard wurde von Wittgenstein intensiv rezipiert.46 Ludwig Wittgenstein entwickelte in seinem Tractatus logico-philosophicus einen Entwurf für eine exakte, formalisierbare Sprache.47 Wittgenstein entwirft darin eine systematische Analyse, um Sätze als „Bilder von Sachlagen“ zu deuten. Er rekonstruiert und verdeutlicht damit die Auffassung einer Abbildtheorie der Wirklichkeit. Wittgensteins Tractatus schließt mit einer Grenzziehung philosophischer Sprache im Bereich des naturwissenschaftlichen Empirismus unter Ausgrenzung des Mystischen als des
Vgl. Kierkegaard, Sören: Entweder – Oder, München 2009, Das Musikalisch-Erotische, S. 80f. Rentsch: Negativität und praktische Vernunft, a. a. O., S. 276. 47 Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung, Frankfurt am Main 2003. 45
46
220
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Unaussprechlichen.48 Damit würde die Aufgabe von Philosophie in einer Apologetik des positivistischen Empirismus bestehen: „Die richtige Methode der Philosophie wäre eigentlich die: Nichts zu sagen, als was sich sagen lässt, also Sätze der Naturwissenschaft – also etwas, was mit Philosophie nichts zu tun hat –, und immer, wenn ein anderer etwas Metaphysisches sagen wollte, ihm nachzuweisen, dass er gewissen Zeichen in seinen Sätzen keine Bedeutung gegeben hat. Diese Methode wäre für den anderen unbefriedigend – er hätte nicht das Gefühl, dass wir ihn Philosophie lehrten – aber sie wäre die einzig streng richtige.“49 In seinem späteren Werk, insbesondere in den Philosophischen Untersuchungen, revidiert Wittgenstein seine Ausarbeitungen des Tractatus.50 Wittgenstein arbeitet darin heraus, dass der Sinn von Sprache sich nicht in einer formalen Logik erschöpft, mithilfe derer jedem Zeichen eine eindeutige, exakte Bedeutung zugewiesen werden könnte. Stattdessen muss für die Rekonstruktion der Bedeutung eines Wortes seine Verwendung in konkreten lebensweltlichen Kontexten untersucht werden.51 Der Bedeutungsgehalt von Wörtern erweist sich damit als polysemantisch.52 Wissen um die Bedeutung von Wörtern und Sätzen ist dabei nicht mit ihrer Sagbarkeit gleichzusetzen.53 Damit distanziert sich Wittgenstein von seinem Frühwerk im Tractatus, in welchem er das Unaussprechliche aus dem Bereich vernünftiger Sprache verwiesen hatte: „Was ist dein Ziel in der Philosophie? – Der Fliege den Ausweg aus dem Fliegenglas zeigen.“54 Die starke Wendung in Wittgensteins Denken führt in manchen Darstellungen zu einer Aufgliederung in Wittgenstein I und Wittgenstein II. Eine solche scharfe Trennung verdeutlicht zwar den Revisionsaspekt seines Frühwerks, wird aber weder der gemeinsamen und gleichbleibenden Linie der Satz- und Bedeutungsanalyse Wittgensteins gerecht, noch der gegenseitigen Verwiesenheit seines Früh- wie seines Spätwerks. So ist bereits im Tractatus die Sprengung des logischen Positivismus, für welchen er einsteht, angelegt. Wittgenstein weist bereits im Tractatus auf die Aporetik der Unmöglichkeit exakten Sprechens über Fragen der Sinnorientierung hin, wenn er schreibt: „Wir fühlen, dass selbst, wenn alle möglichen wissenschaftlichen Fragen beantwortet sind, unsere Lebensprobleme noch gar nicht berührt
Ebd., S. 110f. Ebd., S. 111 (Punkt 6.53.) 50 Ebd., S. 8. 51 Wittgenstein, Ludwig: Philosophische Untersuchungen, Frankfurt am Main 2013, Punkte 329 (S. 174) und 340 (S. 178). 52 Vgl. Punkt 79 (S. 66). 53 Vgl. Punkt 78 (S. 64). Wittgenstein bezieht sich als Beispiel auf die Beschreibung des Klangs einer Klarinette in Abgrenzung zu einer empirisch messbaren attributiven Aussage. 54 Wittgenstein: Philosophische Untersuchungen, a. a. O., S. 168 (Punkt 309). 48 49
221
3 Negativität und philosophische Vernunftkritik
sind. Freilich bleibt dann eben keine Frage mehr; und eben dies ist die Antwort.“55 In seiner Grenzziehung sinnvoller Sprache gegenüber dem Mystischen als dem Unaussprechlichen deutet er bereits eine Vorwegnahme sinnkonstitutiver Negativität an, wenn er schreibt: „Es gibt allerdings Unaussprechliches. Dies zeigt sich, es ist das Mystische.“56 Wittgenstein verübt mit dieser vermeintlich scharfen Grenzziehung zugleich eine zynische und mehrdeutige Sprengung seiner eigenen Systematik des logischen Positivismus. Indem er sie nach außen (gegenüber dem Mystischen) als dem Unsagbaren scharf abgrenzt, jegliche Sinndimension und Relevanz für die Lebensfragen des Menschen jedoch auch dahin auslagert, verweist er ironischerweise die Fragen nach der Sinnkonstitution des Menschlichen in den Bereich des Mystischen. Damit mündet die systematische Strenge des logischen Positivmus im Tractatus in einer Einsicht in die Aporetik, über Sinnfragen keine sinnvollen Aussagen treffen zu können. „Meine Sätze erläutern dadurch, dass sie der, welcher mich versteht, als unsinnig erkennt, wenn er durch sie – auf ihnen – über sie hinausgestiegen ist. (Er muss sozusagen die Leiter wegwerfen, nachdem er auf ihr hinaufgestiegen ist.) Er muss diese Sätze überwinden, dann sieht er die Welt richtig.“57 Rentsch interpretiert Wittgensteins Tractatus als „‚Anrennen‘ gegen die Grenzen empirischwissenschaftlicher Sprache.“58 Die Forderung nach einer exakten Sprache kulminiert in einem Eingeständnis des Nichtwissens und des Nichtsprechenkönnens. Das Schweigen wird damit im Abschlusssatz des Tractatus nicht nur als rhetorisches Mittel zur Grenzziehung wissenschaftlich-exakter Sprache, sondern auch zu einer adäquaten Haltung gegenüber dem Sinnkonstitutiven emporgehoben: „Wovon man nicht sprechen kann, darüber muss man schweigen.“59 Die Mehrdeutigkeit der letzten Passagen in Wittgensteins Tractatus sprengt bereits die Systematik einer exakten, eindeutigen Sprache.60 In den Philosophischen Untersuchungen arbeitet Wittgenstein diese Dimensionen der Mehrdeutigkeit, des Über-sich-Hinausweisens sprachlichen Sinns und der Uneinholbarkeit möglicher Bedeutung von Wörtern und Sätzen fragmentarisch heraus und eröffnet damit den Raum einer Rekonstruktion dessen, was als sinnkonstitutive Negativität im Bereich des Mystischen zunächst aus dem Raum sinnvoller
Wittgenstein: Tractatus, a. a. O., S. 110f (Punkt 6.52). Ebd., S. 111 (Punkt 6.522). 57 Ebd., S. 111 (Punkt 6.54). 58 Rentsch, Thomas: Gott, Berlin 2005, S. 158. 59 Wittgenstein: Tractatus, a. a. O., S. 111 (Punkt 7). 60 Vgl. dazu auch Rentsch, Thomas: Philosophie des 20. Jahrhunderts, a. a. O., S. 80. Rentsch verdeutlicht in seinen Wittgenstein-Analysen die Paradoxien im Tractatus, wenn bewusst durch die Rede von Gott oder dem Mystischen die Grenzen des Logischen Empirismus gesprengt werden. Die Sprache des Tractatus selbst entzieht sich demnach ihrer eigenen Anwendung und verweist auf Sinn in Lebenspraxis, Ethik und Mystik. Vgl. Kap. 4.4 dieser Arbeit. 55
56
222
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
philosophischer Rede verwiesen war. Eine scharfe Trennung in Wittgenstein I und II wird der inneren Vielschichtigkeit von Wittgensteins Texten und den Prozessen seiner sprachanalytischen Arbeit nicht gerecht.61 In den Philosophischen Untersuchungen verdeutlicht Wittgenstein, wie die Form menschlicher Sprache und die Bedeutung von Wörtern durch ihren Gebrauch in unterschiedlichen Kontexten eine Komplexität bergen, die weit über die Systematiken formaler Logik hinausweisen.62 Kontextualität sowie pragmatische Aspekte menschlicher Sprache gehören zu einer differenzierten Fülle und einer unüberschaubaren Komplexität von Wörtern und Sätzen, deren exakter Sinn prinzipiell uneinholbar ist.63 Wittgenstein verabschiedet damit ein Verständnis von Sprache als Abbild der Wirklichkeit.64 Mit seinem Privatsprachenargument weist Wittgenstein zudem auch auf den intersubjektiven Gehalt sprachlichen Sinns hin, wodurch sich dieser gegenüber einem instrumentellen Zugriff durch Einzelne entzieht. Erst im Gemeinsamen, im Dialog, im Gesellschaftlich-Öffentlichen kann sprachliche Bedeutung erschlossen werden.65 Die exakte Bedeutung von Wörtern und Sätzen ist demnach prinzipiell entzogen und unverfügbar und kann nur in immer neuen Kontexten rekonstruiert und erschlossen werden. Wittgenstein legt so auch die Irreduzibilität von Phänomenen durch eine instrumentelle Verdinglichung frei.66 Er weist die Reduktion sowohl von sprachlicher Praxis als auch des menschlichen Denkens auf funktionalistische oder instrumentelle Aspekte der Nützlichkeit und des Erfolgs damit zurück.67 Darin spitzt sich seine Kritik an einer atomistischen Abbildtheorie von Sprache zu: „Ein Bild hielt uns gefangen.“68 Sprache wird hingegen zum Träger von intersubjektiven Handlungsmotiven, die auf leibliche, emotionale, intentionale Aspekte rekurrieren, ohne dass diese in jener aufgingen: „In der Sprache berühren sich Erwartung und Erfüllung.“69 Damit steht Wittgensteins sprachphilosophische Arbeit in einem scharfen Gegensatz zu positivistischen Verkürzungen einer vermeintlichen Verfügbarkeit sprachlichen Sinns durch formale Logik und empirische Methodik und Überprüfbarkeit.
Ebd., S. 81. Ebd., S. 82. 63 Ebd. 64 Ebd. 65 Ebd., S. 84. 66 Rentsch, Thomas: Heidegger und Wittgenstein. Existential- und Sprachanalysen zu den Grundlagen philosophischer Anthropologie, Stuttgart 1985, S. 247. 67 Vgl. Wittgenstein: Philosophische Untersuchungen, a. a. O., §467ff. 68 Ebd., §115. 69 Ebd., §445 (S. 212). 61
62
223
3 Negativität und philosophische Vernunftkritik
Parallel zu Wittgenstein können bei anderen Autoren Aspekte von Sprachkritik rekonstruiert werden, welche die Grenzen einer Formalisierbarkeit der Welt umreißen. Sie berühren sprachphilosophische, metaphysische, wissenschaftstheoretische wie anthropologische und existentielle Analysen. So deutet Heideggers Ontologiekritik und die Formulierung der Seinsfrage als Objektivierungs- und Verdinglichungskritik auf die Unhintergehbarkeit des In-derWelt-Seins des Menschen als vorgängige Daseinsform.70 Sinnkonstitutive Negativität kann auch von Heidegger aus rekonstruiert werden, indem die Entzogenheit des Daseinsgrundes für eine instrumentelle Rationalität ausgehend von einem Lebensweltbegriffs uneigentlicher sowie eigentlicher existentieller Grundbestimmungen hergeleitet wird.71 Die Bedingungen für das „Dass“ der Welt und die Vorbedingungen für Sinn in lebenspraktischen Vollzügen sind damit unverfügbar und nie ganz einholbar. Heidegger bildet in diesem Sinn eine Intensivierung der Objektivierungs- und Wissenschaftskritik Edmund Husserls.72 Als Ontologiekritik ist sie zugleich Sprachkritik.73 Konkretisiert werden kann der pragmatische Aspekt und der wechselseitige Bezug von sprachlicher und lebensweltlicher Praxis in Wittgensteins sprachphilosophischen Analysen mit den Arbeiten von J. L. Austin. In seiner Theorie der Sprechakte weist er nach, dass sprachliche Praxis nicht nur als Informationswiedergabe, sondern auch als personales Handeln aufgefasst werden muss. Sprachliche Praxis ist demnach gekennzeichnet von informativen wie performativen Gehalten, welche ihrerseits soziales Handeln mitbestimmen.74 Die soziale und intersubjektive Dimension menschlicher Sprachpraxis wurde auch stark von der Dialogphilosophie Martin Bubers und der Diskurstheorie von Jürgen Habermas herausgearbeitet. Sprachliche Sinngehalte konstituieren sich demnach erst im zwischenmenschlichen Dialog, bzw. im gesellschaftlichen Diskurs und können nicht auf eine formalisierbare, objektivierbare Wahrheit im Sinne einer empirisch verifizierbaren Tatsachenidealität
Vgl. Heidegger, Martin: Vom Wesen des Grundes, Frankfurt am Main 1965, S. 20ff. Vgl. Rentsch, Thomas: Heidegger und Wittgenstein. Existential- und Sprachanalysen zu den Grundlagen philosophischer Anthropologie, Stuttgart 1985, S. 82 und S. 322f. 72 Vgl. Welter, Rüdiger: Der Begriff der Lebenswelt. Theorien vortheoretischer Erfahrungswelt, München 1986, S. 70ff und S. 116ff. 73 Vgl. für einen systematischen Vergleich von Wittgensteins und Heideggers Ontologie- und Sprachkritik Thomas Rentsch: Heidegger und Wittgenstein, a. a. O. 74 Austin, John Langshaw: Zur Theorie der Sprechakte (How to do things with Words), Stuttgart 1979. Vgl. zur Theorie der Sprechakte auch die weiterführenden und differenzierenden Arbeiten von Austins Schüler John R. Searle: Ausdruck und Bedeutung. Untersuchungen zur Sprechakttheorie, Frankfurt am Main 1982. Vgl. auch Searle, John R.: Sprechakte. Ein sprachphilosophischer Essay, Frankfurt am Main 1994. Zu weiteren Rezeptionen und Interpretationen von Austin vgl. auch Rolf, Eckard: Der andere Austin. Zur Rekonstruktion / Dekonstruktion performativer Äußerungen – von Searle über Derrida zu Cavell und darüber hinaus, Bielefeld 2009. 70 71
224
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
reduziert werden, die losgelöst von ihrem sozialen, kulturellen und biographischen Kontext bestehen könnte. Fragen nach den Bedingungen für menschliche Erkenntnis können nicht losgelöst von einer Rückbesinnung auf die Bedingungen von Sprache erfolgen. Menschliches Denken ereignet sich in Sprache und ist dem griechischen Wortsinn des λόγος folgend mit dieser phänomenologisch gleichursprünglich. Die sprachlich-soziale Welt geht dem Menschen existentiell ebenso voraus wie der Bereich der Logik und des kulturell geprägten Wissens, in welchem jeder Mensch neu lernen muss, sich zu orientieren und zu interagieren. Für die vorliegende Untersuchung sind die Einsichten der Sprachphilosophie in die Grenzen der Formalisierbarkeit von Sprache fruchtbar zu machen, um daraus eine Kritik transhumanistischer Utopien und einer überhöhenden Beurteilung intelligenter Technik zu formulieren.
3.1.3 Grenzen der Wissenschaft In Bezug auf die menschliche Sprache führt die Vieldeutigkeit, Kontextualität und Uneinholbarkeit von sprachlichem Sinn dazu, dass Sprache und sprachliches Handeln auch mit Kriterien von Offenheit beschrieben werden müssen, um ihrem phänomenologischen Charakter in der menschlichen Lebenswelt gerecht zu werden. Diese Offenheit findet sich auch in Wissenschaftstheorie und -praxis wieder, welche ebensowenig wie menschliche Alltagssprache und lebensweltliche Praxis von einem absolut objektiven Beobachterstandpunkt aus formuliert werden kann, sondern welche ihrerseits ebenso von kulturellen, sozialen und individuellen Bedingungen abhängig ist. Die Offenheit wissenschaftlicher Methodik hat letztlich im vergangenen Jahrhundert auch in empirischen Forschungsfeldern selbst zu verschiedenen Paradigmenwechseln geführt, welche der Hypothese einer geschlossenen mechanistischen Welt entgegenstehen. Stattdessen legen verschiedene Forschungsergebnisse Aspekte von Offenheit von Welt und Mensch frei, welche somit auch in einem Kontext empirischer Wissenschaftlichkeit beschrieben werden können. Grenzen der Wissenschaft werden dabei wohl in verschiedenen empirischen Fachwissenschaften als auch in wissenschaftsphilosophischen und wissenschaftstheoretischen Arbeiten ausformuliert. In diesem Sinne können Aspekte von sinnkonstitutiver Negativität auch für die Wissenschaftsphilosophie und -theorie des 20. und beginnenden 21. Jahrhunderts rekonstruiert werden. So wird die lebensweltliche Vorerfahrung des Menschen zur Bedingung für jede wissenschaftliche Erkenntnis. Bevor wissenschaftliche Praxis erst ansetzt, muss bereits ein lebensweltliches Vorwissen vorhanden sein, welches wissenschaftliche Tätigkeit erst ermöglicht und das seinerseits nicht aus jener abgeleitet werden könnte. Diese Aspekte wurden von Thomas 225
3 Negativität und philosophische Vernunftkritik
Rentsch,75 Peter Janich,76 Rüdiger Welter,77 von Markus Gabriel,78 Thomas Nagel79 und anderen herausgearbeitet. Lebensweltliche Vorerfahrung bildet in einer jeweiligen Erste-PersonPerspektive des Beobachterstandpunktes80 immer eine Vorbedingung für wissenschaftliche Praxis in individuell geprägten kulturellen Kontexten und Vermittlungen. Deren Uneinholbarkeit und Unverfügbarkeit kennzeichnet als Dimension von sinnkonstitutiver Negativität wiederum die wissenschaftliche Tätigkeit, deren Projekt nicht mehr als je abschließbares Unterfangen aufgefasst werden kann im Sinne einer vollständigen Formalisierung oder Systematisierung der Wirklichkeit in widerspruchsfreien wissenschaftlichen Systemen. Stattdessen ist auch empirisch-wissenschaftliche Praxis von Offenheit und Unabschließbarkeit geprägt. Nicht nur in wissenschaftstheoretischen, bzw. wissenschaftsphilosophischen Arbeiten des 20. und 21. Jahrhunderts, sondern auch in fachwissenschaftlichen Einsichten aus der empirischen Forschung selbst wurden Aspekte herausgearbeitet, die zu einer Nivellierung eines mechanistischen Determinismus als Grundverständnis des wissenschaftlichen Weltbildes geführt haben. Sie werden an dieser Stelle als fachwissenschaftliche Exkurse für die vorliegende Arbeit hermeneutisch erschlossen und umfassen Aspekte aus Mathematik, Physik und Biologie. Die an dieser Stelle vorgestellten Ansätze kreisen um Grenzen der Wissenschaft als Grenzen der Objektivität, der Berechenbarkeit, der Mechanik, des Determinismus, des Reduktionismus und der Rationalität. Karl R. Popper: Negativität und empirische Wissenschaftspraxis Die konstitutiven negativen Erkenntnisbedingungen empirisch-wissenschaftlicher Forschungspraxis wurden systematisch besonders von Karl R. Popper herausgearbeitet. Indem er die Falsifizierbarkeit jeder wissenschaftlichen Theorie zum Kriterium empirischer Wissenschaftlichkeit erhebt, rückt er die Fehlbarkeit menschlichen und damit auch wissenschaftlichen Wissenserwerbs in den Fokus. Ausgehend davon, dass jede wissenschaftliche Aussage neue Fragen und Probleme aufwirft, konstituiert sich die Unabschließbarkeit wissenschaftlichen Vgl. Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000. Vgl. Janich, Peter: Kultur und Methode. Philosophie in einer wissenschaftlich geprägten Welt, Frankfurt am Main 2006. Vgl. auch Janich, Peter: Grenzen der Naturwissenschaft. Erkennen als Handeln, München 1992. Vgl. auch Janich, Peter, Kambartel, Friedrich und Mittelstraß, Jürgen: Wissenschaftstheorie als Wissenschaftskritik, Frankfurt am Main 1974. 77 Welter, Rüdiger: Der Begriff der Lebenswelt, a. a. O. 78 Vgl. Markus Gabriel: Ich ist nicht Gehirn, a. a. O. 79 Vgl. Nagel, Thomas: Der Blick von nirgendwo, Frankfurt am Main 2012. 80 Vgl. Irrgang, Bernhard: Der Leib des Menschen, a. a. O., S. 121ff. 75 76
226
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Arbeitens.81 Dem Verständnis einer „geschlossenen“ physikalischen Welt stellt er eine Konzeption der Offenheit des Universums gegenüber im Sinne eines wissenschaftlichen Indeterminismus.82 Damit ermöglicht er eine Übertragung auf ethische, politische und gesellschaftliche Fragestellungen.83 Popper liefert mit seinen Arbeiten zur Fehlbarkeit menschlichen Wissens, zur Falsifizierbarkeit jeder wissenschaftlichen Theorie als Grundbedingung ihrer Gültigkeit sowie zur Unabschließbarkeit wissenschaftlicher Erkenntnisprozesse einen wesentlichen Beitrag zu einer Formulierung eines wissenschaftstheoretischen Bewusstseins um Bedingungen von Negativität und Sinnkonstitution. Indem er der vermeintlichen Geschlossenheit eines kausalen Determinismus in physikalischen Weltbeschreibungen eine Konzeption des Indeterminismus entgegensetzt, schlägt er eine Brücke zu einer möglichen Vermittlung von einem anthropologischen Selbstverständnis zum Anliegen, ein Verständnis einer wissenschaftlich beschreibbaren Welt auch trotz eines Bewusstseins um kontextabhängige, kulturelle und intersubjektive Grundbedingungen wissenschaftlicher Erkenntnisprozesse aufrechtzuerhalten. Seine Wissenschaftstheorie und seine politische Philosophie und Ethik bilden damit eine gemeinsame Linie, mit welcher die Grundbestimmung der Offenheit als genuin für ein Selbstverständnis des Menschen und menschlicher Gesellschaften herausgearbeitet wird.
3.1.4 Grenzen der Objektivität Von verschiedenen Autoren des 20. Jahrhunderts wurden Grenzen der Objektivität in wissenschaftlichen Erkenntnisprozessen zu beschreiben versucht. Das Ideal einer vollständig objektiv beschreibbaren Welt, wie es Laplace noch formuliert hatte, erwies sich immer weniger als haltbar. Stattdessen rückten verschiedene Autoren die Rolle der Beobachterperspektive für jede wissenschaftliche Praxis in den Fokus erkenntnistheoretischer Reflexion. Einige dieser Aspekte sollen im Folgenden skizziert werden. Thomas Nagel: Der Blick von Nirgendwo Phänomenologisch ist die Erste-Person-Perspektive als Ebene subjektiver Leiblichkeit irreduzibel auf jegliche Objektivierung und mit einer solchen inkommensurabel. Dies hat unter Vgl. Popper, Karl R.: Logik der Forschung, Tübingen 2005, S. 268f. Vgl. auch Rentsch, Thomas: Philosophie des 20. Jahrhunderts, a. a. O., S. 89. 82 Popper, Karl R.: The Open Universe. An Argument for Indeterminism, Cambridge 1992. Dt. Ausgabe: Das offene Universum. Aus dem Postskript zur Logik der Forschung, Tübingen 2001. 83 Vgl. Popper, Karl R.: The Open Society and its Enemies, Bd. 1 und 2, London 1966. Dt. Ausgabe: Die offene Gesellschaft und ihre Feinde, Bd. I und II, Tübingen 2003.
81
227
3 Negativität und philosophische Vernunftkritik
anderem Thomas Nagel aufgezeigt. In seinem einflussreichen Essay Wie fühlt es sich an, eine Fledermaus zu sein? skizziert er die prinzipielle Unverfügbarkeit des subjektiven Erlebens für jegliche wissenschaftliche Objektivierung.84 Er legt am Beispiel der Empfindungen einer Fledermaus dar, dass wir zwar in einer wissenschaftlichen Sprache recht viel über Fledermäuse sagen können, allerdings nie wissen werden, wie es sich anfühlt, eine Fledermaus zu sein. In seinem späteren Werk Geist und Kosmos erarbeitet Thomas Nagel eine systematische Analyse der Irreduzibilität des Geistesbegriffs unter physikalischen, materialistischen oder evolutionsbiologischen Bestimmungen.85 Konzeptionell erarbeitet Nagel auch die Grundlagen für die unabschließbare Aufgabe der Vermittlung zwischen einem subjektiven Zugang zur Welt und einer Auffassung derselben als objektive Wirklichkeit, welche er einem simplifizierenden materialistischen Reduktionismus positivistischer Wissenschaftlichkeit und der Utopie einer absoluten wissenschaftlichen Objektivität ohne einen durch Vorbedingungen geprägten menschlichen Beobachterstandpunkt gegenüberstellt. In seinem Buch Der Blick von nirgendwo systematisiert Nagel die Bedeutung der Beobachterperspektive für die Wirklichkeitskonstruktion und für Möglichkeiten einer Bestimmung der Grenzen objektiver Erkenntnis.86 Nagel entwickelt durch die Unabschließbarkeit von möglichen Perspektiven auf die Welt seinen Gedankengang dahingehend weiter, „dass jeglicher Drang nach einer objektiven Realitätsauffassung an Schranken stößt, die nicht allein pragmatischer Natur sind: an Grenzen nämlich, die von einer bloß objektiven Intelligenz, wie reich sie auch immer wäre, gar nicht überschritten werden könnten“87 Jeder Anspruch einer psychischen Objektivität wäre demnach „notwendig unvollständig“.88 Nagel weitet seine Kritik, die zunächst bei der Beschreibung psychischer Phänomene in einer objektiven Sprache ansetzt, auf die Beschreibung von objektiver Realität im Allgemeinen aus und fasst dies als „Unvollständigkeit der objektiven Realität“ zusammen.89 Nagel weist darauf hin, dass es unmöglich ist, der Welt als Ganzes entgegenzutreten, ohne sich zugleich als einer ihrer Bestandteile aufzufassen. Gerade in der Objektivierung des Selbst als Teil der Welt ist jedoch eine Loslösung von der Beobachterperspektive, welche diesen Blick prägt, nicht möglich.90
Nagel, Thomas: What Is It Like to Be a Bat? / Wie ist es, eine Fledermaus zu sein, engl./dt., Stuttgart 2016. 85 Nagel, Thomas: Geist und Kosmos. Warum die materielle neodarwinistische Konzeption der Natur so gut wie sicher falsch ist, Berlin 2013. 86 Nagel, Thomas: Der Blick von nirgendwo, Frankfurt am Main 2012. 87 Ebd., S. 35. 88 Ebd. 89 Ebd., S. 47. 90 Ebd., S. 197. 84
228
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Markus Gabriel: Ich ist nicht Gehirn In seinem Buch Ich ist nicht Gehirn diskutiert Gabriel die axiomatische Vorrangigkeit des menschlichen Bewusstseins gegenüber jeder möglichen Dekonstruktion des personalen Bewusstseinsbegriffs durch ein Nichtaufgehen desselben in objektivistisch-physikalistischen Verdinglichungen. Markus Gabriel widmet sich der Identifikation von Ich und Gehirn aus einer erkenntnistheoretischen Perspektive. Er problematisiert dabei besonders dem Geltungsanspruch der Hirnforschung, mithilfe von wissenschaftlichen Messungen das Wesen des Selbst im Gehirn verorten und fassbar machen zu können: „Der Effekt einer spektakulären, angeblich durch die Hirnforschung gestützten Entdeckung, es gebe kein Ich, ergibt sich daraus, dass man zuerst die Erwartung schürt, das Ich müsse ein Ding sein, das man unter der Schädeldecke suchen kann, um dann mit der Entdeckung aufzuwarten, dass da kein Ich zu finden ist. Aber warum sollte man erwarten, dass das Ich oder Selbst ein Ding sein sollte? Diese Erwartung setzt bereits den neuzeitlichen Naturalismus voraus, dass also alles, was es gibt, naturwissenschaftlich erforschbar ist.“91 Gabriel weist unter anderem in seiner Kritik eines naiven Szientismus darauf hin, dass das menschliche Bewusstsein als Beobachterperspektive die Grundbedingung für jede mögliche Wissenschaft ist. Das personale Bewusstsein kann als Beobachterperspektive also nicht selbst als Illusion entlarvt werden, ohne dass sie dabei ihre eigene Legitimation als Erkenntnisprodukt einbüßen würde. „Die ontologisch objektiven Tatsachen über Himmelskörper und unsere Atmosphäre lassen die Lage so aussehen, dass Ereignisse wie Sonnenaufgänge sich als Schein, als eine Art von Illusion entpuppen. Doch dies kann eben im Fall des Bewusstseins nicht eintreffen. Das Bewusstsein kann nicht in dieser Weise Schein sein. Vielmehr ist Bewusstsein die Quelle von Schein. Ohne Bewusstsein würden wir uns weder täuschen noch jemals wahre Überzeugungen haben. Es ist einfach der Standpunkt, von dem aus überhaupt etwas erscheint, und dieser Standpunkt kann nicht aufgegeben werden, da dann wirklich niemand mehr da wäre, der überhaupt noch etwas erkennen könnte.“92 Damit weist Gabriel auf die unhintergehbare Bedeutung des subjektiven Beobachterstandpunktes für jede wissenschaftliche Objektivierung hin.
Markus Gabriel: Ich ist nicht Gehirn, Philosophie des Geistes für das 21. Jahrhundert, Berlin 2015, S. 203. 92 Ebd., S. 174. 91
229
3 Negativität und philosophische Vernunftkritik
Gabriel analysiert Positionen eines eliminativen Materialismus, welche alle Ebenen der menschlichen Personalität auf Materielles zurückführen wollen und weist darin nach, dass der Mangel an Reflexion auf Erkenntnisbedingungen dabei zu Zirkelschlüssen führt.93 „In diesem Zusammenhang sind die Neurowissenschaften eine Zeitlang mit dem Anspruch aufgeladen worden, als Leitdisziplin der Selbsterforschung des Menschen zu dienen, da man glaubte, das menschliche Denken, Bewusstsein, Ich, ja unseren Geist als solchen nun auch verorten und mit einem raumzeitlich beobachtbaren Ding identifizieren zu können: dem Gehirn, bzw. dem zentralen Nervensystem. Diese Idee, die ich mit diesem Buch kritisieren und zurückweisen möchte, nenne ich kurzum den Neurozentrismus.“94
Zugrunde liegt solchen Konzeptionen zumeist eine simplifizierte Abbildtheorie der Wirklichkeit z. B. im Sinne eines mentalen Repräsentationalismus.95 Gabriel führt dabei argumentativ aus, dass die Grundbedingungen für Erkenntnis nicht selbst durch Erkenntnisse widerlegt werden können: „Unser einziger Zugang zu unseren Gehirnen und zu unserer Sinnesphysiologie ist durch unsere Sinne.“96 Wissenschaftliche Erkenntnis kann, um ihren eigenen Geltungsanspruch nicht zu unterlaufen, nicht die eigenen sinnkonstitutiven Bedingungen widerlegen. Unser Bewusstsein bildet die Perspektive, aus der wir überhaupt erst wissenschaftliche Beobachtungen vornehmen können. Jede Objektivierung gründet in Subjektivität, die ihrerseits sich jeder reduktionistischen Objektivierung entzieht. Menschliches Bewusstsein ist die axiomatische Grundvoraussetzung für jeden epistemischen Anspruch, welcher ein Nichtvorhandensein des Bewusstseins erst beanspruchen könnte. Nur ein bewusstes Wesen kann Erkenntnis beanspruchen und damit auch die Erkenntnis, dass es kein Bewusstsein geben würde. Eine solche These würde sich daher selbst ad absurdum führen. Gabriel wendet sich damit gegen eine objektivistische, materialistische oder funktionalistische Verdinglichung des Geistes, welche er als „Entlastungsphantasien der Moderne“ kennzeichnet, weil durch die mechanistisch-deterministische Beschreibung des menschlichen Geistes und Gehirns die Frage nach der Verantwortung für menschliches Handeln umgangen wird.97
95 96 97 93
94
Vgl. Gabriel, Markus: Warum es die Welt nicht gibt, München 2016, S. 144. Gabriel, Markus: Ich ist nicht Gehirn, a. a. O., S. 20. Ebd., S. 151. Ebd., S. 152. Ebd., S. 323.
230
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Ludwik Fleck: Wissenschaft als soziale Praxis Die Rolle des Beobachterstandpunktes und der kulturellen wie sozialen Vorbedingungen für wissenschaftliche Erkenntnisprozesse wurde auch systematisch von Ludwik Fleck98 und Karin Knorr-Cetina99 herausgearbeitet. Demnach ist wissenschaftliche Praxis nicht anders als sprachliche Kontexte anderer Lebensbereiche des Menschen von kulturellen, biographischen, sozialen, gesellschaftlichen und habituellen Vorbedingungen geprägt und wird in ihrer Rezeption und Ergebnisinterpretation auch von diesen mitbestimmt.100 Fleck verdeutlicht anhand verschiedener Beispiele besonders im medizinischen Bereich, dass wissenschaftliche Theoriebildung nie losgelöst von sozialen Kontexten und kulturellen Vorprägungen erfolgt. „Denkstile“ und „Denkkollektive“, die von historischen, sozialen und kulturellen Werten und Ansichten vorgeprägt sind, bedingen in der Praxis des Wissenschaftsbetriebs erst, welche Forschungsergebnisse überhaupt thematisiert und wie diese interpretiert werden können. „Historische und stilgemäße Zusammenhänge innerhalb des Wissens beweisen eine Wechselwirkung zwischen Erkanntem und Erkennen: bereits Erkanntes beeinflusst die Art und Weise des neuen Erkennens, das Erkennen erweitert, erneuert, gibt frischen Sinn dem Erkannten. Deshalb ist das Erkennen kein individueller Prozess eines theoretischen ‚Bewusstseins überhaupt‘; es ist Ergebnis sozialer Tätigkeit, da der jeweilige Erkenntnisbestand die einem Individuum gezogenen Grenzen überschreitet. […] Der Satz ‚jemand erkennt etwas‘ verlangt analog einen Zusatz z. B.: ‚auf Grund des bestimmten Erkenntnisbestandes‘ oder besser ‚als Mitglied eines bestimmten Kulturmilieus‘ oder am besten ‚in einem bestimmten Denkstil, in einem bestimmten Denkkollektiv‘“.101 So sind auch wissenschaftliche Tatsachen nur anschlussfähig, wenn sie sprachlich und formal an das jeweilige Denkkollektiv angepasst werden: „Die Tatsache muss im Stil des Denkkollektivs ausgedrückt werden.“102 Während wissenschaftliche Erkenntnisse als Tatsachen nur dann anerkannt werden können, wenn die Darstellungsform, Sprache und Herleitung sich als anschlussfähig an den jeweiligen Denkstil und das Denkkollektiv erweist, werden die Axiome und Bedingungen wissenschaftlicher Praxis in Diskursen selten bewusst reflektiert. Axiome erweisen sich hingegen in Diskursen nicht selten als unbewusst verfestigte wissenschaftliche Denkrichtlinien.103 Fleck, Ludwik: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv, Frankfurt am Main 1980. 99 Knorr-Cetina, Karin: Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Frankfurt am Main 1991. 100 Vgl. auch Irrgang, Bernhard: Handling technical Power. Philosophy of Technology, Stuttgart 2014, S. 91–113. 101 Fleck, Ludwik: Entstehung und Entwicklung einer wissenschaftlichen Tatsache, a. a. O., S. 54. 102 Ebd., S. 133. 103 Ebd., S. 160. 98
231
3 Negativität und philosophische Vernunftkritik
Wissenschaftliche Weltbilder interpretiert auch Thomas S. Kuhn als kulturelle Produkte, die von bestimmten Kontexten abhängig sind. Der vermeintlichen Linearität wissenschaftlichen Fortschritts hält Kuhn die Wandelbarkeit wissenschaftlicher Weltbilder aufgrund von Paradigmenwechseln im Sinne von wissenschaftlichen Revolutionen entgegen.104 Kuhn weist auf, wie erst in der nachträglichen Rekonstruktion wissenschaftlicher Entwicklungen in Lehrbüchern ein Bild von Stringenz und Kontinuität im Wissenschaftsbetrieb suggeriert wird. Um das Bild solcher Kontinuität aufrecht zu erhalten, müssen wissenschaftliche Lehrbücher „immer dann ganz oder teilweise neu geschrieben werden, wenn sich Sprache, Problemstruktur oder Normen der normalen Wissenschaft ändern“.105 Damit „verschleiern sie zwangsläufig nicht nur die Rolle der Revolutionen, die sie hervorgebracht haben, sondern sogar deren Existenz“.106 Kuhn widerspricht der Vorstellung einer Beständigkeit oder Linearität wissenschaftlicher Tradition.107 Damit weist Kuhn implizit auf die Vorläufigkeit und Wandelbarkeit wissenschaftlicher Weltbilder hin.
3.1.5 Grenzen der Berechenbarkeit Auch das Selbstverständnis der Mathematik hat im 20. Jahrhundert eine Erneuerung des Selbstverständnisses erlebt, die auf die Einsicht in Grenzen der Vernunft als Grenzen der mathematischen Beschreibbarkeit der Welt zurückgeht. Die Wende dieses Selbstverständnisses kann mit dem Scheitern des „Hilbertprogramms“ skizziert werden. Einsichten der philosophischen und wissenschaftstheoretischen Vernunftkritik finden nun auch im Selbstverständnis der mathematischen Wissenschaft eine Parallele. Hilbert und Gödel: Die Unvollständigkeit der Mathematik Einen Höhepunkt, der auch als Endpunkt oder Wendepunkt in der Geschichte eines mathematischen Weltmodells steht, stellt das Programm des Mathematikers David Hilbert dar. Hilbert verfolgte das Programm einer vollständigen, in sich logisch geschlossenen Mathematisierung der Welt. Hilbert stellte sich der Frage meta-mathematischer Behauptungen im Sinne eines philosophischen Geltungsanspruchs mathematischer Systeme.108 Für den wissenschaftlichen Kuhn, Thomas S.: Die Struktur wissenschaftlicher Revolutionen, Frankfurt am Main 1967. Ebd., S. 148. 106 Ebd. 107 Ebd., S. 149. 108 Tapp, Christian: An den Grenzen des Endlichen. Das Hilbertprogramm im Kontext von Formalismus und Finitismus, Heidelberg 2013, S. 10ff. Vgl. Hodges, Andrew: Alan Turing, Enigma, Wien 1994, S. 108. 104 105
232
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Fortschritt und eine vollständige Beschreibung des Universums in der Sprache der Mathematik sah er keine Hindernisse. Hilbert war überzeugt, „daß jede wohldefinierte mathematische Fragestellung notwendigerweise eine exakte Lösung besitzen muß. […] in der Mathematik gibt es kein ignorabimus.“109 Hilbert hielt es für eine „Tatsache, daß es so etwas wie ein unlösbares Problem nicht gibt.“110 Um ein solches Programm zu vollenden, formulierte er auf dem Mathematikerkongress von 1928 drei Fragen: „Erstens: War die Mathematik vollständig in dem technischen Sinn, daß jede Behauptung (von der Art „jede positive ganze Zahl ist die Summe von vier Quadratzahlen“) entweder bewiesen oder widerlegt werden konnte? Zweitens: War die Mathematik widerspruchsfrei in dem Sinn, daß die Behauptung „2+2=5“ durch keine Folge von zulässigen Beweisschritten abgeleitet werden konnte? Und drittens: War die Mathematik entscheidbar? Damit meinte er, ob es ein bestimmtes Verfahren gab, das im Prinzip auf jede beliebige Behauptung angewendet werden konnte und das mit Sicherheit zu einer richtigen Entscheidung hinsichtlich der Wahrheit der Behauptung führte. Im Jahr 1928 war die Antwort auf keine dieser Fragen bekannt. Hilbert war jedoch der Ansicht, daß die Antwort in jedem der Fälle ‚ja‘ lauten würde.“111 Das Hilbertsche Programm zum Abschluss einer vollständigen Mathematisierung der Welt erfuhr jedoch innerhalb kurzer Zeit zwei ernüchternde Einschnitte durch Kurt Gödel und Alan Turing, die beide in unterschiedlichen Ansätzen die Frage nach dem „Entscheidungsproblem“ Hilberts mit „Nein“ beantworten mussten. Kurt Gödel hat mit der Aufstellung seines „Unvollständigkeitstheorems“ nachgewiesen, dass kein logisches System widerspruchsfrei alle geometrischen Sätze a priori beweisen kann. Gödel hatte das Theorem als direkte Antwort auf David Hilbert formuliert.112 Die Utopie einer vollständigen Formalisierbarkeit der Welt in einer mathematischen Sprache erfährt damit eine Einschränkung durch die mathematische Forschung selbst. Gödel wies nach, dass es in jedem widerspruchsfreien axiomatischen formalen System unentscheidbare Sätze gibt.113 Hodges, Andrew: Alan Turing, Enigma, Wien 1994, S. 108. Ebd. 111 Ebd. Vgl. dazu auch S. 129. 112 Gödel, Kurt: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, in: Monatshefte für Mathematik und Physik 38 (1931), S. 173–198. 113 Ebd., S. 190f. Vgl. Friedman, Sy-David u. a. (Hg.): Einleitung zur Neuausgabe des Artikels in Heft 149 (2006) anlässlich Gödels 100. Geburtstag, dort S. 1. Gödels Theorem wurde wiederholt im Zusammenhang mit dem Geltungsanspruch von künstlicher Intelligenz diskutiert, vgl. Penrose, Roger: Schatten des Geistes. Wege zu einer neuen Physik des Bewusstseins, Heidelberg / Oxford / Berlin 1995, S. 60ff. Vgl. auch S. 81ff. Vgl. weiter Alesso, H. Peter und Smith, Craig F.: Thinking on the Web. Berners-Lee, Gödel, and Turing, Hoboken 2009, S. 21–44. Vgl. auch Hofstadter, Douglas R.: Gödel, Escher, Bach. Ein Endloses Geflochtenes Band, Stuttgart 1985, dort S. 306ff. 109 110
233
3 Negativität und philosophische Vernunftkritik
Durch seine Konkretisierung der Fragen, die für die Vervollständigung eines mathematischen Systems der Welt beantwortet werden müssen, ermöglichte Hilbert eine Neubestimmung des Geltungsanspruchs einer mathematischen Beschreibung der Welt, die auch als Erkenntnisgewinn und Hinterlassenschaft für die Philosophie interpretiert werden kann.114 Die Hilbertsche Zielsetzung einer vollständigen Mathematisierung der Wissenschaft und des Universums hat auch Parallelen in der Sprachphilosophie. Russell, Frege und Wittgenstein zielten auf eine vollständige Formalisierung von Sprache in der Exaktheit einer mathematischen Formallogik. Der Wendepunkt als Abkehr vom Glauben an eine solche Möglichkeit der vollständigen Formalisierung der menschlichen Sprache kann in der Philosophie Wittgensteins nachgezeichnet werden. Chaos: Grenzen des Berechenbaren Daneben hat auch die Herausbildung der Chaostheorie dazu beigetragen, dass die Vorstellung der vollständigen Berechenbarkeit der Welt mithilfe von wissenschaftlichen Methoden sich als unhaltbar angesichts einer irreduziblen Komplexität von Wechselwirkungen, Phänomenen und Kausalbeziehungen erweist.115 Kausalität wird dementsprechend in starke und schwache Kausalität eingeteilt.116 Komplexe Systeme sind demnach mit der Eigenschaft der Unvorhersagbarkeit verbunden.117 Die innere Unendlichkeit und Komplexität der Welt führt damit zu einer letztlich unverfügbaren Entzogenheit der Ereignisse in komplexen Makrosystemen, die nicht mit wissenschaftlichen Methoden im Sinne einer Vorhersagbarkeit beschrieben werden können. Im Begriff des deterministischen Chaos zeigt sich eine Abkehr von einem starken Determinismus-Verständnis in der modernen Physik.118 Der Mathematiker Werner Kinnebrock fasst die Bedeutung der Chaostheorie für den paradigmatischen Wechsel im Wissenschaftsverständnis der Mathematik und Physik wie folgt zusammen: „Die Botschaft der Chaostheorie lautet, dass die theoretisch beherrschbaren und regelbaren Phänomene die Ausnahme bilden. Die meisten Systeme sind zu komplex, als dass sie mit Theorien abbildbar und damit manipulierbar sind. Dies gilt für Systeme des Makrokosmos, der Mathematik, aber auch der Wirtschaft, der Soziologie und der Politik. Nicht wenige Hodges, Andrew: Alan Turing, Enigma, a. a. O., S. 129. Vgl. Kinnebrock, Werner: Bedeutende Theorien des 20. Jahrhunderts. Relativitätstheorie, Kosmologie, Quantenmechanik und Chaostheorie, München 2013, S. 113ff. 116 Vgl. Loistl, Otto und Betz, Iro: Chaostheorie. Zur Theorie nichtlinearer dynamischer Systeme, München 1994, S. 6f. 117 Ebd., S. 42. 118 Thomas, Harry und Leiber, Theodor: Determinismus und Chaos in der Physik, in: Mainzer, Klaus (Hg.): Quanten, Chaos und Dämonen, a. a. O., S. 147–207, dort S. 152. 114
115
234
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Studien zu politischen, soziologischen oder wirtschaftlichen Ereignissen sind schon kurz nach ihrer Veröffentlichung überholt. Der Grund sind die nicht voraussehbaren Einflüsse und Störfaktoren von außen. Die Beschreibung dieser Störungen und ihrer Wirkungen auf das Ganze sowie der Versuch, gewisse Gesetzmäßigkeiten des Unkontrollierbaren, des Chaos, aufzufinden, ist das Anliegen der Chaostheorie.“119 Die Chaostheorie fasst dementsprechend für die mathematische Modellbildung die Einsicht in die prinzipielle Unverfügbarkeit, Uneinholbarkeit und Unableitbarkeit der Welt zusammen. Damit einher geht eine Verabschiedung des mechanistisch-deterministischen Weltbildes von Laplace: „Für Laplace war es eine unumstößliche Wahrheit: Jedes dynamische System lässt sich eindeutig vorausberechnen. Und wenn nicht, dann fehlt es nur an den passenden Gleichungen, die noch nicht erforscht sind, irgendwann aber sicherlich bekannt sein werden. Die Chaostheorie hat diese Säule der totalen Berechenbarkeit gekippt. Wettervorhersage in Präzision ist prinzipiell unmöglich und wenn ich eine Billardkugel anstoße und ihre Bahn für eine Minute vorausberechne, muss ich – so unglaublich es klingt – sogar jedes Elektron in der Milchstraße in seinem gravitativen Einfluss auf die Billardkugel in die Rechnung mit einbeziehen, wenn ich exakt sein will.“120 Der Begriff der starken Kausalität, auf dem ein mechanistisches und deterministisches Verständnis der Welt als mathematisch modellierbare Struktur fußt, wird durch die Chaostheorie eingeschränkt: „Die Chaostheorie zeigt, dass auch im makroskopischen Bereich die Kausalität in Zukunft nicht mehr als eine Grundsäule wissenschaftlicher Argumentationen betrachtet werden darf, denn wie wir gesehen haben, existieren dynamische Systeme, die in jeder Weise die starke Kausalität verletzen. […] Was nach den Erkenntnissen der Chaostheorie nicht mehr gilt, ist die Berechenbarkeit, die Voraussagbarkeit der Wirkung, wenn man die Ursache kennt.“121 Die Annahme einer vollständigen Berechenbarkeit des Universums muss damit aufgegeben werden. Leben und die Grenzen der Mechanik Auch in der Beschreibung des organischen Lebens kam es zu Paradigmenwechseln, welche ein Aufbrechen der mechanistischen Auffassung lebendiger Organismen einleiteten. So wurden im Bereich der genetischen Forschungen Zusammenhänge epigenetischer Strukturen nachweisbar, welche von Verhalten und Umwelteinflüssen abhängig sind und mit dafür verantwortlich sind, wie der genetische Code interpretiert und im Organismus umgesetzt wird. Auch Kinnebrock: Bedeutende Theorien des 20. Jahrhunderts, a. a. O., S. 113. Ebd., S. 114. 121 Ebd., S. 121. 119
120
235
3 Negativität und philosophische Vernunftkritik
im Zuge des Human Genome Project hat sich gezeigt, dass nur ein geringer Anteil von Krankheiten durch eine monogenetische Kausalbeziehung bedingt ist. Ein genetischer Determinismus im Sinne eines Programmcodes des organischen Lebens ist damit kaum mehr aufrecht zu erhalten. Vielmehr scheint genetische Information analog zu menschlicher Sprache polysemantisch und kontextabhängig in biologischen Organismen interpretiert und verarbeitet werden zu können. Die Metapher des genetischen Programmcodes ist offenbar irreführend. Ein genetischer Determinismus im Sinne eines monokausalen Programmcodes gilt daher weitestgehend als verabschiedet.122 Deterministische Monokausalität ist im Bereich der Biologie nicht mehr als einzige wissenschaftliche Beschreibungsform für Kausalbeziehungen vorherrschend. Stattdessen können viele Phänomene nur statistisch im Sinne von Häufungen von Verhaltensmustern methodisch gefasst werden. Um die Komplexität und Flexibilität des Verhaltens von biologischen Organismen umfassend beschreiben zu können, wurden in biologischen Publikationen Begrifflichkeiten von Emergenz und Selbstorganisation entwickelt. Das Verhalten und die Entwicklung von biologischen Organismen kann demnach nicht hinreichend aus der Summe der einzelnen Teile und mechanistisch-monokausalen Wirkzusammenhängen beschrieben werden, sondern nur unter der Annahme einer Selbstorganisation des Lebendigen.123 Theorien zur Selbstorganisation knüpfen dabei an die Theorien komplexer Systeme und den Chaosbegriff an.124 Der Begriff der Selbstorganisation bildet dabei eine Alternative zum Chaosbegriff als Antwort auf nachweisbare Nichtlinearität in lebenden Systemen.125 Nichtlineare Prozesse werden in der Biologie nicht als chaotische Prozesse beschrieben, sondern unter den Kriterien der
Vgl. Irrgang, Bernhard: Einführung in die Bioethik, München 2005, S. 61–64. Vgl. Stephan, Achim: Emergenz. Von der Unvorhersagbarkeit zur Selbstorganisation, Paderborn 2005, dort S. 32ff. Vgl. zu einer Kritik von Achim Stephan Janich: Kultur und Methode, a. a. O., S. 140. Janich kritisiert dabei vor allem, dass Stephan sich von den Gegenständen der naturwissenschaftlichen Forschungspraxis dergestalt entfernt hat, dass seine Analyse sich in einer Textrezeption unterschiedlicher Emergenztheorien erschöpft, ohne noch Bezüge zu Gegenständen naturwissenschaftlicher Forschungen zu finden. Janich sieht im Emergenzbegriff von Stephan daher eine Verdinglichung einer Metasprache, „die ihren Gegenstand nicht mehr benötigt“ (ebd., S. 141). Der Emergenzbegriff wird jedoch auch von vielen anderen Autoren wie Polanyi, Mainzer oder Falkenburg aufgegriffen, vgl. z. B. Falkenburg: Mythos Determinismus, a. a. O., S. 413f. Vgl. Polanyi, Michael: Implizites Wissen, Frankfurt am Main 2016, S. 33. Vgl. Mainzer, Klaus: Leben als Maschine? Von der Systembiologie zur Robotik und Künstlichen Intelligenz, Paderborn 2010, S. 39. 124 Vgl. Kratky, Karl W.: Der Paradigmenwechsel von der Fremd- zur Selbstorganisation, in: Kratky, Karl W. und Wallner, Friedrich (Hg.): Grundprinzipien der Selbstorganisation, Darmstadt 1990, S. 3–17, dort S. 8. Vgl. auch Foerster, Heinz von: Kausalität, Unordnung, Selbstorganisation, in: Kratky und Wallner (Hg.): Grundprinzipien der Selbstorganisation, a. a. O., S. 77–95, dort S. 82f. 125 Vgl. Mainzer, Klaus: Quanten, Chaos und Selbstorganisation, in: Ders. (Hg.): Quanten, Chaos und Dämonen., a. a. O., S. 21–72, dort S. 23. 122 123
236
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Selbstorganisation als das Entstehen von Ordnung in komplexen Organismen. Diese Phänomene bezeichnet der Emergenzbegriff.126 Organisches Leben geht in einer maschinellen, mechanistischen Beschreibung nicht auf. Eine mechanistische Auffassung des organischen Lebens von Tieren oder Menschen im Sinne von La Mettrie, Descartes oder Leibniz ist damit nicht mehr haltbar. Michael Polanyi: Implizites Wissen Die Grenzen der Formalisierbarkeit und auch nur der Aussagbarkeit menschlichen Wissens wurden von Michael Polanyi skizziert. Gegenüber einem mechanistischen und formalisierbaren Erkenntnis- und Wissensverständnis stellt Polanyi die Bedeutung von implizitem Wissen heraus. Demnach ist nur wenig dessen, was zum lebensweltlich geprägten, leiblichen Erfahrungswissen des Menschen gehört, explizierbar. Polanyi knüpft an empirische Studien an, in welchen Lernprozesse von Individuen zwar in ihrem Verhalten nachweisbar waren, jedoch nicht von diesen beschrieben werden konnten. Ausgehend davon entwickelt Polanyi den Begriff des impliziten Wissens, mit welcher dasjenige beschrieben werden soll, was Menschen zwar wissen, aber nicht explizieren können, also „dass wir mehr wissen, als wir zu sagen wissen“.127 Polanyi konkretisiert damit in einer wissenschaftstheoretischen Perspektive die Dimension der intrapersonellen Unverfügbarkeit von Erfahrungswissen im Bereich des Unbewussten, Intuitiven und Nicht-Formalisierbaren. Nicht jede wissenschaftliche Wahrheit ist demnach vollständig explizierbar.128 Polanyi analysiert davon ausgehend auch die mechanistische Beschreibung der biochemischen Prozesse in organischen Lebewesen und weist eine „mechanische Erklärung von Lebensfunktionen“ zurück,129 die auf der Grundannahme einer Ableitbarkeit der „biotischen Operationen aus physikalischen und chemischen Gesetzen“ gründet, weil „Operationen einer höheren Ebene niemals aus den Gesetzen ableitbar sind, die für ihre Bestandteile gelten.“130 Polanyi bezieht sich dabei auf den Emergenzbegriff.131 Seinen Begriff des „impliziten Wissens“ überträgt Polanyi auch auf die kulturellen und sozialen Kontexte, in denen wissenschaftliche Erkenntnis sich entwickelt,132 was seine Arbeit auch in die Nähe von Fleck und Knorr-Cetina rückt.
Ebd., dort S. 51. Polanyi, Michael: Implizites Wissen, Frankfurt am Main 2016, S. 14. 128 Ebd., S. 30. 129 Ebd., S. 43. 130 Ebd., S. 40. 131 Ebd., S. 33ff. 132 Ebd., S. 60 126 127
237
3 Negativität und philosophische Vernunftkritik
Die Vielschichtigkeit von begrifflicher Sprache und damit einhergehenden Assoziationen und Bezügen wird auch bereits in der Übersetzung deutlich, die mit dem Titel „Implizites Wissen“ gewählt worden ist. Der englischsprachige Titel der Originalausgabe von Polanyi hieß: The Tacit Dimension – wörtlich: „die stillschweigende Dimension“.133 Die Parallele zu Wittgenstein wird im Originaltitel deutlich: Auch in der wissenschaftlichen Sprache gibt es eine Ebene des Unsagbaren, des Nicht-Explizierbaren, die sich nur im Schweigen adäquat artikulieren lässt, bzw. dergegenüber Sprache nur ein offenes, dialogisch-suchendes Verhältnis einnehmen kann. Da Polanyi seinen Begriff des stillschweigenden Wissens aus einer biologischen Beschreibung des Verhaltens von Lebewesen ableitet, werden seine Arbeiten auch wegweisend für eine vergleichende Untersuchung von menschlicher und maschineller Intelligenz. Dabei zeigt sich auch eine inhaltliche Nähe von Polanyis Begriff des „impliziten Wissens“ zum Begriff des „Erfahrungswissens“ bei den Brüdern Dreyfus, welches sich als nicht simulierbar durch eine formallogisch operierende künstliche Intelligenz erweist. Sie beziehen sich in ihren Arbeiten zu den Grenzen künstlicher Intelligenz explizit auf Polanyi.134
3.1.6 Grenzen des Determinismus Kann denn menschliches Verhalten wirklich nie deterministisch beschrieben werden? Beruht nicht die Grenze des menschlichen Wissens lediglich darauf, dass unsere wissenschaftlichen Erkenntnisse bisher noch nicht alle Bereiche naturgesetzlicher Wirkgesetze beschreiben können? Ist mit dem weiteren Fortschritt der empirischen Wissenschaften eine immer bessere Vorhersagbarkeit auch menschlichen Verhaltens absehbar? Wir berühren mit dieser Frage ein tief mit der Geschichte der Aufklärung verwurzeltes Bild des Universums als mechanistisch determinierter Abfolge von Ereignissen. Als materialistischer Determinismus, als physikalistischer Reduktionismus ist ein solches Weltbild als grundlegende Struktur der Zusammenhänge in der Welt eine Deutung des Universums im Anschluss an die Fortschritte und Errungenschaften empirischer Naturwissenschaftlichkeit. Viele Arbeiten auch der Philosophie des Geistes setzen die Grundlagen eines solchen Weltbildes voraus135 und übertragen sie auf Fragen zum Verhältnis von Körper und Geist, bzw. Leib und Seele des Menschen. Wie kann in einer physikalisch geschlossenen deterministischen Welt das Bewusstsein des Menschen Auch Thomas S. Kuhn bezieht sich auf Polanyi und den Begriff des „stillschweigenden Wissens“ und der Intuition, ohne welche auch wissenschaftliche Theoriebildung nicht bestehen kann. Vgl. Kuhn, Thomas S.: Die Struktur wissenschaftlicher Revolutionen, a. a. O., S. 203. 134 Dreyfus, Hubert L.: Die Grenzen künstlicher Intelligenz. Was Computer nicht können, a. a. O., S. 53, S. 181. 135 Vgl. Teichert, Dieter: Einführung in die Philosophie des Geistes, Darmstadt 2006, S. 34. 133
238
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
mit seinem Körper interagieren? Folgt das Bewusstsein, sozusagen als Zuschauer einer Kette von materiell determinierten Ereignissen, nur diesen kausalen Verkettungen? Der Geist wäre demnach ein „Epiphänomen“ des Materiellen, ein Phänomen, das zwar nicht materiell ist, aber kausal auf materiell determinierten Abläufen fußt. Die entsprechende Argumentation in der Philosophie des Geistes wird daher als „Epiphänomenalismus“ bezeichnet. In vielerlei Spielarten wird in Arbeiten zur Philosophie des Geistes das Problem analysiert, wie die Subjektivität von Wahrnehmung, Erkenntnis und Bewusstsein in einer physikalisch geschlossenen Welt Raum haben kann. Eine solche Problematik fußt jedoch in einer Verdinglichung wissenschaftlicher Modellbildung unter der Annahme einer simplifizierten Abbildtheorie der Wirklichkeit. Die Universalgültigkeit des strengen Kausalprinzips kann nicht einfach aus der Natur „abgelesen“ werden. Empirische Beschreibungen verallgemeinern und formalisieren Wahrnehmungen und Beobachtungen des Menschen in der Natur. Dazu gehört auch die Beschreibung von naturgesetzlichen Zusammenhängen als immer wieder beobachtbaren Ereignisfolgen. Aus einer solchen Beschreibung resultiert die Formulierung von Gesetzmäßigkeiten in einer mathematisch-formalen Sprache. Die Gesamtheit dieser naturgesetzlichen Beschreibungen wäre dann, wenn alle Elemente dieser Welt restlos in die Sprache naturgesetzlicher Formeln überführt wären, eine „geschlossene physikalische Welt“. Eine solche Gesamtheit von naturgesetzlichen Bestimmungen, mit welcher die Ereignisse dieser Welt deterministisch beschrieben werden könnten, gibt es jedoch nicht. Zwischen unterschiedlichen Modellen und Beschreibungsformen herrschen mitunter inkommensurable Widersprüchlichkeiten, sodass nicht die naturgesetzlichen Erkenntnisse eines Felds in die Systematik eines anderen Bereichs restlos überführt werden könnten. Lösungen für Probleme führen oft zu neuen Fragestellungen. Eine Universalgültigkeit von physikalisch bestimmbaren monokausalen Verkettungen in allen Ereignissen im Universum widerspricht selbst den Grundeinsichten der modernen Physik und ist daher dem Bereich bloßer metaphysischer Spekulation zuzurechnen.136 Dennoch prägt die Auffassung einer solchen mechanistischen Welt im Bild eines komplexen „Uhrwerks“ bis heute ein alltägliches, fast selbstverständliches Wissenschaftsverständnis. Angesichts der Fortschritte und neueren Erkenntnisse in den empirischen Wissenschaften des 20. und 21. Jahrhunderts ebenso wie im Anschluss an Einsichten der philosophischen Vernunftkritik ist ein solches Weltverständnis nicht mehr haltbar.137 Wissenschaftliche Wahrheit besteht nicht losgelöst von menschlicher Erkenntnis. Sie ist daher auch nur aus der Beobachterperspektive des Menschen her aufzuschließen. Damit wird Vgl. Falkenburg, Brigitte: Mythos Determinismus. Wieviel erklärt uns die Hirnforschung?, Berlin / Heidelberg 2012, S. 377f. 137 Ebd., S. 378f. 136
239
3 Negativität und philosophische Vernunftkritik
auch der Begriff der „Materie“ abhängig von der Erkenntnis des menschlichen Geistes. Er kann nicht zum unvereinbaren Gegenbegriff dessen werden, was ihn bedingt. Die Gleichursprünglichkeit von Subjekt und Objekt kann nicht einseitig aufgelöst werden, ohne sich durch einen solchen Dualismus oder Monismus in logische und philosophische Widersprüchlichkeiten und Zirkelschlüsse zu verstricken. Naturwissenschaftliche Erkenntnisse bilden einen Teil der vernünftigen Zugänge des Menschen zur Welt und sind Ergebnis seiner offenen Reflexionsprozesse. Sie können nicht losgelöst vom Menschen formuliert werden, sie sind Teil der menschlichen Kultur und der menschlichen Reflexionsgeschichte. Was als Möglichkeitsbedingungen jeglicher wissenschaftlichen Erkenntnis dieser vorausgeht, kann durch die in ihr konstituierten Widersprüchlichkeiten nicht diese Bedingungen selbst abschaffen, ohne damit den Sinn wissenschaftlicher Praxis zu verlieren. Stattdessen erweisen sich die logischen Widersprüchlichkeiten, die sich z. B. durch die wissenschaftliche Betrachtung des menschlichen Bewusstseins ergeben, als Probleme unserer eigenen Logik. Den Wahrheitsanspruch der phänomenalen, vortheoretischen Vorerfahrungen, die wissenschaftliche Erkenntnis erst bedingen, schließlich aufgrund ihrer Unvereinbarkeit mit einem physikalistischen Reduktionismus zu leugnen, hebelt den Geltungsanspruch von wissenschaftlicher Rede aus. Die Hypostasierung einer vermeintlich reinen Objektivität ist ohne eine Rückbindung an ein Subjekt nicht aufrechtzuerhalten. Grenzen des physikalischen Determinismus: Unscharfe Physik Die mechanistische Auffassung des Universums erlebte mit der Herausbildung der Quantenphysik eine radikale Wende. Neben Relativitätstheorie und Chaostheorie bildet die Quantenphysik eine weitere wissenschaftliche Revolution des physikalischen Weltbildes, das in der Annahme einer vollständigen Berechenbarkeit und eines kausal geschlossenen Systems gründet. Der Mathematiker Werner Kinnebrock skizziert anhand dieser drei wissenschaftlichen Revolutionen der modernen Physik den Zerbruch des mechanistischen Weltbildes: „Drei der tragenden Stützpfeiler der klassischen Physik waren die Absolutheit von Raum und Zeit, die prinzipielle Begreifbarkeit aller physikalisch-naturwissenschaftlichen Vorgänge und die exakte Berechenbarkeit der Zukunft wie der Vergangenheit, wenn man nur genügend Daten zur Verfügung hat. Wie wir gesehen haben, brachte Albert Einstein mit seiner Relativitätstheorie den ersten Pfeiler zum Einsturz, indem er die Relativität von Raum und Zeit einführte. Der zweite Pfeiler der prinzipiellen Begreifbarkeit brach zusammen, als Werner Heisenberg seine Unschärferelation und Niels Bohr die Dualität des Lichtes formulierte und es klar wurde, dass der Mikrokosmos nicht exakt beschreibbar ist. Der letzte der drei Pfeiler, die exakte Berechenbarkeit und Vorhersagbarkeit – zumindest im Makrokosmos – wurde 240
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
brüchig, als die Forscher der Chaostheorie ihre Ideen entwickelten. Dies war das endgültige Ende des Determinismus.“138 Werner Heisenberg definierte für quantenmechanische Prozesse Grenzen einer deterministischen physikalischen Beschreibung. Gemäß der von ihm aufgestellten Unschärferelation kann nicht gleichzeitig Bewegungsrichtung (Spin) und Position eines Quantenteilchens festgestellt werden, wodurch eine vollständige deterministische Beschreibung physikalischer Prozesse auch im Mikrobereich nicht möglich sind. Auch Aspekte von Kontextualität wissenschaftlicher Modelle werden durch Forschungsergebnisse der Quantenphysik freigelegt. So können im Quantenbereich manche Phänomene mit dem Teilchenbegriff, andere mit dem Wellenmodell besser beschrieben werden.139 Die Einsicht der Forschungen zur Quantenphysik, dass empirische Messungen stark vom Beobachterstandpunkt abhängig sind und dass Messungen auch dazu führen, dass sie die Ergebnisse bereits beeinflussen, hat eine Diskussion darüber ausgelöst, sich über die Einflüsse von Messungen und die Bedeutung des Beobachterstandpunktes neu bewusst zu werden.140 Eine mechanistische Auffassung der Welt im Sinne eines Laplaceschen Dämons wird wissenschaftstheoretisch durch diese Einsichten der physikalischen Forschungen unplausibel. Brigitte Falkenburg: Mythos Determinismus Eine weitere Kritik an einer deterministischen Beschreibung des Menschen aus einer erkenntnistheoretischen und physikalischen Perspektive hat Brigitte Falkenburg als Physikerin und Philosophin ausgearbeitet.141 Sie stellt in ihren Untersuchungen zu Experimenten der Hirnforschung systematisch heraus, dass die universelle Gültigkeit des strengen Kausalprinzips keinesfalls Voraussetzung für einen wissenschaftlich fundierten Weltbegriff bildet, sondern dass
Kinnebrock, Werner: Bedeutende Theorien des 20. Jahrhunderts. Relativitätstheorie, Kosmologie, Quantenmechanik und Chaostheorie, München 2013, S. 113. 139 Dies geht auf das Doppelspaltexperiment von Niels Bohr zurück, vgl. Kinnebrock, Werner: Bedeutende Theorien des 20. Jahrhunderts, a. a. O., S. 77. Vgl. zum Messproblem und zum Phänomen der Dekohärenz auch Friebe, Cord: Messproblem, Minimal- und Kollapsinterpretation, in: Friebe, Cord u. a. (Hg.): Philosophie der Quantenphysik. Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen, Berlin / Heidelberg 2015, S. 43–78, dort S. 60ff. 140 Passon, Oliver: Nicht-Kollaps-Interpretationen der Quantentheorie, in: Friebe: Philosophie der Quantenphysik, a. a. O., S. 177–224, dort S. 188. Vgl auch Friebe, Cord: Messproblem, Minimal- und Kollapsinterpretation, in: Friebe: Philosophie der Quantenphysik, a. a. O., S. 43–78, dort S. 54ff. 141 Falkenburg, Brigitte: Mythos Determinismus. Wieviel erklärt uns die Hirnforschung?, Berlin / Heidelberg 2012. 138
241
3 Negativität und philosophische Vernunftkritik
eine Ausdehnung des Kausalprinzips auf alle Phänomene der Wirklichkeit eine bloße Verallgemeinerung darstellt, die als metaphysische Setzung nicht empirisch abgesichert ist und dem gegenwärtigen physikalischen Selbstverständnis nicht mehr entspricht: „Naturwissenschaftliche Erklärungen bleiben unvollständig. Sie berufen sich zum Teil auf strikt deterministische Mechanismen, die auch umgekehrt in der Zeit ablaufen könnten, zum Teil auf kausale Mechanismen, die indeterministisch ablaufen und deren kausale Komponenten nur probabilistischen Gesetzen gehorchen. Diese Erklärungen können das traditionelle, vorwissenschaftliche Kausalitätsverständnis, nach dem die Beziehung von Ursache und Wirkung sowohl deterministisch als auch zeitlich gerichtet ist, nicht einheitlich einfangen.“142 Phänomenologisch erschließt sich in der Handlungspraxis und in den lebensweltlichen Vollzügen des Menschen die Inkommensurabilität von mentalen und physischen Phänomenen ebenso wie das Erleben von Wirksamkeit und Verursachung.143 Ein physikalistisch-reduktionistischer Determinismus hingegen resultiert als Auffassung der Welt aus einer Übersteigerung des Kausalprinzips, die auf einem Welt- und Wissenschaftsverständnis des 18. Jahrhunderts verhaftet bleibt: „Dagegen ist die dritte These (K) der kausalen Geschlossenheit der Welt gar nicht empirisch oder phänomenologisch gestützt, sondern eine spekulative metaphysische Behauptung. Für sie sprechen nur die alten mechanistischen Überzeugungen, die im korpuskularmechanischen und deterministischen Denken von Hobbes oder Laplace wurzeln.“144 Eine solche Annahme kollidiert mit den Einsichten einer komplexer gewordenen Physik, welche auch indeterministische Kausalmodelle und Theorien entwickelt hat und ist eher der Gewohnheit und individuellen Präferenz zuzuschreiben, um einen geschlossenen Weltbegriff mit geordneter Substruktur aufrechtzuerhalten.145 Der Kausalbegriff erweist sich hingegen als erkenntnistheoretische Einsicht in ein „heuristisches Prinzip“, als „methodologische Regel, die unverzichtbar für die Naturwissenschaften ist.“146
3.1.7 Grenzen des Reduktionisums: Phänomenologie und Lebenswelt Neben der immanenten Kritik an einer mathematischen oder mechanistischen Deutung der Welt formulierten Philosophen wie Husserl eine Kritik des wissenschaftlichen Selbstverständnisses aus einer philosophischen Perspektive. Die Begründung der Phänomenologie kann
144 145 146 142 143
Ebd., S. 379, Hervorhebungen im Original. Ebd., S. 380f. Ebd., S. 383. Ebd., S. 377f. Ebd., S. 384.
242
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
als Gegenbewegung zu einem positivistischen Selbstverständnis wissenschaftlicher Praxis gedeutet werden. Einer objektivistischen Formalisierung steht ein Rückruf „zu den Sachen selbst“ aus einer subjektiven Perspektive entgegen. Die Fülle der Seinswirklichkeit, die sich für einen Menschen in seinen Wahrnehmungen zeigt, bildet eine „Lebenswelt“, die nicht dem entspricht, was wissenschaftliche Abstraktionen anbieten können. Damit einher geht eine Kritik an einem positivistischen Reduktionismus. Husserl: Phänomenologie als Antwort auf die Krise der Wissenschaften Der Begriff der Lebenswelt geht zurück auf Edmund Husserl. Er entwickelt den Begriff, um die Grenzen des Geltungsanspruchs wissenschaftlich-mathematischer Beschreibungen über die Wirklichkeit zu skizzieren. Einer objektivierbaren Erkenntnis in wissenschaftlicher Form stellt Husserl die Phänomenologie lebensweltlicher Subjektivität entgegen, welche in dieser nie vollständig aufgeht. Husserls Lebensweltbegriff geht zurück auf Heidegger. Rüdiger Welter stellt die Herausbildung des Begriffs bei diesen Autoren systematisch dar.147 Das Vergessen der Unhintergehbarkeit von Subjektivität in Erkenntnisprozessen ist für Husserl Kennzeichen einer „Krise der europäischen Wissenschaften.“ Husserl arbeitet gegen eine solche Idealisierung den Begriff der subjektiven Lebenswelt heraus. Die subjektive Erfahrung beinhaltet für Husserl eine unhintergehbare Wahrheit als „Seinsgewißheit einer jeden schlichten Erfahrung“, die er mit dem Begriff der „subjektiven Lebenswelt“ beschreibt.148 Dieser subjektiven Lebenswelt tritt durch die Mathematisierung der Welt im Sinne Galileis eine idealisierte, objektivistische Welt als Surrogat entgegen. Die Mathematik wird zum „Ideenkleid“ oder zum „Kleid der Symbole“, welches die Lebenswelt „vertritt, sie verkleidet“.149 Das Primat der Objektivierung in der Wissenschaft gegenüber dem Subjektiven erweist sich dabei als nicht erreichbares Ideal von „Allwissenheit“ einer universalen Wissenschaft: „Dies ist also für die Philosophen wirklich ein, obschon im Unendlichen liegendes, so doch realisierbares Vgl. Welter, Rüdiger: Der Begriff der Lebenswelt, a. a. O., S. 70ff und S. 116ff. Vgl. auch Welter, Rüdiger: Die Lebenswelt als „Anfang“ des methodischen Denkens in Phänomenologie und Wissenschaftstheorie, in: Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991, S. 143–163. Jürgen Mittelstraß fasst diese Vergegenwärtigung der lebensweltlichen Vorbedingungen für wissenschaftliche Erkenntnisprozesse seit Husserl zusammen als „lebensweltliches Apriori“ von Wissenschaftskonstruktionen. Vgl. Mittelstraß, Jürgen: Das lebensweltliche Apriori, in: Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991, S. 114–142. 148 Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, a. a. O., S. 55. 149 Ebd. 147
243
3 Negativität und philosophische Vernunftkritik
Ziel – nicht für den einzelnen und für die zeitweilige Forschergemeinschaft, aber wohl im unendlichen Progress der Generationen und ihrer systematischen Forschungen. An sich ist die Welt, so meint man apodiktisch einzusehen, eine rationale systematische Einheit, in welcher alle Einzelheiten bis ins letzte rational determiniert sein müssen.“150 Die „Körperwelt“ wird dabei idealisiert und führt zu einer „gespaltenen Welt“: einer „Natur an-sich“ und eines „psychisch Seienden“.151 Husserl deutet damit auf den Dualismus zwischen Subjektivität und Objektivität, die letztlich in einer „Abscheidung des Psychischen“ resultiert und in einer Verselbständigung der Psychologie152 hin zu einer „Naturalisierung des Psychischen“ und einer Konzeption des Selbst als „tabula rasa, auf der die seelischen Daten kommen und gehen, irgendwie geregelt, so wie in der Natur die körperlichen Vorgänge.“153 Husserl zieht auch, ähnlich wie später Adorno, eine Parallele zwischen Wissen und Herrschaftsanspruch über Natur und Mensch.154 „Mit der fortwachsenden und immer vollkommeneren Erkenntnismacht über das All erringt der Mensch auch eine immer vollkommenere Herrschaft über seine praktische Umwelt, eine sich im unendlichen Progressus erweiternde. Darin beschlossen ist auch die Herrschaft über die zur realen Umwelt gehörige Menschheit, also auch über sich selbst und die Mitmenschheit, eine immer größere Macht über sein Schicksal […].“155 Husserl entwickelt gegenüber einer solchen Auffassung den Begriff der subjektiven Lebenswelt. Er sieht erst in einem Rückbezug zur lebensweltlichen Praxis die Möglichkeit, den „ursprünglichen Sinn“ von Wissenschaft wieder jeweils zu vergegenwärtigen. Wissenschaftliche Praxis muss nach ihrem „Ursprungssinn“ zurückfragen.156 So sieht Husserl in der Erarbeitung einer „Phänomenologie“ als Systematisierung der subjektiv-lebensweltlichen Bedingungen wissenschaftlichen Erkenntnis einen Weg zur Wiedergewinnung eines gesunden Zugangs zur lebensweltlichen Praxis und Rückbindung wissenschaftlicher Objektivität: „Daß der rechte Rückgang zur Naivität des Lebens, aber in einer über sie sich erhebender Reflexion, der einzig mögliche Weg ist, um die in der ‚Wissenschaftlichkeit‘ der traditionellen objektivistischen Philosophie liegende philosophische Naivität zu überwinden …“157
Husserl, Edmund: Die Krisis der europäischen Wissenschaften, a. a. O., S. 71. Ebd., S. 67. 152 Ebd., S. 68. 153 Ebd., S. 69. 154 Ebd., S. 72. 155 Ebd. 156 Ebd., S. 61, Hervorhebung im Original. 157 Ebd., S. 64. 150 151
244
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
3.1.8 Grenzen der Rationalität: Personale Leiblichkeit und menschliche Intelligenz Die Rückbesinnung auf die Beobachterperspektive und die Phänomenologie der subjektiven Lebenswelt führten auch zu einer neuen Einsicht in die leiblichen Bedingungen von Erkenntnis. Systematisch wurde das Bewusstsein um die Leiblichkeit des Menschen in Bezug auf alle Erkenntnisund Wissensprozesse im Anschluss an Husserl herausgearbeitet. Zu erwähnen ist dabei Husserls Schülerin Edith Stein, die ausgehend von Husserls Phänomenologie die Rolle der Leiblichkeit für eine Beschreibung menschlicher Personalität herausgearbeitet hat.158 Eine Phänomenologie der Leiblichkeit wurde als Grundbestimmung für die menschliche Wahrnehmung und alle Erkenntnisprozesse vom französischen Phänomenologen Maurice Merleau-Ponty systematisch rekonstruiert.159 Alle Wahrnehmungen sind demnach nur aus seiner leiblichen Perspektive zu verstehen. Erkenntnis ist also immer von einem Leib-Apriori geprägt, welches die Perspektive bestimmt, in welcher Erkenntnisprozesse überhaupt erst sich ereignen können. Für eine technikethische Hermeneutik hat auch Bernhard Irrgang den Begriff der Leiblichkeit auf Fragen nach dem Verhältnis von Körper und Geist sowie auf die Perspektiven von künstlicher Intelligenz in Ansatz gebracht.160 Maurice Merleau-Ponty: Leib-Apriori der Erkenntnis Maurice Merleau-Ponty entwickelt aus einer Perspektive der philosophischen Phänomenologie eine Kritik an der dualistischen Gegenüberstellung von Körper und Geist bei Descartes.161 Die Bestimmung des Körpers als materielles Ding weist er als irreführend zurück.162 Der menschliche Leib wird von innen erlebt.163 Merleau-Ponty unterscheidet daher zwischen den Begriffen „Körper“ und „Leib“.164 In einer Phänomenologie der Wahrnehmung systematisiert Merleau-Ponty die Abhängigkeit der menschlichen Leiblichkeit für alle Erkenntnisprozesse als Apriori-Bestimmung von Erkenntnis.165
Stein, Edith: Der Aufbau der menschlichen Person, Freiburg im Breisgau 1994. Vgl. auch Stein, Edith: Potenz und Akt. Studien zu einer Philosophie des Seins, Freiburg im Breisgau 1998. 159 Merleau-Ponty, Maurice: Phänomenologie der Wahrnehmung, Berlin 1966. 160 Irrgang, Bernhard: Der Leib des Menschen, a. a. O. 161 Vgl. Prechtl, Peter: Descartes zur Einführung, Hamburg 2000, S. 111f. 162 Ebd., S. 109f. 163 Ebd., S. 110. 164 Ebd. 165 Merleau-Ponty, Maurice: Phänomenologie der Wahrnehmung, Berlin 1966, S. 89ff. Vgl. auch Merleau-Ponty: Das Primat der Wahrnehmung und seine philosophischen Konsequenzen (1946), in: Ders.: Das Primat der Wahrnehmung, Frankfurt am Main 2003, S. 26–84. 158
245
3 Negativität und philosophische Vernunftkritik
Erkenntnis- und Denkprozesse sind ebenso wie körperliches, sprachliches und lebensweltliches Verhalten abhängig von dem Leib-Apriori menschlichen Daseins.166 Leiblichkeit ist demnach als Vorbedingung für jede mögliche Erkenntnis eine Aprioribestimmung des menschlichen In-der-Welt-Seins. Auch als biologischer Organismus ist der Mensch leiblich bestimmt, d. h. sein Verhalten ist weder reduzierbar auf deterministisch-mechanistische Abläufe von physikalischen und biochemischen Prozessen, noch geht eine Beschreibung des menschlichen Verhaltens in einer formallogischen Darstellung auf. Stattdessen ist der Mensch in seiner Leiblichkeit mitbestimmt von Affekten, Trieben, Emotionen, von Sterblichkeit und Schmerz. Eine Voraussagbarkeit oder deterministische Ableitbarkeit seines konkreten Verhaltens ist dennoch unmöglich. Seine Möglichkeit zur Reflexion, zum „Neinsagenkönnen“ gegenüber seinen Trieben und Bedürfnissen resultiert mit Max Scheler in einer „Weltoffenheit“ des Menschen, die auch im Sinne eines sinnkonstitutiv-negativen Selbstverständnisses des Menschen ausgelegt werden kann.167
3.1.9 Fazit: Der Abschied vom geschlossenen Universum Das mechanistisch-deterministische Weltbild von Leibniz und Laplace ist durch die Einsichten in die Grenzen von deterministischen Beschreibungen der Wirklichkeit kaum mehr aufrechtzuerhalten, ohne die in diesem Kapitel skizzierten Paradigmenwechsel in den jeweiligen empirischen Wissenschaften auszublenden und grundlegende Einsichten der philosophischen Vernunftkritik des 20. Jahrhunderts in Grenzen einer vollständigen Objektivierung der Welt zu übergehen. Für eine Beschreibung der Welt ist wichtig festzuhalten, dass diese nicht als geschlossenes formallogisches System im Sinne eines mathematischen Modells dargestellt werden kann, ohne dabei konstitutive Aspekte und Vorbedingungen für wissenschaftliche Erkenntnis überhaupt zu unterlaufen. Das Festhalten an einer mechanistisch-deterministischen Vgl. auch Rentsch, Thomas: Leibapriori und Praxis, in: Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015, S. 105–124. Vgl. auch Irrgang, Bernhard: Menschlicher Leib, personales Wissen, Praxis. Zur Kritik der Leibkonzeption der Neuen Phänomenologie, in: Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015, S. 75–104. Vgl. auch Irrgang, Bernhard: Der Leib des Menschen, a. a. O. Auch eine Würdigung Nietzsches in der Herausbildung eines holistischen Begriffs von Leiblichkeit sollte nicht unerwähnt bleiben: „Der Leib ist eine große Vernunft, eine Vielheit mit einem Sinne, ein Krieg und ein Frieden, eine Herde und ein Hirt. Werkzeug deines Leibes ist auch deine kleine Vernunft, mein Bruder, die du ‚Geist‘ nennst, ein kleines Werk- und Spielzeug deiner großen Vernunft.“ (Also sprach Zarathustra, S. 300f, Von den Verächtern des Leibes.) 167 Scheler, Max: Die Stellung des Menschen im Kosmos, Bonn 2005, S. 44. Vgl. Rentsch, Thomas: Philosophie des 20. Jahrhunderts, a. a. O., S. 22f. 166
246
3.1 Negativität und Erkenntnis – Was können wir nicht wissen?
Beschreibung der Welt im Sinne eines mathematisch-formallogischen Systems mit dem Anspruch, damit die ganze Wirklichkeit und Seinsfülle der Welt abbilden zu können, verstrickt sich in Widersprüche und Zirkelschlüsse, weil sie die lebensweltlich-subjektiven Grundbedingungen für die Herausbildung von objektivem Wissen leugnet. Mit Popper kann eine Konzeption des Universums also nur als ein offenes Universum aufrecht erhalten werden, wenn wissenschaftliche Praxis sich auch auf die konstitutiven Grundbedingungen wissenschaftlicher Erkenntnis besinnen will. Auch für eine Beschreibung des Menschen resultieren die Einsichten in die Grenzen und negativ-konstitutiven Bestimmungen von menschlichen Erkenntnisprozessen in dem Abschied von einem mechanistischen Bild des Menschen. Das bedeutet auch, dass das Leib-Seele-Problem, wie es in der analytischen Philosophie des Geistes diskutiert wird, nicht mehr in einer solchen Schärfe bestehen bleiben muss, dass sich wissenschaftliche Theoriebildung und menschliches Selbstverständnis als dualistische Gegensätze herausstellen lassen könnten. Zimmerli skizziert die logische Struktur des Leib-Seele-Problems in der Analytischen Philosophie des Geistes anhand des folgenden Trilemmas, „in Form von drei Bedingungen, wobei stets eine der Bedingungen einer der anderen logisch widerspricht: (1) Mentale Phänomene sind nicht-physische Phänomene. (2) Mentale Phänomene sind im Bereiche physischer Phänomene kausal wirksam. (3) Der Bereich physischer Phänomene ist kausal geschlossen.“168 Eine solche „kausale Geschlossenheit“ des Universums entspricht nicht der Weiterentwicklung des wissenschaftlichen Selbstverständnisses im 20. Jahrhunderts und unterläuft grundlegende Einsichten der Vernunftkritik und Wissenschaftsphilosophie.169 Das Nichtaufgehen einer Beschreibung menschlicher Lebenspraxis in formallogischen, mathematisierbaren Bestimmungen, weder in einem objektivierenden Zugang, noch in der Ebene der subjektiven Lebenswelt, bzw. der Phänomenologie leiblicher Personalität führt damit zu einer Überwindung des Determinismus für eine angemessene Beschreibung der menschlichen Handlungspraxis. Mit der Überwindung des physikalistischen Determinismus löst sich auch das Trilemma einer Philosophie des Geistes auf, die durch die Annahme der kausalen Geschlossenheit der physikalischen Welt eine interaktionistische Unvereinbarkeit von psychischen und physischen Phänomenen postuliert. Wenn ein physikalistischer Determinismus nicht mit einer Einsicht Zimmerli, Walther Ch. und Wolf, Stefan: Künstliche Intelligenz, a. a. O., S. 18. Auf die Auflösung des Trilemmas durch Paradigmenwechsel in den physikalischen Wissenschaften weist auch Brigitte Falkenburg hin: „Das Ausgangstrilemma des Konflikts zwischen der Kausalitätsthese (K), der Verschiedenheitsthese (V) und der Wirksamkeitsthese (W) löst sich angesichts dieser wissenschaftsphilosophischen Befunde eigentlich in Luft auf.“ (Mythos Determinismus, a. a. O., S. 380).
168 169
247
3 Negativität und philosophische Vernunftkritik
in die konstitutiven Bedingungen wissenschaftlicher Erkenntnis überhaupt vereinbart werden kann, dann ist auch die Annahme einer kausalen Geschlossenheit der physikalischen Welt nicht mehr aufrechtzuerhalten und steht damit nicht mehr im Gegensatz zu der phänomenologischen Unhintergehbarkeit der Offenheit menschlicher Lebenspraxis, die sich philosophiegeschichtlich mit dem Begriff der Freiheit verbindet. Der Abschied vom geschlossenen Universum impliziert damit auch einen Abschied von einem mechanistischen Menschenbild, auf welchem die Analogie zwischen Mensch und Maschine jedoch letztlich noch gründet.
3.2 Negativität und Moralität – Was sollen wir nicht tun? „Die Hölle ist der Ort, an dem der Mensch alle seine Vorhaben verwirklicht findet.“ Nicolás Gómez Dávila170
Der Sinn normativer Rede gründet sich auf die Möglichkeit der Offenheit menschlicher Lebenspraxis und individueller Handlungen. Ein deterministisch-mechanistisches Menschenbild unterläuft jede Ethik, weil ein Anderskönnen grundsätzlich ausgeschlossen wird. Das positivistische Weltbild unter Annahme der universellen Gültigkeit eines strengen Kausalprinzips ließ das sogenannte Leib-Seele-Problem erst entstehen. In einer streng naturgesetzlich geregelten Welt ist für Freiheit, Bewusstsein, Wille und personales Handeln in einer Offenheit des Anderskönnens oder Neinsagenkönnens kein Raum.171 Noch für Kant war dieses Problem nicht logisch auflösbar, er setzt die Freiheit des Willens axiomatisch gegen die naturgesetzlich-kausale Beschreibung der beobachtbaren Phänomene durch den menschlichen Verstand, ohne diese Dichotomie auflösen zu können: zu allgemeingültig erschien ihm die Universalgültikeit des strengen Kausaprinzips in der Natur.172 Mit einer Abschiednahme von einer geschlossenen physikalischen Welt löst sich der vermeintliche logische Widerspruch zwischen einem absolut freien Willen gegenüber einem streng mechanistischen Uhrwerk der Welt auf. Der cartesische Substanzdualismus zwischen Körper und Geist, in welchem diese beiden Beschreibungsformen der Welt diametral und unversöhnlich scharf gegenüber Gómez Dávila, Nicolás: Es genügt, dass die Schönheit unseren Überdruss streift … Aphorismen. Ausgewählt und hg. v. Michael Klovonsky, Stuttgart 2007, S. 61. 171 Vgl. Teichert, Dieter: Einführung in die Philosophie des Geistes, Darmstadt 2006, S. 34. Vgl. auch Zimmerli und Wolf: Künstliche Intelligenz, a. a. O., S. 18. Vgl. hierzu Falkenburg, Brigitte: Mythos Determinismus, a. a. O., S. 414. 172 Vgl. Kant: Kritik der reinen Vernunft, a. a. O., S. 491–496 [A447–A450]. 170
248
3.2 Negativität und Moralität – Was sollen wir nicht tun?
gestellt werden, darf als ebenso überwunden gelten. Weder ist die Unterstellung einer kausal geschlossenen physikalischen Welt widerspruchsfrei mit den phänomenologischen Grundlagen eines menschlichen Selbstverständnisses vereinbar, noch ist das subjektive Bewusstsein des Menschen als geistige Substanz absolut losgelöst von leiblichen Kontexten. Willensfreiheit kann nicht als Absolutes aufrechterhalten werden, da zur phänomenalen Selbsterfahrung des Menschen die Erfahrung des Fremdbestimmtseins ebensowenig geleugnet werden kann wie die Erfahrung der freien Gestaltbarkeit individueller Lebenspraxis. Mit MerleauPonty kann hingegen das Leib-Apriori jeder menschlichen Erkenntnis und Handungspraxis als leiblich-personale Identität aufgefasst werden, deren körperliche, psychische und intellektuelle Aspekte zwar isoliert untersucht werden können, die aber immer wieder vermittelt werden müssen, um der ganzheitlichen Struktur menschlichen Seins gerecht zu werden.173 Aus diesem Grund muss für eine Untersuchung der Bedingungen und Grenzen normativer Rede zunächst die Offenheit menschlichen Handelns festgehalten und begründet werden, in welcher sich Normativität erst entfalten kann. Bevor eine affirmative Rede über die normativen Zielstellungen menschlicher Handlungspraxis ansetzen kann, müssen wiederum die Dimensionen der sinnkonstitutiven Negativität im Hinblick auf die Möglichkeiten normativer Rede untersucht werden. Hierzu gehört neben der Offenheit menschlicher Lebenspraxis auch die Unverfügbarkeit eigener Handlungsmotive. Dimensionen des Unbewussten, intersubjektive Abhängigkeiten, die soziologisch-kontextuelle Bedingtheit menschlicher Lebenspraxis sowie die Uneinholbarkeit der möglichen Sinndimensionen auch nur eines alltäglichen Augenblicks bilden den Horizont von Unverfügbarkeit der eigenen Handlungsmotive. Diese Unverfügbarkeit ist nicht im Sinne einer Fremdbestimmung des Menschen absolut gesetzt, sondern bildet als prinzipielle Dimension von Bedingtheit des menschlichen Handelns einen Horizont, in dem sich Offenheit erst gestalten kann. Die Unverfügbarkeit dieser Vorbedingungen kann dennoch vom Menschen thematisiert und reflektiert werden, sodass es möglich wird, sich diesen Vorbedingungen gegenüber zu verhalten. Sie bilden als Orientierungsbedingungen für menschliche Lebenspraxis zwar einen Rahmen des Verhaltens, welche den individuellen Handlungsvollzügen von Menschen vorausgehen und sie bedingen, andererseits können sie gerade aufgrund der Offenheit des Menschen auch gegenüber seinen Vorbedingungen aufgeschlossen, thematisiert, reflektiert und hinterfragt werden und sind somit nicht starr, sondern formbar. Formbar sind diese Bedingungen wiederum nur in sozialen, intersubjektiven, diskursiven Beziehungen, welche ihrerseits von weiteren Vorbedingungen geprägt werden, die nicht immer restlos aufgeschlüsselt werden können. Die Uneinholbarkeit der
Merleau-Ponty, Maurice: Phänomenologie der Wahrnehmung, Berlin 1966, S. 89ff. Vgl. auch Merleau-Ponty: Das Primat der Wahrnehmung und seine philosophischen Konsequenzen (1946), a. a. O., S. 26–84.
173
249
3 Negativität und philosophische Vernunftkritik
Vorbedingungen menschlicher Handlungsmotive bleibt damit immer bestehen, auch wenn der Mensch sich ihnen gegenüber offen verhalten und die Sinnbedingungen seines Daseins hinterfragen und hermeneutisch aufschließen kann. Als Vorbedingungen für die Herausbildung der Totalität des personalen Lebens konstituieren sie eine prinzipielle Entzogenheit meiner selbst – ich bin mir selbst auch in meinen letzten Handlungsmotiven und Antrieben nicht verfügbar, ich kann mich rational nicht fassen. Dennoch kann ich mich selbst hinterfragen und mich gegenüber den Vorbedingungen meiner Selbstkonstitution offen, fragend und gestaltend verhalten. Die Möglichkeitsbedingungen für Selbsterkenntnis und Selbstwerdung zu thematisieren, gehört daher seit dem Orakel von Delphi zu den Grundaufgaben philosophischer Arbeit. Die Möglichkeit und Aufgabe solcher Selbstprüfung als Hinterfragen von Handlungsmotiven und normativen Orientierungen begründet die Offenheit des Menschen nicht nur in seinen konkreten Handlungsvollzügen, sondern auch in seiner existentiellen Sinnorientierung. Sie kann als prinzipielle Unsicherheit des Normativen im Anschluss an die Kritische Theorie Adornos und Horkheimers rekonstruiert werden. Als kritisches Bewusstsein gegenüber affirmativen Aussagen über normative Handlungsorientierungen bildet sie aber auch eine Form von sinnkonstitutiver Negativität. Erst durch die Unsicherheit des Normativen kann affirmative Rede hinterfragt werden und Verfehlungen affirmativer Sinnorientierungen können als solche thematisiert werden. Die Wende von einer affirmativen Rede über das Normative hin zu einer dialektischen Negativität als kritisches Bewusstsein um die Fehlbarkeit des Menschen findet literarisch im Wandel von der Utopie zur Dystopie ihre Entsprechung. In Dystopien wird skizziert, wie das sukzessive Unterlaufen einer solchen Offenheit und der negativen Sinnbedingungen affirmativer Sinnorientierungen die prinzipiellen Grundlagen von Normativität aushöhlt. Ideale, utopische Gesellschaftsentwürfe wurden von Bedrohungsszenarien in Form von Dystopien abgelöst. In Dystopien wird die Fragilität der Sinnorientierung menschlicher Lebenspraxis thematisiert, indem die Überformung der Offenheit des Menschen durch eine affirmative, meist von totalitären Zügen gekennzeichnete Transformation von Gesellschaften literarisch expliziert wird. Der Wandel von der Utopie zur Dystopie steht daher paradigmatisch für die Bewusstwerdung einer sinnkonstitutiven Unverfügbarkeit im Bereich des Normativen. Negativität ist auch an dieser Stelle nicht als Aporetik oder Defätismus zu verstehen, sondern als Einsicht in die Grundbedingungen von Normativität. Sie schließt affirmative Aussagen nicht aus, sondern stellt die Bedingtheit jeglicher affirmativen Aussagen heraus, um die Offenheit des Menschen gegenüber der möglichen Auseinandersetzung mit diesen Bedingungen zu bewahren. Unter diesen Voraussetzungen können auch die Zielstellungen des Transhumanismus ebenso wie die Möglichkeiten und Grenzen digitaler Technologien mit künstlicher Intelligenz diskutiert werden. 250
3.2 Negativität und Moralität – Was sollen wir nicht tun?
3.2.1 Einsicht in Negativität als Grundbedingung von Moralität Konstitutiv für die Systematisierung von Moralität ist die Einsicht in die Fragilität, Leidensfähigkeit und Sterblichkeit des Menschen als anthropologisch-existentielle Bestimmung von Negativität. Ethik und Moral gründen auf dieser Einsicht, indem für Menschen ein Rahmen formuliert zu werden versucht wird, welcher dieser Fragilität im sozialen Kontext der menschlichen Handlungspraxis gerecht werden kann. Ebenso grundlegend für eine Konstitution der Moralität ist die Einsicht in die Fehlbarkeit des Menschen als moralphilosophische Ebene von Negativität. Gerade weil zwischenmenschliche Praxis nicht immer selbstverständlich gelingt, ist eine Reflexion auf Normen und Werte sinnvoll, die einen Rahmen für die Herausbildung von Sozialität bilden können. Selbstverständlich verliert eine Moralphilosophie ihren Sinn, wenn Fragilität oder Fehlbarkeit als Ziel oder Sinn menschlicher Lebenspraxis formuliert würde. Der Tod ist nicht das Ziel der menschlichen Existenz in einem normativen Sinn. Doch nur angesichts von Fragilität, Fehlbarkeit und Tod kann Normativität überhaupt erst entwickelt werden.174 Diese Aspekte stellen also keine teleologische Bestimmung von Moral dar, sondern eine konstitutive. Ethik und Moral stellen Antworten auf die Einsicht in diese negativen Dimensionen der menschlichen Existenz und Sozialität dar. Fehlbarkeit und Fragilität sind nicht Ziel, sondern Bedingung der Moralität. Auch wenn das Ziel der Herausbildung von Ethik und Moral also darin besteht, Antworten zu finden, wie Leid und Schuld verhindert oder vermindert werden kann, gründen sie dennoch in dem Bewusstsein, dass Leid und Schuld die Lebenspraxis des Menschen mitbestimmen. Fragilität und Fehlbarkeit sind jedoch nur dann von sinnkonstitutiver Bedeutung für den Menschen, wenn dieser sich ihnen gegenüber auch gestaltend verhalten kann.
3.2.2 Die Offenheit menschlicher Handlungspraxis Phänomenologisch ist die Grunderfahrung des „Entweder – Oder“ unhintergehbar für das menschliche Selbstverständnis. Mit diesem Titel eröffnete Sören Kierkegaard die Traditionslinie des Existentialismus und damit eine Rückbindung jeder philosophischen Systematik an eine leiblich-personale Lebenswelt, von welcher sich aus ein Zugang zur Welt erst erschließen kann. In seiner leiblichen Existenz sind die Handlungsvollzüge des Menschen immer unter der Prämisse eines Entweder – Oder konstituiert.175 Als Offenheit von Vgl. Rentsch, Thomas: Die Konstitution der Moralität, Frankfurt am Main 1999, S. 165ff. Vgl. Kierkegaard, Sören: Entweder-Oder, München 2009, zur phänomenologischen Unhintergehbarkeit der Wahlfreiheit dort besonders S. 704ff.
174
175
251
3 Negativität und philosophische Vernunftkritik
individueller Handlungspraxis knüpft die Grunderfahrung der Wahlfreiheit in Vollzügen der existentiellen Lebensführung an den traditionellen Begriff der Freiheit an. Lebensweltliches Selbstverständnis ist ebenso wie die Bedingungsgefüge sozialer Strukturen und Diskurse von der Axiomatik der Offenheit bestimmt. Der Setzung einer absoluten Freiheit des Willens als diametralen Gegensatz gegen eine mechanistische Welt ist jedoch ebenso irreführend wie eine Aufhebung der Freiheit durch eine Universalisierung naturgesetzlicher Monokausalität.176 Phänomenologisch trägt die Erfahrung des Neinsagenkönnens, des Entscheidens, des offenen Handelns zu der Herausbildung eines menschlichen Selbstverständnisses von Freiheit oder Offenheit bei.177 Einer absoluten Freiheit widerspricht hingegen die Erfahrung der Unverfügbarkeit eigener Handlungsmotive, z. B. in der Ebene des Unbewussten. Sie kann sich für das Selbstverständnis auch als Erfahrung von Fremdbestimmung und Unfreiheit zeigen. Offenheit kann also nicht axiomatisch, affirmativ gesetzt werden, ohne gleichzeitig die Bedingtheit dieser Offenheit zu rekonstruieren. Die Offenheit menschlich-personaler Handlungspraxis erweist sich hingegen nicht nur in der Möglichkeit zum Neinsagenkönnen, sondern auch in der existentiellen Ausgeliefertheit an eine vorgefundene Seinsstruktur des Individuums in der Welt. Auch Kierkegaard reflektiert bereits auf die Unhintergehbarkeit der kontextuellen biographischen Vorbedingungen, innerhalb derer sich eine existentielle Freiheit erst entfalten kann: „Jedes Individuum, wie ursprünglich es sei, ist doch Gottes, seiner Zeit, seines Volkes, seiner Familie, seiner Freunde Kind, erst darin hat es seine Wahrheit; will es in dieser seiner ganzen Relativität das Absolute sein, so wird es lächerlich.“178 Kierkegaard hebt damit seine eigene existentialistische Beschreibung des Menschen aus einer isolationistischen Verkürzung heraus und stellt gerade die kontextuellen und sozialen Vorbedingungen zur Herausbildung einer individuellen Personalität des Menschen heraus. Gegenüber seiner Prägung ist der Mensch jedoch in der Lage, sich gestaltend zu verhalten, ohne dass er die seiner Existenz vorausgehenden Bedingungen je ganz einholen könnte. Der phänomenologischen Offenheit entspricht ein Selbstverständnis von Freiheit und Verantwortung, das seinerseits von einem Bewusstsein für die Unausweichlichkeit, für die Uneinholbarkeit der Vorbedingungen jeder menschlichen Handlungspraxis und für die Vorläufigkeit jeder normativen Sinnorientierung begleitet ist. In der Sprache empirischer Wissenschaftlichkeit entspricht der Offenheit menschlicher Handlungen der Begriff des Indeterminismus. Er tritt an die Stelle eines mechanistischen Reduktionismus in der Beschreibung des Menschen.
Falkenburg, Brigitte: Mythos Determinismus, a. a. O., S. 275ff. Vgl. Irrgang, Bernhard: Gehirn und leiblicher Geist. Phänomenologisch-hermeneutische Philosophie des Geistes, Stuttgart 2007, S. 271ff. 178 Kierkegaard, Sören: Entweder – Oder, a. a. O., S. 172. 176
177
252
3.2 Negativität und Moralität – Was sollen wir nicht tun?
Ein deterministisches Selbstbild vollkommener Unfreiheit resultiert aus einer Übersteigerung der Zuschreibung eines naturgesetzlichen Kausalprinzips für alle Ereignisse im Universum. Es erweist sich als paradoxe Schlussfolgerung im wissenschaftlichen Vorhaben, ein logisch kohärentes, geordnetes Bild der Welt zu entwerfen. Zuverlässige Beschreibungsmethoden in anderen Bereichen der physikalischen Welt werden generalisierend auch auf den Menschen angewandt. In der Objektivierung seiner eigenen Subjektivität verstrickt sich die Rationalität des Menschen jedoch in unauflösbare Widersprüche. Die diametrale Entgegensetzung von Subjekt und Objekt geht bei Descartes einher mit der Setzung eines Substanzdualismus, um personales Handeln in einer monokausal bestimmten Welt überhaupt noch denken zu können.179 Husserl hebt demgegenüber den Begriff der Intentionalität hervor, mithilfe dessen er des cartesischen Dualismus kritisch zu rekonstruieren versucht.180 Der zentrale Begriff Husserls zur Lösung aus einem Substanzdualismus wird schließlich der Begriff der Lebenswelt, den er anhand von Kant systematisch erarbeitet.181 Er bildet damit die Grundlage für die späteren Arbeiten von Merleau-Ponty und Edith Stein, die mit dem Begriff der Leiblichkeit das personal-offene In-der-Welt-Sein als menschlicher Leib in seiner Irreduzibilität und Unhintergehbarkeit für jede erkenntnistheoretische und anthropologische Systematisierung ausgewiesen haben und damit an den Lebensweltbegriff von Husserl anknüpfen. Edith Stein führt den Begriff der Leiblichkeit als Antwort auf einen aporetischen Dualismus zwischen Materie und Geist ein. Im Leib lebt die personale Intelligenz des Menschen. Die wechselseitigen Bezüge zwischen „äußerer“ Welt und „innerer“ Seele finden keine Auflösung in einer monistischen Vereinseitigung: „Der Leib ist geformt als Schauplatz seelischen Geschehens und Organ zur Entgegennahme der äußeren Welt.“182 Um den cartesischen Dualismus überwinden zu können, kann anstelle einer Verdinglichung des Geistes die Rekonstruktion sowohl des leiblichen Eingebettetseins personalen Wissens und Handelns als auch der subjektiven, biographischen, kontextuellen, kulturellen, sozialen und intentionalen Bedingtheit objektivierender Erkenntnisprozesse zu einer Vermittlung von Komplementarität zweier je unverfügbarer Beschreibungsformen führen, die letztlich füreinander inkommensurabel sind. Eine restlose Überführung der Einsichten aus einer bestimmten methodischen Tradition, z. B. der empirischen Wissenschaftlichkeit in eine andere, z. B. der philosophischen Anthropologie, ist weder möglich, noch notwendig noch zielführend. Versuche zur hermeneutischen Vermittlung sind hingegen keineswegs ausgeschlossen und können zur Herausbildung eines Bewusstseins für gemeinsame Grundbedingungen von Erkenntnis Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie, hg. v. Walter Biemel, Haag 1976, S.62f. Vgl. auch Rentsch, Thomas: Philosophie des 20. Jahrhunderts, a. a. O., S. 30. 180 Husserl: Die Krisis der europäischen Wissenschaften, a. a. O., S. 84f. 181 Ebd., S. 105ff und 123ff. 182 Edith Stein: Potenz und Akt. Studien zu einer Philosophie des Seins, Freiburg im Breisgau 1998, S. 240. 179
253
3 Negativität und philosophische Vernunftkritik
ebenso wie für die gegenseitige Angewiesenheit zur Erarbeitung eines holistischen Verständnisses vom Menschen beitragen. Für die Selbstbestimmung des Menschen kann mit Max Scheler der Indeterminismus seiner möglichen Handlungsvollzüge als Weltoffenheit beschrieben werden.183 Zur Erarbeitung einer Ethik können diese Aspekte im Sinne der Unableitbarkeit unserer Handlungen reformuliert werden. Aus keiner formalen Analyse, empirischen Untersuchung, metaphysischen Spekulation oder theologischen Deutung geht die Berechenbarkeit oder Vorhersagbarkeit menschlichen Verhaltens hervor. Menschliches Verhalten ist unableitbar, sowohl das Verhalten anderer als auch mein eigenes. Die Beschreibung von Gewohnheiten und die statistische Einordnung empirischer Forschungsergebnisse kann Häufungen und Wahrscheinlichkeit in menschlichen Handlungsvollzügen systematisieren. Dennoch ist sowohl das Verhalten von Einzelnen als auch das Verhalten von Gruppen und Kollektiven methodisch nicht vollständig determinierbar. Aus dieser prinzipiellen Unableitbarkeit ergibt sich die Möglichkeit, ethische Bestimmungen zu formulieren, die dieser Offenheit menschlicher Handlungspraxis Rechnung tragen. Zu diesen ethischen Bestimmungen zählen die Wahrung der Freiheit, der Verantwortung und der Würde des Menschen. Sie können im Anschluss an eine Rekonstruktion sinnkonstitutiver Negativität vernunftkritisch reformuliert werden.
3.2.3 Unverfügbarkeit von Handlungsmotiven Die Handlungspraxis des Menschen ist bestimmt von der Komplexität personalen Lebens und von multidimensionaler Vielschichtigkeit. Somit gehen Handlungsvollzüge des Menschen nicht in rationalistischen, funktionalen oder instrumentellen Beschreibungen im Sinne einer berechenbaren Nutzökonomie auf. In unterschiedlichen Perspektiven lässt sich die unhintergehbare Unverfügbarkeit von Handlungsmotiven in lebensweltlicher Praxis nachweisen. Kierkegaard formulierte dies mit dem Satz, „dass kein Mensch sich selber durchsichtig zu werden vermag.“184 Zu den Ebenen des Uneinsichtigen gehören Dimensionen des Unbewussten, intersubjektive, soziale und kulturelle Abhängigkeiten und Bedingtheiten, welche intentionalem Handeln immer vorausgehen. Die Bedeutung des Unbewussten für die Herausbildung eines Selbstbewusstseins wurde nicht nur von Freud, sondern auch bereits von Hegel herausgearbeitet.185 Als Dimension der
Scheler, Max: Die Stellung des Menschen im Kosmos, Bonn 2005, S. 44f. Kierkegaard: Entweder – Oder, a. a. O., S. 743. 185 Vgl. G. W. F. Hegel: Phänomenologie des Geistes, Köln 2000, S. 342f, dort in der Begrifflichkeit des „Nichtgewussten“ in seiner konstitutiven Bedeutung für die Herausbildung des Selbstbewusstseins. 183
184
254
3.2 Negativität und Moralität – Was sollen wir nicht tun?
Unverfügbarkeit seiner eigenen personalen Totalität verdeutlicht die Beschreibung des Unbewussten die Dimensionen von Entzogenheit im eigenen Selbst. Als vorrationale Erfahrungswelt konstituiert sich darin eine Ebene impliziter Wissensstrukturen, welche das Verhalten des Einzelnen mitbestimmen, ohne dass diese Einflüsse je ganz rekonstruiert werden könnten. In einer bewussten Auseinandersetzung mit diesen Substrukturen der personalen Identität können Aspekte des unbewussten Lebens zwar teilweise expliziert werden, sie entziehen sich jedoch einem restlosen instrumentellen Zugriff. Sie bilden damit die Voraussetzung für die sinnvolle Formulierung eines Imperativs zu Selbsterkenntnis und Selbstwerdung, weil durch Aspekte des Unterbewussten der Mensch auch sich selbst nur dialogisch-offen verstehen kann. Der Selbstbezug des Menschen ist dadurch unter dieselbe Bestimmung gestellt wie das Verhalten des Menschen gegenüber Anderen oder in Gruppen. So zeigt sich die Unverfügbarkeit von individuellen Handlungsmotiven auch, wenn intersubjektive, soziale Abhängigkeiten herausgestellt werden, die für lebensweltliche und sprachliche Praxis unhintergehbar und notwendig sind. Diskurse in Gruppen und zwischen Personen sind von Prozessen gegenseitiger Anerkennung begleitet.186 Dies wird beispielsweise deutlich, wenn wichtige unausgetragene Konflikte von Individuen in z. B. professionelle Kontexte ausgelagert werden und dort fachliche Themen überlagern. Die frühen Erfahrungen in der familiären Interaktion des Menschen werden zu einer Richtschnur seiner späteren Handlungsmotive, auch wenn ein Großteil dieser Erfahrung sich einem rationalen Zugriff entzieht, ebenso wie auch kulturelle und soziale Vorbedingungen normativer Orientierungen nie abschließend rekonstruiert werden können. Ausgehend von den sinnkonstitutiven Bedingungen für die Herausbildung von menschlichen Handlungsmotiven kann diese Unverfügbarkeit auch als „Entzogenheit meiner Selbst“ reformuliert werden.187 Die Frage nach der eigenen Identität und das Ringen um eine existentielle Orientierung wird damit paradigmatisch für die radikale Offenheit personalen Handelns auch im Bezug des Menschen zu sich selbst. Die offene Gestaltbarkeit und die Unabschließbarkeit solchen Ringens wird deutlich, wo bereits gefundene Werteorientierungen sich als jeweils revidierbar erweisen. In seiner existentiellen Bedeutung in der Biographie eines Menschen hat diese Gestaltbarkeit u. a. Sören Kierkegaard mit seinen Untersuchungen zur Reue aufgezeigt. Kierkegaard führt die Möglichkeit zu Verzweiflung und Reue als höchste Form der menschlichen Freiheit ein, weil der Mensch darin einen Weg finden kann, Verantwortung zu übernehmen und damit Die Bedeutung der Anerkennung für die Herausbildung von Sozialität und personaler Identität hat besonders Emmanuel Lévinas herausgearbeitet. Vgl. Lévinas, Emmanuel: Humanismus des anderen Menschen, Hamburg 1989. Vgl. auch Lévinas, Emmanuel: Die Spur des Anderen. Untersuchungen zur Phänomenologie und Sozialphilosophie, Freiburg / München 1992. Vgl. auch Lévinas, Emmanuel: Zwischen uns. Versuche über das Denken an den Anderen, München / Wien 1995. 187 Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000, S. 14. 186
255
3 Negativität und philosophische Vernunftkritik
die Ebene seiner eigenen Sinnkonstitution aktiv mitzugestalten. „Je größer die Freiheit, desto größer die Schuld.“188 Indem der Mensch in der Reue Verantwortung für sein Handeln übernimmt, verhält er sich auch in Bezug auf seine eigene Vergangenheit als verantwortlich und beurteilt diese unter der Perspektive, anders gehandelt haben zu können. Die Vergangenheit wird damit nicht mehr als abgeschlossen, sondern als gestaltbar aufgefasst und wird wiederum für die Wahlfreiheit in der Frage nach der Lebensführung aus einer fatalistisch-deterministischen Lesart herausgelöst. Die Möglichkeit zu Reue und Verzweiflung wird daher für Kierkegaard zur Grundvoraussetzung der menschlichen Freiheit: „kann ich das Vergangene nicht bereuen, so ist die Freiheit ein Traum.“189 Mit der Reue kann ein Mensch sich aus der deterministischen Sicht seines Handelns als Resultat einer kausalen und sozialen Verkettung von Zwängen herauslösen und einen Selbstbezug als Handelnkönnender konstituieren.190 Reue und Verzweiflung sind damit für Kierkegaard Prämissen für die Konstitution der menschlichen Personalität, welche ihre eigene Existenz als gestaltbar setzt und sie für prinzipiell unabgeschlossen und unabschließbar wählt. Damit deutet er auch darauf, dass ein Mensch niemals die volle Potentialität seiner eigenen Existenz auszuschöpfen vermag: „Der beste Beweis, der sich für die Jämmerlichkeit des Daseins führen lässt, ist der, den man aus der Betrachtung seiner Herrlichkeit herleitet.“191 Auch in seiner Selbstbewertung bleibt die menschliche Existenz ethisch unabschließbar, seine Rückbesinnung auf ein Fragen nach seinem Wesen und Sinn ist nie mit letzter Sicherheit zu beantworten. Der Mensch bezieht die Offenheit von Werturteilen auch auf die Beurteilung von Entscheidungen und Erlebnissen in der Vergangenheit. In semantischer Nähe zum Begriff der Reue kann auch der religiös tradierte Begriff der „Umkehr“ als radikale Neuausrichtung der menschlichen Existenz rekonstruiert werden. In der christlichen Überlieferung ist ein Beispiel solcher Neuausrichtung tradiert von Paulus, der vom Verfolger der urchristlichen Gemeinde zum wichtigsten Mitgestalter des frühen Christentums wurde.192 Später fasst Paulus die Neuausrichtung seiner letzten Werte mit den Worten zusammen: „Aber was mir Gewinn war, das habe ich um Christi willen für Schaden erachtet. […] Um seinetwillen ist mir das alles ein Schaden geworden, und ich erachte es für Dreck […]“.193 Paulus war zuvor ein jüdischer Gesetzeslehrer gewesen, welcher die junge urchristliche Bewegung als Häresie gewaltsam verfolgte. Auch Kierkegaard greift das Beispiel von Paulus (alias Saulus) auf, um das Beispiel einer völligen existentiellen Neuausrichtung eines Individuums zu
Kierkegaard, Entweder – Oder, a. a. O., S. 777. Ebd., S. 802. 190 Vgl. ebd., S. 803. 191 Ebd., S. 38. 192 Vgl. die Bibel, a. a. O., Apg. 9. 193 Die Bibel, a. a. O., Phil. 3,7–8. 188 189
256
3.2 Negativität und Moralität – Was sollen wir nicht tun?
skizzieren.194 In der menschlichen Existenz ist eine radikale Neuausrichtung von Sinnorientierungen und Zielstellungen möglich. In anderen Biographien kann die Umwendung wiederum vom Religiösen weg und hin zum Säkularen geschehen. Umdeutungen und Neuausrichtungen durch Reue und Verzweiflung folgen in der menschlichen Lebenspraxis keiner hierarchisch bewertbaren oder skalierbaren Logik. So setzt Nietzsche in seiner nihilistischen Rezeption der europäischen Religionsgeschichte atheistische und nihilistische Antworten an die Stelle religiös tradierter Sinnorientierungen. Nietzsche sieht in der Loslösung von einer religiös begründeten Sollensethik ein Potential zur Befreiung des Individuums zu einer selbstbestimmten Lebensgestaltung, wenn er daran appelliert: „Recht sich zu nehmen zu neuen Werten“195 Literarisch führt Nietzsche mit dem Bild „neue Gesetzestafeln“ schreiben zu können, diese Möglichkeit zur normativen Neuausrichtung aus.196 Der Mensch kann die Bedingungen seiner eigenen Normativität hinterfragen und weiterentwickeln. Die existentielle Orientierungslosigkeit gegenüber letzten Sinnfragen bestimmt demnach auch seine Fähigkeit, selbst normative Maßstäbe und Geltungsansprüche zu setzen und zu diskutieren. In jedem Fall impliziert eine entsprechende Neuausrichtung eine unüberschaubare Menge an Verschiebungen von Werturteilen und Handlungsmotiven, die oft nur sukzessive rekonstruiert werden können – eine Aufgabe, mit der beispielsweise Nietzsche sein Leben lang gerungen hat.197
3.2.4 Unsicherheit des Normativen: Abgrenzungen Fragen menschlicher Sinn- und Handlungsorientierung sind durch Offenheit gekennzeichnet. Affirmative Aussagen über das Normative stehen deshalb unter der Bestimmung von „Sicherlich meinte Saulus, dass sein Eifer ein Gott wohlgefälliger Eifer sei, oh, aber gerade das, sich selber greifen zu müssen oder ergriffen zu werden in einem solchen Selbstbetrug, und also bereuen zu müssen, was er einmal für Gott wohlgefällig ansah (welch eine Umwälzung in Gedanken und Sinnen; welche Schwierigkeit für die Reue ihren Gegenstand zu ergreifen und festzuhalten, welches Zeichen des Entsetzens: das Beste bereuen zu müssen, das man getan hat, ja was man sogar für Gott wohlgefällig ansah), und somit also den Schrei der Verfolgten bereuen zu müssen, das Elend der Gefangenen (welche Mühseligkeit der Reue; denn es war ja nicht des Saulus Lust gewesen, es zu tun, sondern Eifer, wie er meinte, für die gute Sache) […]“ (Sören Kierkegaard: Paulus, in: Der Einzelne und sein Gott, Freiburg im Breisgau 1961, S. 102.) 195 Nietzsche: Also sprach Zarathustra, a. a. O., S. 294. 196 Ebd., s. S. 443–449 (Von alten und neuen Tafeln). 197 „Gott bleibt tot! Und wir haben ihn getötet! Wie trösten wir uns, die Mörder aller Mörder? Das Heiligste und Mächtigste, was die Welt bisher besaß, es ist unter unseren Messern verblutet – wer wischt dies Blut von uns ab? Mit welchem Wasser können wir uns reinigen? Welche Sühnefeiern, welche heiligen Spiele werden wir erfinden müssen?“ Die fröhliche Wissenschaft, a. a. O., S. 127. Vgl. auch Also sprach Zarathustra, a. a. O., S. 467–469 (Von der großen Sehnsucht) und S. 490–494 (Der Zauberer). 194
257
3 Negativität und philosophische Vernunftkritik
Unsicherheit und Vorläufigkeit. Wie kann vernunftkritisch eine Rede über normative Sinnorientierung überhaupt möglich sein? Einsichten in die negativen Sinnbedingungen von Normativität können rekonstruiert und für eine protoethische Neukonzeption fruchtbar gemacht werden. Diesem Ansatz folgt Thomas Rentsch.198 Die Befürchtung, mit affirmativen Entwürfen über normative Grundlagen des Menschlichen in Dogmatismus oder Formalismus zurückzufallen, steht einer naiven Setzung ethischer Bestimmungen im Weg. Philosophiegeschichtlich lässt sich der Weg der kritischen Distanzierung von dogmatischen und formalistischen Bestimmungen in Europa mit der Loslösung von theologisch begründeter Normativität in religiösen Institutionen begründen. In der Abgrenzung dazu wurden in der Philosophie der Aufklärung ethische Bestimmungen auf eine rational begründbare Argumentation zurückzuführen versucht, z. B. bei Kant. Die damit eingesetzte Unsicherheit des Normativen wurde im Anschluss immer stärker radikalisiert. Nietzsches Ringen um die Möglichkeit einer vollständigen Loslösung menschlicher Sinnorientierung von einer Sollensethik199 trägt das Zeichen der immer stärkeren Hinterfragens der Sinnbedingungen des menschlichen Daseins. Im Hinterfragen normativer Vorgaben erschrickt der Mensch bisweilen über sich selbst. „Licht bin ich: ach, dass ich Nacht wäre!“200, so fasst Zarathustra die Aporetik seiner nihilistischen Konzeption zusammen. Auch in der Abkehr von normativer Sinnorientierung artikulieren sich noch Dimensionen normativen Fragens als unhintergehbar für jede anthropologische Selbstbestimmung. Utilitaristische Entwürfe versuchen, Wertfragen nicht durch Bestimmungen von Pflicht oder durch dogmatische Setzungen, sondern durch eine skalierbare, objektivierbare Beurteilung konkreter Situationen zu beantworten. Eine solche Ethik fällt jedoch auch unter die Kritik jeder Quantifizierung und Formalisierung der Welt und des Menschen, die in dieser Arbeit ausführlich dargestellt wird. Gerade unter den Bedingungen der Unverfügbarkeit letzter Sinnbestimmungen, anhand welcher konkrete Situationen skalierbar bewertet werden könnten, erweisen sich utilitaristische Ethiken als inkommensurabel zu ethischen Problematiken. Glück, Lust, Freude, Zufriedenheit und ähnliche Attribute, nach welchen mit den Grundmethoden einer utilitaristischen Ethik konkrete Entscheidungssituationen eingeschätzt und bewertet werden könnten, gehen von einer Quantifizierbarkeit und Formalisierbarkeit des subjektiven Werturteils aus, welches jedoch für einen instrumentellen Zugriff unhintergehbar entzogen bleibt. Existentielle Dimensionen der normativen Orientierung des Menschen wie Phänomene der Reue oder die Gegenüberstellung verschiedenartiger inkommensurabler Werte müssten
Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000, S. 28f. „Welches ist der große Drache, den der Geist nicht mehr Herr und Gott heißen mag? ‚Du sollst‘ heißt der große Drache.“ Also sprach Zarathustra, a. a. O., S. 294 (Von den drei Verwandlungen). 200 Also sprach Zarathustra, a. a. O., S. 362 (Das Nachtlied). 198
199
258
3.2 Negativität und Moralität – Was sollen wir nicht tun?
in einer solchen Konzeption außen vor gelassen werden. Sie werden damit dem Charakter der existentiellen Orientierungslosigkeit nicht gerecht, in welcher sich die Normativität des Menschen herausbilden muss. Außerdem stellt eine utilitaristische Methode die Beurteilungskriterien über den Wert von Menschen in eine ökonomische Logik von Berechenbarkeit und Aufwiegbarkeit, welche letztlich die Gefahr einer Verdinglichung personaler Würde birgt. Relativistische Entwürfe halten zwar durch den Appell an Toleranz und Parallelität verschiedenartiger Begründungsstrukturen von Normativität und Sinnorientierung die Grundlagen für einen demokratischen Pluralismus aufrecht, sie umgehen jedoch damit auch den Anspruch von Philosophie, den Geltungsanspruch von Wahrheit und Weltanschauungen diskursiv zugänglich zu machen und in Vermittlungsprozessen hermeneutisch aufzuschließen.201 Sinnkonstitution im Anschluss an Vernunftkritik und Negativität besinnt sich auf die Grenzen, in denen menschliches Leben sich vollzieht. Die Fragilität des Menschen durch Schmerz, Leid und Sterblichkeit erweist sich damit als unhintergehbare Bedingung für die Entwicklung kultureller Leistungen der Ethik und Moralität, mit welchen unter den Voraussetzungen dieser Fragilität die Grundlagen für gesellschaftliches Leben geschaffen werden. Mit einem jeweils nur eingeschränkten Beitrag gestalten sich ethische Bestimmungen in einer Gesellschaft in interexistentiellen Diskursen. Diese müssen, um der Fragilität des Menschen ebenso wie der letztlichen Unverfügbarkeit jeder normativen Sinnorientierung Rechnung zu tragen, einem Charakter der Offenheit entsprechen. Der Mensch wird somit zum sprachlichen Akteur in einer offenen Gesellschaft. Ethik bleibt dabei immer an konkrete Situationen in konkreten Kontexten gebunden und ist daher nicht abstrakt oder formallogisch im Vorhinein beantwortbar.
3.2.5 Sozialität und Unverfügbarkeit: Die Unverfügbarkeit des Anderen Freiheit als Grundbestimmung menschlicher Handlungspraxis kann aufgrund der Unableitbarkeit unserer Handlungen interexistentiell zugeschrieben werden. In der Gleichursprünglichkeit von Ich und Du gründet dabei die Bestimmung menschlicher Personalität. Martin Buber hat in seiner Dialogphilosophie202 die unhintergehbare Interdependenz zwischen Ich und Du, zwischen einem Individuum und einem jeweils entzogenen Anderen, herausgearbeitet. Als Gegenentwurf gegen subjektivistische Vereinseitigungen und gegen idealistische Entwürfe einer Ich-Begründung, die losgelöst von sozialen Kontexten realisiert werden könnte, hat Buber die Vorgängigkeit eines Du gegenüber dem Ich herausgestellt. Bubers Dialogphilosophie kann ihrerseits als Hypostasierung eines vorgängigen Du gelesen Vgl. Rentsch, Thomas: Philosophie des 20. Jahrhunderts, a. a. O., S. 110f. Buber, Martin: Ich und Du, Stuttgart 2009.
201
202
259
3 Negativität und philosophische Vernunftkritik
werden, woraus sich die Widersprüchlichkeiten nur umkehren würden.203 Eine solche Umkehrung kritisiert Thomas Rentsch, wenn er dabei die Reproduktion von systematischen Mängeln im Sinne eines „regressus in infinitum“ feststellt, die in der Unterstellung eines prinzipiell vorhandenen „Du“ gründen, welche erst ein jeweiliges „Ich“ konstituieren soll. Thomas Rentsch hat gegenüber Martin Buber herausgearbeitet, dass die Hypostasierung eines vorgängigen Du, welches erst ein jeweiliges Ich konstituieren könnte, sich in dieselben logischen Vereinseitigungen bewegt wie eine Unterstellung eines vorgängigen Ich. Rentsch schlägt stattdessen ein Verständnis der „Gleichursprünglichkeit“ der semantischen Gruppe vor, wobei keines der Elemente aus einem anderen als vorgängig ableitbar ist, da sich erst in ihrem wechselseitigen Bezug der sprachliche Sinn dieser Wörter herausbilden kann. 204 Als emphatischer Versuch, die Gleichursprünglichkeit von Ich und Du als unhintergehbare Grundbedingung der menschlichen Existenz zu formulieren, kann die Dialogphilosophie Bubers jedoch für eine anthropologische Phänomenologie der Sozialität vernunftkritisch rekonstruiert werden: Sozialität ist unhintergehbare Vorbedingung für die Herausbildung von Personalität. Existentiell ist die Grundkonstitution menschlicher Offenheit auf einen jeweils Anderen 205 angewiesen: „Ich werde am Du; Ich werdend spreche ich Du. Alles wirkliche Leben ist Begegnung.“206 Die Herausbildung einer personalen Identität ist auf die Möglichkeit von Beziehung angewiesen und damit zurückgebunden auf ein Gegenüber, mit welchem die Dimension der Sozialität sich als sinnkonstitutive Grundbestimmung menschlicher Lebenspraxis entwickeln kann. Sozialität bildet damit auch eine Ebene sinnstiftender Handlungspraxis, welche sich nicht in einem instrumentellen Zugriff auf einen anderen erschöpft, sondern sich im Umgang mit diesem dialogisch-offen formt. „Zwischen Ich und Du steht kein Zweck, keine Gier und keine Vorwegnahme […]. Alles Mittel ist Hindernis. Nur wo alles Mittel zerfallen ist, geschieht die Begegnung.“207 Buber idealisiert das Wesen der Sozialität in einer poetischen Sprache, zu der leicht systematische Kritikansätze formuliert werden können. Aus seinem essayistischen Entwurf der Dialogphilosophie kann jedoch das Nichtaufgehen von dialogisch-offener Sozialität in einem instrumentellen Zugriff auf andere Menschen unter Bestimmungen von Zweckmäßigkeit vernunftkritisch rekonstruiert werden. Beziehung wird damit zum sinnstiftenden Vgl. Rentsch, Thomas: Negativität und praktische Vernunft, a. a. O., S. 44. Rentsch, Thomas: Die Konstitution der Moralität. Transzendentale Anthropologie und praktische Philosophie, Frankfurt am Main 1999, S. 163f. 205 Vgl. zum Begriff des „Anderen“ für eine phänomenologische Systematisierung der Sozialität auch Lévinas, Emmanuel: Die Spur des Anderen. Untersuchungen zur Phänomenologie und Sozialphilosophie, Freiburg / München 1992. 206 Buber, Martin: Ich und Du, Stuttgart 2009, S. 12. 207 Ebd. 203
204
260
3.2 Negativität und Moralität – Was sollen wir nicht tun?
Ereignis inkommensurablen Charakters.208 Buber knüpft den Beziehungsbegriff auch an das Wesen von Personalität als Verwiesenheit an die Personalität Anderer.209 Sozialität ist nichts gänzlich Verfügbares, sondern eine irreduzible Dynamik von gleichursprünglicher Aktivität und Passivität, in welcher sich der Mensch eingebettet vorfindet. „Das Du begegnet mir. Aber ich trete in die unmittelbare Beziehung zu ihm. So ist die Beziehung Erwähltwerden und Erwählen, Passion und Aktion in einem. […] Das Grundwort Ich-Du kann nur mit dem ganzen Wesen gesprochen werden. Die Einsammlung und Verschmelzung zum ganzen Wesen kann nie durch mich, kann nie ohne mich geschehen.“210 Buber ringt literarisch mit einer philosophischen Tradition von idealisierter Subjektivität, die bei einem rationalistisch aufgefassten Ich als Ausgangspunkt ansetzt. Demgegenüber artikuliert er die Ebene der Sozialität, welche dem Menschen in Form eines Du, also als ein jeweils Anderer, begegnet, als unhintergehbar für die Herausbildung des genuin Menschlichen. Um den instrumentellen Zugriff auf den Anderen überschreiten und anderen Menschen in einer Haltung von Offenheit begegnen zu können, ist Vertrauen notwendig. Es zeigt sich gerade angesichts der Fragilität und Ausgeliefertheit des Menschen an Andere. Vertrauen gründet in der Möglichkeit ihres Missbrauchs. Es kann als Einsicht in die Unhintergehbarkeit gegenseitiger Angewiesenheit in zwischenmenschlichen Bezügen formuliert werden und bildet damit eine Grundbestimmung menschlicher Sozialität, die auch trotz Erfahrungen von Zerbruch, Fragilität, Tod und Schuld immer wieder neu errungen werden muss und kann. Der Herausbildung von Rationalität und Logik geht in der menschlichen Existenz die soziale Bedingtheit seiner Handlungspraxis voraus. Hierin zeigt sich auch ein unhintergehbarer Unterschied zwischen menschlicher und maschineller Intelligenz. Das neugeborene Kind ist bereits vor der eigenen Geburt in soziale Kontexte eingebettet, innerhalb derer es seine Rationalität sukzessive entfalten wird. Bevor das Kind logisch denkt, empfindet es die Wärme und Geborgenheit der Mutter. In der Interaktion mit den Eltern und anderen Personen als Gegenüber entwickelt das Kind Umgangsformen, die einen Platz im sozialen Gefüge konstituieren. Nur auf der Grundlage von Leiblichkeit und Sozialität können sich in der Biographie des Menschen Logik und Rationalität sukzessive entfalten. Thomas Rentsch leitet aus den erkenntnistheoretischen und sprachphilosophischen Einsichten in Grenzen des Erkennbaren und Sagbaren auch eine Grundlegung von Moralphilosophie ab. Aus der „Unableitbarkeit unserer Handlungen“ ergibt sich damit das Verständnis von einer offenen Handlungspraxis als Freiheit.211 Der Mensch ist weder sich selbst noch an Vgl. ebd., S. 61. Ebd., S. 60. 210 Ebd., S. 11f. 211 Rentsch: Negativität und praktische Vernunft, a. a. O., S. 15. 208 209
261
3 Negativität und philosophische Vernunftkritik
deren ganz verfügbar oder einsichtig. Diese „wechselseitige interpersonale Unverfügbarkeit (Entzogenheit)“ stellt für Rentsch eine Grundlage der menschlichen Würde dar.212 Gerade weil Menschen einander nicht restlos bestimmen können, kann eine ethische Begründung von Ethik und Moralphilosophie möglich werden.213
3.2.6 Würde Als Bestimmung von Negativität angesichts der Fragilität des Menschen ist auch der Begriff der Würde unhintergehbar für eine Wesensbestimmung des Menschen, welche sich auch aus dem Bewusstsein um die Offenheit seiner Handlungspraxis speist. Gerade dass jeder Mensch andere auch unter instrumentellen Zweckbestimmungen betrachten und behandeln kann, impliziert die Notwendigkeit eines Verständnisses menschlicher Würde als Irreduzibilität des Selbstwerts eines jeden Menschen. Würde wird somit zum Inbegriff eines Bewusstseins um die Fragilität des Menschen als Konsequenz aus seiner sinnkonstitutiven Offenheit in Freiheit und Sozialität. Aspekte der Negativität im Sinne der Begrenztheiten des Menschen finden im Begriff der Würde eine Antwort und Überführung als ethische Bestimmung und Sinnkonstitution. Der Begriff der Würde bezeichnet dabei die Inkommensurabilität menschlichen Wertes gegenüber jeder bloß instrumentellen oder quantifizierbaren Bestimmung angesichts seiner Fragilität und Offenheit. Eine solche Fragilität und Offenheit kann als Zuschreibung für das Wesen der Technik nicht treffend begründet werden. Dimensionen des Schmerzes, des Leides, der Schuld und Orientierungslosigkeit treffen auf eine Beschreibung technischer Prozesse nicht zu. Negativität als Schmerz, Leid, Altern und Sterblichkeit ist mit organischem Leben verbunden. Die Rede von einer Würde des Tieres erscheint damit angemessener als die Rede von der Würde von Robotern. Dimensionen der Schuld, der existentiellen Orientierungslosigkeit in Bezug auf den Sinn des Daseins und die Möglichkeit von Verantwortung für das eigene Leben sind hingegen an eine menschliche Konstitution des ζῷον λόγον ἔχων gebunden als eines Lebendigen, der existentiell in einen offenen Raum sprachlicher und normativer Orientierung geworfen ist. Eine solche Rekonstruktion des Logosbegriffs als Bestimmung des genuin Menschlichen geht über die Ebene einer formalen Logik oder instrumentellen Rationalität hinaus. Die informationstechnische Architektur von KI-Systemen ist hingegen begrenzt auf die Möglichkeiten einer mathematisch-formallogischen Sprache. Nur was quantifiziert und formalisiert werden kann, um für die Rechenprozesse maschineller Intelligenz verfügbar und operationalisierbar Ebd., S. 13f. Ebd.
212 213
262
3.2 Negativität und Moralität – Was sollen wir nicht tun?
gemacht werden kann, findet Einzug in die Welt der künstlichen Intelligenz. Die sinnkonstitutiven Bestimmungen von Negativität, Offenheit, Fragilität, Freiheit, Würde, Entzogenheit, Unableitbarkeit, Transzendenz und Unverfügbarkeit sind für eine solche Architektur inkommensurabel. Für Anwendungspotentiale der Technologien mit künstlicher Intelligenz ist wichtig, die Möglichkeiten und Grenzen maschineller Intelligenz zu vergegenwärtigen. Eine Gleichsetzung oder Analogie zu menschlicher Intelligenz kann irreführend sein und kann auch durch funktionale Erfolge nicht begründet werden, da die Unterschiede substantieller und wesentlicher Natur sind. Eine behavioristische Beurteilung muss ausgehend davon als fehlleitend ausgeschlossen werden. Ob der Begriff der künstlichen Intelligenz für die Bezeichnung von Technik angemessen ist, ist dabei zweifelhaft. Wenn Rechnen als Intelligenzleistung gilt, dann ist auch maschinelles Rechnen eine Leistung von Intelligenz. Wenn Intelligenz als Dimension von menschlicher Personalität und als Disposition von Offenheit bestimmt wird, so wäre eine Zuschreibung dieser Aspekte für maschinelle KI-Systeme nicht begründbar. Problematisch ist im Begriff der künstlichen Intelligenz eine anthropomorphe Auffassung von Technik als Überhöhung und Hypostasierung von Geist. Gerade im Prozess des gesellschaftlichen, kulturellen, politischen und juristischen Ringens um den Status von künstlicher Intelligenz als Element menschlicher Kulturleistungen und als Technik für konkrete Problemlösungen ist es wichtig, den Geltungsanspruch und die Tragweite von technischen Entwicklungen und dahinterstehenden Interessen zu vergegenwärtigen. Als moralphilosophische Grundlegung des Begriffs der Menschenwürde formuliert Immanuel Kant den Zweiten Kategorischen Imperativ: „Handle so, dass du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst.“214 Er weist damit eine quantifizierende, utilitaristische oder instrumentelle Bestimmung menschlichen Wertes zurück, wie es in den sozialdarwinistisch-transhumanistischen Argumentationen vorgenommen wird. Der Umgang von Menschen miteinander geht unter einer moralphilosophischen Perspektive niemals in einem bloß instrumentellen Zugriff auf. Wo dies als Ziel gesetzt wird, sind die Grundlagen der Ethik und Moralität bedroht.
3.2.7 Wissen und Macht: Dialektik der Aufklärung Transhumanistische Utopien knüpfen an die empirisch-naturwissenschaftliche Tradition der Aufklärung an. Natur soll demnach objektiviert, quantifiziert und formalisiert werden. Die Entzauberung und Enträtselung der Natur durch Einsicht in die ihr innewohnenden 214
Kant: Grundlegung zur Metaphysik der Sitten, a. a. O., S. 65.
263
3 Negativität und philosophische Vernunftkritik
Mechanismen und Wirkgesetze ermöglicht ihre Verfügbarmachung für die technisch-instrumentelle Rationalität. Wenn in transhumanistischen Entwürfen jedoch Mythologie und Religiosität in einer technologisierten Form Einzug in die Handlungsmotivik empirisch-naturwissenschaftlicher Forschung finden, dann hat Aufklärung ihren vormals neutralen Beobachterstandpunkt verlassen und ist in den Dienst anderer Interessen getreten. Theodor W. Adorno und Max Horkheimer haben in der Dialektik der Aufklärung dieses Phänomen bereits beschrieben. Ihre Analysen sollen hier zu einem kurzen Exkurs dienen. Adorno und Horkheimer stellen in der Dialektik der Aufklärung eine argumentative Skizze vor, in welcher sie einen Zusammenhang von Aufklärung und Totalitarismus zeichnen. Das Buch wurde im amerikanischen Exil während des zweiten Weltkriegs geschrieben. Ausgangspunkt ist die Erschütterung, „warum die Menschheit, anstatt in einen wahrhaft menschlichen Zustand einzutreten, in eine neue Form von Barbarei versinkt.“215 Aufklärung hat als Ablösung von Mythologie zu diesem Zeitpunkt offenbar versagt. Adorno und Horkheimer folgen dem Gedanken, ob die Kriege und Vernichtungsprogramme des 20. Jahrhunderts kein zufälliges Ereignis sind, sondern ob sie auf etwas zurückgeführt werden können, was im Kern der Aufklärung bereits angelegt ist. Ihre argumentative Skizze ist keine systematische Analyse, sondern trägt essayistischen Charakter. Als „Philosophische Fragmente“ von den Autoren publiziert, liefern sie einen Beitrag für eine Diskussion, statt ihr Resultat vorwegzunehmen. Das Werk streift unzählige Aspekte von einer Kritik des Wissenschaftsapparats über eine kapitalismuskritische Interpretation der Kulturindustrie bis zu einem Versuch, Rationalitätsstrukturen im Antisemitismus freizulegen. Exkurse zu Homers Odyssee und zur Literatur von de Sade im Vergleich mit Kants Kritiken betten die Fragmente in einen geistesgeschichtlichen Horizont ein, welcher bis zu den Wurzeln des europäischen Denkens reicht. Entsprechend diesem Anspruch bleibt die Dialektik der Aufklärung eine Sammlung von „Fragmenten“, deren innere Systematik erst rekonstruiert werden muss. Die dargebotenen Assoziationslinien und Verweise auf innere Zusammenhänge bieten Potential für eine Übertragung in systematischere Darstellungen. Der Fokus für die Rezeption des Textes für die vorliegende Arbeit liegt hier in den Potentialen, die er als philosophische Kritik für ein Verständnis transhumanistischer Entwürfe birgt. Diese berufen sich auf die Stringenz des aufklärerischen Ansatzes der vollständigen Verfügbarmachung der Natur durch ihre empirisch-naturwissenschaftliche Objektivierung. Natur wird entzaubert, Geheimnisse des Daseins als Rätsel überwunden und als mythologische Reste eliminiert. Aufklärung als Objektivierung, Quantifizierung und Formalisierung wird zum Instrumentarium, um die Natur für die Herrschaft des Menschen verfügbar zu machen. Im Transhumanismus gipfelt die Verfügbarmachung der Natur im Vorhaben zur totalen Umgestaltung der Natur des 215
Adorno, Theodor W. und Horkheimer, Max: Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt am Main 1990.
264
3.2 Negativität und Moralität – Was sollen wir nicht tun?
Menschen. Indem menschliche Personalität auf Messbares, quantifizierbare Daten, reduziert wird, bleibt kein Rest vom Menschen mehr, der sich einem Zugriff durch die instrumentelle Rationalität entzöge; Aufklärung wäre als Herrschaft über den vollständig dechiffrierten Menschen totalitär. Damit können transhumanistische Entwürfe als Kulmination aufklärerischer Totalität im Sinne Adornos und Horkheimers interpretiert werden. Wissensdurst und Machthunger verbinden sich somit zu einer Zusammenstellung von Allwissenheit und Allmacht. Indem diese an die Willenskraft des Menschen zur Unterwerfung der Natur gekoppelt bleibt, stellt aufklärende Wissenschaft erneut sich in den Dienst egoistischer Interessen. Die Rückkopplung von Forschung an eine kapitalökonomische Unternehmenslogik zur Marktdurchdringung von Technologie mit künstlicher Intelligenz kann als Bestätigung für Adornos und Horkheimers Zusammenschau von instrumenteller Rationalität, kapitalistischer Marktlogik, der „selbstvergessenen Instrumentalisierung der Wissenschaft“216, von Naturbeherrschung als Absolutheitsanspruch und „Aufklärung als Selbstzerstörung“217 gelesen werden. Indem Mythologie und Religion bekämpft werden und ihre metaphysischen Reste zum Anlass werden, um mithilfe von Forschung auch die letzten Bereiche von Mysterium und Entzogenheit dem Herrschaftsbereich instrumenteller Rationalität zu überführen, offenbaren sich darin die Relikte mythologisch-religiöser Sinnorientierung, deren Umdeutung unter den Prämissen instrumenteller Rationalität jedoch anstelle einer Einbettung individueller Sinnfragen in einen Horizont transzendenter Unverfügbarkeit zu einer Ausbeutung des Menschen und zu einer Bedrohung der freiheitlichen Individualität führt.
3.2.7.1 Quantifizierung und Formalisierung als Entzauberung der Natur Die Unwissenheit gegenüber den Kräften der Natur zu überwinden, indem diese vermessen und ihre Wirkgesetze in eine rationale Sprache übertragen werden, gilt als Ziel der Aufklärung. „Es soll kein Geheimnis geben, aber auch nicht den Wunsch seiner Offenbarung.“218 Im Sinne der objektivierenden Vernunft gilt Natur nicht mehr als geheimnishaftes, letztlich entzogenes Gegenüber, um dessen Offenbarung mithilfe von mythologischen oder religiösen Zugängen mehr geworben werden müsste. Wissenschaftliche Methode unterwirft das naturhaft Gegebene unter die Kriterien wissenschaftlicher Formalisierbarkeit. Was diesen sich entzieht, gilt als Relikt des Mythos und steht damit unter der Prämisse des zu Überwindenden. Die Vermessung der Natur dient dazu, diese in die Sphäre der instrumentellen Rationalität zu Ebd., S. 2. Ebd., S. 1. 218 Ebd., S. 11. 216
217
265
3 Negativität und philosophische Vernunftkritik
überführen und sie damit dem menschlichen Verstand verfügbar zu machen: „Von nun an soll die Materie endlich ohne Illusion waltender oder innewohnender Kräfte, verborgener Eigenschaften beherrscht werden. Was dem Maß von Berechenbarkeit und Nützlichkeit sich nicht fügen will, gilt der Aufklärung für verdächtig.“219 Mit der Vermessung der Natur wird diese in die Sprache der Mathematik überführt. „Die formale Logik war die große Schule der Vereinheitlichung. Sie bot den Aufklärern das Schema der Berechenbarkeit der Welt. Die mythologisierende Gleichsetzung der Ideen mit den Zahlen in Platons letzten Schriften spricht die Sehnsucht aller Entmythologisierung aus: die Zahl wurde zum Kanon der Aufklärung. Dieselben Gleichungen beherrschen die bürgerliche Gerechtigkeit und den Warenaustausch.“220 Was in die Sprache der Mathematik nicht übertragen werden kann, was sich der Quantifizierung entzieht, das verliert allen Geltungsanspruch. Reduktionismus wird damit zur methodischen Zielrichtung, damit die Welt in der Sprache der Zahl wiedergegeben werden kann: „Die Gleichung von Geist und Welt geht am Ende auf, aber nur so, dass ihre beiden Seiten gegeneinander gekürzt werden. In der Reduktion des Denkens auf mathematische Apparatur ist die Sanktion der Welt als ihres eigenen Maßes beschlossen. Was als Triumph subjektiver Rationalität erscheint, die Unterwerfung alles Seienden unter den logischen Formalismus, wird mit der gehorsamen Unterordnung der Vernunft unters unmittelbar Vorfindliche erkauft.“221 Der Preis für die Ineinssetzung der Wirklichkeit mit ihrem Begriff ist die Vieldeutigkeit des Daseins und der Erscheinungsformen der Natur. Begriffe, deren semantische Essenz darin liegt, über sich selbst hinauszuweisen, werden für den mathematischen Formalismus unbrauchbar und leer. Vernunft selbst büßt damit ihr Sinnpotential ein: „Der technische Prozess, zu dem das Subjekt nach seiner Tilgung aus dem Bewusstsein sich versachlicht hat, ist frei von der Vieldeutigkeit des mythischen Denkens wie von allem Bedeuten überhaupt, weil Vernunft selbst zum bloßen Hilfsmittel der allumfassenden Wirtschaftsapparatur wurde. Sie dient als allgemeines Werkzeug, das zur Verfertigung aller andern Werkzeuge taugt, starr zweckgerichtet, verhängnisvoll wie das genau berechnete Hantieren in der materiellen Produktion, dessen Resultat für die Menschen jeder Berechnung sich entzieht. Endlich hat sich ihr alter Ehrgeiz, reines Organ der Zwecke zu sein, erfüllt.“222 Der Vernunftbegriff hat sich somit von seiner normativen Orientierungsfunktion zur instrumentellen Zweckrationalität gewandelt. Aspekte von Transzendenz und Negativität werden unter diesem Vorzeichen immer weiter eingegrenzt bis hin zur Verselbständigung des mathematisch-formellen Systems, zu welchem kaum mehr eine andere ursprüngliche Intention in Bezug gesetzt werden kann als 221 222 219
220
Ebd., S. 12. Ebd., S. 13. Ebd., S. 33. Ebd., S. 36.
266
3.2 Negativität und Moralität – Was sollen wir nicht tun?
die instrumentelle Zweckrationalität selbst: „Wissenschaft, in ihrer neopositivistischen Interpretation, wird zum Ästhetizismus, zum System abgelöster Zeichen, bar jeglicher Intention, die das System transzendierte: zu jenem Spiel, als welches die Mathematiker ihre Sache längst schon stolz deklarierten.“223 Das Ergebnis ist eine immer größere Entfremdung zwischen Naturerkenntnis und einem vermittelten Eingebettetsein des Menschen in der Natur. Im Wandel der menschlichen Sprache kommt dies zum Ausdruck, wenn der offene, suchende Sprachgebrauch des Menschen in seiner Lebenswelt sich immer mehr hin zu einer formalisierten Zeichensprache umformt. „Die mathematische Verfahrungsweise wurde gleichsam zum Ritual des Gedankens. Trotz der axiomatischen Selbstbeschränkung instauriert sie sich als notwendig und objektiv: sie macht das Denken zur Sache, zum Werkzeug, wie sie es selber nennt.“224 In solcher Abstraktion verliert sich immer stärker der Mensch, welcher als der Natur teilhaftig sich selbst zu erkennen sucht. Indem Sprache auf mathematische Formalisierbarkeit sich beschränken will, verliert sie den Bezug zu ihrem Erkenntnisobjekt: „Als Zeichen soll Sprache zur Kalkulation resignieren, um Natur zu erkennen, den Anspruch ablegen, ihr ähnlich zu sein. Als Bild soll sie zum Abbild resignieren, um ganz Natur zu sein, den Anspruch ablegen, sie zu erkennen.“225 Was in den so gebildeten Begriffen nicht aufgeht, das Unerkennbare, Negative, Entzogene, Transzendente wird durch die fortschreitende Erkenntnis immer mehr zum bloßen Unbekannten, das es noch zu enträtseln gilt, um es noch in die formalisierte mathematische Sprache zu überführen. Damit ist es als Transzendenzdimension ohne jeden Geltungsanspruch ausgeblendet und das bloß Mathematische wird als Absolutes gesetzt: „Wenn im mathematischen Verfahren das Unbekannte zum Unbekannten einer Gleichung wird, ist es damit zum Altbekannten gestempelt, ehe noch ein Wert eingesetzt ist. Natur ist, vor und nach der Quantentheorie, das mathematisch zu Erfassende; selbst was nicht eingeht, Unauflöslichkeit und Irrationalität, wird von mathematischen Theoremen umstellt. In der vorwegnehmenden Identifikation der zu Ende gedachten mathematisierten Welt mit der Wahrheit meint Aufklärung vor der Rückkehr des Mythischen sicher zu sein. Sie setzt Denken und Mathematik in eins. Dadurch wird diese gleichsam losgelassen, zur absoluten Instanz gemacht.“226 Unter dieser Prämisse kann von Natur nichts mehr bleiben als das, was vermessen, quantifiziert und formalisiert werden kann: „Nachdem die objektive Ordnung der Natur als Vorurteil und Mythos sich erledigt hat, bleibt Natur als Masse von Materie übrig.“227 Als Materie kann Natur vom menschlichen Verstand vermessen, verstanden und beherrscht werden.
225 226 227 223
224
Ebd., S. 24. Ebd., S. 31f. Ebd., S. 24. Ebd., S. 31. Ebd., S. 106.
267
3 Negativität und philosophische Vernunftkritik
3.2.7.2 Aufklärung als totalitärer Herrschaftsanspruch In den Vorsatz der Entzauberung der Natur kleidet sich der Herrschaftsanspruch des Menschen über die Natur: „Die glückliche Ehe zwischen dem menschlichen Verstand und der Natur der Dinge, die er im Sinne hat, ist patriarchal: der Verstand, der den Aberglauben besiegt, soll über die entzauberte Natur gebieten.“228 Horkheimer und Adorno deuten die Geschichte der Aufklärung als „die Geschichte des Denkens als Organs der Herrschaft.“229 Wissen über die Natur verleiht Macht, um die Natur zu beherrschen und auszubeuten. „Was die Menschen von der Natur lernen wollen, ist, sie anzuwenden um sie und die Menschen vollends zu beherrschen.“230 Als Teil der Natur ist auch der Mensch selbst vor der Ausbeutung mithilfe dieses Wissens nicht gefeit. Menschen nutzen das technische Wissen über die Natur, um andere Menschen auszubeuten. „Technik ist das Wesen dieses Wissens. Es zielt nicht auf Begriffe und Bilder, nicht auf das Glück der Einsicht, sondern auf Methode, Ausnutzung der Arbeit anderer, Kapital.“231 Erkenntnis ist damit nicht mehr auf eine Sinndimension gerichtet, sondern beschränkt sich auf die Aspekte der Nützlichkeit, Effektivität im Sinne einer technisch-instrumentellen Rationalität. Sie ist als solche mit dem bloßen Anspruch gleichzusetzen, Natur zu beherrschen und auszubeuten. „Macht und Erkenntnis sind synonym.“232 Der Preis für die Reduktion des Erkenntnisbegriffs auf die Aspekte einer instrumentellen Zweckrationalität ist die Entfremdung von Natur als Unverfügbarem. „Die Menschen bezahlen die Vermehrung ihrer Macht mit der Entfremdung von dem, worüber sie Macht ausüben. Die Aufklärung verhält sich zu den Dingen wie der Diktator zu den Menschen. Er kennt sie, insofern er sie manipulieren kann. Der Mann der Wissenschaft kennt die Dinge, insofern er sie machen kann. Dadurch wird ihr An sich Für ihn. In der Verwandlung enthüllt sich das Wesen der Dinge immer als je dasselbe, als Substrat von Herrschaft.“233 Vieldeutigkeit wird zugunsten von Einseitigkeit aufgegeben. Nur durch die methodische Distanz, welche durch formale Objektivierung gewonnen wird, kann das naturhaft Gegebene auf die Aspekte reduziert werden, als welche sie sich in die Zeichenwelt der instrumentellen Rationalität einfügen. „Die Menschen distanzieren denkend sich von Natur, um sie so vor sich hinzustellen, wie sie zu beherrschen ist. Gleich dem Ding, dem materiellen Werkzeug, das in verschiedenen Situationen als dasselbe festgehalten wird und so die Welt als das Chaotische, Vielseitige, Disparate
Ebd., S. 10. Ebd., S. 126. 230 Ebd., S. 10. 231 Ebd. 232 Ebd. 233 Ebd., S. 15. 228 229
268
3.2 Negativität und Moralität – Was sollen wir nicht tun?
vom Bekannten, Einen, Identischen scheidet, ist der Begriff das ideelle Werkzeug, das in die Stelle an allen Dingen passt, wo man sie packen kann. Denken wird denn auch illusionär, wann immer es die trennende Funktion, Distanzierung und Vergegenständlichung, verleugnen will.“234 Erfolgreiche Naturbeherrschung und Selbsterhaltung gegenüber der Natur und anderen Menschen wird damit zum Kriterium von Wahrheit. „Das System, das der Aufklärung im Sinne liegt, ist die Gestalt der Erkenntnis, die mit den Tatsachen am besten fertig wird, das Subjekt am wirksamsten bei der Naturbeherrschung unterstützt. Seine Prinzipien sind die der Selbsterhaltung. Unmündigkeit erweist sich als das Unvermögen, sich selbst zu erhalten. Der Bürger in den sukzessiven Gestalten des Sklavenhalters, freien Unternehmers, Administrators, ist das logische Subjekt der Aufklärung.“235 Indem also die Methodik der wissenschaftlich-technischen Zweckrationalität zum Wahrheitskriterium erhoben wird, verleiht sie sich einen Sendungsauftrag mit Universalismusanspruch, welcher als Relikt mythischer und religiöser Sprache Einzug in das Selbstverständnis von Aufklärung gefunden hat: „Wissenschaft selbst hat kein Bewusstsein von sich, sie ist ein Werkzeug. Aufklärung aber ist die Philosophie, die Wahrheit mit wissenschaftlichem System gleichsetzt.“236 Im Übergang von der Methodik zur Weltanschauung mit Universalismusanspruch ist das Potential zur Entgrenzung der Aufklärung angelegt. „Das Wissen, das Macht ist, kennt keine Schranken, weder in der Versklavung der Kreatur noch in der Willfährigkeit gegen die Herren der Welt.“237 Aufklärung als Prinzip zur Unterwerfung der Natur erkennt schließlich auch den Menschen als Teil der Natur wieder und legt somit den Grundstein für die Unterwerfung des Menschen. „Darf sie sich einmal ungestört von auswendiger Unterdrückung entfalten, so ist kein Halten mehr. Ihren eigenen Ideen von Menschenrecht ergeht es dabei nicht anders als den älteren Universalien. An jedem geistigen Widerstand, den sie findet, vermehrt sich bloß ihre Stärke. Das rührt daher, dass Aufklärung auch in den Mythen noch sich selbst wiedererkennt. Auf welche Mythen der Widerstand sich immer berufen mag, schon dadurch, dass sie in solchem Gegensatz zu Argumenten werden, bekennen sie sich zum Prinzip der zersetzenden Rationalität, das sie der Aufklärung vorwerfen. Aufklärung ist totalitär.“238 Im Kampf gegen den Mythos muss die Enträtselung der Natur auch die Relikte des Nicht-Formalisierten ergreifen, welche als Prinzipien im Zuge der Aufklärung formuliert worden waren. Damit hat sich Aufklärung gegen sich selbst gewandt. „Rücksichtslos gegen sich selbst hat die Aufklärung noch den letzten Rest ihres
236 237 238 234 235
Ebd., S. 46. Ebd., S. 90. Ebd., S. 92. Ebd., S. 10. Ebd., S. 12.
269
3 Negativität und philosophische Vernunftkritik
eigenen Selbstbewusstseins ausgebrannt. Nur solches Denken ist hart genug, die Mythen zu zerbrechen, das sich selbst Gewalt antut.“239 Die Herrschaft über die Natur führt zur Herrschaft über den Menschen. „Da sie inhaltliche Ziele als Macht der Natur über den Geist, als Beeinträchtigung ihrer Selbstgesetzgebung entlarvt, steht sie, formal wie sie ist, jedem natürlichen Interesse zur Verfügung. Das Denken wird völlig zum Organ, es ist in Natur zurückversetzt. Für die Herrschenden aber werden die Menschen zum Material wie die gesamte Natur für die Gesellschaft.“240 In ihrem universellen Geltungsanspruch stehen Mythos und Religion sowie alles aus ihnen Abgeleitete unter der Zielstellung, auch diese Relikte in die Ebene der instrumentellen Rationalität der Aufklärung zu überführen. Sie rührt damit auch an die Grundlage der Sozialität, auf welcher menschliche Gesellschaften gründen. „Aufklärung macht ihrem Prinzip nach selbst vor dem Minimum an Glauben nicht halt, ohne das die bürgerliche Welt nicht existieren kann.“241 Damit hat sich Aufklärung gegen die eigenen Ideale gekehrt. Dem Prozess der Verdinglichung und Formalisierung fiel auch das Denken selbst anheim. „Mit der Preisgabe des Denkens, das in seiner verdinglichten Gestalt als Mathematik, Maschine, Organisation an den seiner vergessenden Menschen sich rächt, hat Aufklärung ihrer eigenen Verwirklichung entsagt.“242 Das Prinzip der Herrschaft über die Natur dreht sich damit dialektisch um in eine Versklavung unter die Natur – sie wird zum einzigen Korrelativ, welches als Orientierungsfunktion dem menschlichen Verstand richtungsweisend wird und führt ihn damit in eine Abhängigkeit. „Naturverfallenheit besteht in der Naturbeherrschung, ohne die Geist nicht existiert. Durch die Bescheidung, in der dieser als Herrschaft sich bekennt und in Natur zurücknimmt, zergeht ihm der herrschaftliche Anspruch, der ihn gerade der Natur versklavt.“243 Die Absenz eines Ziels jenseits ihrer Methodik führt damit für Adorno und Horkheimer in eine „rastlose Selbstzerstörung der Aufklärung.“ Die Methodik hat sich
Ebd., S. 10. Ebd., S. 94. 241 Ebd., S. 100. Adorno und Horkheimer beziehen sich dabei auch auf de Sade und Nietzsche, welche in ihrer Abkehr vom Christentum als normativer Grundlegung von Gesellschaft die Anwendung von Gewalt explizit rechtfertigen. „Die Schwachen und Missratnen sollen zugrunde gehen: erster Satz unsrer Menschenliebe. Und man soll ihnen noch dazu helfen. Was ist schädlicher als irgendein Laster – das Mitleiden der Tat mit allen Missratnen und Schwachen – das Christentum“ (Nietzsche, zit. nach Adorno und Horkheimer, Dialektik der Aufklärung, a. a. O., S. 104). Zur Rechtfertigung von Gewalt mit Bezug auf de Sade und Nietzsche vgl. ebd., S. 105–108. Zur Abwertung des Mitleids bei Nietzsche vgl. ebd., S. 108–111. Zu einer systematischen Untersuchung der Rezeption von Nietzsches Schriften durch Horkheimer und Adorno vgl. Röttges, Heinz: Nietzsche und die Dialektik der Aufklärung, Berlin 1972. 242 Adorno und Horkheimer, Dialektik der Aufklärung, a. a. O., S. 47f. 243 Ebd., S. 46. 239
240
270
3.2 Negativität und Moralität – Was sollen wir nicht tun?
verselbständigt und trägt durch ihren Universalismus und ihren Herrschaftsanspruch Züge des Totalitären: „Denn Aufklärung ist totalitär wie nur irgendein System. Nicht was ihre romantischen Feinde ihr seit je vorgeworfen haben, analytische Methode, Rückgang auf Elemente, Zersetzung durch Reflexion ist ihre Unwahrheit, sondern dass für sie der Prozess von vornherein entschieden ist.“244
Damit fällt Aufklärung in Mythologie zurück. „Der mathematische Formalismus aber, dessen Medium die Zahl, die abstrakteste Gestalt des Unmittelbaren ist, hält statt dessen den Gedanken bei der bloßen Unmittelbarkeit fest. Das Tatsächliche behält recht, die Erkenntnis beschränkt sich auf seine Wiederholung, der Gedanke macht sich zur bloßen Tautologie. Je mehr die Denkmaschinerie das Seiende unterwirft, um so blinder bescheidet sie sich bei dessen Reproduktion. Damit schlägt Aufklärung in Mythologie zurück, der sie nie zu entrinnen wusste. Denn Mythologie hatte in ihren Gestalten die Essenz des Bestehenden: Kreislauf, Schicksal, Herrschaft der Welt als die Wahrheit zurückgespiegelt und der Hoffnung entsagt. In der Prägnanz des mythischen Bildes wie in der Klarheit der wissenschaftlichen Formel wird die Ewigkeit des Tatsächlichen bestätigt und das bloße Dasein als der Sinn ausgesprochen, den es versperrt. Die Welt als gigantisches analytisches Urteil, der einzige, der von allen Träumen der Wissenschaften übrig blieb, ist vom gleichen Schlage wie der kosmische Mythos […]“245
Vernunft als ordnender Geist rückt den Menschen damit in die Nähe eines Gottes. „Das Erwachen des Subjekts wird erkauft durch die Anerkennung der Macht als des Prinzips aller Beziehungen. Gegenüber der Einheit solcher Vernunft sinkt die Scheidung von Gott und Mensch zu jener Irrelevanz herab, auf welche unbeirrbar Vernunft gerade seit der ältesten Homerkritik schon hinwies. Als Gebieter über Natur gleichen sich der schaffende Gott und der ordnende Geist. Die Gottesebenbildlichkeit des Menschen besteht in der Souveränität übers Dasein, im Blick des Herrn, im Kommando. Der Mythos geht in die Aufklärung über und die Natur in bloße Objektivität.“246
Ebd., S. 31. Ebd., S. 33. 246 Ebd., S. 15. 244 245
271
3 Negativität und philosophische Vernunftkritik
Indem Aufklärung als naturgesetzlich Gegebenes in die Semantik fatalistischer Sprache rückt, verleiht sie den selbstzerstörerischen Tendenzen in ihr einen Charakter von Unausweichlichkeit, welche an die Prädestination mythologischer oder religiöser Fremdbestimmung erinnert. „Die Mythologie selbst hat den endlosen Prozess der Aufklärung ins Spiel gesetzt, in dem mit unausweichlicher Notwendigkeit immer wieder jede bestimmte theoretische Ansicht der vernichtenden Kritik verfällt, nur ein Glaube zu sein, bis selbst noch die Begriffe des Geistes, der Wahrheit, ja der Aufklärung zum animistischen Zauber geworden sind. Das Prinzip der schicksalhaften Notwendigkeit, an der die Helden des Mythos zugrunde gehen, und die sich als logische Konsequenz aus dem Orakelspruch herausspinnt, herrscht nicht bloß, zur Stringenz formaler Logik geläutert, in jedem rationalistischen System der abendländischen Philosophie, sondern waltet selbst über der Folge der Systeme, die mit der Götterhierarchie beginnt und in permanenter Götzendämmerung den Zorn gegen mangelnde Rechtschaffenheit als den identischen Inhalt tradiert. Wie die Mythen schon Aufklärung vollziehen, so verstrickt Aufklärung mit jedem ihrer Schritte tiefer sich in Mythologie. Allen Stoff empfängt sie von den Mythen, um sie zu zerstören, und als Richtende gerät sie in den mythischen Bann.“247
Sie meint damit resistent gegen das zu sein, was sich ihrer Berechenbarkeit entzieht und lässt jedes Neue als notwendiges Resultat des Gegebenen erscheinen. „Die Subsumption des Tatsächlichen, sei es unter die sagenhafte Vorgeschichte, sei es unter den mathematischen Formalismus, die symbolische Beziehung des Gegenwärtigen auf den mythischen Vorgang im Ritus oder auf die abstrakte Kategorie in der Wissenschaft lässt das Neue als Vorbestimmtes erscheinen, das somit in Wahrheit das Alte ist.“248
Das Einzelne und der Einzelne verlieren angesichts ihrer statistischen Relevanz an Bedeutung. „Das Gesetz der großen Zahl, nicht die Einzelheit kehrt in der Formel wieder.“249 Individualität und Personalität des Menschen werden damit auch zu Opfern der Quantifizierung und Formalisierung instrumenteller Zweckrationalität. „Das von Zivilisation vollends erfasste Selbst löst sich auf in ein Element jener Unmenschlichkeit, der Zivilisation von Anbeginn zu entrinnen Ebd., S. 17f. Ebd., S. 34. 249 Ebd., S. 91. 247
248
272
3.2 Negativität und Moralität – Was sollen wir nicht tun?
trachtete. Die älteste Angst geht in Erfüllung, die vor dem Verlust des eignen Namens.“250 Die Reduktion des Menschen auf das Quantifizierbare bedeutet die Auslöschung jeder Individualität. In der Gleichsetzung der Personalität des Menschen mit den Daten, die aus seinem Gehirn gescannt werden können, zeigt sich die Härte, mit welcher im Transhumanismus sich die Grundzüge einer „solch rastlosen Selbstzerstörung der Aufklärung“251 artikulieren. Der Verlust der eigenen Individualität und des unhintergehbaren Selbstwertes jedes Menschen wäre das Resultat einer restlosen Aufklärung, welche als Angst vor dem Unbekannten begonnen hatte. Die Entzauberung der Natur aus Angst vor dem Unbekannten führt damit zur Selbstentfremdung des Menschen. Für Adorno und Horkheimer sind diese Tendenzen genuin im Wesen der Aufklärung angelegt. In der Angst vor dem Unbekannten artikuliert sich eine Radikalisierung menschlicher Angst, deren Genealogie bis zu den Mythen reicht. In der Aufklärung, welche sich die Entzauberung der Natur zum Ziel setzt, kulminiert diese mythische Angst des Menschen. „Der Furcht wähnt er ledig zu sein, wenn es nichts Unbekanntes mehr gibt. Das bestimmt die Bahn der Entmythologisierung, der Aufklärung, die das Lebendige mit dem Unlebendigen ineinssetzt wie der Mythos das Unlebendige mit dem Lebendigen. Aufklärung ist die radikal gewordene, mythische Angst.“252
Der Abschaffung der Individualität des Menschen folgt nach Adorno und Horkheimer die Verselbständigung der instrumentellen Zweckrationalität der Aufklärung, welche im Bild der Maschine ihren Ausdruck findet. Als Produkt des Menschen birgt sie das Potential, diesen zu ersetzen. Aufklärung als instrumentelle Zweckrationalität hätte damit eine Eigendynamik zum Ziel geführt, welche nurmehr dasjenige vom Menschen von ihm weiterträgt, was als Objektivierung, Quantifizierung und Formalisierung der Herrschaft der Ratio sich vollständig unterwirft. Der Mensch kann von der Maschine abgelöst werden. „Denken verdinglicht sich zu einem selbsttätig ablaufenden, automatischen Prozess der Maschine nacheinfernd, die er selber hervorbringt, damit sie ihn schließlich ersetzen kann.“253 Mit künstlicher Intelligenz braucht man nun nicht einmal mehr Menschen, um Menschen auszubeuten; die instrumentelle Zweckrationalität wäre derart verselbständigt, dass der Mensch von ihr vollkommen selbständig ausgebeutet werden könnte. Die instrumentelle Rationalität hätte mit Computertechnologien eine Inkarnationsform gefunden, die noch 252 253 250 251
Ebd., S. 37. Ebd., S. 1. Ebd., S. 22. Ebd., S. 31.
273
3 Negativität und philosophische Vernunftkritik
konsequenter den Herrschaftsgedanken der technischen Rationalität über die Natur des Menschen zur Umsetzung bringen könnte. Der Mythos der Unausweichlichkeit bricht sich in transhumanistischen Entwürfen Bahn in der Beschreibung der Gesetzmäßigkeit des technischen Fortschritts und im Fatalismus der unaufhaltsamen evolutionären Weiterentwicklung, der letztlich auch der Mensch selbst zum Opfer fallen wird, wenn er sich nicht selbst ersetzt durch eine Technologie, die ihn überwindet.
3.2.7.3 Kritik an Adorno und Horkheimer Wie am Anfang dieses Exkurses bereits erwähnt, folgen die Philosophischen Fragmente zur Dialektik der Aufklärung keiner systematischen Darstellung. Als fragmentarische Elemente bleiben sie daher angreifbar für Kritik, weil die Auswahl der zusammengestellten Autoren und Zitate aus verschiedenen Epochen und Kontexten erfolgt und ihre Zusammenstellung einer expliziten Begründung entbehrt. Die Stringenz ihrer Zusammenhänge muss erst noch begründet werden. Ihr Geltungsanspruch muss daher als nur essayistisch betrachtet werden. Als solcher ist die Zusammenstellung und innere Logik des Werkes freilich von einer bemerkenswerten Dichte für die Kürze des Textes. Für die Fragmente darf aber kein Anspruch erhoben werden, als systematische Kritik den darin zitierten Autoren und Epochen in einer differenzierten Weise Rechnung zu tragen.254 Die Auswahl, Darstellung und Bewertung der Fragmente ist stark gefärbt und oft einseitig. So ist beispielsweise der Vernunftbegriff bei verschiedenen Autoren vom Begriff des Verstandes als Zweckrationalität klar abgegrenzt, u. a. bei Immanuel Kant.255 Vernunft wäre dann genau das, was für Adorno und Horkheimer in der Tätigkeit der instrumentellen Rationalität der Aufklärung fehlte. Bei Kant ist das Bewusstsein um die Grenzen einer instrumentellen Rationalität, welche Adorno und Horkheimer als Denken der Aufklärung skizzieren, somit vorweggenommen. Kants Kritiken zeugen von einer Reflexion, die auch die Engführungen von Rationalität bereits in den Blick genommen hatte. Wenn Adorno und Horkheimer in der Dialektik der Aufklärung diese Aspekte von Kritik der instrumentellen Rationalität bei Kant ausblenden, um Kants Philosophie in die Geschichte der Aufklärung als Geschichte von Herrschaft und Entfremdung zu stellen,256 dann unterlaufen sie die philosophische Reflexionstiefe Kants. Auf Unstimmigkeiten in der begrifflichen Systematik und der argumentativen Darstellung in der Dialektik der Aufklärung weist auch Birgit Sandkaulen hin in ihrem Kommentar zum Begriff der Aufklärung, in: Hindrichs, Gunnar (Hg.): Klassiker Auslegen, Bd. 63: Max Horkheimer / Theodor W. Adorno – Dialektik der Aufklärung, Berlin / Boston 2017, S. 23–72, dort S. 51–58. 255 Vgl. Kant: Kritik der praktischen Vernunft, Stuttgart 1992, S. 116. 256 Vgl. Horkheimer und Adorno: Dialektik der Aufklärung, a. a. O., S. 88–92. 254
274
3.2 Negativität und Moralität – Was sollen wir nicht tun?
Auch die Werke Nietzsches erweisen sich keinesfalls als von einer solchen Stringenz aufklärerischer Zweckrationalität geprägt, wie dies in den Exkursen von Adorno und Horkheimer deutlich zu machen versucht wird. Nietzsches Werke sind von einem beständigen Ringen und Suchen um Lebensbejahung, Wagnis, Macht, Fortschritt, Zynismus, Sinnlichkeit, Nihilismus, Abkehr und Hinwendung zu Religiosität durchzogen. Die Komplexität der inneren Widersprüchlichkeiten im Werke Nietzsches ist dergestalt, dass eine einseitige Rezeption im Sinne von Adorno und Horkheimers unmöglich wird, welche seine Schriften in die Traditionslinie bloß instrumenteller Rationalität stellen wollen. Nichtsdestoweniger skizzieren Adorno und Horkheimer in ihrer Dialektik der Aufklärung in ihrer schillernden Zusammenstellung von Fragmenten und Exkursen eine innere Linie positivistischer Denktradition, welche sich in verschiedenen Epochen und Kontexten auf unterschiedliche Art artikuliert. Als Empirismus- und Positivismuskritik weisen Adorno und Horkheimer auf die Ziellosigkeit eines rein quantifizierenden und formalistischen Empirismus hin, für welchen nur das Messbare Gültigkeit und Wahrheitsanspruch besitzt. In der Abstraktion der Zahl wird jedes Phänomen zum Austauschbaren. Quantitativ-formalistische Reduktion der Wirklichkeit bedeutet Raub an der Fülle von Phänomenalität der Wirklichkeit. Diesen Zusammenhang hat Adorno später gründlich in seiner Negativen Dialektik herausgearbeitet. In der Identifikation eines Begriffs mit seinem Gegenstand fällt das, was in diesem Begriff nicht aufgeht, als das Nichtidentische heraus. Was in der Identifikation des Begriffs erfasst werden soll, wird damit dem Zugriff einer instrumentellen Zweckrationalität unterstellt und damit auf diejenigen Aspekte reduziert, welche für diese als relevant gesehen werden. Adorno und Horkheimer haben herausgearbeitet, dass in einem Denken, welches sich in einer instrumentellen Zweckrationalität erschöpft, die Dinge der Welt in ihrem Bezug zum Menschen unter dem Kriterium der Nützlichkeit, der Herrschaft und der Ausbeutung stehen. Was dieser Inanspruchnahme sich verwehrt, wird durch den Zugriff einer instrumentellen Zweckrationalität verdinglicht und für den Gebrauch handhabbar gemacht. Damit einher gehen Entfremdungsprozesse. Die Einseitigkeit des zweckgerichteten Denkens kann zu einer Entmündigung des Menschen führen. Die Arbeit von Adorno und Horkheimer unterstreicht die Notwendigkeit, Aspekte von Negativität zu systematisieren, um Sinnkonstitution zu begründen. Sie setzen gleichzeitig damit Entwürfen, welche auf einem positivistischen Reduktionismus der Wirklichkeit aufbauen, eine Grenze ihres Geltungsanspruchs, welcher von diesen erst eingeholt werden müsste, um nicht in eine „rastlose Selbstzerstörung der Aufklärung“ zu münden. Die Dialektik der Aufklärung bleibt damit ein wichtiger Beitrag für die philosophische Rezeption und Kritik von Empirismus und Positivismus. Als solcher ist ihre Relevanz für die vorliegende Arbeit nicht zu unterschätzen. Die Reduktion der menschlichen Personalität auf Aspekte der Quantifizierbarkeit und des funktionalistischen Formalismus birgt die Gefahr einer Verdinglichung der menschlichen Personalität, welche nicht nur zur Entfremdung des menschlichen 275
3 Negativität und philosophische Vernunftkritik
Selbst von seiner über ihn hinausgehenden Komplexität führt, sondern auch als Machtrelation alles Menschliche bedroht, was sich einer funktionalistischen Reduktion entziehen wollte. Wissen, das in einem solchen Sinne als Macht und Herrschaft über die Natur aufgefasst wird, führt mit einem totalen Anspruch im Sinne eines Universalismus auch in die Ausbeutung des Menschen und in Verdinglichungs- und Entfremdungsprozesse. Auch der wissenschaftliche Betrieb fällt unter instrumentelle Zugriffe, von denen das ursprüngliche Anliegen wissenschaftlicher Arbeit verdeckt werden kann. Horkheimer und Adorno sprechen in diesem Fall von „der selbstvergessenen Instrumentalisierung der Wissenschaft“257.
3.2.8 Michel Foucault: Wissen, Beobachtung und Macht In einem ähnlichen Sinn problematisiert auch Michel Foucault das Verhältnis von Wissen als Macht. Er untersucht dabei besonders die normativen Dynamiken von Wissensstrukturen und -institutionen als Kraft von Normierung und Machtausübung. Wissen ist mit Foucault nicht von Machtverhältnissen loszulösen, sondern immer mit diesen verbunden. Wissen kann durch seine normierende Wirkung zu Zwang, Freiheitsberaubung, Ausgrenzung, Entmündigung und Entfremdung führen. In besonderer Art und Weise stellt Foucault das Verhältnis von Beobachtung und Macht heraus. Er analysiert die historische Entstehung des „Panoptismus“ als des Versuchs einer lückenlosen Überwachung in einem Gefängnis in seinem Zusammenhang mit Disziplinarmaßnahmen und Machtausübung.258 Dabei erfährt die erste architektonische Konzeption des Panoptikum von Bentham, in welchem die Gefangenen von einem Turm aus dauerhaft beobachtet werden konnten, eine besondere Analyse. Die Gefangenen konnten ihrerseits nicht ihre Beobachter im Turm sehen und wussten daher nie, wann genau sie unter Beobachtung standen. Auch der unbemannte Turm zeigte dadurch bereits eine normierende Wirkung. Macht fußt dabei in der Möglichkeit des Gesehenwerdens: „Daraus ergibt sich die Hauptwirkung des Panopticon: die Schaffung eines bewussten und permanenten Sichtbarkeitszustandes beim Gefangenen, der das automatische Funktionieren der Macht sicherstellt. Die Wirkung der Überwachung ist permanent, auch wenn ihre Durchführung sporadisch ist‘; die Perfektion der Macht vermag ihre tatsächliche Ausübung überflüssig zu machen; der architektonische Apparat ist eine Maschine, die ein Machtverhältnis schaffen und aufrechterhalten kann, welches vom Machtausübenden unabhängig ist; die Häftlinge sind Gefangene einer Situation, die sie selber 257
Ebd., S. 2. Vgl. Foucault, Michel: Überwachen und Strafen. Die Geburt des Gefängnisses, in: Ders: Die Hauptwerke, Frankfurt am Main 2013, S. 701–1019, dort S. 900f.
258
276
3.2 Negativität und Moralität – Was sollen wir nicht tun?
stützen.“259 Foucaults Analysen dieser historischen Konstruktion kreisen um eine frühe Form automatisierter Überwachungsstrukturen: „Diese Anlage ist deshalb so bedeutend, weil sie die Macht automatisiert und entindividualisiert.“260 Macht, Beobachtbarkeit und Strafe werden losgelöst von einem interexistentiellen, sozialen Bezug von Mensch zu Mensch und durch eine mechanische Konstruktion ersetzt. „Eine wirkliche Unterwerfung geht mechanisch aus einer fiktiven Beziehung hervor, so dass man auf Gewaltmittel verzichten kann […]“261 Markus Jansen überträgt Foucaults Analysen zum Panoptikum auf Prozesse der Digitalisierung. „Das Panoptikum ist eine ökonomische Maschine; ermöglicht diese es doch, dass allein aufgrund der Internalisierung, der Verinnerlichung von Machtstrukturen, die Überwachten sich selbst abrichten und kontrollieren – dazu braucht es keine sichtbaren und körperlich anwesenden Überwacher mehr. Mit diesem Prinzip arbeiten die heutigen digitalen Überwachungsprojekte, die mit kleinsten Hochleistungskameras und Computern auskommen. […] Foucault hat Recht damit, dass die Machtstrukturen immer unkörperlicher und damit umso effektiver werden.“262 Die vollständige Beobachtbarkeit, die totale Transparenz des personalen Lebens aller Individuen ist erklärtes Ziel von Digitalkonzernen wie Google. Der ehemalige CEO von Google beschrieb offen: „Unsere Kommunikationstechnologie ist von Anfang an auf einen Eingriff in die Privatsphäre angelegt, indem sie zum Beispiel Bilder, Kommentare und Freunde in gigantischen Datenbanken sammelt, die das Auffinden von Informationen erleichtern.“263 Wenn Macht auf Beobachtbarkeit, Messbarkeit und Wissen gründet, dann können diese Ambitionen als Verlagerungen von Machtstrukturen gedeutet werden.
3.2.9 Von der Utopie zur Dystopie Utopien als Positivaussage über einen idealen Gesellschaftsentwurf und als Handlungsorientierung wurden mit dem zunehmenden kritischen Bewusstsein um die Fehlbarkeit menschlicher Orientierungen und Entwürfe immer stärker abgelöst von dystopischen Entwürfen.264 Vernunftkritisch kann diese Verschiebung in der Entwicklung der jüngeren Literaturgeschichte so gedeutet werden, dass in Dystopien Warnungen formuliert werden, von welchen 261 262
Ebd., S. 906f. Ebd., S. 907 Ebd., S. 908. Markus Jansen: Digitale Herrschaft. Über das Zeitalter der globalen Kontrolle und wie Transhumanismus und Synthetische Biologie das Leben neu definieren, Budapest 2015, S. 45. 263 Schmidt, Eric und Cohen, Jared: Die Vermessung der Welt. Ein Blick in unsere Zukunft, Reinbek bei Hamburg 2013, S. 61, zit. nach Jansen: Digitale Herrschaft, a. a. O., S. 46. 264 Vgl. Heller, Ágnes: Von der Utopie zur Dystopie. Was können wir uns wünschen?, Wien 2016, S. 54ff. 259
260
277
3 Negativität und philosophische Vernunftkritik
tendenziellen Entwicklungen die Freiheit in offenen Gesellschaften bedroht werden können. Der Begriff der Utopie leitet sich aus dem Griechischen ab von τόπος (Ort, Stelle, Gegend, Platz Raum) und der Vorsilbe ὀυ (nicht, nein).265 Die Vorsilbe ὀυ wird vor Substantiven nicht nur zur Verneinung genutzt, sondern auch, um diese in die entgegengesetzte Bedeutung zu verwandeln. Die Vorsilbe δυσ- bezeichnet grundsätzlich etwas „Unglückliches, Widriges“.266 Utopien könnten mit diesem Rückgriff auf die etymologischen Wurzeln des Begriffs gedeutet werden als Entwürfe, die gerade nicht programmatisch realisiert werden sollen, sondern als NichtRäumliches im Bereich der Ideen wurzeln, während Dystopien gerade durch die Möglichkeit ihrer programmatischen Realisierung als Bedrohung gedeutet werden sollen. Die kritischen Potentiale von Dystopien zielen auf Tendenzen gesellschaftlicher Entwicklung, die in einer literarischen Zuspitzung problematisiert werden. Dystopische Entwürfe thematisieren auch Prozesse technologischer Transformation insbesondere im Bereich des Digitalen. Sie können mit ihren vernunftkritischen Potentialen auch für ethische Fragestellungen zur künstlichen Intelligenz und zu transhumanistischen Entwürfen fruchtbar gemacht werden. Damit leisten sie einen Beitrag für eine gesellschaftsphilosophische Perspektive auf technologische Transformationsprozesse. An dieser Stelle sollen exemplarisch drei dystopische Entwürfe in die Diskussion eingebracht werden, in denen vernunftkritische Potentiale formuliert werden, die in direkten Zusammenhang zu künstlicher Intelligenz und transhumanistischen Utopien gebracht werden können: Schöne neue Welt von Aldous Huxley, 1984 von George Orwell und The Circle von Dave Eggers.
3.2.9.1 Aldous Huxley: Die optimierte Gesellschaft Aldous Huxleys Schöne neue Welt267 skizziert eine technologisch verwaltete optimierte Welt. Die menschliche Gesellschaft ist darin unter hedonistisch-funktionalen Bestimmungen technologisch optimiert. Die „zivilisierte“ Welt, die Huxley skizziert, hat sich dergestalt optimiert, dass Menschen in Reagenzgläsern kultiviert und bereits in Aufzucht und Erziehung sozial prädestiniert für den für sie vorgesehenen Platz in der Gesellschaft werden. Familien und natürliche Geburten gibt es nicht mehr.268 Das Glück der Menschen ist garantiert durch sexuelle Freiheit und die
Vgl. Gemoll, Wilhelm: Griechisch-Deutsches Schul- und Handwörterbuch, 9. Auflage, Wien 1997, S. 556 und S. 744. 266 Ebd., S. 228. 267 Huxley, Aldous: Schöne neue Welt, Leipzig 1988. 268 Ebd., S. 8f, S. 125. 265
278
3.2 Negativität und Moralität – Was sollen wir nicht tun?
Glücksdroge „Soma“, die ohne schlimme Nebenwirkungen ist.269 Das Grundanliegen der Verwalter dieser optimierten Gesellschaft ist Stabilität: „Keine Zivilisation ohne soziale Stabilität. Keine soziale Stabilität ohne individuelle Stabilität.“270 Nur so kann die Funktionalität des Apparats garantiert werden, in dem alle optimal versorgt sind: „Räder müssen sich stetig drehen, aber sie können sich nicht unbeaufsichtigt drehen. Man braucht Menschen, die sie beaufsichtigen, Menschen, die so stetig sind wie die Räder auf ihren Achsen, gesunde Menschen, gehorsame Menschen, stabil in ihrer Zufriedenheit. Wenn sie schreien: Mein Kleines, meine Mutter, mein einziges Herz; wenn sie stöhnen: Meine Sünde, mein furchtbarer Gott; wenn sie kreischen vor Schmerz, im Fieber murmeln, Alter und Armut beklagen – wie können sie die Räder beaufsichtigen?“271
Im Roman gibt es noch ein Indianerreservat, in dem das „unzivilisierte“ Leben geduldet wird. Durch einen Ausflug in das Reservat lernen einige zivilisierte Menschen einen „Wilden“ kennen. In den Gesprächen beschreibt Huxley das Spannungsfeld zwischen der wilden und zivilisierten Gesellschaft: „‚Mein lieber junger Freund‘, sagte Mustapha Mond, ‚die Zivilisation hat Edelmut oder Heldentum überhaupt nicht nötig. Diese Dinge sind Symptome politischer Untüchtigkeit. In einer ordentlich verwalteten Gesellschaft wie der unseren hat keiner Gelegenheit, edel oder heldenhaft zu sein. Die Umstände müssen schon außerordentlich unstabil sein, bevor diese Möglichkeit auftreten kann. Wo es Kriege gibt, wo es geteilte Loyalitäten gibt, wo es Versuchungen gibt, denen man widerstehen muss, Dinge, die man liebt, die erkämpft und verteidigt werden müssen – da haben Edelmut und Heldentum schon einen gewissen Sinn. Aber es gibt heutzutage keine Kriege. Es wird alles getan, um zu verhindern, dass man einen Menschen zu sehr liebt. Es gibt keine geteilte Loyalität, man ist so konditioniert, dass man gar nicht anders kann, als das zu tun, was man tun soll. Und was man tun soll, ist im großen und ganzen so angenehm, erlaubt so vielen der natürlichen Impulse freies Spiel, dass es wirklich keine Versuchungen gibt, denen man widerstehen müsste. Und wenn doch durch irgendeinen unglücklichen Zufall einmal etwas Unangenehmes eintreten sollte, nun, dann ist immer Soma da, um den Leuten Urlaub von den Tatsachen zu geben. Und es ist auch immer Soma da, um allen Ärger zu besänftigen, um die Leute mit ihren Feinden zu versöhnen, um sie geduldig und gegen Ebd., S. 130f. Ebd., S. 37. 271 Ebd. 269 270
279
3 Negativität und philosophische Vernunftkritik Leid widerstandsfähig zu machen. In der Vergangenheit konnte man all das nur durch große Anstrengungen und nach Jahren harten moralischen Trainings erreichen. Heute schluckt man zwei, drei Halbgrammtabletten, und alles ist in Ordnung. Heute kann jeder tugendhaft sein. Man kann mindestens die Hälfte der Moral in einem Röhrchen mit sich herumtragen. Christentum ohne Tränen – das ist Soma.‘“272
Der Wilde entgegnet: „‚Aber die Tränen sind notwendig. […] Ich kenne eine Geschichte, die uns ein alter Indianer immer erzählt hat, über das Mädchen von Matsaki. Die Jünglinge, die sie heiraten wollten, mussten einen Morgen lang in ihrem Garten hacken. Das schien leicht, aber da waren Fliegen und Mücken, die verzaubert waren. Die meisten Jünglinge hielten das Beißen und Stechen nicht aus. Aber der eine, der es aushielt – der bekam das Mädchen.‘ ‚Reizend! Aber in zivilisierten Ländern‘, sagte der Überwacher, ‚kann man Mädchen haben, ohne um sie zu hacken. und es gibt keine Fliegen oder Mücken, die einen stechen. Die haben wir alle schon vor Jahrhunderten abgeschafft.‘ Der Wilde nickte mit gerunzelter Stirn. ‚Sie haben sie abgeschafft.‘ ‚Ja, das sieht Ihnen ähnlich. Alles Unangenehme schaffen Sie ab, anstatt zu lernen, damit zu leben.‘“273
Huxley skizziert in seiner Dystopie der optimierten Zivilisation die Verluste, die mit einer systematischen Abschaffung von Leid, Ärger, Schmerz und jeglichem negativen Gefühl verbunden wären. An die Stelle der existentiellen Empfindungen treten Medikamente, für die der Aufseher wirbt: „Superleidenschaftssurrogat. Regelmäßig einmal im Monat. Wir überschwemmen den gesamten Körper mit Adrenalin. Es ist das vollständige physiologische Äquivalent für Angst und Wut. Die gleichen anregenden Wirkungen, die ein Mord an Desdemona oder eine Ermordung durch Othello hervorrufen würden und nicht eine einzige der Unannehmlichkeiten. ‚Aber ich liebe Unannehmlichkeiten.‘ ‚Wir nicht‘, sagte der Überwacher. ‚Wir tun lieber alles auf bequeme Weise.‘ ‚Aber ich will keine Bequemlichkeit. Ich will Gott, ich will Poesie, ich will wirkliche Gefahr, ich will Freiheit, ich will Güte. Ich will Sünde.‘ Ebd., S. 201. Ebd., S. 201f.
272 273
280
3.2 Negativität und Moralität – Was sollen wir nicht tun? ‚Das heißt‘, sagte Mustapha Mond, ‚Sie nehmen das Recht für sich in Anspruch, unglücklich zu sein.‘ ‚Ja‘, sagte der Wilde herausfordernd, ‚ich nehme das Recht für mich in Anspruch, unglücklich zu sein.‘ ‚Ganz zu schweigen von dem Recht, alt zu werden und hässlich und impotent, dem Recht, Syphilis und Krebs zu bekommen, dem Recht, zuwenig zu essen zu haben, dem Recht, verdreckt zu sein, dem Recht, in ständiger Furcht vor dem morgigen Tag zu leben, dem Recht, sich Typhus zu holen, dem Recht, von unaussprechlichen Schmerzen aller Art gefoltert zu werden.‘ Es entstand eine lange Pause. ‚Ich nehme das alles für mich in Anspruch.‘ Mustapha Mond zuckte die Schultern: ‚Bitte sehr‘, sagte er.“274
Im Sinne Utilitarismus- und Technologiekritik kann der dystopische Entwurf als Kritik am Imperativ der Optimierung gedeutet werden. Ein solcher wird dadurch ziellos, dass Möglichkeiten und Fragen existentieller Sinnorientierung ausgelagert werden. Wenn sich Sinn in dosiert zugeteilter Lust erschöpft, wird die Existenz des Menschen auf eine Leere bloßer Funktionalität reduziert. Die Stabilität des optimierten Systems gründet sich dabei auf ein utilitaristisches Leistungsprinzip, welches auch als Antwort auf Sinnfragen gegeben wird. Der Entwurf schildert die zunehmende Entfremdung des Menschen von einem natürlichen, naiven Weltumgang insbesondere in Bezug auf existentiell leibliche und soziale Lebensvollzüge. Huxley spitzt damit das Spannungsfeld zu zwischen einem Imperativ zur Optimierung des Menschen und der sinnkonstitutiven Bedeutung von Negativität in der menschlichen Existenz. Er weist die zwanghaft optimierte Gesellschaft als totalitäre Diktatur aus. Das Ende der Negativität ist auch das Ende der Freiheit: „Die ganze Gesellschaftsordnung käme ins Wanken, wenn die Menschen auf einmal anfingen, selbständig zu handeln.“275 Existentielle Freiheit und totale Optimierung sind unvereinbar.
3.2.9.2 George Orwell: Überwachung und Totalitarismus George Orwell stellt in seinem Roman 1984 einen totalitären Überwachungsstaat im englischsozialistischen Ozeanien dar, in welchem auch die alltägliche Welt vollständig überwacht
Ebd., S. 203. Ebd., S. 200.
274
275
281
3 Negativität und philosophische Vernunftkritik
wird.276 Die staatliche Kontrolle umfasst auch die Kontrolle von Sprache und die Bedeutung von Wörtern. Um kritisches Denken zu verhindern, wurde vom „Ministerium für Wahrheit“ eine neue Sprache entwickelt, in welcher Kritik gar nicht mehr formuliert werden konnte.277 Auch Wissenschaft und Geschichtsschreibung folgen dem Diktat staatlicher Vorgaben. Der Freiheitsverlust durch einen solchen Totalitarismus gründet dabei in der vollständigen Kontrolle und Überwachung des öffentlichen wie privaten Lebens. Auf Orwell geht der berühmte Satz zurück: „Big Brother is Watching You“.278 Orwell hat den Roman bereits 1948 geschrieben und skizziert darin als erster ein Szenario vollständiger Überwachung der Gesellschaft und der individuellen Lebenswelt durch den Staat. Er stellte damit das Verhältnis von Beobachtbarkeit und Macht heraus. Wachsende technische Möglichkeiten bedeuten auch wachsende Möglichkeiten zur Entwicklung eines totalitären Systems, in welchem die Freiheiten des Einzelnen keinen Raum mehr haben. Orwell arbeitet damit indirekt heraus, dass die Verborgenheit des privaten Lebens und die Freiheit von Sprache unhintergehbar zur Grundbedingung freiheitlicher Gesellschaften gehören. Dies kann gerade angesichts des von Foucault herausgestellten Zusammenhangs zwischen Beobachtbarkeit und Machtausübung neu für eine vernunftkritische Gesellschaftsphilosophie erschlossen werden.
3.2.9.3 Dave Eggers: Digitale Transparenz und das Ende der Privatsphäre Orwells Entwurf skizziert ein totalitäres staatliches System. Dave Eggers überträgt das Motiv der vollständigen Transparenz in den Kontext von globalisierten Digitalkonzernen in seinem Roman The Circle.279 Der Digitalkonzern „The Circle“ hat es geschafft, ein Marktmonopol in der digitalen Welt zu erringen. Personales Handeln im Internet ist dabei nur noch unter einem einzigen, verifizierten Account möglich. Die Vernetzung und Auswertung aller Daten, die auf wahre Personen zurückgeführt werden können, ermöglichen immer neue Weiterentwicklungen und Anwendungen wie eine Dating-App, bei welcher man bereits vorher herausfinden kann, was das Gegenüber mag oder nicht mag, welche Allergien die Person hat, welche Vorlieben und Hobbies, welche politische Einstellung.280 Die Zusammenführung und Auswertung Orwell, George: 1984, Berlin 2006. Ebd., S. 10 und S. 372. 278 Ebd., S. 8. 279 Eggers, Dave: The Circle, New York 2014. 280 Ebd., S. 122f. 276
277
282
3.2 Negativität und Moralität – Was sollen wir nicht tun?
aller personenbezogenen Daten ermöglicht eine immer bessere quantifizierte Einschätzung und Beschreibung einer Person. Dave Eggers überträgt die dystopischen Motive von Huxley und Orwell – einer optimierten und transparenten Gesellschaft – auf gegenwärtige Entwicklungen im Bereich der digitalen Technologien und ihren wachsenden Bedeutungen für die menschliche Lebenswelt. Das Grundmotiv des Circle ist die Optimierung, die Verbesserung der Gesellschaft. Alles wird mit Punktzahlen messbar gemacht und optimiert. Die Protagonistin Mae Holland ist während des gesamten Romans davon überzeugt, dass die gesellschaftliche Transformation, die sie vorantreibt, die Welt und die Gesellschaft besser machen wird. Zur Optimierung der Gesellschaft unter der Maßgabe der Bekämpfung von Kriminalität wird die Sichtbarmachung allen Geschehens zur Maßgabe des Konzerns: „All that happens must be known.“281 Unter der Zielstellung der Verbrechensbekämpfung erfolgt eine zunehmende Kriminalisierung des Privaten. Um Kindesmissbrauch und -entführungen zu verhindern, wird ChildTrack, ein Ortungschip für Kinder entwickelt. Später werden in diesem Chip alle Daten des Kindes gespeichert und zusammengeführt. Auch schulische Leistungen u. ä. werden in einer Punktzahl skalierbar gemacht und in dem Chip gespeichert. Alle Bereiche des menschlichen Lebens werden zunehmend durch Transparenz, Quantifizierung, Vernetzung und Optimierung transformiert. Die digitale Welt ermöglicht die Erschaffung eines künstlichen Raums von absoluter Transparenz. Was im Verborgenen geschieht, gilt als verdächtigt. Privatsphäre wird kriminalisiert. Das Unternehmen fasst seine Leitphilosophie schließlich in drei Sätzen zusammen: „secrets are lies – sharing is caring – privacy is theft“.282 Das Projekt zur moralischen Optimierung der Gesellschaft soll also durch die Schaffung einer vollständigen Transparenz realisiert werden. Unter dem Vorsatz der Demokratisierung und Bekämpfung von Diktaturen forciert das Unternehmen, dass überall in der Welt kleine, leistungsstarke Kameras installiert werden.283 Dieses Projekt, SeeChange genannt, drückt die Grundphilosophie des Unternehmens aus: Beobachtbarkeit und Transparenz bringen Veränderung. Ihre Annahme ist, dass das Böse nur darin Bestand hat, dass man es unbeobachtet tun kann. Diktaturen unterdrücken ihre Untergebenen nicht, wenn sie dabei gefilmt werden. Menschen begehen keinen Diebstahl, wenn sie dabei beobachtet werden und dafür zur Rechenschaft gezogen werden können. Durch die immer weiterreichende Ausweitung der Kameraüberwachung, verbunden mit der Vernetzung und Auswertung all dieser Daten mithilfe von künstlicher Intelligenz zur automatisierten Gesichtserkennung, wird auch ein Programm entwickelt, womit bisher nicht gefasste, geflohene Ebd., S. 68. Ebd., S. 305. 283 Ebd., S. 66ff. 281
282
283
3 Negativität und philosophische Vernunftkritik
oder untergetauchte Kriminelle aufgefunden werden können: SoulSearch.284 Um das Programm zu demonstrieren, nutzt die Protagonistin SoulSearch auch, um ihren alten Freund Mercer wiederzufinden, der sich der zunehmenden Digitalisierung persönlich entziehen will und recht abgeschieden lebt. Durch die vernetzte Auswertung aller verfügbaren Daten wird er dennoch in seiner Blockhütte recht bald ausfindig gemacht. Mercer will fliehen, wird aber von Drohnen mit Kameras und Lautsprechern auf seiner Flucht umstellt, die auf ihn einsprechen: „You can’t escape, Mercer! […] Never, ever, ever. It’s over. Now give up. Be our friend!“285 Mercer durchbricht die Unausweichlichkeit der sozialen Vernetzung, indem er sich für einen Selbstmord entscheidet und mit dem Auto von einer Brücke stürzt. Der Tod wird der letzte Fluchtpunkt vor der totalitären digitalen Welt. Eggers arbeitet in seinem Roman die sukzessive Verlagerung des verborgenen Lebens in das Reich des Digitalen heraus und die damit einhergehende Transformation der lebensweltlichen Umgangsweisen, die immer stärker von schnellen, funktionalen, verkürzten und verdinglichten Rationalitätskriterien geprägt werden. Auch partnerschaftlicher Sex wird im Anschluss mit Punktzahlen bewertet, damit er optimiert werden kann.286 Damit verbunden ist eine Verlagerung von Macht als Möglichkeit zur Einflussnahme hin zu denjenigen, welche die alles Lebensweltliche durchziehende Technologie verwalten. Auch politische Mandatsträger geraten zunehmend unter Druck, ihre Besprechungen und Handlungen unter die Prämisse der Transparenz zu stellen. Die digital-vernetzende Transformation der politischen Strukturen kulminiert in direkten Volksabstimmungen, die über das Portal des Circle abgegeben werden können.287 Indem soziales Leben und gesellschaftliche Diskurse unter die Bestimmung totaler Transparenz mittels digitaler Technologien gestellt werden, fallen sie auch in den Bereich der Kontrolle durch den Digitalkonzern, welcher mit der Lenkung des Informationsflusses eine immer stärker zunehmende Macht erhält. Im Gegensatz zu den Romanen von Huxley und Orwell skizziert Eggers seinen dystopischen Entwurf nicht als Bedrohung der Freiheit durch eine staatliche Überregulation, sondern durch die totale Transparenz jeglicher lebensweltlichen Praxis und den Zugriff auf die entsprechenden Daten durch Digitalkonzerne.288 Nicht mehr der Staat ist die Bedrohung der Freiheit, sondern die vollständige Digitalisierung der menschlichen Lebenswelt kombiniert
286 287 288 284 285
Ebd., S. 449. Ebd., S. 465. Ebd., S. 385. Ebd., S. 406. Vgl. auch Stefan Aust und Thomas Amman: Digitale Diktatur. Totalüberwachung, Datenmissbrauch, Cyberkrieg, Berlin 2014, S. 173ff.
284
3.2 Negativität und Moralität – Was sollen wir nicht tun?
mit der Monopolisierung von Informationsflüssen durch globale Digitalunternehmen, deren Weiterentwicklung von den Menschen freiwillig vorangetrieben wird. Der Roman endet mit einer Szene, in der Mae Holland vor ihrer besten Freundin Annie sitzt, die im Koma liegt. Es wird ihr unerträglich, nicht zu wissen, was in ihr vorgeht. Die Entzogenheit der Gedankenwelt ihrer Freundin wird ihr, deren Vorhaben die Quantifizierung und Verfügbarmachung alles Bestehenden ist, unerträglich.289 Auch die Ebene der Gedankenwelt kann gegenüber dem Vorsatz einer totalen Quantifizierung und Transparenz der Welt nicht als Ebene von Unverfügbarkeit zugestanden werden.
3.2.9.4 Ethische Implikationen der Dystopie-Rezeptionen Ágnes Heller deutet im Wandel vom Genre der Utopie zur Dystopie einen normativen Appell: „Dystopische Romane des 20. und 21. Jahrhunderts sind Warnungen. Sie können ein sehr menschliches Bedürfnis nicht befriedigen: Glück durch Freiheit, Frieden durch Konflikte.“290 Ihre Funktion besteht darin, das Geschilderte zu verhindern: „Wenn dystopische Romane uns sagen: Du wirst dich unterwerfen, können wir antworten: Das werden wir nicht tun.“291 In den hier vorgestellten dystopischen Entwürfen wird einerseits eine Kritik am Imperativ der Optimierung, andererseits eine Kritik am Projekt der vollständigen Quantifizierung der lebensweltlichen Praxis formuliert. Beides unterläuft die existentielle Freiheit des Menschen und wird als Bedrohung einer freien Gesellschaft dargestellt. Der Imperativ zur Optimierung, wie er in den Gesellschaftsentwürfen von Huxley und Eggers sich verwirklicht, ist eine geglättete, stabile Welt, in welcher alle Ebenen von Negativität abgeschafft werden sollen. Es soll bei Huxley keine Ebene von Krankheit, Leid, Schmerz, Wut oder Ärger geben. In Eggers Entwurf wird auch die Ebene der Unwissenheit noch abgeschafft, indem alles Wissen für alle Menschen transparent gemacht wird. Alles, was unter dem Imperativ der Optimierung steht, wird letztlich unter funktionale Bestimmungen gestellt. Die Fragilität des Menschen verliert damit ihren Raum. Negativität wird in diesen Gesellschaften nicht als sinnkonstitutive Bedingung des Lebens gedeutet, sondern radikal eliminiert. Damit einher geht das Ende der Freiheit des Menschen und eine Entfremdung von seiner leiblichen, familiären und sozialen Praxis. Die optimierte Gesellschaft erweist sich als totalitäres System. „It was exasperating, really, Mae thought, not knowing. It was an affront, a deprivation, to herself and to the world. […] They needed to talk about Annie, the thoughts she was thinking. Why shouldn’t they know them? The world deserved nothing less and would not wait.“ (Eggers, Dave: The Circle, a. a. O., S. 497.) 290 Ágnes Heller: Von der Utopie zur Dystopie. Was können wir uns wünschen?, Wien 2016, S. 92. 291 Ebd., S. 93. 289
285
3 Negativität und philosophische Vernunftkritik
Die Beobachtbarkeit der lebensweltlichen Praxis stellt Orwell in den Zusammenhang mit einem uneingeschränkten Herrschaftsanspruch. Vollständige Transparenz bedeutet daher auch absolute Kontrolle. Auch darin wurzelt eine Bedrohung für die menschliche Freiheit. Eggers beleuchtet das Projekt der vollständigen Quantifizierung der Welt und der menschlichen Lebenspraxis ebenso wie die Schaffung einer vollständig transparenten Welt unter der Perspektive des Machtmissbrauchs durch diejenigen, welche die Informationsflüsse lenken können. Eine solche Gesellschaft könnte, obzwar sich ihre Individuen als frei definieren, jederzeit ins Totalitäre kippen. Auch ohne den Machtmissbrauch zeichnet Eggers Dynamiken von Entfremdung und Unterlaufen sinnkonstitutiver Negativitätsstrukturen nach. Das Projekt der vollständigen Quantifizierung von Welt und Mensch wird damit normativ problematisiert. Transhumanistische Entwürfe gründen mit ihrem Geltungsanspruch genau in diesen beiden Ebenen. Sie beanspruchen die vollständige Quantifizierung von Welt und Mensch für eine instrumentelle Verfügbarmachung und deren technologische Optimierung. Beides ist ethisch problematisch und kann unter einer gesellschaftsphilosophischen Perspektive als Bedrohung der existentiellen Freiheit menschlicher Handlungspraxis gedeutet werden.
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen? Die normative Untersuchung zu Dystopien und Utopien als „Nicht-Orten“ berührt bereits Kants Frage nach den Grenzen der Hoffnung. Eine Aussparung der dritten Frage Kants in dieser Arbeit wäre angesichts des Anspruchs transhumanistischer Entwürfe, mithilfe von Technologie in die Ebene transzendenter Sinnstiftung zu gelangen, unangemessen. Transhumanistische Autoren rekurrieren bewusst auf eine religiöse Sprache. Für eine systematische Kritik müssen daher auch religionsphilosophische Einsichten rekonstruiert werden, die sich aus der Perspektive der philosophischen Vernunftkritik erschließen. Eine Tabuisierung des Fragens nach Gott und Religion, die Ausklammerung der Gottesfrage aus der vernunftkritischen Reflexion und die Verlagerung in den Bereich „eines privaten Irrationalismus und Subjektivismus“292 genügt dem Anspruch philosophischer Vernunftkritik nicht. Die Bedeutung religiöser Traditionen ist für die Genese abendländischer Philosophie von unhintergehbarer Bedeutung, weshalb Kant ihnen auch eine eigene Dimension menschlichen Fragens widmet. Gerade im Blick auf die neoreligiöse Überformung technologischer Entwürfe im Transhumanismus kommt die Arbeit an einer hermeneutischen Einbeziehung religiöser Sinntraditionen und an Rentsch, Thomas: Gott, Berlin 2005, S. 20.
292
286
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
einer reflexiven Auseinandersetzung mit diesen Traditionen nicht vorbei, ohne ihren eigenen Anspruch aufzugeben. Die philosophische Tradition der europäischen Geistesgeschichte knüpft seit Thales von Milet an religiöse Fragestellungen an: „Alles ist voll von Göttern.“293 Die Geschichte der Philosophie rekurriert in allen Epochen auf religiöse Deutungen der Welt und geht gleichzeitig auf Distanz zu ihnen, indem sie den Geltungsanspruch religiöser Rede nicht als unhinterfragbar annimmt. Wenn Sokrates die polytheistische Tradition seiner Zeit mit dem Argument hinterfragt, dass Geschichten von lügenden Göttern ein schlechtes Vorbild für die Jugend sind, dann unterläuft er aus einer philosophischen Perspektive den Geltungsanspruch religiöser Rede, die ihren affirmativen Gehalt daraus ableitet, dass es sich aufgrund der Überlieferung nun einmal so verhalte.294 Dennoch knüpft Sokrates an Elemente der religiösen Praxis seiner Zeit an, wenn er in seinen letzten Worten seine Freunde bittet, dem Asklepios einen Hahn zu opfern.295 Die europäische Philosophiegeschichte ist ohne Reflexion auf den Einfluss religiöser Sinnorientierung nicht einholbar. Selbst die Herausbildung eines philosophischen Atheismus knüpft als Negation noch an religiöse Selbstverständnisse an, was sich beispielsweise im Ringen Nietzsches mit seinen religiösen Wurzeln nachzeichnen lässt.296 Die These der vorliegenden Arbeit ist, dass auch das Selbstverständnis transhumanistischer Utopien noch auf Relikte religiöser Sinnorientierungen rekurriert, ohne dieses Verhältnis jedoch systematisch zu reflektieren.
3.3.1 Transhumanismus als technologische Neoreligiosität Im Kapitel 2.3 wurden religiöse Motive in transhumanistischen Entwürfen von Moravec und Kurzweil bereits dargestellt. Diese religiösen Elemente des Transhumanismus können als Programm zur Verdinglichung von Transzendenz rekonstruiert werden. Indem der Mensch unter funktionale Bestimmungen und Werturteile gestellt wird, erweist sich jede Dysfunktionalität als Mangel, der technisch behoben werden muss. Negativität wird nicht als sinnkonstitutiv für den Menschen, sondern als vorläufig bestimmt – jede Negativität kann und muss überwunden werden, wenn die technischen Möglichkeiten dazu bestehen. Wert und Bestimmung des menschlichen Lebens werden damit unter einen Imperativ der totalen Optimierung gestellt. Kompromisslos einem solchen Programm des Enhancement folgend, erweist sich organisches Leben als grundlegend defizitär gegenüber der reinen Funktionalität technischer Thales, zit. nach Mansfeld und Primavesi (Hg.): Die Vorsokratiker, a. a. O., S. 49. Vgl. Platon: Des Sokrates Verteidigung (Apologie), 23c–e. 295 Platon: Phaidon, 118a. 296 Vgl. z. B. Nietzsche: Also sprach Zarathustra, a. a. O., S. 490–497 („Der Zauberer“). 293
294
287
3 Negativität und philosophische Vernunftkritik
Konstruktionen. Die Optimierung des Menschen führt daher zu seiner Überwindung im Sinne einer Verabschiedung vom biologischen Leben. Die Erlösung von den defizitären Strukturen des Menschen ist damit eine Verheißung transhumanistischer Entwürfe. Sie umfasst die Überwindung von Krankheit, Alterungsprozessen und Sterblichkeit. Indem die biologisch-leiblichen Grenzen der menschlichen Konstitution als vorläufige, überwindbare Bestimmungen des Menschen gedeutet werden, zielen transhumanistische Programme auf eine Überschreitung der leiblichen Grenzen für den menschlichen Geist. Sie knüpfen damit an die Vorstellung einer cartesisch-dualistischen und platonischen Seelensubstanz an, wenn die Übertragbarkeit der personalen Identität des Menschen von seinem biologischen Leib in ein technologisches Programm postuliert wird. Mit der Überschreitung des biologischen Leibs wird damit auch die religiöse Konnotation der Unsterblichkeit, eines unbegrenzten Lebens und ein Zugriff auf eine Existenz in einer Dimension von Unvergänglichkeit suggeriert. Die vollständige Vermessung und Quantifizierung der Welt, die mit der Übertragung von Wirklichkeit in eine formallogisch-mathematische Sprache des Digitalen verbunden ist, trägt mit ihrem Anspruch des Totalen das Zeichen eines Versuchs, die Allwissenheit eines absolut objektiven Beobachterstandpunktes zu rekonstruieren. Das Auge eines alles sehenden Gottes findet seine technologische Entsprechung in einer Superintelligenz, welche sich immer weiter ausspannt, um alle weltweit relevanten Daten zu messen, zu verarbeiten und auszuwerten. Unter der Prämisse einer mechanistischen Welt wird ein solcher Entwurf zu einem Programm der Berechenbarkeit der Welt. Als instrumentelles Wissen zur technischen Handhabbarkeit und Problemlösungsfindung stellt sich ein solcher Allwissenheitsanspruch dann in die Nähe eines Allmachtsanspruchs. Als Postulat einer technischen Einlösung von Transzendenz in einer religiösen Bestimmung von Hoffnung erweist sich die transhumanistische Form der Anknüpfung an religiöse Sinntraditionen jedoch als irreführend und verfehlt. Indem Transzendenz verdinglicht wird, verliert sie ihr sinnkonstitutives Potential für die menschliche Lebenspraxis und Sinnorientierung. So schlägt mit der Quantifizierung des Wissensbegriffs die Offenheit menschlichen Wissens und Fragens um in einen Herrschaftsanspruch über die Natur. Die damit korrelierende Instrumentalisierbarkeit von Welt und Mensch unterläuft die moralphilosophischen Grundbestimmungen der Unverfügbarkeit und Würde des Menschen und der Autonomie und Offenheit zwischenmenschlicher Praxis. Allwissenheit und Allmacht stehen damit unter den Bedingungen einer aufklärerischen Programmatik, dergegenüber sich Universum und Mensch beugen müssen. Ein Sinnhorizont, der sich nicht quantifizieren lässt und demgegenüber der Mensch sich fragend öffnen könnte, zeigt sich dabei nicht. Allwissend und allmächtig werden sollen der Mensch und die Technik; letztlich auch die Technik ohne den Menschen. Wenn mit der Schaffung einer Superintelligenz als alles berechnender Supercomputer die Rolle Gottes simuliert 288
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
werden soll, dann unterläuft ein solch instrumenteller Herrschaftsanspruch die Autonomie des Menschen als Antwort auf die existentielle Offenheit jeder Sinnorientierung. Wenn die Quantifizierung der Totalität des personalen Lebens in einer postbiologischen Unsterblichkeit münden soll, so ist damit die Individualität und Unhintergehbarkeit der Würde jedes einzelnen Lebens aufgrund seiner Fragilität und Einzigartigkeit aufgegeben, weil die Personalidentität des Menschen unter quantitative und replizierbare Bestimmungen gestellt wird. In den Bezügen zu Begriffen aus religiösen Sinntraditionen erweisen sich technologische Entwürfe im Transhumanismus damit als problematisch, weil sie das Wesen von Transzendenz in seiner Bedeutung für die menschliche Sinnorientierung verfehlen. Als ψεῦδος297 fällt eine solche Verdinglichung von Transzendenz unter die Bestimmungen einer jeden Religionskritik, welche die Instrumentalisierung des Unverfügbaren und die Verdinglichung des Transzendenten als Entfremdung vom Kern religiösen Sinns brandmarkt.
3.3.2 Transzendenz in Mythologie, Religion und Philosophie Religiöses und philosophisches Denken sind einander letztlich inkommensurabel. Eine Philosophie der Musik kann das Wesen der Musik nicht greifen, ist selbst weder Musik noch Musiktheorie, sondern bezieht sich als Philosophie mit ihrer Tradition und Methodik als eine fremde Perspektive auf die Musik, um aus dieser Fremdperspektive heraus sprachliche Angebote für eine Deutung von Musik zu erschließen. Ebenso verhält es sich mit einer Philosophie der Technik – sie ist selbst keine Technik, sondern bietet aus einer externen Perspektive Deutungen von Technik an. Auch eine religionsphilosophische Perspektive wird nicht aus einer religiösen Logik selbst entwickelt, sondern bezieht eine externe Perspektive auf Religion. Als hermeneutische Vermittlung von einer religiösen Sprache in die Systematik einer philosophischen Vernunftkritik erhebt sie nicht den Anspruch, damit etwa den Kern religiöser Praxis handhabbar machen zu können. Zurückzuweisen ist demnach ein Anspruch, durch die Explikation eines „rationalen Kerns“ religiöser Traditionen diese vollständig zu erfassen. Dennoch können durch hermeneutische Arbeiten Parallelen aufgezeigt werden, wo in philosophischen Systematiken ebenso wie in religiösen Traditionen um sprachliche Zugänge zu Aspekten von Transzendenz gerungen wird. Eine differenzierte Analyse religiöser Selbstverständnisse ist an dieser Stelle nicht möglich. Religiöse Bekenntnisse und Bewegungen sind keine homogenen, starren gedanklichen Gebilde, die leicht zur Grundlage einer normativen Beurteilung werden könnten. Jeder einzelne Griechisch „pseudos“: Lüge, Unwahrheit, Täuschung, vgl. Gemoll, Wilhelm: Griechisch-Deutsches Schul- und Handwörterbuch, a. a. O., S. 813.
297
289
3 Negativität und philosophische Vernunftkritik
Mensch leistet eine gewisse Versöhnung von Paradoxien und Widersprüchlichkeiten, um sich selbst als jemand zu positionieren, der entweder keiner oder einer bestimmten Glaubensrichtung folgt. Jeder Versuch, atheistische oder religiöse Positionen als simple Schlussfolgerungen einer offensichtlichen Rationalität anzubieten, wird der inneren Komplexität von Sinnfragen um Transzendenz, Ursprung, Identität, Normativität und Wahrheit nicht gerecht, um die in religiöser wie auch in säkularer Sprache gerungen wird. So zeugen die Werke Nietzsches beispielsweise von einem individuellen Ringen zwischen religiöser Tradition und einer konsequenten Zuspitzung eines atheistischen Nihilismus. In diesem Ringen werden sowohl Potentiale als auch Grenzen beider Pole sichtbar, welche sowohl für eine vernunftkritische Einordnung einer atheistisch motivierten Aufklärung298 als auch für eine religionskritische und religionsphilosophische Rekonstruktion fruchtbar gemacht werden können.299 Dadurch ergibt sich auch eine Ablehnung jedes religiösen Relativismus, der behauptet, dass alle Religionen im Grunde auf denselben Nenner gebracht werden könnten und dass Unterschiedliches sich leicht hermeneutisch nivellieren ließe. Eine solche Behauptung nimmt keine einzige religiöse Position in ihrem Geltungsanspruch überhaupt erst ernst.300 Jede religiöse Tradition ist einzigartig und auch innerhalb von Religionen und Denominationen können Glaubenssätze und religiöse Praktiken so stark voneinander abweichen, dass die Behauptung eines religiösen Relativismus, dass alle Religionen im Grunde auf dieselben Kernaussagen kämen, unhaltbar ist. Für die Systematik der vorliegenden Arbeit ergeben sich jedoch Anhaltspunkte, die für die Analyse der neoreligiösen Motive im Transhumanismus fruchtbar gemacht werden können. Der Begriff der Transzendenz kann aus einer vernunftkritisch-religionsphilosophischen Perspektive rekonstruiert werden als Bewusstsein um Negativität als sinnkonstitutive Dimension von Entzogenheit. Sowohl in mythologischen und religiösen Traditionen als auch in der Philosophiegeschichte von der Antike bis zur Gegenwart finden sich Ausformulierungen dieses Bewusstseins. Für eine systematische vernunftkritische Rekonstruktion des Transzendenzbegriffs und für eine hermeneutische Vermittlung zwischen religiösen Selbstverständnissen und philosophischen Deutungen von Transzendenz bezieht sich diese Arbeit auf einen Ansatz von Thomas Rentsch, der ausgehend von dem Bewusstsein um Negativität einen philosophischen Transzendenzbegriff entwickelt.301 Rentsch analysiert dabei vernunftkritische Einsichten von Kant So z. B. bei Adorno und Horkheimer: Dialektik der Aufklärung, a. a. O., S. 104–111 und S. 123–127. Vgl. Voigt, Albrecht: Wirkliche Göttlichkeit oder göttliche Wirklichkeit? Die Herausforderungen der Gegensatzproblematik in Romano Guardinis latentem Gespräch mit Friedrich Nietzsche, Dresden 2017. Voigt rekonstruiert die Bezüge zur christlichen Mystik in den Schriften Friedrich Nietzsches anhand der Nietzsche-Rezeption von Romano Guardini. 300 Vgl. hierzu ausführlicher Rentsch: Gott, a. a. O., S. 27–32. 301 Rentsch: Gott, a. a. O. 298
299
290
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
bis Heidegger und Adorno und weist Bezüge zu religiöser Sprache und Sinnorientierung aus. Systematisch fasst Rentsch philosophische Grundeinsichten zusammen, die von verschiedenen philosophischen Autoren ausformuliert worden sind. Dieser Ansatz versteht sich nicht als Dogmatik oder Apologetik, sondern als Perspektive einer Rückbesinnung auf Einsichten der philosophischen Vernunftkritik, die auch als Explizieren eines rationalen Kerns religiöser Tradition gedeutet werden kann, ohne dabei zu unterstellen, dass jene in diesem vollständig aufginge. Als hermeneutische Leistung werden dabei religiöse Aspekte einer Deutung von Wirklichkeit in eine philosophische Denk- und Sprachstruktur übertragen. Dennoch bleibt eine solche Perspektive eine philosophische, die einen externen Blick auf religiöse Kontexte wirft. Sie kann daher den Raum religiöser Lebenspraxis weder ersetzen noch erklären. Unter all diesen Vorbehalten zielt der religionsphilosophische Exkurs dieser Arbeit darauf, Transzendenz als Bestimmung von Negativität zu deuten. In allen religiösen Traditionen können sinnkonstitutive Potentiale von Negativität rekonstruiert werden. Die Scheinhaftigkeit des Daseins im Buddhismus, die Universalität von alles durchdringender Göttlichkeit in der polytheistischen Vielgestaltigkeit des Hinduismus, die Unbegreiflichkeit Gottes, wie sie sich beispielsweise im monotheistischen Bilderverbot ausdrückt, umkreisen eine Dimension des Unsagbaren. Diese ist nicht nur Motiv religiöser Rede, sondern auch Gegenstand philosophischen Fragens. Der jüdische Religionsphilosoph Abraham Joschua Heschel fasst das Verhältnis zwischen Religion und Philosophie folgendermaßen zusammen: „Religion beginnt mit dem Gefühl für das Unsagbare; Philosophie endet mit dem Gefühl für das Unsagbare. Religion beginnt, wo Philosophie aufhört.“302
3.3.2.1 Transzendenz als Unverfügbarkeit: Mythologische Rationalitätskritik Der Beginn des taoistischen Grundlagentextes Daodejing von Laozi kann als frühe Sprachund Vernunftkritik interpretiert werden:
302
“道可道,
Der Weg – kann er ausgesagt werden,
非常 道。
ist nicht der beständige Weg.
名可名,
Der Begriff, kann er definiert werden,
A. J. Heschel: Der Mensch fragt nach Gott. Untersuchungen zum Gebet und zur Symbolik, Neukirchen-Vluyn 1989, S. 101.
291
3 Negativität und philosophische Vernunftkritik 非常名。
ist nicht der beständige Begriff.
無名天地之始。
Was ohne Begriff ist, ist Anfang von Himmel und Erde.
有名萬物之母。
Was einen Begriff hat, ist Mutter der zehntausend Dinge.“303
In diesem Text ist bereits die Einsicht in ein Spannungsfeld zusammengefasst, das sich durch mythologische, religiöse und philosophische Versuche zieht, das Verhältnis von Welt, Mensch und Göttlichem zu systematisieren. Jeder Begriff über Transzendenz weist über sich hinaus, jede Programmatik erweist sich als jeweils vorläufig. Die Sinndimensionen des Menschen, innerhalb derer er sich handelnd entfaltet, entziehen sich einer Verdinglichung und einem instrumentell-formalistischen Zugriff. Als Dimension des Unsagbaren, Unbegrifflichen geht es dem Menschen vielmehr existentiell voraus. Jeder Versuch einer vollständigen begrifflichen Inanspruchnahme resultiert in einem Verlust dessen, was damit in Anspruch genommen werden soll. In der Mythologie will der Mensch zwar eine Sprache finden für das, was stumm scheint, doch in dieser Sprache ringt er um etwas, worauf Sprache nur verweisen kann.304 Der Begriff des Mythos leitet sich vom griechischen Wort μυθέομαι („sprechen, reden, sagen“) mit der Wurzel μυ- („laut werden, tönen“). Aus derselben Wurzel stammt das griechische Verb μυεῖν („sich schließen“), von welchem sich auch das Wort μυστήριον, das „Geheimnis“, „Mysterium“ ableitet. Im Mythos birgt sich ein Spannungsfeld zwischen Reden und Schweigen, zwischen Aussagen und Auslassen, zwischen Öffnung und Schließung. Der Mythos als Aussage über das Geheimnis, als Erzählung des Unsagbaren beansprucht nicht, Begriffssprache zu sein, die das Gesagte greifen könnte. Stattdessen weist es auf eine Sinndimension, die in der Sprache selbst nicht transportiert werden kann. Die Form des Mythos bleibt daher bildhaft.305 Laozi expliziert in der Einleitung des Daodejing den Geltungsanspruch mythologischer Rede als Einsicht in die Grenzen von Sprache über das Transzendente. In seiner Reflexion auf das Selbstverständnis mythologischer Rede deutet er auf eine Einsicht, um die später wieder im 20. Jahrhundert in der Sprachphilosophie Wittgensteins und in der Kritischen Theorie Adornos gerungen wird. Begriffe setzen Wirklichkeit und verdecken Wirklichkeit.306
Laozi: Daodejing. Das Buch vom Weg und seiner Wirkung. Chinesisch / Deutsch, übersetzt und hg. von Rainald Simon, Stuttgart 2009, S. 9 (章1). 304 Vgl. Jean Gebser: Ursprung und Gegenwart, a. a. O., S. 114. 305 Vgl. ebd., S. 112. 306 Rentsch: Negativität und praktische Vernunft, a. a. O., S. 262. Vgl. Adorno: Vorlesung über Negative Dialektik, a. a. O., S. 51. 303
292
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
In mythologischen Texten konkretisiert sich eine kritische Reflexion auf die Herausbildung von Sprache und Rationalität. In der germanischen Mythologie wird als Preis des Wissens das Auge genannt. Odin darf vom Brunnen der Weisheit nur trinken, wenn er dafür sein Auge als Pfand gibt. „Bei der andern Wurzel hingegen, welche sich zu dem Hrimthursten erstreckt, ist Mimirs Brunnen, worin Weisheit und Verstand verborgen sind. Der Eigner des Brunnens heißt Mimir und ist voller Weisheit, weil er täglich von dem Brunnen aus dem Giallarhorn trinkt. Einst kam Allvater dahin und verlangte einen Trunk aus dem Brunnen, erhielt ihn aber nicht eher, bis er sein Auge zum Pfand setzte. So heißt es in der Völuspa: Alles weiß ich, Odin, wo dein Auge blieb: In der vielbekannten Quelle Mimirs.“307
Der mythologische Text kann im Anschluss an eine vernunftkritische Rekonstruktion sinnkonstitutiver Negativität zweifach gedeutet werden. Zum einen wird hier Wissen als Autonomie des Menschen mit einer Einschränkung eines Gottes konnotiert. In dem Erwerb autonomer Rationalität ist ein Verklingen der Deutungsgewalt und Rückkopplung durch das Göttliche als mythischen Ursprung angelegt. Zum anderen kann Rationalität selbst als Erblindung, als Einschränkung ungefärbter Wahrnehmung gedeutet werden. Rationalität wird in diesem Sinn zum Hindernis für eine phänomenologische Offenheit. Als Kritik einer instrumentellen Rationalität kann auch die alttestamentliche Passage über den Sündenfall gedeutet werden. Das Essen vom „Baum der Erkenntnis vom Bösen und Guten“ führt zum Verlust des Paradieses und zur Scham des Menschen vor sich selbst und vor Anderen.308 Wenn Wissen und Macht unauflöslich zusammenhängen, wie Horkheimer, Adorno und Foucault herausgestellt haben, dann geht damit auch eine Bedrohung einher. Die eigene Nacktheit offenbart sich als Fragilität des Menschen, die verdeckt werden will, wenn der Mensch sich dieser Bedrohung bewusst wird. Die Nähe zwischen mythologischer Rationalitätskritik und der philosophischen Vernunftkritik des 20. Jahrhunderts könnte an anderer Stelle als eigenständiger Untersuchungsgegenstand intensiviert werden. Husserls Lebensweltbegriff und Rückruf „zu den Sachen selbst“ wäre hier ebenso zu nennen wie Wittgensteins sprachphilosophische Arbeiten zu den Grenzen der Sprache, Heideggers existentialphilosophische Entwürfe zur Entzogenheit, die Grenzen
Die Edda. Götterlieder, Heldenlieder und Spruchweisheiten der Germanen. Vollständige Neuausgabe in der Übersetzung von Karl Simrock, hg. v. Manfred Stange, Wiesbaden 2011, S. 272 (Jüngere Edda, Gylfaginning 15), bzw. S. 15f (Ältere Edda, Völuspa 1,21–22). 308 Die Bibel, a. a. O. Gen. 3. 307
293
3 Negativität und philosophische Vernunftkritik
des Begriffs bei Adorno oder das problematische Verhältnis von Wissen und Macht bei Foucault. All diese Aspekte umkreisen ein Bewusstsein um ein offenes Universum, um die Grenzen des Erkennbaren, um die Unvollständigkeit jeder Weltbeschreibung, um eine Ebene von Entzogenheit, Unverfügbarkeit und Transzendenz. In der vorliegenden Arbeit bilden diese Aspekte eine Deutungsfolie für transhumanistische Entwürfe, in welchen diese Einsichten systematisch ausgeblendet und unterlaufen werden. In der religiösen Motivik transhumanistischer Entwürfe artikuliert sich eine andere Stimme als eine Einsicht in Unverfügbarkeit. Transzendenz soll stattdessen restlos verdinglicht und verfügbar gemacht werden. Religiöse Motive fügen sich in den Anspruch der technischen Verfügbarmachung von Welt und Mensch vollständig ein. Doch sind Religionen frei von einer solchen Verdinglichung und Vergegenständlichung des Göttlichen?
3.3.2.2 Religiöse Verdinglichung von Transzendenz und Aspekte negativer Theologie In religiösen Traditionen bewegen sich Interpretationstraditionen immer zwischen Spannungsfeldern, die reflektiert, bewahrt, hinterfragt, weiterentwickelt, festgehalten, erneuert oder rückgebunden werden. Zu diesen Spannungsfeldern gehört die Frage nach der Aussagbarkeit und Nicht-Aussagbarkeit des Göttlichen. Im Daodejing artikuliert sich eine Grundproblematik jeder religiösen Sprache: Was auf das Transzendente weisen will, kann keine innere Geschlossenheit beanspruchen. In diesem Sinne kann auch Wittgensteins Abschlusssatz des Tractatus interpretiert werden: „Wovon man nicht sprechen kann, darüber muss man schweigen“.309 Er drückt eine Einsicht aus, die in vielfältigen religiösen Traditionen bereits artikuliert wurde: Sprachliche Zugriffe können die Ebene der Transzendenz nicht handhabbar machen. Gegenüber den Unzulänglichkeiten des verbalen Ausdrucks erweist sich vielleicht das Schweigen als eine adäquate Haltung gegenüber dem Göttlichen. Im Mönchtum verschiedener Religionen haben sich Traditionen entwickelt, die eine Kultivierung des Schweigens entwickelten, um die Sensibilität für das Unaussprechliche zu schärfen. Gegenüber der Einsicht in die Grenzen der Sprache über das Wesen des Transzendenten steht in allen religiösen Kontexten jedoch das Ringen um mögliche Zugänge, wie ein Sichverhalten gegenüber dem Unsagbaren sich kultivieren könnte. Religiöse Traditionen ringen um eine Sprache für das Unaussprechliche.310 Wittgenstein: Tractatus, a. a. O., S. 111. Vgl. Rentsch: Negativität und praktische Vernunft, a. a. O., S. 329. 310 Vgl. Schaeffler, Richard: Begriffe vom Unaussprechlichen, in: Christoph Böhr und Hanna-Barbara Gerl-Falkovitz (Hg.): Gott denken. Zur Philosophie von Religion, Wiesbaden 2019, S. 105–121. An anderer Stelle führt Schaeffler die Unterschiedlichkeit des begrifflich-argumentativen Zugangs und 309
294
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
Damit bergen religiöse Begriffe immer bereits ein Bewusstsein um Transzendenz als unhintergehbare Grundbestimmung religiöser Rede. Die Antworten, wie das Spannungsfeld von Unverfügbarkeit und ritueller Systematisierung aufgelöst werden kann, fallen in den unterschiedlichen Religionen unterschiedlich aus. Gemeinsam ist religiösen Traditionen jedoch immer ein Ringen um das Vereinen von Widersprüchlichkeiten: der Einheit und Vielgesichtigkeit des Göttlichen, der Unausprechlichkeit des Transzendenten und die Notwendigkeit des Sprechens über das, was sich uns entzieht, mit Heideggers Worten: „Was sich uns entzieht, zieht uns dabei gerade mit, ob wir es sogleich und überhaupt merken oder nicht.“311 Innerhalb dieser Spannungsfelder entfalten sich Dynamiken religiöser Traditionen. Gleichzeitig können Tendenzen zu einer Verdinglichung des Transzendenten und eine Überführung von Negativität in die instrumentelle Verfügbarkeit für den religiösen Ritus in verschiedenen religiösen Traditionen unleugbar rekonstruiert werden. So kann in der Herstellung von Götterfiguren eine Verdinglichung des Transzendenten als Handhabbarkeit des Göttlichen für eine Einbindung in die lebensweltliche Praxis gedeutet werden. Die formalistische Reduktion religiösen Sinns auf den Verhaltenskodex eines Gesetzes in Religionen sowie deren Tradierung durch die Kanonisierung eines heiligen Buches, kann ebenso auf den Versuch zurückzuführen sein, die Entzogenheit des Transzendenten in eine vermeintliche Sicherheit und Verwaltbarkeit religiöser Sinnpraxis zu überführen. Die Verbindung von marktökonomischer Logik mit der Aufgabe der Verwaltung des Heiligen, wie z. B. in der europäischen Geschichte im Ablasshandel, zeitigt eine deutliche Transformation transzendenter Negativität in eine instrumentelle Verfügbarkeit von Sinnpotential. Als Tendenzen zur Entfremdung vom Kern authentischer Glaubenspraxis wurden jedoch auch in religionsinternen Religionskritiken immer wieder solche Verdinglichungen und Instrumentalisierungen hinterfragt und angeprangert. Der jüdische Religionsphilosoph Abraham J. Heschel interpretiert das Auftreten der Propheten in den monotheistischen Religionen als gesellschaftlichen sowie religionskritischen Appell im Sinne einer Rückbesinnung auf originäre Religiosität.312 In den monotheistischen Traditionen sind diese Stimmen zur Rückbesinnung als prophetische Stimmen oder Reformbewegungen tradiert und bilden damit einen Teil der jeweiligen religiösen Tradition
des kontemplativen Zugangs durch die Sprache aus. Vgl. Schaeffler, Richard: Das Gebet und das Argument – Zwei Weisen des Sprechens von Gott. Eine Einführung in die Theorie der religiösen Sprache, Düsseldorf 1989. 311 Heidegger, Martin: Was heißt Denken? Vorlesung Wintersemester 1951/52, Stuttgart 2010, S. 9. 312 Vgl. Heschel, Abraham Joschua: Religion in einer freien Gesellschaft, in: Ders.: Die ungesicherte Freiheit. Essays zur menschlichen Existenz, Neukirchen – Vluyn 1985, S. 3–20, dort S. 8f. Vgl. Heschel, Abraham Joschua: Gott sucht den Menschen. Eine Philosophie des Judentums, Neukirchen – Vluyn 1980, S. 169f. Vgl. auch Heschel, Abraham Joschua: Das prophetische Bewußtsein, Warschau 1935.
295
3 Negativität und philosophische Vernunftkritik
als Reflexionsgeschichte immanenter Religionskritik.313 Auch wenn Tendenzen zur Verdinglichung und Instrumentalisierung des Transzendenten zur Geschichte von Religionen gehören, ist diese Geschichte immer auch von einer religiösen Kritik an eben diesem instrumentellen Zugriff begleitet. Beispielhaft ist das Bilderverbot in monotheistischen Religionen, das eine vereinseitigende Verdinglichung und instrumentelle Verfügbarmachung Gottes verhindern soll, um stattdessen einen solchen Zugriff als Verlust genuiner Glaubenspraxis zu kennzeichnen, wie es sich in der Herausbildung der Religiosität des Judentums, bzw. des alten Testaments als eines der zehn Gebote konkretisiert hat.314 Indem versucht wird, das Transzendente in einem Bild zu vergegenständlichen und damit dem Zugriff durch eine zweckorientierte Rationalität zu überführen, verliert das Transzendente als das prinzipiell Unverfügbare seine Orientierungsfunktion, nach der sich eine Lebenspraxis erst ausrichten könnte. Stattdessen würde mit einer dinghaften Vergegenständlichung das Religiöse Gefahr laufen, den Bedingungen der eigenen, verkürzten instrumentellen Zugriffe auf die Welt unterstellt zu werden. Religionsimmanente Religionskritik richtete sich wiederholt gegen instrumentelle Zugriffe auf Religiosität. So interpretiert beispielsweise der mittelalterliche Mystiker Meister Eckhart die Geschichte von Jesus, der mit einer Peitsche die Händler im Jerusalemer Tempel austreibt,315 als Kritik an einem Religionsverständnis, welches in einer instrumentellen Rationalität der Verfügbarmachung des Göttlichen gründet: „Wer waren die Leute, die da kauften und verkauften? Und wer sind sie noch? […] Sehet: Kaufleute sind alle, die sich vor groben Sünden hüten und gern gute Leute wären mit Fasten, Wachen, Beten und allerhand guten Werken, Und tun es doch nur darum, dass ihnen unser Herr etwas dafür gebe oder dass Gott ihnen dafür etwas tue. Diese alle sind Kaufleute! Sie wollen Handel treiben mit Gott und werden mit solchem Kauf betrogen.“316 Eckhart charakterisiert damit jeden instrumentellen Zugriff auf das Transzendente als diesem inkommensurabel. Das Transzendente entzieht sich seinem Begriff nach einem vollständigen begrifflichen Zugriff. Derjenige, der religiöse Riten und Formen nur für das Erreichen eigener Ziele instrumentalisiert, verkürzt damit das Wesen der Transzendenz, welches darauf zielt, gerade als Unverfügbares zur Möglichkeit letzter Sinnorientierung zu werden. Ein instrumenteller Zugriff auf Religiosität und Transzendenz verkehrt daher das Wesen des Göttlichen und geht mit der Gefahr des Verlustes eines genuinen Zugangs zu Transzendenz als Sinnorientierung einher. Vgl. Heschel, Abraham Joschua: Religion in einer freien Gesellschaft, in: Ders.: Die ungesicherte Freiheit. Essays zur menschlichen Existenz, Neukirchen – Vluyn 1980, S. 3–20, dort S. 10. 314 Die Bibel, a. a. O., Exodus 20,4. 315 Vgl. die Bibel, a. a. O., Joh. 2, 13–25. 316 Meister Eckehart: Vom Wunder der Seele. Eine Auswahl an den Traktaten und Predigten, Stuttgart 1979, S. 52. 313
296
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
Auch der jüdische Religionsphilosoph Martin Buber beschreibt die Ausweitung einer instrumentellen Rationalität auf die Ebene des Religiösen. Buber entwickelt in seiner Dialogphilosophie als mögliche Grundhaltungen des Menschen die Haltungen („Grundworte“) Ich-Es und Ich-Du. Das Grundwort „Ich-Es“ bezeichnet eine gebrauchende, benutzende, objektivierende, verstehende Haltung gegenüber der Welt. Das Grundwort „Ich-Du“ bezeichnet eine Welt der Beziehung und Begegnung. Beide Grundworte sind letztlich einander inkommensurabel.317 Auch in seinem Verhalten gegenüber dem Göttlichen versucht der Mensch, das Transzendente in die Grenzen seiner eigenen Rationalität zu überführen: „Wer die Welt als das zu Benützende kennt, kennt auch Gott nicht anders. Sein Gebet ist eine Entlastungsprozedur; es fällt ins Ohr der Leere. Er – nicht der ‚Atheist‘, der aus der Nacht und Sehnsucht seines Kammerfensters das Namenlose anspricht – ist der Gottlose.“318 Jeder Versuch, das Transzendente in quantitative oder begriffliche Bestimmungen, oder in einen instrumentellen Zugriff zu überführen, führt damit zum Verlust der Transzendenz: „Das ewige Du kann seinem Wesen nach nicht zum Es werden; weil es seinem Wesen nach nicht in Maß und Grenze, auch nicht in das Maß des Unermesslichen und die Grenze des Unbegrenzten gesetzt werden kann; weil es seinem Wesen nach nicht als eine Summe von Eigenschaften, auch nicht als eine unendliche Summe zur Transzendenz erhobener Eigenschaften gefasst werden kann; weil es weder in noch außer der Welt vorgefunden werden kann; weil es nicht erfahren werden kann; weil es nicht gedacht werden kann; weil wir uns an ihm, dem Seienden verfehlen, wenn wir sagen: ‚Ich glaube, dass er ist‘ – auch ‚er‘ ist noch eine Metapher, ‚du‘ aber nicht.“319 Ein in-Beziehung-Treten ist demnach für Buber die einzige angemessene Haltung gegenüber dem Transzendenten. In allem sprachlichen Ringen um die Rede von Transzendenz und Gott bleibt für Buber eine Grenze des Sagbaren, selbst für den Mystiker: „Wir sind Gott nahe gekommen, aber einer Enträtselung, Entschleierung des Seins nicht näher. Erlösung haben wir verspürt, aber keine ‚Lösung‘. Was wir empfangen haben, damit können wir nicht zu den anderen gehen und sagen: Dieses ist zu wissen, dieses ist zu tun. Wir können nur gehen und bewähren.“320 Einer solchen Auffassung zufolge kann sich religiöse Sinnkonstitution nicht in Programmatik erschöpfen. Religionsgeschichte ist für Buber auch eine Geschichte der Verdinglichung Gottes: „Und doch machen wir das ewige Du immer wieder zum Es, zum Etwas, machen Gott zum Ding – unserem Wesen nach. Nicht aus Willkür. Die dingliche Geschichte Gottes, der Gang des Gott-Dings durch die Religion und ihre Randgebilde durch ihre Erleuchtungen und Verfinsterungen, ihre Lebenserhöhungen und -zerstörungen, der Gang vom lebendigen Gott weg und wieder zu ihm hin, Vgl. ebd., S. 31ff. Buber, Martin: Ich und Du, Stuttgart 2009, S. 103. 319 Ebd., S. 108. 320 Ebd., S. 107. 317 318
297
3 Negativität und philosophische Vernunftkritik
die Wandlungen von Gegenwart, Eingestaltung, Vergegenständlichung, Verbegrifflichung, Auflösung, Erneuerung sind ein Weg, sind der Weg. […] Der Mensch begehrt Gott zu haben; er begehrt nach einer Kontinuität des Gotthabens in der Zeit und im Raum. Er will sich mit der unaussprechlichen Bestätigung des Sinns nicht begnügen, er will sie ausgebreitet sehen als etwas, was man immer wieder vornehmen und handhaben kann, ein zeitlich und räumlich lückenloses Kontinuum, das ihm das Leben an jedem Punkt und in jedem Moment versichert.“321 Religiöse Traditionen können aus einer religionsphilosophischen Perspektive nicht als dualistische Gegenentwürfe zu einer instrumentellen Rationalität gedeutet werden. Stattdessen ist in ihnen beides verbunden: Verdinglichung und Versprachlichung wie auch das Ringen um eine Rückbesinnung auf die Grundbestimmung der Unverfügbarkeit von Transzendenz. Versuche der Vergegenständlichung von Transzendenz sind verbunden mit dem Bewusstsein, dass man dabei auf eine Dimension deutet, die nicht restlos vergegenständlicht werden kann. Affirmative Rede von Gott ist selbst in Offenbarungsreligionen komplementär von einem Bewusstsein um die Inkommensurabilität Gottes und negativer Sinnpotentiale gegenüber jedem instrumentellen Zugriff begleitet. Gegenüber einer positivistischen Verdinglichung von Transzendenz kann im Anschluss an diese Grundlegung auch die Paradoxie als logische Unverfügbarkeit des Transzendenten gegenüber jedem Zugriff durch instrumentell-rationale Einlösbarkeitsversuche abgegrenzt werden. Im christlichen Monotheismus zeigt sich die Wahrung der Paradoxie beispielsweise in der Allwissenheit Gottes und seinem Freigeben des Menschen, in der Allmacht eines Schöpfers und der Ohnmacht des Gekreuzigten, im Bekenntnis zur Unsterblichkeit des Menschen angesichts seiner Endlichkeit und Vergänglichkeit. Kierkegaard hebt die Paradoxie der Botschaft von der Menschwerdung Gottes selbst für die unmittelbaren Zeitgenossen Jesu hervor: „Wenn der Gott sich in einer Herberge hätte gebären, in Windeln wickeln und in eine Krippe legen lassen, der Widerspruch könnte nicht größer sein, als dass die Tagesneuigkeit die Windel des Ewigen ist.“322 Die Botschaft von der Inkarnation Gottes wird verbunden mit dem Bericht der Himmelfahrt, sodass auch die Rede von einer vergegenständlichten Vergewisserung Gottes in einer Aussage über Entzogenheit und Unverfügbarkeit des Göttlichen mündet. Aussagen über die Offenbarungen Gottes sind begleitet von der Grundeinsicht in die prinzipielle Dunkelheit, Entzogenheit Gottes in seinem letzten Wesensgrund. Der Imperativ zu einem dialogischen und suchenden Verhältnis gegenüber Gott wird damit zu einer Antwort gegenüber jedem instrumentell-verwaltenden Zugriff im Sinne einer routinierten Verwaltung des Heiligen. Darin zeigt sich ein grundlegender Unterschied zu religiöser Motivik in transhumanistischen Entwürfen. Das Transzendente wird dort nicht mehr gedeutet als Entzogenheit, sondern 321
Ebd., S. 108f. Kierkegaard, Sören: Philosophische Brocken, Leck 1964.
322
298
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
soll mithilfe mathematischer Modelle und logischer Strukturen nachgebildet werden. Gott wird nicht fragend-dialogisch gesucht, sondern wird zur Inspiration für ein technisches Großprojekt. Die Verdinglichung des Transzendenten ist dabei nicht mehr bildhaft, nicht metaphorisch, sondern konkret. Das mathematische Abbild weist nicht auf den Geist, sondern soll ihn nachbilden. Im religiösen Verständnis kann die Verdinglichung des Transzendenten jeweils nur ein Vorläufiges sein. Im Transhumanismus ist die Verdinglichung nicht das Vorläufige, sondern die Einlösung dessen, was zuvor nur eine spekulative Idee zu sein schien.
3.3.2.3 Vernunftkritische Rekonstruktion von Dimensionen der Transzendenz Die Einsicht in die Grenzen der Sprache gilt nicht nur für Mythologie und Religion, sondern ist auch Untersuchungsgegenstand der philosophischen Vernunftkritik. Unter der Fragestellung zum Verhältnis von Negativität und religiöser Sinnorientierung können tradierte Ansätze negativer Theologie rekonstruiert und zurückgebunden werden an einen Kontext der vernunftkritischen Philosophie. Einen solchen Ansatz verfolgt Thomas Rentsch in seinem Buch Gott.323 Er arbeitet dabei Aspekte ontologisch-kosmologischer Transzendenz, der Transzendenz von Sprache sowie von anthropologisch-praktischer Transzendenz heraus, wobei er systematisch die Einsichten der Vernunftkritik und der philosophischen Denktradition mit Elementen vermittelt, die aus Traditionen religiöser Sprache stammen. In der vorliegenden Arbeit wurden verschiedene vernunftkritische Perspektiven auf die Grenzen des Erkennbaren bereits im Kapitel 3.1 dargestellt. Diese Grenzen der Erkenntnis weisen die Welt selbst als transzendente aus: Hinter jeder Erkenntnis birgt sich etwas, was darin noch nicht begriffen ist. Bei allem, was gesagt werden kann, bleibt immer unendlich viel ungesagt. In den Grenzen des Wissens, des Berechenbaren, des Determinierten, des Objektivierbaren erfährt der Mensch die ihn umgebende Welt, seine Mitmenschen und sich selbst als transzendent. In allem, was ihm widerfährt, bleibt etwas, was über das Erfahrene hinausweist. In der Empirie erschöpfen sich die Gegenstände nicht, mit denen der Mensch umgeht. Das Universum offenbart sich dem Menschen nicht unmittelbar in einer Art und Weise, dass er dieses in mathematischer Sprache ablesen könnte, um daraus ein vollständiges mathematisches Modell zu entwickeln. In der Rekonstruktion von „Transzendenz in der Immanenz“324 lebensweltlicher, sprachlicher wie ontologischer Entzogenheit und der Reformulierung von Heideggers Explikation der Entzogenheites des Daseinsgrundes als Wunder des Seins stellt Rentsch eine Rekonstruktion Rentsch, Thomas: Gott, Berlin 2005. Ebd., S. 60.
323
324
299
3 Negativität und philosophische Vernunftkritik
des Transzendenzbegriffs vor, welcher sowohl an eine vernunftkritische Systematik philosophischer Anthropologie als auch an das Ringen um Sinnpotentiale von Tranzendenz in religiöser Sprache anschließen kann. In den Grenzen der Sprache zeigt sich mit Wittgenstein auch das Mystische als Ebene von Transzendenz: „Es gibt allerdings Unaussprechliches. Dies zeigt sich, es ist das Mystische.“325 Die Welt selbst birgt das Mystische als immanente Transzendenz: „Nicht wie die Welt ist, ist das Mystische, sondern dass sie ist.“326 Rentsch spricht im Anschluss an die Einsichten der vernunftkritischen und sprachphilosophischen Arbeiten von Wittgenstein und Heidegger von einer „internen Unendlichkeit und Unerkennbarkeit der Wirklichkeit und alles Wirklichen“.327 Dabei grenzt Rentsch jedoch auch den Geltungsanspruch eines solchen Ansatzes dahingehend ein, dass eine Grenzziehung der philosophischen Vernunft als Einsicht in die Unverfügbarkeit von Sprache, Welt und Mensch keine restlose Überführung religiöser Sinnpotentiale in eine Ebene philosophischer Rationalität darstellen kann, sondern lediglich eine hermeneutische Einbeziehung und Hinführung an eine genuin verschiedene Sinnpraxis bietet. Rentsch weist daher auf die Inkommensurabilität von philosophischer und religiöser Praxis hin: „Die Vernunft gelangt durch kritische Selbstreflexion an ihre für sie sinnkonstitutiven Grenzen. Die praktische Einsicht in diese Grenzen führt zur ekstatischen Vernunft, die ihren Transzendenzbezug nicht bloß abspaltet und negiert, sondern kritisch-hermeneutisch und dialektisch einbegreift und praktisch zu verstehen sucht. Der Inbegriff dieser Einsicht ist das Wort Gott, verbunden mit der Rede vom Wunder, vom Unerklärlichen und vom Geheimnis als der Eröffnung von Sinn. Von dieser Einsichtsebene aus erschließt sich der philosophischen Reflexion die genuin religiöse Vernunft, die eine Sache der existentiellen und geschichtlichen, meditativen wie kongregativen religiösen Lebenspraxis ist und bleibt. In den religiösen Praxen und Offenbarungstraditionen wird der wahrhaftige Transzendenzbezug zu einer spirituellen Realität eigenen Rechts, zu der die philosophische Reflexion nur hinführen kann, indem sie dieses Eigenrecht begreiflich und in seiner Irreduzibilität verständlich macht.“328 Eine systematische Herausstellung der Aspekte von Negativität und Entzogenheit aus der Perspektive einer philosophischen Vernunftkritik ermöglicht daher vor allem eine Einsicht in die sinnkonstitutiven Grenzen menschlicher Erkenntnis, Moral und Sinnkonstitution. Durch die prinzipielle Entzogenheit und Unverfügbarkeit der Welt und des Menschen wirkt diese Einsicht in Transzendenz auch auf das Menschenbild zurück.
Wittgenstein: Tractatus, a. a. O., S. 111 (Punkt 6.522). Ebd., S. 110 (Punkt 6.44). 327 Rentsch: Gott, a. a. O., S. 65. 328 Ebd., S. 208. 325
326
300
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
3.3.2.4 Gott und Mensch Die Unverfügbarkeit des Transzendenten, dem gegenüber sich der Mensch orientieren will, wirkt als Sinnorientierung und Ausrichtung des Fragens zurück auf den Suchenden. Wilhelm Weischedel charakterisiert im Abschluss seiner systematischen Zusammenstellung der Rede über Gott in der Philosophiegeschichte den Begriff „Gott“ als „Vonwoher von Fraglichkeit“.329 Als solches wirkt das Transzendente zurück auf die menschliche Lebenspraxis und Sinnorientierung. In der Erfahrung der „radikalen Fraglichkeit“330 des Menschen in der Welt erweist sich diese Dimension als existentielle Offenheit des Menschen, auch hin zu diesem „Vonwoher“.331 Als Dimension von Unverfügbarkeit, als „Geheimnis“ wirkt die Einsicht in die Grenzen des Verstehens auf die anthropologische Selbstbestimmung zurück. Der Mensch versteht weder sich selbst noch Andere vollständig. Im Kapitel 3.2 wurde bereits ausgeführt, wie aus den erkenntnistheoretischen und sprachphilosophischen Grenzen auch Grundlagen der Ethik und Moralphilosophie hergeleitet werden können. In einer religiösen Sprache findet sich eine Entsprechung im Bild der Gottesebenbildlichkeit des Menschen, womit in Judentum und Christentum die unhintergehbare Würde des Menschen begründet wird. Die Transzendenz Gottes wirkt dann auf die Beschreibung des Menschen zurück. Von der Unverfügbarkeit Gottes wird auf eine Unverfügbarkeit des Menschen als normative Orientierung und Grundlegung einer Moralphilosophie geschlossen. Kant formuliert dies in einer Sprache der philosophischen Kritik in der Form seines zweiten kategorischen Imperativs: „Handle so, dass du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst.“332 Hegel deutet in seiner Rezeption der religiösen Tradition seiner Zeit den moralphilosophischen Gehalt der religiösen Rede von der Gottesebenbildlichkeit des Menschen und von der Menschwerdung Gottes in Jesus Christus als höchste Form einer Formulierung von Menschenwürde.333 Wenn Gott Mensch wird, dann kann der Mensch nur als Träger einer unhintergehbaren Würde charakterisiert werden. Die Rede von der Gottesebenbildlichkeit des Menschen rekurriert daher auf eine Kritik instrumenteller Verfügbarmachung nicht nur des Göttlichen, sondern auch des Menschen. Der Transzendenzbegriff durchzieht damit alle vier Fragen Kants. Erkenntnistheoretisch rekurriert der Begriff auf eine Einsicht in die Grenzen von Sprache und Wissen. Weischedel, Wilhelm: Der Gott der Philosophen. Grundlegung einer philosophischen Theologie im Zeitalter des Nihilismus, Darmstadt 1983, S. 206ff. 330 Ebd., S. 185. 331 Ebd., S. 255. 332 Kant: Grundlegung zur Metaphysik der Sitten, a. a. O., S. 65. 333 Rentsch, Thomas: Negativität und praktische Vernunft, a. a. O., S. 216 und S. 248. Vgl. Hegel, Georg Wilhelm Friedrich: Phänomenologie des Geistes, Köln 2000, S. 544. 329
301
3 Negativität und philosophische Vernunftkritik
Moralphilosophisch lässt sich aus diesen Grenzen einer deterministischen Bestimmbarkeit der personalen Handlungspraxis der Begriff der Freiheit und Autonomie als Bedingung moralischen Fragens ausweisen. In der Einsicht in die Fehlbarkeit und Fragilität des Menschen gründet die Notwendigkeit normativer Reflexion. In einer religionsphilosophischen Perspektive werden diese Einsichten zu einer Möglichkeit von Sinnorientierung als Fragen nach dem, was sich nicht verdinglichen lässt, als Hinausweisen über die Grenzen des Menschen. Anthropologisch wird der Transzendenzbegriff zu einer Grundbestimmung des menschlichen Selbstbildes. Der Mensch erlebt sich selbst als „weltoffen“.
3.3.2.5 Instrumentalisierung und Offenheit in Aufklärung und Religion Die kritische Position dieser Arbeit zielt auf Tendenzen der Quantifizierung, Formalisierung, Verdinglichung und Entfremdung, die ihrerseits dazu führen, dass Wissen als Machtgefälle normativ problematisch wird. Weder Aufklärung noch Religion sind frei von diesen Tendenzen. So folgt der Prozess der Aufklärung und des wissenschaftlichen Positivismus, wie Adorno und Horkheimer gezeigt haben, der Zielstellung einer immer umfassenderen Vermessung und Formalisierung der Welt, welche verknüpft wird mit einem Herrschaftsanspruch über die Natur und damit auch über den Menschen. Aufklärung birgt demnach nicht nur das Potential der Autonomie und der Selbstbefreiung zur Mündigkeit, sondern muss sich immer wieder auf diese Anliegen besinnen, um nicht in Prozessen der Selbstzerstörung von Aufklärung in Mythologie zurückzufallen. Bei allem kritischen Bewusstsein darf dennoch, dies ist die Überzeugung des Autors, der Anspruch von Aufklärung als Ringen um Wahrheit, Selbstbesinnung und Mündigkeit nicht aufgegeben werden und zu einem einseitigen „Defaitismus der Vernunft“334 führen, welcher sich dem Imperativ autonomer Selbstverantwortung verwehrt. Ein Bewusstsein um selbstzerstörerische Tendenzen, die dem Programm der Aufklärung innewohnen, kann gerade dazu beitragen, „Residuen von Freiheit“335 im Anschluss an die Ideale der Aufklärung zu bewahren. Demgegenüber stellen jedoch auch religiöse Sinntraditionen keineswegs nur eine ideale Erinnerungskultur für Dimensionen sinnkonstitutiver Negativität dar, sondern auch in religiösen Kontexten finden Verdinglichungsprozesse statt. Auch religiöse Lebenspraxis kann durch Urteilskriterien von Quantifizierung oder Formalismus mitbestimmt werden, welche
Vgl. Adorno, Theodor W.: Negative Dialektik, a. a. O., S. 15. Adorno, Theodor W.: Dialektik der Aufklärung, a. a. O., S. IX.
334 335
302
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
einem Bewusstsein von sinnkonstitutiver Transzendenz als Dimension der Entzogenheit entgegenlaufen. Die Exkurse zur Dialektik der Aufklärung und zur Religionsphilosophie sollen in dieser Arbeit daher keinesfalls als dualistische Gegenüberstellung aufgefasst werden. Sowohl eine philosophische und wissenschaftliche Aufklärung als auch religiöse Traditionen bewegen sich immer im Spannungsfeld zwischen einer fragenden Offenheit und einer instrumentellen Verfügbarmachung. Lebenspraktisch kann eine solche Offenheit gar nicht radikal idealisiert werden; instrumentelle, benutzende, verstehende und verfügende Handlungsvollzüge prägen immer auch jede individuelle Lebenspraxis. Problematisch ist allerdings, wenn das Bewusstsein um eine Ebene von prinzipieller Entzogenheit ganz verloren geht. Eine Dimension, die sich nicht in den Strukturen des instrumentellen Zugriffs auf Welt und Mensch erschöpft, ist erkenntnistheoretisch, moralphilosophisch, sinnkonstitutiv und anthropologisch von unhintergehbarer Bedeutung. Wenn in religiösen oder aufklärerischen Programmen ein solches Bewusstsein ganz verschwindet, dann höhlt dies die Wurzeln dessen aus, woraus sich Wissen, Freiheit, Hoffnung und Würde des Menschen erst begründen kann. Transhumanistische Entwürfe verbinden einen aufklärerischen Herrschaftsanspruch über die Natur mit einer restlosen Verdinglichung von Transzendenz. Welt, Natur, Mensch und Gott werden quantifiziert und in die Ebene einer technisch-instrumentellen Rationalität überführt. Das Potential der Aufklärung, die Offenheit des Menschen, sein Fragen, seine Würde und seine Autonomie freizulegen, zu begründen und zu stärken, geht dabei ebenso verloren wie die Dimensionen der Hoffnung, die angesichts der letzten Unbegreiflichkeit des Göttlichen eine Haltung von Offenheit, Empfangen, Begegnung und Liebe freisetzen könnten. Religion und Hoffnung, Gott und Mensch, Seele und Geist, Unsterblichkeit und Allwissenheit werden im Transhumanismus restlos in die Bestimmungen einer instrumentellen Rationalität überführt.
3.3.2.6 Magie und Zauberei als instrumentelle Verfügbarmachung von Transzendenz Kurzweil spielt in seinen Arbeiten wiederholt auf den Begriff der Magie an, wenn er die technologischen Möglichkeiten der Zukunft vorzeichnet. Der Kulturwissenschaftler Jean Gebser rekonstruiert in seinem Buch Ursprung und Gegenwart Aspekte einer Struktur des Magischen.336 Die Herausbildung des Magischen deutet Gebser aus einer kulturwissenschaft Gebser, Jean: Ursprung und Gegenwart, erster Teil: Das Fundament der aperspektivischen Welt. Beitrag zu einer Geschichte der Bewußtwerdung, Stuttgart 1978.
336
303
3 Negativität und philosophische Vernunftkritik
lich-anthropologischen Perspektive als Herauslösung des Menschen „aus dem ‚Einklang‘, der Identität mit dem Ganzen“.337 Diese Entwicklung ist für Gebser mit der Herausbildung von Objektivität als instrumenteller Verfügbarmachung der Natur verbunden: „der Mensch ist zum ersten Male nicht mehr nur in der Welt, sondern es beginnt ein erstes, noch schemenhaftes Gegenübersein. Und damit taucht keimhaft auch jene Notwendigkeit auf: nicht mehr nur in der Welt zu sein, sondern die Welt haben zu müssen.“338 Das Wort „Magie“ gehört vom Wortursprung zur Wortgruppe der indoeuropäischen Wurzel „mag(h)-“, welcher auch die Wörter „machen“, „Mechanik“, „Maschine“ und „Macht“ zugehören.339 Die Entwicklung der magischen Struktur ist demnach mit dem Wunsch nach Naturbeherrschung verbunden: „Bannen und Beschwörung, Totem und Tabu sind die naturhaften Mittel, mit denen er sich von der Übermacht der Natur zu befreien […] versucht.“340 Gebser kann als Präzisierung von Adorno und Horkheimer gelesen werden, die in ihrer Untersuchung zum Verhältnis von Aufklärung und Mythologie auch auf Elemente des Magischen rekurrieren, ohne diese vom Mythologischen systematisch abzugrenzen.341 Indem Gebser zwischen magischer und mythischer Struktur unterscheidet, bietet er eine differenziertere Betrachtung an.342 Gebser deutet die Struktur des Magischen auch in ihrer Bedeutung für die Gegenwart: „Es sei noch betont, in welch starkem Maße die Mächtigkeit des magischen Menschen, der den Kampf mit der Erde und der Natur besteht, wirksam ist. Denn sie ist auch heute noch selbst bei uns akut“, aber in einer „relikthaften“ Form.343 Die religiösen Motive des Transhumanismus sind in einem Vergleich mit der Struktur des Magischen diesen zunächst ähnlicher als beispielsweise den Motiven monotheistischer Religiosität. Magie steht nach Gebser vom Beginn ihrer Herausbildung an unter dem Vorzeichen der Verfügbarmachung der Natur, unter der Prämisse des menschlichen Ringens um Macht. In den Traditionen religiöser Überlieferungen artikuliert sich hingegen, wie oben ausgeführt wurde, auch ein starkes Bewusstsein um die prinzipielle Unverfügbarkeit des Transzendenten, dergegenüber um eine adäquate Haltung gerungen wird.
339 340 341 342 343 337
338
Gebser ist sich bewusst, dass eine kulturwissenschaftliche phänomenologische Rekonstruktion einer Haltung gegenüber der Welt, die älter ist als die Entwicklung von Rationalität, in einem wissenschaftlichen Kontext immer unter der Beschränkung der Inkommensurabilität steht: „Praerationales ist rational nicht darstellbar.“ (Ebd., S. 97.) Ebd., S. 87. Ebd., S. 88. Ebd., S. 87. Ebd., S. 88. Vgl. Adorno und Horkheimer: Dialektik der Aufklärung, a. a. O., S. 25ff. Vgl. Gebser: Ursprung und Gegenwart, a. a. O., S. 87ff, S. 106ff, 272f. Ebd., S. 104.
304
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
Gebser charakterisiert die Entfaltung der magischen Verfügbarmachung der Natur in seiner Wechselseitigkeit: Der instrumentelle Zugriff wirkt zurück auf den, der die Herrschaft über die Natur ausüben will. „Hier, in diesen Befreiungsversuchen des magischen Menschen aus der Eingeflochtenheit und der Gebanntheit in der Natur, mit der er anfänglich noch eins ist – eben eine Unität –, hier beginnt der seit jener Zeit nicht mehr endenwollende Kampf um die Macht; hier wird der Mensch zum Macher. Und hier liegt die Wurzel der tragischen Verflochtenheit des Kämpfenden mit dem Bekämpften: um das Tier zu bannen, das ihn bedroht (um nur ein Beispiel zu nennen), macht er sich in der Verkleidung zu diesem Tier; oder er macht das Tier, indem er es zeichnet, und erhält dergestalt Macht darüber.“344 In der Verfügbarmachung selbst muss sich der Mensch seinem Gegenstand angleichen. In transhumanistischen Entwürfen gleicht sich der Mensch mit seiner mechanistischen Selbstbeschreibung einer Maschine an, damit der Angst vor einem Kontrollverlust nivelliert werden kann. Indem die Maschine nicht mehr als ein Wesensfremdes gedeutet wird, sondern der Mensch sich dieser gleich macht, soll die Bedrohlichkeit ihrer Überhöhung entkräftet werden. Norbert Wiener, der Begründer der Kybernetik hat in seiner letzten Schrift „Gott und Golem“ bereits auf das Verhältnis von künstlicher Intelligenz und Zauberei hingewiesen.345 In der Verselbständigung von Technik und dem damit verbundenen Kontrollverlust sah Wiener eine Parallele zur Zauberei als instrumenteller Verfügbarmachung der Wirklichkeit, die ihrerseits ihren Tribut fordert und nur dem Buchstaben nach den Wunsch gewährt. Wiener spricht daher auch von der „Magie der Automatisierung“.346 Dabei droht sich das Verhältnis umzukehren zwischen Herr und Knecht – der Zauberer will ebenso wie der „Apparate-Anbeter“347 die Natur seinem Willen unterwerfen, droht dabei aber selbst zum Sklaven zu werden. Die Verbindung des Anspruchs einer instrumentellen Verfügbarmachung der Natur, verbunden mit einem schicksalhaften Fatalismus entspricht nach Wiener der „Denkungsart des Zauberers“.348 Transhumanistische Entwürfe vereinen, wie oben bereits ausgeführt wurde, einerseits die Rede der schicksalhaften Notwendigkeit technologischer Weiterentwicklungen mit dem Anspruch der vollständigen Herrschaft über die Natur durch Mensch und Technik. In den transhumanistischen Entwürfen von Ray Kurzweil wird die Parallele zum Magischen explizit aufgeführt. In seinen technischen Visionen ist er inspiriert von Harry Potter: „Man kann auch die Geschichten von Harry Potter in diesem Licht betrachten: Sie mögen frei erfunden sein,
Ebd., S. 89. Wiener, Norbert: Gott & Golem Inc., Düsseldorf / Wien 1965. 346 Ebd., S. 86. 347 Ebd., S. 78, im Original kursiv. 348 Ebd., S. 81. 344 345
305
3 Negativität und philosophische Vernunftkritik
aber sie sind keine unrealistische Vision der Welt, wie sie in ein paar Jahrzehnten sein wird. Praktisch all die Harry-Potter-Magie wird technisch möglich werden; in diesem Buch werden wir sehen wie. […] Harry entfesselt seine magischen Kräfte durch Anwendung der richtigen Zaubersprüche. Das Finden und Anwenden solcher Beschwörungsformeln ist natürlich keine einfache Angelegenheit. Die Wortfolge, die Betonung und der ganze Ablauf muss bis ins Detail stimmen. Genau das gleiche gilt auch für moderne Technik: Unsere Zaubersprüche sind die mathematischen Formeln und Algorithmen, welche die Magie des modernen Alltags möglich machen.“349 Kurzweil zitiert hierzu auch den Physiker und Science-Fiction-Autor Arthur Clarke: „Hinreichend fortschrittliche Technik ist von Magie nicht zu unterscheiden.“350 Transhumanistische Entwürfe spielen mit ihren Bezügen zu religiös konnotierten Begriffen auf eine Ebene des vollständigen instrumentellen Zugriffs auf das Transzendente an. Die „Unbegreiflichkeit“ Kants oder das „Unsagbare“ Heschels wird ersetzt durch eine totale Enträtselung des Geheimsnisvollen: „Der Zauber einer intelligenten Eigenschaft scheint sich in Nichts aufzulösen, sobald wir verstehen, wie sie funktioniert. Was bleibt ist das Mysterium der übrigen, noch nicht ergründeten Aspekte von Intelligenz.“351 Kurzweil zitiert hierfür Rodney Brooks, den Leiter des MIT AI Lab: „Jedes Mal, wenn wir einen neuen Teil davon durchschaut haben, verliert dieser seine Magie; dann heißt es: Ach, das ist nur Rechnerei.“352 In der Logik des Transhumanismus, der einer radikalen aufklärerischen Objektivierung folgt, ist die Ebene des Unsagbaren irrelevant: Solange etwas nicht formalisiert werden kann, haftet ihm das Scheinhafte, Unwirkliche an und ist damit bedeutungslos. Sobald etwas formalisiert werden kann, ist es nicht mehr unsagbar, transzendent. Jede Transzendenz wird daher verabschiedet: Entweder, weil es letztlich nachgebaut werden kann oder weil etwas gar nicht erst in die Sprache einer formallogischen Quantifizierung überführt werden kann. Dies zeigt sich beispielsweise in Kurzweils Beantwortung der „lästigen Bewusstseinsfrage“:353 „Es gibt keine beweiskräftige Testmethode, um sein Vorhandensein festzustellen.“354 Was sich in eine quantifizierende Bestimmung nicht einfügen lässt, ist bedeutungslos. Was hingegen mit empirischen Mitteln quantifiziert werden kann, kann auch technisch nachgebaut werden. Eine Ebene von Transzendenz, die systematisch entzogen bliebe und nie restlos in eine Ebene der instrumentellen Verfügbarmachung überführt werden könnte, findet hingegen in transhumanistischen Entwürfen keine Erwähnung. Das Religiöse, Entzogene, Transzendente
Kurzweil: Menschheit 2.0, a. a. O., S. 5. Ebd., S. 4. 351 Ebd., S. 266. 352 Ebd. 353 Ebd., S. 386. 354 Ebd., S. 388. 349 350
306
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
steht immer unter dem Vorzeichen der vollständigen Verfügbarmachung der Natur. Anstelle einer Bewusstwerdung für Dimensionen des Unverfügbaren wird der Begriff der Transzendenz verdinglicht und umgedeutet.
3.3.3 Transhumanismus, künstliche Intelligenz und Transzendenz Transhumanistische Entwürfe wie von Ray Kurzweil können als Einlösungsverheißung religiöser Erlösungsansprüche gedeutet werden. Die Überwindung von Krankheit, die Überwindung von Alterung, Sterblichkeit und Tod, die Überwindung der leiblichen Begrenzungen des Menschen, die Überwindung des Bösen und die Schaffung Gottes sind darin mit einbeschlossen. Die Überwindung von Krankheit wird bei Kurzweil in einem Atemzug mit dem Imperativ zur vollständigen und totalen Optimierung im Sinne eines technischen Enhancements untrennbar verbunden. Menschliche Begrenztheit wird also als Krankheit selbst, als technisch zu überwindender Mangel bezeichnet. Organisches Leben wird als defizitär und vorläufig verstanden, weil seine Beschaffenheit sich nicht in reiner Funktionalität erschöpft. Die sinnkonstitutiven Aspekte von Negativität werden ausgeblendet. Auch Alterungsprozesse werden als funktionale Mängel eines Organismus gedeutet, Krankheit, Sterblichkeit und Tod werden somit reduziert auf Aspekte der Dysfunktionalität. Dementsprechend wird als letzte Sinnorientierung Funktionalität formuliert, nicht nur als Überlebenkönnen, sondern zugespitzt auf ein Leistungsprinzip, welches es zu maximieren, zu optimieren gilt. Der evolutionsbiologische Prozess der Weiterentwicklung von Arten wird damit in einen technischen Kontext übertragen und von einer deskriptiven Beschreibung zu einem normativen Prinzip erhoben. In diese Normativität ist auch das Wesen der Transzendenz eingeschlossen. Transzendenz wird verdinglicht und zum technologischen Projekt. Dabei verkehrt sich der ursprüngliche sinnkonstitutive Gehalt des Transzendenten um in sein Gegenteil. Indem die Überwindung der Sterblichkeit mit dem Aufgeben des biologischen Lebens verbunden wird, reduziert sich der Lebensbegriff auf Aspekte des Funktionalen. Die unbegrenzte Funktionalität leitet ein Ende des Lebens ein. Im Anspruch von Allwissenheit als vollständige Vermessung und Formalisierung der Welt gibt der Mensch die ihn genuin bestimmende Offenheit auf. Indem die menschliche Individualität durch ihre technische Reproduzierbarkeit gewahrt werden soll, geht das Wesen des Individuellen verloren. Obwohl Transhumanisten die Sprache der Religion bewusst bedienen, indem sie beispielsweise von Transzendenz355 sprechen, berühren sie die Ebene der Transzendenz als prinzipiel Ebd., S. 398f. Vgl auch Kurzweil, Ray and Grossmann, Terry: Transcend. Nine Steps to Living Well forever, New York 2009.
355
307
3 Negativität und philosophische Vernunftkritik
ler Ebene der Unverfügbarkeit, wie sie aus einer vernunftkritischen Position religionsphilosophisch rekonstruiert werden könnte, nicht. Die Kantische Frage nach der Hoffnung wird stattdessen in eine Frage des Wissens und Tuns überführt. Das Transzendente bleibt nicht wesentlich entzogen, sondern wird ebenso wie alles andere quantifiziert, formalisiert und verdinglicht. Und es wird verkäuflich: Da transhumanistische Entwürfe marktwirtschaftliche Prinzipien nicht in Frage stellen, ist davon auszugehen, dass die technoreligiösen Heilsversprechen den Menschen nicht umsonst zur Verfügung gestellt werden, sondern dass sie als Dienstleistungen angeboten werden, deren Ökonomisierung zur Profitmaximierung von Unternehmen beitragen soll. Offensichtlich wird dabei der unauflösbare Zusammenhang von Wissen und Macht. Mit dem Anspruch pseudoreligiöser Heilsversprechen in transhumanistischen Entwürfen geht eine unerhörte Machtfülle einher. Wenn die Einlösung transzendenter Sehnsüchte an die Bedingung geknüpft ist, zuvor den gesamten Bereich der seelisch-geistigen Personalität des Individuums dafür auszuleuchten, zu quantifizieren und zu formalisieren, so werden damit die innersten Dimensionen personaler Privatheit in eine Ebene vielleicht nie zuvor dagewesener Ökonomisierung, Ausbeutung und Manipulation überführt. Der Wunsch, aus der menschlichen Endlichkeit heraus in den Bereich des Unendlichen zu transzendieren, wird zum Vorwand für eine vollständige Quantifizierung des Menschen und zur allumfassenden Transparenz des Einzelnen: Um die gesamte Person unsterblich werden zu lassen, muss die Gesamtheit ihrer Informationen zur Verfügung zu stehen. Aus dem Gefühl für das Heilige, vor der die Sprache verstummt, wird die technikökonomische Legitimation eines informationstechnischen Totalitarismus. Aus einer Ehrfurcht für das absolut Verborgene wird die Schamlosigkeit restloser Transparenz. Das Wesen der Transzendenz ist damit verkehrt in sein Gegenteil. Für die Untersuchungen in der vorliegenden Arbeit ist ein zentrales Anliegen, die religiösen Anleihen zu rekonstruieren, welche in transhumanistischen Entwürfen formuliert werden. Einem positivistischen-technokratischen Programm folgend werden religiöse Erlösungsdimensionen als technische Lösungen für ein jeweiliges menschliches Problem angeboten. Die Überführung des Religiösen in eine Logik des Technischen führt jedoch zu einer Entleerung der religiösen Sprache. Jeglicher Bezug zu einer sinnkonstitutiven Negativität wird in den technologischen Spielarten des Transhumanismus umgeformt in ein vollständig Quantifizierbares, welches sich in die Logik instrumentell-rationaler Naturbeherrschung so einfügt, dass nunmehr auch das, was jenseits des Todes sich jeder empirischen Überprüfbarkeit entzieht, als Unsterblichkeit in eine technische Rationalität und Naturbeherrschung überführt werden soll. Immanuel Kant hat eine religionsphilosophische Schrift mit dem Titel verfasst: „Die Religion innerhalb der Grenzen der reinen Vernunft“.356 Das transhumanistische Verständnis von Kant, Immanuel: Die Religion innerhalb der Grenzen der bloßen Vernunft, Stuttgart 2007.
356
308
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
Religiosität könnte zusammenfassend bezeichnet werden als „die Religion innerhalb der Grenzen der instrumentellen Rationalität“. Nur was dem Anspruch der vollständigen technischen Verfügbarmachung der Natur nützlich ist, hat Relevanz. Durch Quantifizierung und Formalisierung des Universums und des Geistes und durch die damit einhergehende Möglichkeit der Machtausübung über die Natur begründet sich der Geltungsanspruch transhumanistischer Entwürfe. Gott wird zum Projekt der technischen Rekonstruktion. Die Personalität des Menschen wird zur Datenmenge. Ewiges Leben wird zum Projekt der Informationsverarbeitung und Unsterblichkeit wird zur Dienstleistung.
3.3.3.1 Transzendenz durch die vollständige Quantifizierung der menschlichen Personalität Die transhumanistischen Entwürfe von Moravec und Kurzweil stellen das Projekt der technologischen Umsetzung von Unsterblichkeit dar, indem alles, was die Personalität des Menschen ausmacht, vermessen und rekonstruiert wird: „Gehirn-Upload bedeutet, ein Gehirn bis ins letzte Detail zu scannen und in einem anderen geeigneten Medium nachzubilden. Dadurch würden die Persönlichkeit und sämtliche Erinnerungen und Fähigkeiten einer Person erfasst.“357 Die Vorbedingung für eine technische Nachbildung ist die Erfassung aller Daten, die eine menschliche Person ausmachen. Indem diese Daten erfasst werden, soll der Mensch seine Sterblichkeit überwinden können. Abgesehen davon, dass aus erkenntnistheoretischer und wissenschaftstheoretischer Sicht einiges dagegen spricht, dass ein solcher Gehirn-Scan und -upload auch tatsächlich die Persönlichkeit des Menschen nachbilden würde, ergeben sich aus diesem Vorhaben verschiedene normativ problematische Implikationen für das Projekt der Unsterblichkeit. Wenn einmal die Daten eines Menschen erfasst worden sind, dann stehen diese Daten nicht in Form einer holistischen, unverfügbaren Persönlichkeit zur Verfügung, sondern als Gesamtmenge von Daten, die jedoch auch beliebig verändert und manipuliert werden können. Derjenige, der einen Gehirn-Scan und Gehirn-Upload durchführen würde, könnte damit in jedes Detail eingreifen und dieses verändern. Indem die Gesamtheit aller Daten, die eine Persönlichkeit ausmachen, erfasst werden soll, werden diese Daten auch unter die Möglichkeiten eines instrumentellen Zugriffs derer gestellt, die Zugang zu diesen Daten haben. Durch die quantifizierende Erfassung des Menschen würden also neue Machtverhältnisse geschaffen werden, denn die Qualität des „ewigen Lebens“ könnte jederzeit durch diejenigen, die eine
Kurzweil: Menschheit 2.0, a. a. O., S. 199.
357
309
3 Negativität und philosophische Vernunftkritik
solche Technik verwalten, definiert werden. Aus dem Projekt der Unsterblichkeit ergibt sich also eine normativ problematische Verschiebung von Machtverhältnissen. Die moralphilosophische Bedeutung des Postulats der Unsterblichkeit der Seele als Grundbestimmung von Ethik, wie sie noch bei Kant entwickelt worden war, kehrt sich damit um. Immanuel Kant charakterisiert die Unsterblichkeit der Seele „als ein Postulat der reinen, praktischen Vernunft“.358 Die Unsterblichkeit wird, ebenso wie das „Dasein Gottes“ für Kant grundlegend für die Begründung von Moralität überhaupt.359 Der Glaube an die Unsterblichkeit der Seele ist in religiösen Entwürfen verbunden damit, dass die Handlungspraxis des Menschen sich als relevant auch über die existentiellen Grenzen des Menschen hinaus erweist. Mit dem Tod eines Menschen endet nicht die moralische Dimension der menschlichen Existenz. So entgegnete der christliche Bischof Johannes Chrysostomos (ca. 350–407) auf die Frage, wo die Hölle ist: „Fragen wir nicht, wo sie ist, sondern wie wir ihr entkommen!“360 Die moralische Bedeutung der menschlichen Lebenspraxis weist über die eigene Existenz hinaus. Thomas Rentsch skizziert dies aus einer vernunftkritischen Perspektive von Moralphilosophie: „Die Reden von Hölle und Verdammnis, verbunden mit der Rede von Gott, dienen so der Vergegenwärtigung der praktischen Grundsituation menschlicher Existenz und ihrem letzten, unbedingten Ernst. Unser Leben ist bis zum Tod von der realen Möglichkeit definitiven moralischen Scheiterns bedroht, von endgültiger Verschuldung.“361 Unsterblichkeit ist in einer religiösen Sprache nicht loszulösen von einer moralphilosophischen Dimension. Im transhumanistischen Projekt der Vermessung des Gehirns gibt es jedoch keinen Appell mehr an eine normative Lebenspraxis. Der Tod ist keine Dimension, angesichts derer die existentielle und unwiederbringliche Lebenspraxis des Menschen ihren Sinn entfalten könnte, sondern ein zu behebendes technisches Defizit des biologischen Organismus. Normatives Fragen wird ersetzt durch die Schaffung von störungsfreier Funktionalität.
3.3.3.2 Transzendenz durch die Reproduzierbarkeit des Menschen Moravec und Kurzweil stellen die technischen Möglichkeiten zur Überwindung des Todes unter die Bestimmung der vollständigen Quantifizierbarkeit und Rekonstruierbarkeit des Kant, Immanuel: Kritik der praktischen Vernunft, Stuttgart 1992, S. 194ff. Ebd., S. 200. 360 Johannes Chrysostomus: Migne Tomus 60, 674, zit. nach Rentsch: Gott, a. a. O., S. 18. 361 Rentsch: Gott, a. a. O., S. 18. 358 359
310
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
Menschen. Indem die relevanten Strukturen und Muster, welche die Personalität eines Menschen ausmachen, erfasst werden, um sie „in einem anderen geeigneten Medium nachzubilden“362, wird die Personalität des Menschen unter die Bestimmung der Reproduzierbarkeit gestellt. Wenn diese Daten einmal erfasst worden sind, warum sollten sie nur einmal nachgebildet werden? Wenn die „Reinkarnation“ des Geistes als technisches Vorhaben realisiert werden kann, dann ist nicht einsichtig zu machen, warum das Konzept der Individualität aufrecht erhalten werden sollte. Im Abschied von den leiblich-biologischen Grundbestimmungen in der Konstitution des Humanen wird die Individualität des Menschen als unhintergehbare Einzigartigkeit unterlaufen. Wenn zugunsten der Konstruktion einer unsterblichen postbiotischen Persönlichkeitsstruktur die biologischen Grundlagen des Menschseins verabschiedet werden sollen, dann impliziert ein solches Vorhaben die vollständige und totale Messbarkeit, Quantifizierbarkeit, Formalisierbarkeit und Überführbarkeit des personalen Wesenskerns eines Menschen in eine technologische Form. Als solche wäre diese jedoch beliebig oft rekonstruierbar. Wenn menschliche Identität in Quantifizierbarem und Konstruierbarem sich erschöpfte, dann könnte nicht erst nach dem biologischen Tod eines Menschen, sondern auch bereits vorher eine unbegrenzte Menge rekonstruierter technischer Varianten einer bestimmten Person hergestellt werden. Die Einzigartigkeit und Unwiederbringlichkeit des personalen Lebens ist mit der Vorstellung einer technischen Reproduzierbarkeit logisch nicht vereinbar. Gerade die Unwiederbringlichkeit des menschlichen Daseins begründet seine unhintergehbare Würde. Der ermordete Mensch kann nicht wiedergebracht werden. Durch das Fehlen von „Sicherheitskopien“ kann von einer „Ehrfurcht vor dem Leben“ als adäquater ethischer Haltung gesprochen werden.363 Wenn die Einsicht in die Fragilität und Fehlbarkeit des Menschen die Notwendigkeit zu moralischen Handeln begründet, dann müssten moralphilosophische Grundlagen in einer Welt des reproduzierbaren Menschen neu hergeleitet werden. Ist eine vollständige Reproduzierbarkeit des Menschen ohne ethischen Relativismus denkbar? In den Möglichkeiten zur Reproduktion selbst liegt mit der vollständigen Quantifizierung und Formalisierung des Menschen eine normative Problematik. Indem Informationen und Wissen mit Horkheimer, Adorno und Foucault immer auch mit einer Veränderung von Macht- und Herrschaftsverhältnissen korrelieren, bedeutet die vollständige Durchleuchtung des Menschen auch eine Überführung in einen Herrschaftsanspruch über den durchleuchteten Menschen.
Kurzweil: Menschheit 2.0, a. a. O., S. 199. Vgl. dazu Schweitzer, Albert: Die Lehre von der Ehrfurcht vor dem Leben, Berlin 1963.
362
363
311
3 Negativität und philosophische Vernunftkritik
3.3.3.3 Transzendenz als Transparenz und Herrschaftsanspruch Die Personalität eines Menschen bedeutet in transhumanistischen Entwürfen die Totalität seiner Daten.364 Der Mensch muss daher, um unsterblich werden zu können, zunächst transparent werden. Wer verfügt über die Daten? Und welche Verschiebungen von Machtverhältnissen ergeben sich daraus? Dave Eggers skizziert, wie oben bereits ausgeführt, in seiner Dystopie The Circle den Zusammenhang von digitaler Transparenz und der Verlagerung von Machtverhältnissen hin zu denjenigen Digitalkonzernen, die den Informationsfluss kontrollieren können. In Eggers Roman führt ein betrunkener ehemaliger Priesteranwärter die Nähe der digitalen Transparenz zum Prinzip der göttlichen Allwissenheit aus: „You connected it all. You found a way to save all the souls. This is what we were doing in the church––we tried to get them all. How to save them all? This has been the work of missionaries for millennia. […] you’re gonna save all the souls. You’re gonna get everyone in one place, yo’ ’re gonna teach them all the same things. There can be one morality, one set of rules. Imagine! […] Now all humans will have the eyes of God. You know this passage? ‘All things are naked and opened to the eyes of God.’ Something like that. You know your Bible? […] Now we’re all God. Every one of us will soon be able to see, and cast judgment upon, every other. We’ll see what He sees. We’ll articulate His judgment. We’ll channel His wrath and deliver His forgiveness. On a constant and global level. All religion has been waiting for this, when every human is a direct and immediate messenger of God’s will.“365
Der Zusammenhang zwischen der Offenbarwerdung der individuellen Handlungspraxis vor dem „Richterstuhl Gottes“366 bildet eine Grundlegung theologisch begründeter Ethik von Paulus bis Kant. Mit der Transparenz, die durch eine vollständige digitale Überwachung geschaffen werden kann, wird das „Auge Gottes“ für die Menschen verfügbar. Indem die Kompetenz der Allwissenheit technisch nachgebildet werden soll, kann auch das Gericht vom Menschen in die Hand genommen werden. Als instrumentell-technisches Wissen ist mit einem solchen Allwissenheitsanspruch auch das Potential digitaler Herrschaft verbunden, die in die
Vgl. Kurzweil: Menschheit 2.0, a. a. O., S. 199: „Gehirn-Upload bedeutet, ein Gehirn bis ins letzte Detail zu scannen und in einem anderen geeigneten Medium nachzubilden. Dadurch würden die Persönlichkeit und sämtliche Erinnerungen und Fähigkeiten einer Person erfasst.“ 365 Eggers: The Circle, a. a. O., S. 398f. 366 Die Bibel, a. a. O., 2. Kor. 5,10. 364
312
3.3 Negativität und Transzendenz – Was dürfen wir nicht hoffen?
Nähe einer technologischen Version von Allmacht rückt. Damit wären die Grundlagen für eine offene Gesellschaft unterlaufen. Die Überformung eines offenen Wissensverständnisses in eine quantifizierte, mathematisierte und formalisierte Sprache digitaler Verfügbarkeit ginge mit einer Einbuße des Charakters von Offenheit menschlicher Wissensstrukturen einher. Die Überformung einer offenen diskursiven Gesellschaft durch eine instrumentell-rational operierende Superintelligenz ebenso wie die vollständige Überführung der leiblich-personalen Struktur menschlicher Handlungspraxis in eine formallogisch-instrumentelle Architektur postbiologischer Intelligenzen würde die Grundlagen der menschlichen Lebenswelt unterlaufen, deren Sozialität durch interpersonelle Entzogenheit und Unverfügbarkeit bestimmt ist und in welcher Autonomie, Vertrauen, Freiheit und Würde vernunftkritisch-negativ konstituiert sind. Im Imperativ der totalen Optimierung und Maximierung eines funktional orientierten Leistungsprinzips wird die Fragilität des Menschen nicht mehr als sinnkonstitutive Bestimmung, in der menschliche kulturelle Praxis sich entfalten könnte, aufgefasst, sondern als defizitäre Struktur, die es zu überwinden gilt. Wenn nicht nur Krankheiten, sondern auch Alterungsprozesse und leiblich-biologische Grenzen des Menschen als Mangel im Sinne einer technischen Behebbarkeit aufgefasst werden, dann stellt ein solcher Optimierungsimperativ den Menschen vollständig unter funktionale Bestimmungen. Die Würde des Menschen ist damit restlos unter Kriterien einer instrumentellen Verdinglichungspraxis gefallen. Demgegenüber impliziert die religiöse Vorstellung der Allwissenheit und Allmacht Gottes eine Selbstbeschränkung menschlicher Handlungspraxis als Einschränkung des eigenen Rechts auf einen instrumentellen Zugriff auf die Welt und den Menschen. In den Vorstellungen monotheistischer Religionen wird das Gericht einem unverfügbaren Gott überlassen. Der religiöse Mensch kann damit einen Verzicht auf Selbstjustiz begründen.367 Die Idee der Allwissenheit und Allmacht Gottes wurde von Sören Kierkegaard gedeutet als „das Erbauliche, das in dem Gedanken liegt, dass wir gegen Gott immer unrecht haben.“368 Kierkegaard führt aus, wie in der Liebe zu einem Menschen und dem damit verbundenen Wunsch nach Hingabe der Wunsch, recht zu haben, in den Hintergrund rückt.369 „Je mehr du liebtest, um so weniger Zeit hattest du zu überlegen, ob du recht habest oder nicht“.370 Für Kierkegaard wird die Liebe auch die adäquate Antwort des Menschen auf das Fragen nach Gott. Wenn das „Rechthaben“ bei Kierkegaard im Zusammenhang mit einem instrumentellen Zugriff gedeutet wird, dann erweist sich eine religiöse Haltung als Einsicht in die Grenzen einer instrumentellen Vgl. die Bibel, a. a. O., Röm 12,19. Kierkegaard: Entweder – Oder, a. a. O., S. 923. 369 Ebd., S. 928. 370 Ebd., S. 927. 367
368
313
3 Negativität und philosophische Vernunftkritik
Rationalität. Gegenüber dem Unendlichen erkennt sich die Rationalität des Menschen als inkommensurabel. Gerade in dieser Einsicht wiederum erfährt der Mensch, dass er Anteil am Unendlichen hat: „So ist also der Wunsch, unrecht zu haben, Ausdruck für ein unendliches Verhältnis, die Einstellung, dass man recht haben will oder es schmerzlich findet, Ausdruck für ein endliches Verhältnis!“371 Die Idee der Allwissenheit und Allmacht Gottes wird somit zum Rückruf des Menschen zu sich selbst und zu einer Haltung von Offenheit und Empfangen, als Ruf zur Liebe, die in einer Einsicht in die Grenzen des eigenen Verstehens wurzelt. Die Lebenspraxis eines Menschen kann dann von einer empfangenden Hingabe statt von einem berechnend-kontrollierenden Verstehen geprägt sein.372 An die Stelle einer Selbstbeschränkung des Menschen, der sich gegenüber dem Unendlichen in seiner Beschränktheit erkennt, tritt mit einer vollständigen digitalen Quantifizierung eine transparente Welt, die dem Herrschaftsanspruch einer technischen Rationalität unterstellt wird. Transhumanistische Einlösungsangebote religiöser Erlösungsansprüche bergen damit dystopisches Potential. Sie bedrohen die Freiheit, Sozialität, Individualität, Menschenwürde und Autonomie des Menschen. Im reduktionistischen und funktionalistischen Anspruch der Neudeutung des Menschen und in der Totalität der technologischen Transformation menschlicher Lebenswelt im Programm transhumanistischer Entwürfe kann mit Adorno und Horkheimer eine radikalisierte Form von Aufklärung als totalitärer Struktur nicht von der Hand gewiesen werden.
3.3.3.4 Vom Ablasshandel zum Gehirn-Upload: Transzendenz als Ware, Unsterblichkeit als Dienstleistung Nach der Leugnung von Transzendenz im Zuge einer allumfassenden Objektivierung und Quantifizierung der Welt sollen nun also tradierte Dimensionen von religiöser Transzendenz in einer technologisierten Fassung eingelöst und realisiert werden. Die Überschreitung der leiblichen Grenzen bezieht hier keine andere Ebene ein als die materielle: Alle Prozesse sind operationalisierbar und folgen einer empirischen Plausibilität. Sie rekurrieren also trotz ihrer Überschreitung körperlicher Begrenzungen wieder auf Dinghaftes, Messbares, Quantifizierbares und Materielles. Das raum-zeitliche Begrenztsein soll aufgehoben werden, aber nicht durch ein Ideelles, Geistiges oder Entzogenes, sondern durch eine optimierte, vernetztere, intelligentere materielle Grundstruktur, in der unser Bewusstsein fortexistieren soll. Die Ebenen
Ebd., S. 926. Ebd., S. 931.
371
372
314
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
der Transzendenz sind somit nicht mehr unverfügbar, sondern halten vollständigen Einzug in den technologisch-instrumentellen Zugriff der menschlichen Rationalität. Dadurch fallen diese Bestimmungen samt und sonders in die Kategorie der technisch verfügbaren Welt, die unter anderem von Kapitalinteressen geleitet wird. Wem werden die technologischen Fortschritte zum Nutzen? In einer kapitalistischen Unternehmensphilosophie von Digitalkonzernen, aus der heraus viele transhumanistische Entwürfe formuliert wurden, können Nutzer der neuen Möglichkeiten nur diejenigen sein, die dafür bezahlen können. Transzendenz wird produzierbar, verfügbar, verwertbar, käuflich. Sie wird zur Ware, indem der materiell Privilegierte die Grenzen der Leiblichkeit überwinden kann. Das historische Sakrileg des Ablasshandels findet nun seinen technologischen Nachfolger im transhumanistischen Versprechen: Ewiges Leben muss bezahlbar bleiben.
3.4 Negativität und Anthropologie – Was ist der Mensch nicht? 3.4.1 Ist der Mensch eine Maschine? Transhumanistische Entwürfe deuten den Menschen als dysfunktionale Maschine. Anknüpfend an eine mechanistische Deutung des Menschen und eine Computermetapher des Geistes wird die menschliche Personalität unter funktionalen, technischen Bestimmungen beschrieben. Der Mensch wird dabei im Anschluss an eine darwinistische Beschreibung des biologischen Lebens als Prototyp der Evolution verstanden, der noch immer unter den Prämissen des Artenkampfs um seine Durchsetzung zu ringen hat. Die Weiterführung des Artenkampfs findet nunmehr im marktökonomischen Wettbewerb seine Fortsetzung. Die Zielorientierungen des Menschen laufen damit auf eine Verbesserung und Optimierung seiner Leistungsfähigkeit hinaus. Indem technische Konstruktionen sich zunehmend als leistungsfähiger und funktionaler als menschliche Organismen erweisen, wird der Mensch damit selbst zu etwas, was überwunden werden muss. Das organische Leben kann im Wettbewerb mit seiner eigenen Schöpfung, den Maschinen, nicht Schritt halten. Das biologische Leben steht damit unter der Perspektive des Vorläufigen. In einer „Menschheit 2.0“ wird das Wesen des Menschen, seine funktionale Leistungsfähigkeit und quantitativ bestimmbare Intelligenz, fortgeführt in Form einer technologischen Evolution. Maschinelle Intelligenz trägt das Wesen der Menschheit in einer postbiologischen Form weiter, die leistungsfähiger und weniger mangelhaft als die menschliche Form ist.
315
3 Negativität und philosophische Vernunftkritik
Der Mensch wird also als Maschine gedeutet, dementsprechend wird Maschinen prinzipiell die Möglichkeit von Menschlichkeit zugeschrieben. Maschinen sind wie Menschen, nur leistungsfähiger. Im Vergleich mit der Maschine der Zukunft wird der Mensch abdanken und sich als historisches Relikt in der Weiterentwicklung von Intelligenz im Universum zurückstellen müssen. Transhumanistische Entwürfe begründen sich durch technische Erfolge und wissenschaftliche Erkenntnisse. Sie setzen dabei ein Wissenschaftsverständnis voraus, das sich angesichts der Weiterentwicklung und Paradigmenwechsel der empirischen Wissenschaften des 20. Jahrhunderts nicht mehr halten lässt. Sie blenden grundlegende Einsichten in die Negativität von Erkenntnis im Sinne von Grenzen einer Formalisierung und im Sinne einer Reflexion auf die Vorbedingungen von wissenschaftlicher Erkenntnis überhaupt aus. Eine Quantifizierung, Formalisierung und Modellierung eines Gegenstands ergreift nicht den Gegenstand selbst. Für ein Verständnis des menschlichen Geistes wird in transhumanistischen Entwürfen ein Grundmodell der Computermetapher des Geistes angelegt, das sich nicht als haltbar erweist. Ein funktionales Verständnis des Menschen wird der lebensweltlichen leiblichen Einbettung personalen Wissens nicht gerecht. Von Funktionalität kann nicht auf Bewusstsein oder Personalität geschlossen werden.373 Auch wenn die Emotionalität des Menschen durch eine funktionale Beschreibung erklärt werden könnte, entspricht ein solcher Ansatz nicht dem phänomenalen Charakter der menschlichen Emotionalität, welcher sich aus der lebensweltlichen Perspektive menschlicher Handlungspraxis oft gerade nicht als funktional erweist. Wer möchte schon gern unglücklich verliebt sein? Worin besteht die Funktion der Todessehnsucht in der Romantik? Emotionales Erleben ist nicht primär durch seine Funktionalität sinnvoll beschreibbar. In jeglicher Perspektive erweist sich eine funktionalistische Reduktion der Wirklichkeit als irreführend, um davon ausgehend einen Analogieschluss von einem modellierten Gegenstand zu seinem Modell zu ziehen. Transhumanistische Entwürfe setzen voraus, dass eine quantifizierte und formalisierte Bestimmung der Wirklichkeit für alle Phänomene der Welt entwickelt werden kann und dass eine solche Bestimmung das charakteristische Wesen des jeweiligen Gegenstandes erfasst. Beide Annahmen erweisen sich erkenntnistheoretisch und wissenschaftstheoretisch als nicht haltbar. Sie bleiben auf einem wissenschaftlichen Selbstverständnis eines Laplace und bei einem Menschenbild von La Mettrie stehen und blenden Einsichten in grundlegende Einschränkungen menschlicher Erkenntnisfähigkeit sowie in die lebensweltlichen und leiblichen Apriori-Bestimmungen menschlicher Erkenntnis systematisch aus. Im Anschluss an die philosophische Vernunftkritik, die in dieser Arbeit skizziert wurde, rekurriert eine negative Anthropologie auf die Unbestimmbarkeit, Entzogenheit und Vgl. Kap. 4.3 dieser Arbeit.
373
316
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
Unverfügbarkeit der Totalität personalen Lebens. Die seelisch-geistige Personalität des Menschen wird mit dem Bewusstsein um die unhintergehbare Leiblichkeit, die als Apriori-Bestimmung jede Wahrnehmung und Erkenntnis erst bedingt, als holistische Unverfügbarkeit der Ganzheit des menschlichen Seins entwickelt. Dieses ist durch Offenheit geprägt im Sinne einer Unbestimmbarkeit selbst letzter Sinnorientierungen ebenso wie der prinzipiellen Unableitbarkeit menschlicher Handlungen in der lebensweltlichen Praxis. Daraus leiten sich Bestimmungen der gegenseitigen, interexistentiellen Entzogenheit von Menschen ab, dergegenüber der Begriff der Würde eine normative Grundlegung bildet, welche erst die Herausbildung ethischer Haltungen ermöglicht. Das Geheimnis menschlicher Individualität findet in der sozialen, interpersonalen Lebenspraxis die Perspektiven von Vertrauen, Beziehung, Freundschaft oder Liebe, die nur in diesen offenen Kontexten sinnvoll systematisiert werden können. Für eine Beschreibung des Menschen erweisen sich die unterschiedlichen Perspektiven, die auf ihn geworfen werden, als inkommensurabel zueinander. Subjektivität und Objektivität, Leiblichkeit und seelisch-geistiges Leben, Emotionalität und Rationalität, empirisch-objektive Beschreibungen und die menschliche Lebenspraxis sind jeweils nicht restlos einander vermittelbar. Sie bilden gerade durch ihre unterschiedlichen Zugänge mögliche Beschreibungen unserer Selbst, die als sprachliche Akte unser Selbstbild aktiv prägen und selbst als sprachliches Handeln interpretiert werden können. Personalität kann in diesem Sinn niemals in irgendeiner Form restlos begriffen werden, sondern nur aus unterschiedlichen Perspektiven her gedeutet und immer neu erschlossen werden. Die Beschreibung des Menschen als vollständiges Analogon zur Maschine, wie sie in transhumanistischen Entwürfen vorausgesetzt wird, erweist sich angesichts dieser Einsichten als inadäquat. Weder das Universum noch der Mensch gehen in einer mechanistischen Deutung vollständig auf. Wenn alles unter mechanistischen, quantitativen und funktionalen Kriterien gedeutet wird, dann verkennt eine solche defizitorientierte Beurteilung des Menschen die Bedeutung von Negativität für die Sinnkonstitution des Menschen. Wenn Dreyfus und Dreyfus in ihren Publikationen auf das verwiesen haben, „was Computer nicht können“374, dann nimmt eine negative Anthropologie eine Perspektive ein, welche die Grenzen des Menschen systematisiert. Gerade die Grenzen des Menschen sind dementsprechend für seine Sinnorientierung erst konstitutiv. Kurz: Wenn wir diese Grenzen nicht mehr hätten, wären wir ärmer. Oder: Wenn wir unser Bewusstsein um unsere Grenzen verlieren, dann bewegen wir uns in ethisch problematische Felder. Die Schwächen des Menschen und die Grenzen seines Wissens ermöglichen erst, uns als freie, selbstbestimmte Individuen zu deuten, uns gegenseitig als interessante Persönlichkeiten wahrzunehmen und einander zu vertrauen. Die Einsicht in die Dreyfus, Hubert L.: Was Computer nicht können. Die Grenzen künstlicher Intelligenz, Frankfurt am Main 1989.
374
317
3 Negativität und philosophische Vernunftkritik
unhintergehbaren Grenzen für eine quantitative Bestimmung des Werts von Menschen bildet damit die Grundlage für ein Verständnis einer universellen, bedingungslosen Menschenwürde, die zur normativen Grundlage des Menschseins werden kann. Der Versuch einer Quantifizierung menschlichen Wertes droht dieses Verständnis von Würde zu unterlaufen. Die funktionalistische Deutung des Menschen degradiert ihn und gefährdet ihn, weil seine Dysfunktionalität als Mangel letztlich zum technischen Problem erhoben wird. Wenn dieses technische Problem vollständig behoben werden soll, dann kann dies nur in einer Elimination des Menschen gelingen. Transhumanistische Entwürfe zielen damit auf die Abschaffung des Menschen und auf das Ende der Humanität. Durch eine technische Bestimmung des Menschen unterlaufen sie seinen existentiellen Wert. Durch eine Anthropomorphisierung von Technik erschweren sie eine sinnvolle Einbettung der neuen Technologien im Sinne einer reflektierten Mensch-Maschine-Interaktion, weil sie Dualismen erzeugen und Antagonismen provozieren.
3.4.2 Künstliche Intelligenz als Potential für die Anthropologie Die Entwicklungen zur künstlichen Intelligenz und die Entwürfe transhumanistischer Autoren fordern den Menschen zu einer Selbstbestimmung heraus. Die Aufgabe der Philosophie und Anthropologie ist es, angesichts einer Verkürzung des Menschenbilds auf positivistische, instrumentelle, funktionale und marktökonomische Bestimmungen die vernunftkritischen Potentiale von Erkenntnis, Ethik und Sinnorientierung herauszuarbeiten. Damit einher geht auch die Notwendigkeit, die Traditionslinie dieser Verkürzung philosophiegeschichtlich zu rekonstruieren und zu revidieren. „Die Maschine Mensch“ kursiert immer noch, nicht nur wissenschaftstheoretisch, sondern auch als ethische und anthropologische Bestimmung in gesellschaftlichen Diskursen und in philosophischen Arbeiten. Die Reduktion des Menschen auf seine Funktionalität findet in den Entwicklungen zur künstlichen Intelligenz eine Entsprechung, die auch zu einem neuen Anlass werden kann, die Würde des Menschen wieder als unhintergehbaren und unbedingten Wert gegenüber jedem quantifizierenden oder instrumentellen Zugriff hochzuhalten und sich der Aufgabe ihrer Vermittlung für gesellschaftliche Diskurse zu stellen. Für das Menschenbild der Philosophie ist die Entwicklung einer rationalen Rechenmaschine als Einlösung des Rationalitätsideals ein Spiegel, vor dem es notwendig und möglich wird, Einsichten zu formulieren, wie jenseits einer rationalistischen Verkürzung ein genuin Menschliches beschrieben werden kann. Das Ringen um solche Einsichten konkretisiert sich in den Fragen Kants um die Möglichkeiten und Grenzen menschlichen Wissens, um die normativen Bedingungen für die menschliche Handlungspraxis und um die Bedingungen für Sinnorientierung an der Grenze zur 318
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
religiösen Sprache und Transzendenz und gipfelt in der Frage nach der Selbstbestimmung des Menschen. Die inkommensurable Vermittlung von Aspekten sinnkonstitutiver Negativität gegenüber einer formallogisch-instrumentellen Reduktion zeigt sich dabei in allen Bereichen der Kantischen Fragen. In der Frage um das Wesen des Menschen bündeln sich daher auch die Perspektiven der anderen drei Fragen Kants.
3.4.3 Der Mensch zwischen Tier und Maschine Die Philosophie des Abendlands hat in ihrer Frage, was den Menschen auszeichnet und was ihn vom Tier unterscheidet, schon immer seine Fähigkeit zu denken hervorgehoben. Die Rolle der Rationalität wurde in der philosophischen Tradition der europäischen Geschichte gegenüber dem Tierischen oft als wesensmäßig für eine Bestimmung dessen gesehen, was den Menschen auszeichnet und somit das Wesen des Menschen ausmacht. Zur Selbstbestimmung des Menschen wurde dieser in der Philosophiegeschichte immer wieder in seiner Abgrenzung zum Tier definiert. Bei Aristoteles wird der Mensch als ζῷον λόγον ἔχων und als ζῷον πολιτικόν bestimmt.375 Der Mensch ist verwurzelt im Logos, in Vernunft und Sprache. Diese Bestimmungen gehen ihm voraus. Gleichzeitig ist sein Wesen auf Sozialität und Gesellschaft angelegt.376 Der Mensch ist also im Vergleich zum Tier durch Sprache, Logik und Rationalität einerseits, durch Sozialität im Sinne politisch-gesellschaftlicher Handlungspraxis andererseits bestimmt. Grundbestimmung bleibt dabei die Einordnung in die Welt des Lebendigen, als Lebewesen. Dem Griechischen entspricht in der lateinischen Form animal rationalis, bzw. animal civile, womit auch eine Bedeutungsänderung einhergeht. Der Mensch wäre mit der Begrifflichkeit animal ja gerade in die Tierwelt eingeordnet, während er als ζῷον, als Lebewesen, zwar in den Bereich des Lebendigen gestellt ist, doch eben genau nach dem fragt, was ihn von anderen Lebewesen, nämlich den Tieren, unterscheidet. Gegenüber dem Begriff βίος ist ζωή auch ein weiter gefasster Begriff des Lebendigen, der sich nicht im Vegetativen erschöpft, sondern in anderen Kontexten in der Antike auch als Lebensfülle, existentielles Der Mensch als ζῷον πολιτικόν findet sich bei Aristoteles in Περι τα ζῳα ἱστοριων / De Animalibus / Historiae / Tierkunde I,1 (488a) sowie in Πολιτικων / Politica / Politik I,2 (1253a). In Περι τα ζῳα ἱστοριων I,1 stellt Aristoteles Möglichkeiten zur Einteilung der Lebewesen vor, wobei entweder Physiologie oder Verhalten als mögliche Kriterien für eine Systematisierung einbezogen werden. Für eine Systematisierung des Verhaltens teilt Aristoteles den Menschen zur Klasse der „politischen“ Lebewesen (πολιτικα), die sich also in Kollektiven organisieren. Vgl. O’Meara, Dominic: Der Mensch als politisches Lebewesen. Zum Verhältnis zwischen Platon und Aristotels, in: Höffe, Otfried (Hg.): Der Mensch – ein politisches Tier? Essays zur politischen Anthropologie, Stuttgart 1992, S. 14–25, dort S. 15f. 376 Vgl. Heidegger, Martin: Einführung in die Metaphysik, Tübingen 1957, S. 108. 375
319
3 Negativität und philosophische Vernunftkritik
Leben verwendet wurde.377 Gegenüber dem Begriff der ratio erweist sich der Anteil des Menschen am λόγος ebenso als Gegensatz gegenüber einer rationalistischen Verkürzung. Als Vernunft, Sprache und Logik umfasst λόγος eine Dimension sprachlichen Denkens, bzw. von Denken durchzogener Sprache, die dem Menschen existentiell vorausgeht und die der Mensch in seinen lebenspraktischen Vollzügen immer nur ansatzweise einholen und bewusst werden lassen kann. In der Rezeptionsgeschichte dieser Bestimmung und in der Weiterentwicklung der systematischen Abgrenzung des Menschen von den Tieren wurde die Betonung des Rationalen immer stärker herausgearbeitet.378 Wenn das Wesen des Menschen in seiner Fähigkeit zum logischen Denken gründet und wenn die triebhaften, körperlichen Lebensvollzüge nur ein Hindernis für die Vervollkommnung seiner Rationalität darstellt, wäre dann nicht eine Maschine, deren Abläufe vollständig durch logische und rationale Kriterien determiniert wären, menschlicher als der Mensch?
3.4.4 Künstliche Intelligenz als Traum absoluter Rationalität Der Mensch definiert sich also seit Aristoteles dadurch, dass er ein ζῷον λόγον ἔχον ist, ein vernünftiges und sprachfähiges Lebewesen. Seine Intelligenz übertrifft die der Tiere, seine Fähigkeit zu denken ist offenbar sein großer Trumpf. Die Philosophen der Aufklärung rühmten die Vernunft und setzten darin ihre Hoffnung, dass die Menschheit zu ihr durchdringen würde. Das Triebhafte, Unvernünftige, Unmündige gelte es zu überwinden, um das genuin Menschliche zu seiner Größe zu führen. Kierkegaard karikiert dies jedoch auch als Verkürzung des Menschen: „Ich rede am liebsten mit Kindern, denn von ihnen darf man noch am ehesten hoffen, dass sie einmal Vernunftwesen werden. Diejenigen aber, die es geworden sind … herrjemine!“379 Die technologischen Errungenschaften der Künstlichen Intelligenz ermöglichen es uns mittlerweile, rein rationale Strukturen nachzubilden, die nicht durch die biologische Beschaffenheit eines Organismus triebhaft gefärbt wären. Das Ideal einer rein geistigen Rationalität kann zumindest in ihren Grundbausteinen technisch realisiert und konstruiert werden. Transhumanisten wie Moravec und Kurzweil sehen daher in künstlicher Intelligenz unsere
Als spirituelle Dimension bildet der Begriff ζωή beispielsweise im Johannesevangelium eine Beschreibung von Leben als Überfluss (vgl. Joh. 10,10). 378 Vgl. zu den philosophiehistorischen Bezügen Kap. 2.4 dieser Arbeit. 379 Sören Kierkegaard: Entweder-Oder, a. a. O., S. 28. 377
320
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
„Kinder im Geiste“380 und eine Vollendung von Humanität: „Tatsächlich werden diese zukünftigen Maschinen sogar menschenartiger sein als jetzige Menschen.“381 Diese Überhöhung des Rationalen als das genuin Menschliche, bzw. als Anteil am Göttlichen, welches durch eine Verankerung im Körperlichen jedoch getrübt bleibt, geht noch bis zu Platon zurück, der Erkenntnis als Geistiges, als Immaterielles dualistisch gegen dessen leibliche Einbettung als Körperliches, Vergängliches ausgespielt hatte: „Glauben wir, dass der Tod etwas ist? […] Doch wohl nichts anderes als die Trennung der Seele vom Körper?“382 Gerade in der Befreiung der Seele vom Körper besteht demnach der Weg zur Vollkommenheit, den Platon in der Philosophie sieht: „Sie zu lösen, bemühen sich aber, wie wir sagen, immer am meisten und alleine die rechten Philosophierenden, und gerade das ist das Geschäft der Philosophen, die Lösung und Trennung der Seele vom Körper.“383 Erkenntnis, Geistiges, Logik gehören für Platon zur Welt der unvergänglichen Wahrheiten, während der Körper der Vergänglichkeit unterworfen ist. Transhumanistische Entwürfe spitzen diesen Gedankengang zu, wenn sie mathematische Muster losgelöst von ihren leiblichen Einbettungen als Essenz des Geistes deuten. Von Platon weichen sie freilich ab, wenn sie dessen Dualismus zur Grundlage eines technologischen Projektes werden lassen, anstatt nach Erkenntnis des Wahren zu streben. Die Überhöhung des Geistig-Rationalen bildet damit eine Grundlage dafür, in einer Entwicklung von Strukturen vermeintlich absoluter Rationalität wie Hans Moravec eine Essenz des Besten vom Menschen zu sehen. Wenn Technik „denken“ kann, wenn sie rationaler, intelligenter, logischer operieren kann als natürliche Menschen, dann muss einem solchen Gedankengang zufolge Technik nicht nur auf dieselbe Stufe mit dem Menschen gestellt werden, sondern konsequenterweise die Ära des Menschen für beendet erklärt werden. Wenn das Höchste, was den Menschen auszeichnet, die Fähigkeit zum logischen Denken und zum Rechnen ist, dann sind Maschinen, die besser als der Mensch logisch schließen und rechnen können, auch „menschlicher“ als natürliche Menschen. Sie hätten sozusagen als Essenz dessen, was Menschen als Menschen auszeichnet, losgelöst von jeder emotional-triebhaften oder körperlichleiblichen Trübung, die Rationalität als die höchste Gabe des Menschen zur Vollendung gebracht. Eine „reine Vernunft“, nicht im Kantischen Sinn, sondern als kohärente, abstrakte, reine Rationalität wäre geschaffen, die Elemente des Logischen wären zur Vollendung gebracht. Doch die Selbstbestimmung des Menschen hätte damit ihren Anteil am ζωή als ζῷον eingebüßt. In der Rekonstruktion einer philosophischen Anthropologie erweist sich jedoch die Moravec, Hans: Mind Children, a. a. O. Ebd., S. 389. 382 Vgl. Platon: Phaidon, 64c. 383 Ebd., 67d. 380 381
321
3 Negativität und philosophische Vernunftkritik
Leiblichkeit des Menschen als unhintergehbar für seine Selbstbestimmung, als Apriori auch für die Herausbildung einer genuin menschlichen Vernunft. In einer instrumentellen Rationalität geht damit auch das λόγος des Menschen nicht auf, welches nicht nur in formallogischen Strukturen, sondern bereits vortheoretisch in seinem Leibapriori gründet. In der Abgrenzung des Menschen von der künstlichen Intelligenz rückt die Konstitution des Menschen als ζῷον neu in den Blick. Menschliche Vernunft ist von Leiblichkeit, von Affekten, Emotionen und vom Triebhaften geprägt. Diese Aspekte sind nicht dualistisch gegenüber einer vermeintlichen reinen Rationalität abzugrenzen oder dieser als diametrale Gegensätze entgegenzustellen. Stattdessen gründet jede menschliche Ratio und auch menschliche Vernunfterkenntnis in ihren leiblichen Bestimmungen, die auch emotional geprägt sind. Jede formale Logik stellt nur eine von vielen möglichen Beschreibungsformen dar, in welchen sich die menschlichen Lebensvollzüge nur fragmentarisch fassen lassen. Sie können nur einen Ausschnitt dessen, was die Offenheit menschlicher Erkenntnisprozesse, sprachlicher wie lebenspraktischer Handlungspraxis und existentieller Sinnorientierung ausmacht, in einer abstrakten, verkürzten Form wiedergeben. Der Begriff der Abstraktion leitet sich aus dem lateinischen Wort abstrahere ab: „wegziehen, fortreißen, entfernen“.384 Das, was sich nicht verallgemeinern lässt, fällt bei der Abstraktion weg. Individualität ist nicht abstrahierbar. Die Bedeutung der Strukturen des organischen Lebens, in welchen jedes individuelle menschliche Sein wurzelt, sind damit unhintergehbar für jede Selbstbestimmung des Menschen. Sie können in der Sprache der Biologie mit der Selbstorganisation des Lebendigen, in der Sprache der Physik als Indeterminismus komplexer Systeme, phänomenologisch als Leiblichkeit des Menschen aufgefasst werden. Emotionale wie intellektuelle Aspekte des personalen Lebens prägen dabei die Vielschichtigkeit menschlicher Personalität mit. Die verschiedenen Beschreibungsformen sind dabei zueinander inkommensurabel. Sie können nicht hermeneutisch in eine jeweils andere Darstellungsform restlos transformiert werden. So ist auch eine Beschreibung menschlicher Personalität nicht in der formallogischen Sprache möglich, in welcher die Rechenprozesse künstlicher Intelligenz ablaufen können. Die Möglichkeit der technischen Konstruktion einer vermeintlich reinen Rationalität fordert vom Menschen eine neue Form der Selbstbestimmung. Will der Mensch sich weiterhin über seine Fähigkeit zum logischen Denken definieren, so muss er seine neuen künstlichen Artgenossen als neue Verwandtschaft begrüßen. Er steht dabei in der Gefahr, selbst seinem eigenen Anspruch nicht mehr hinreichend genügen zu können – über kurz oder lang wird er nicht das logischste Wesen bleiben und muss sich als Wesen zwischen Tier und Computer als auf einer mittleren Ebene betrachten. Dies mag der Grund sein, warum Moravec und Kurzweil 384
Vgl. Georges, Karl Ernst: Ausführliches Lateinisch-Deutsches Handwörterbuch, 1. Band, Darmstadt 2003.
322
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
den Menschen als „Wesen zweiter Klasse“ bezeichnen.385 Die reine Vernunft mag seiner Schöpfung, der künstlichen Intelligenz, vorbehalten bleiben, doch er selbst darf nicht der Illusion erliegen, dass er selbst diesem Anspruch genügen könnte. Der Mensch bestimmt sich damit als Zwischenschritt: Nach ihm kommt etwas Größeres als er. In dieser Radikalität führt die Debatte um die Zukunft der Künstlichen Intelligenz und des Menschen zu einer neuen Dialektik der Aufklärung: Die absolute Rationalität in ihrer technischen Nachbildung löst sich vom Menschen ab, wird selbst zum Akteur und zur Bedrohung des Menschen. Wenn der Mensch den Aspekt der instrumentellen Rationalität, mit dem er sich die Natur unterworfen hat, nunmehr losgelöst von sich selbst operieren lässt, wird der Mensch irgendwann gezwungen sein, sich selbst restlos wegzurationalisieren, weil alles, was sich in den Strukturen der Formallogik nicht fassen lässt, für eine solche letztlich zum dysfunktionalen Störungsfall wird. Doch was unterscheidet die Kompetenzen der künstlichen Intelligenz von den Kompetenzen des menschlichen Geistes? Aristoteles und viele Denker nach ihm versuchten, sich dem Wesen des Menschen darüber zu nähern, indem gesucht wird, was den Menschen vom Tier unterscheidet. Eine Selbstbesinnung des Menschen und der Versuch einer Abgrenzung zur künstlichen Intelligenz rückt den Menschen wieder in die Nähe der Tiere. Der Mensch ist gegenüber dem Tier offenbar mit einer Fähigkeit zu Vernunft und zu logischem Denken ausgestattet, um sich über das Triebhafte zu erheben. Der Mensch ist allerdings gegenüber der Maschine doch im Triebhaften, Leidensfähigen, Sterblichen, Leiblichen verankert. Wem fühle ich mich als Mensch stärker verbunden: der Kuh, die wie ich das Empfinden von Angst, Hunger und Schmerz kennt oder dem Computer, der wie ich logisch denken und rechnen kann und der mich im Schachspiel besiegt? Die philosophischen Analysen zu den Fortschritten der Künstlichen Intelligenz ermöglichen auch eine Neubesinnung auf eine Anthropologie, die sich nicht einseitig auf das Rationale gründet.
3.4.5 Leiblichkeit Wenn eine philosophische Anthropologie sich gegenüber einer vereinseitigenden Überhöhung gegenüber dem Rationalen artikulieren will, dann kann eine Rückbesinnung auf die erkenntnistheoretischen Bestimmungen der Leibphänomenologie auch für eine anthropologische Neuausrichtung in der Frage nach dem Verhältnis zwischen Mensch und Maschine rekonstruiert werden. Gegenüber einer dualistischen Entgegensetzung von einem subjektiven „Geist“ und einem objektiv beschreibbaren „Körper“ bezeichnet der Begriff des Leibes die Vgl. Moravec: Mind Children, a. a. O., S. 140. Vgl. Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 205.
385
323
3 Negativität und philosophische Vernunftkritik
Körperlichkeit des Menschen in seiner Ebene von subjektiver Personalität, die als Apriori-Bestimmung jeder Wahrnehmung und Erkenntnis vergegenwärtigt werden muss. Der Mensch hat keinen Zugang zur Welt, zu Anderen, zu sich selbst, die nicht in seiner Leiblichkeit gründen würde. Der Leib ist des Menschen Zugang zur Welt. Objektivität kann sich ihm nur erschließen, insofern ihm in seinem Leib etwas von außen her widerfährt, was er als ein jeweils anderes, als Objektives, „Entgegengeworfenes“ erlebt.386 Objektivität kann aus menschlicher Perspektive niemals aus einer abstrakt-idealisierten Perspektive, mit Thomas Nagel als „Blick von Nirgendwo“387, systematisiert werden, ohne dabei die Grundlagen zu übergehen, die jeder möglichen Wahrnehmung und Erkenntnis erst vorausgehen. In seiner Leiblichkeit agiert der Mensch nicht als geistige oder rationale Abstraktion, sondern immer eingebettet in soziale, emotionale, sinnstiftende, funktionale, pragmatische oder habituelle Kontexte. Er operiert in diesen Kontexten nicht, indem er einem formallogischen System folgen würde, sondern indem er als personaler Akteur in ihnen handelt. Die körperlichen Prozesse, die diesem Erleben und Handeln entsprechen, können selbstverständlich mit empirischen Methoden beobachtet, objektiviert und gemessen werden, doch geht das leiblich-personale Handeln und die Phänomenalität seiner Lebenswelt in einer solchen Beschreibung nicht auf. Auch lassen sich aus einer objektivierenden Beschreibung des Menschen seine Handlungspraxis und seine Lebensvollzüge nicht eindeutig und vollständig bestimmen. „Geist“ kann daher nicht antagonistisch oder idealisiert gegen einen „Körper“ ausgespielt werden im Sinne eines Dualismus, wie ihn beispielsweise Descartes entwickelt hat. Als leibliche Person kann der Mensch erst Objektivität gewinnen. Die Perspektive des Menschen selbst bildet erst die Voraussetzung für jede mögliche Objektivierung. Eine objektivierende Beschreibung der menschlichen Personalität kann wiederum nicht derart idealisiert werden, dass sie losgelöst von ihren konstitutiven Bedingungen die Subjektivität in Objektivität auflösen könnte. Der Begriff des Leibes ist daher keine objektive Beschreibung materieller Abläufe des menschlichen Körpers unter der Zielstellung eines physikalistischen Reduktionismus. Stattdessen bildet der Begriff des Leibes eine holistische Dimension von menschlicher Personalität, in der die Wahrnehmungsperspektive des Menschen sich konkretisiert.388 Leiblichkeit erschöpft sich nicht in einer rationalistischen, physikalistischen oder funktionalistischen Abstraktion, sondern bildet eine Beschreibungsebene der Perspektive menschlichen
Lat. obiectus, wtl. das „Entgegengeworfene“, abgeleitet von obicio, „entgegenwerfen, -setzen, -stellen“, urspr. von iacio, „werfen“. Vgl. Georges, Karl Ernst: Ausführliches Lateinisch-Deutsches Handwörterbuch, 2. Band, Darmstadt 2003. 387 Nagel, Thomas: Der Blick von nirgendwo, Frankfurt am Main 2012. 388 Vgl. Kap. 3.1.8 dieser Arbeit. 386
324
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
Seins. Diese leibliche Perspektive beinhaltet weit mehr Aspekte und Dimensionen, die phänomenologisch beschrieben werden können, als nur eine Rationalität unter der Prämisse physikalistischer oder funktionalistischer Formalisierbarkeit. Emotionalität, Sozialität, Affekte, Triebe, Bedürfnisse, Wünsche, Intentionen, Kognitionen, Wille und Motivation stellen nur eine Auswahl möglicher Begriffe dar, unter welchen Aspekte leiblich-personalen Lebens systematisiert werden könnten. Bevor der Mensch eine Rationalität entwickelt, die sich formalisieren ließe, ist er bereits eingebunden in leibliches Erleben, in emotionales Leben und in soziale Interaktion.
3.4.6 Der Mensch und sein Du In den vorangegangenen Kapiteln wurde die Bedeutung von Sozialität in seiner Bedeutung für Erkenntnistheorie, Ethik und Sinnkonstitution aus verschiedenen Perspektiven dargestellt.389 Sozialität kann als Zug des wesenhaft Menschlichen ausgewiesen werden, weil die Sprache des Menschen, seine Erkenntnisprozesse, seine Handlungspraxis und seine Sinnkonstitution immer in soziale Kontexte eingebettet sind und nur aus dieser irreduziblen Einbettung in soziale Strukturen her erschlossen werden können. Ohne eine Reflexion auf die sozialen Vorbedingungen jeder Rationalität ist ein Verständnis des Menschen nicht angemessen. Bevor der Mensch logisch denkt oder rechnet, lebt und handelt er in sozialen Kontexten. Der Säugling spürt die Wärme der Mutter als Geborgenheit, die warme Milch als Sättigung, die Zugehörigkeit und Nähe zu den Eltern als Sicherheit, aus der sich explorativ die Welt erst erschließen lässt. Die Rückversicherung von sozialer Zugehörigkeit geht mit der Herausbildung von menschlicher Intelligenz immer einher. Rationalität entwickelt sich nicht losgelöst von emotionalen, leiblichen oder sozialen Kontexten. Nur modellhaft können Elemente dessen, was in rationalen Überlegungen des Menschen sich formalisieren lässt, nachgezeichnet werden, ohne damit die Wurzeln greifen zu können, aus denen sich heraus eine menschliche Rationalität erst entwickelt. In der Herausbildung seiner personalen Konstitution ist der Mensch auf Sozialität angewiesen. Seine Sprache entwickelt sich nicht als formallogisches System mit dem Ziel einer exakten Abbildung der Wirklichkeit, sondern in sozialen und lebenspraktischen Kontexten wie in der Interaktion mit Eltern und anderen Menschen. Diese Aspekte bedingen die menschliche Lebenspraxis, ohne diese restlos zu determinieren. Obwohl die existentielle Handlungspraxis des Menschen von nie ganz einholbaren Vorbedingungen erst ermöglicht wird, kann aus keiner Beschreibung dieser Vorbedingungen die Totalität personaler Praxis Vgl. Kap. 3.1.4 und 3.2.5 dieser Arbeit.
389
325
3 Negativität und philosophische Vernunftkritik
vollständig abgeleitet und determiniert werden. In seiner Existenz, in seiner Intelligenz, in seiner Sprache und in seinem Lebensvollzug bleibt der Mensch daher immer letztlich „entzogen“, unbestimmbar.
3.4.7 Die existentielle Unbestimmbarkeit des Menschen als Offenheit und Freiheit Wenn Ebenen und Perspektiven aufgezeigt werden können, die für die Herausbildung einer menschlichen Personalität konstitutiv sind, gehört dazu auch die Unbestimmbarkeit des Menschen. Aus keiner einzelnen Perspektive her lässt die Totalität der personalen Lebenspraxis ganz beschreiben, abbilden oder herleiten. Emotionalität geht in Rationalität ebensowenig auf wie Rationalität in Emotionalität. Für die logische Setzung „wenn A gilt, kann nicht gleichzeitig Nicht-A gelten“ gibt es keine Emotion, die einem solchen logischen Satz entspräche. Ebensowenig kann für die Emotion des Glücks, der Angst, der Liebe, der Sehnsucht eine Funktion gefunden werden, die dieses Gefühl adäquat ausdrücken könnte. Die verschiedenen Ebenen, in welcher sprachliche Praxis die Phänomene der menschlichen Lebenswelt zu beschreiben versucht, erweisen sich als nicht summierbar. Ausgehend von dieser Einsicht in die prinzipielle Unbestimmbarkeit der personalen Totalität des Menschen durch eine deterministische, physikalistische oder funktionalistische Objektivierung kann als charakteristisch für das Wesen des Menschen seine Offenheit herausgestellt werden. Erkenntnistheoretisch entspricht ihr die Einsicht in Grenzen des Wissens, die wissenschaftstheoretisch als Indeterminismus bezeichnet werden kann. Phänomenologisch erweist sich diese Offenheit in der Ebene der menschlichen Vernunft als Offenheit des Denkens mit der Möglichkeit des existentiellen Fragens und Suchens. Das Denken des Menschen grenzt sich nicht ein auf formallogisch lösbare Probleme, die ihm vorgegeben wären. Der Offenheit des Denkens entspricht im Bereich der Handlungspraxis die Unableitbarkeit menschlicher Handlungen als Freiheit. In Abgrenzung zu einer substanzontologischen, dualistischen Setzung einer absoluten Willensfreiheit im Gegensatz zu einer ansonsten mechanistisch-deterministisch bestimmten Welt ist ein solcher Freiheitsbegriff aus den Grenzen der Voraussagbarkeit menschlichen Verhaltens her abgeleitet. In der Rekonstruktion eines solchen Freiheitsverständnisses für die Wesensbestimmung des Menschen sind die Grenzen und Bedingtheiten seiner Freiheit bereits inbegriffen: Auch in psychosozialen verborgenen Schichten des Unbewussten, in sozialen Interdependenzen, in der Unverfügbarkeit von Handlungsmotiven und der existentiellen Orientierungslosigkeit im Bereich des Normativen sind Potentiale der Offenheit in der menschlichen Existenz angelegt, aus denen ein Freiheitsbegriff 326
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
rekonstruiert werden kann. Da in keiner objektivistischen, berechenbaren Beschreibung der Handlungsbedingungen eines Menschen dessen Lebensvollzüge kohärent aufgehen, sondern diese jenen immer inkommensurabel sind, erweist sich jede dieser Schichten als zwar entzogen, aber gleichzeitig als gestaltbar durch eine Hinwendung und dialogisch-offene Rekonstruktion. Normative, unbewusste und soziale Vorbedingungen der menschlichen Praxis bleiben dahingehend entzogen, dass jedwede Rekonstruktion und Bewusstwerdung gefolgt ist von neuen Fragen und Zusammenhängen, aus welchen sich diese speisen. Die Gegebenheit eines solchen dialogischen Zugangs im Sinne einer Bewusstwerdung und Aufschließung prinzipiell verborgener Subschichten des Personalen impliziert jedoch auch die Möglichkeit der Hinwendung zu den Vorbedingungen des eigenen personalen Handelns. Anstelle einer fatalistischen Ausgeliefertheit des Menschen tritt damit die Möglichkeit einer gestaltungsoffenen Einsicht in die Vorbedingungen seines Handelns, denen gegenüber ein Mensch sich verhalten kann. Eine solche Offenheit erweist sich als Freiheit, als Unableitbarkeit menschlicher Handlungsvollzüge, als grundsätzlicher Indeterminismus jedes menschlichen Lebens ebenso wie von Kollektiven und Gesellschaften. Freiheit ist in diesem Sinn kein „Sachverhalt“, kann seinerseits nicht verdinglicht werden.390 Systematisch kann somit auch wieder ein Anschluss an die phänomenologisch-vortheoretische Erfahrung des Entweder – Oder menschlicher Lebensvollzüge hergestellt werden, welche zur genuinen Lebenspraxis und Welterfahrung ebenso gehört wie das Bewusstsein um Grenzen menschlicher Freiheit in Situationen von Zwang und Fremdbestimmung, deren begriffliche Bestimmung allerdings nur im Kontext einer grundsätzlichen Möglichkeit von Freiheit überhaupt sinnvoll sein kann. Deterministische Beschreibungen der Welt erweisen sich damit jeweils als zu einseitig. Hierzu gehört die naturwissenschaftliche Form eines geschlossenen physikalischen Determinismus als mechanistische Weltauffassung ebenso wie die biologische Auffassung einer restlosen biologischen Determiertheit der menschlichen Persönlichkeitsstruktur im Sinne eines genetischen Programms. Auch die theologische Form eines Determinismus als Prädestination und göttliche Vorherbestimmung des Menschen korreliert noch auf ein mechanistisches Verständnis selbst von Transzendenz. Als Freiheit wird eine solche Offenheit der menschlichen Lebenspraxis auch für ethische Bestimmungen fruchtbar. Kant kennzeichnet den Begriff der Freiheit als „Schlüssel zur Erklärung
Vgl. Adorno: Negative Dialektik, a. a. O., S. 211ff. Adorno spricht vom „Sachverhalt Freiheit“, welcher nicht einfach vorgefunden werden kann (ebd., S. 213). Freiheit spielt sich stattdessen immer an einer Grenze zwischen Gestaltbarkeit und Bedingtheit, zwischen Ohnmacht und Verselbständigung ab: „Die Subjekte werden der Grenze ihrer Freiheit inne an ihrer eigenen Zugehörigkeit zur Natur wie vollends an ihrer Ohnmacht angesichts der ihnen gegenüber verselbständigten Gesellschaft.“ (ebd., S. 220).
390
327
3 Negativität und philosophische Vernunftkritik
der Autonomie des Willens.“391 Der Begriff der Freiheit wird für Kant dadurch grundlegend für eine Moralphilosophie und für eine anthropologische Selbstbestimmung.392 Gerade weil der Mensch sich seinen Mitmenschen gegenüber rein instrumentell und nutzorientiert verhalten kann, ist eine ethische Bestimmung notwendig, deren normative Ausrichtung über das Nutzkalkül hinausgehen muss.393 Die Einsicht in die Offenheit und Freiheit ebenso wie in die Fragilität des Anderen wird damit zum Anlass für die Herausbildung einer Ethik, welche das Zwischenmenschliche nicht auf instrumentelle Aspekte reduziert, sondern die Herausbildung von Vertrauen ermöglicht. Die existentielle Orientierungslosigkeit des Menschen birgt dabei auch das Potential der Neuausrichtung menschlichen Verhaltens und die Möglichkeit des Ringens um normative Bestimmungen für das Zwischenmenschliche, in denen dialogische Beziehungen gelingen können. Als unhintergehbare Offenheit wird die existentielle Orientierungslosigkeit des Menschen damit auch zu einer Freiheit gegenüber der eigenen Sinnorientierung. Selbstverständlich können auch organische Prozesse teilweise funktional beschrieben werden und modulare Prozesse als chaotisch im Sinne als von außen nicht linear beschreibbar simuliert werden. Dennoch bleibt die Grundbestimmung von Mensch und Maschine unterschiedlich. Die Grundbestimmung der Maschine ist instrumentell, funktional; sie wird gerade deshalb gebaut, weil sie berechenbar und zuverlässig funktionieren soll. Das Leben hingegen ist offen, anpassungsfähig, indeterminiert. Selbst neuronale Netze stehen unter einer instrumentellen Zielvorgabe, der gegenüber sie erst ihre Berechnungen optimieren können. Maschinen stehen immer unter einer instrumentellen Bestimmung. Sie werden für einen bestimmten Zweck gebaut. Menschen nicht; ihr Leben ereignet sich. Auch wenn Aspekte des menschlichen Lebens unter funktionalen Gesichtspunkten gedeutet werden können – so kann ein Kind die eigenen Eltern im Alter versorgen – geht doch eine funktionale Bestimmung nicht für den gesamten Menschen auf. Die „Konstruktion“ des Menschen erfolgt nicht unter einer Zielvorgabe. Das Kriterium der Offenheit und Unverfügbarkeit ist daher wesentlich für den Menschen, während die Welt der Maschinen schon immer unter der Bestimmung einer instrumentellen Verfügbarmachung der Natur stand.
Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, Stuttgart 2008, S. 88. Ebd., S. 90. 393 Vgl. Kant, Immanuel: Kritik der praktischen Vernunft, Stuttgart 1992, S. 210. Vgl. Kant, Immanuel: Metaphysik der Sitten, in: Ders.: Schriften zur Ethik und Religionsphilosophie. Zweiter Teil, Darmstadt 1983, S. 309–634, dort S. 326f. 391
392
328
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
3.4.8 Der Holismus der menschlichen Person Unter der Erarbeitung negativer Sinnkonstitutionsaspekte des Menschen in Bezug auf Wissen, Handlungspraxis und Sinnorientierung können aus einer solchen negativ-kritischen Reflexion auch Sinngehalte affirmativer Aussagen über den Menschen neu hermeneutisch aufgeschlossen werden. So stellen vergleichende Betrachtungen des Menschen mit der von ihm geschaffenen Computertechnik auch die Fragen nach der Selbstbestimmung des Menschen wieder in den Mittelpunkt philosophischen Suchens. Zwischen Tier und Maschine sieht der Mensch sich selbst in der Rekonstruktion seiner eigenen Versuche zu einer Selbstbestimmung seines Wesens. In der Abgrenzung zum Künstlichen muss die leibliche Konstitution des Menschen, die soziale Einbettung seiner Lebenspraxis und die Aspekte von Unbestimmbarkeit, Entzogenheit und Offenheit seines Denkens, seiner Sprache und seines Handelns wieder in den Blick genommen werden. Derlei Abgrenzungsversuche berühren Elemente einer Vielfalt dessen, was menschliches Leben ausmacht und was in einer Zurückweisung jeder analytisch-fragmentarischen Reduktion auf nur einzelne dieser Aspekte mündet. Stattdessen kann nur ein Holismus menschlicher Personalität für eine Beschreibung des Menschen geltend gemacht werden, dessen unterschiedliche Beschreibungsformen und Perspektiven inkommensurabel und unauflösbar zueinander stehen, um ein ganzheitliches Bild letztlich unverfügbarer Personalität zu umreißen. In einem solchen Bild ist die Apriori-Bestimmung der Leiblichkeit ebenso inbegriffen wie psychische und intellektuelle Dimensionen sowie spirituelles Fragen gegenüber transzendenten Ebenen von Unverfügbarkeit. Empirische Beschreibungen des Menschen erweisen sich damit als komplementär gegenüber einer transzendentalphilosophischen Beschreibung und können nicht als mechanistisch-positivistische Verkürzung gegen eine vermeintliche metaphysische Überhöhung der seelisch-geistigen Aspekte menschlicher Personalität ausgespielt werden. Stattdessen ergänzen sie einander komplementär und inkommensurabel. Sie umreißen ein gemeinsames Bild, dem phänomenologisch wie empirisch, existentiell wie systematisch begegnet werden kann, ohne dass eine Betrachtungsform des Menschen vereinseitigend eine Inanspruchnahme von Vollständigkeit in seiner Beschreibung des genuin Menschlichen für sich geltend machen könnte. Als immer je inkommensurabel gegenüber jeder attributiven Zuschreibung kann anhand der negativen Bestimmungen der Entzogenheit menschlichen Wissens, der Unverfügbarkeit menschlicher Handlungspraxis und der existentiellen Offenheit menschlicher Sinnorientierung eine irreduzible Totalität personalen Lebens vernunftkritisch rekonstruiert werden, welche dem Begriff von Lebenswelt als vortheoretischer Erfahrungswelt ebenso gerecht wird wie dem Anspruch einer intersubjektiv konstituierten Personalidentität im Bereich sozialer Beziehungen und in der menschlichen Selbstbestimmung.
329
3 Negativität und philosophische Vernunftkritik
Ausgehend von einem solchen unhintergehbaren Holismus der menschlichen Person kann der Begriff der Freiheit des Menschen reformuliert werden. Offenheit bildet eine Grundbestimmung menschlichen Seins, die sich im Bereich der Handlungspraxis als interexistentielle Freiheit zeigt. Phänomenologisch ist diese Offenheit in der irreduziblen vortheoretischen Erfahrung eines Entweder – Oder als Grundbestimmung alltäglicher Lebenspraxis verwurzelt. Sie bildet damit auch eine Voraussetzung jeder ethischen Bestimmung und Sinnorientierung. Gegenüber einer deterministisch-geschlossenen Weltdeutung, gegenüber einer genetischen Determiniertheit des Menschen oder einer theologischen Prädestination müssen diese Grundbestimmungen der Offenheit des Menschen immer wieder deutlich gemacht werden. Auch Dualismen erweisen sich für eine Beschreibung der Verhältnisse des Menschen in seiner von Grenzen bestimmten Offenheit als irreführend. Ein Substanzdualismus von Seele und Leib erweist sich als nicht vermittelbar gegenüber der Komplementarität körperlicher Beschreibungen wie emotional und intellektueller Strukturen einer personalen Ich-Identität, welche auch als Leib-Apriori menschlicher Personalität verstanden werden kann. Subjektivität und Objektivität, Körper und Geist, Erste Person und Dritte Person, Offenheit und Begrenztheit bilden komplementäre und vermittelbare Beschreibungsformen über das Verhältnis des Menschen zu sich selbst, zu Anderen und zu einer Welt, die ihn umgibt und in welcher er sich verhalten kann. Im Bereich des interexistentiellen Lebens führt eine solche Bestimmung des Menschen zu der Möglichkeit, die Sozialität menschlichen Daseins als unhintergehbaren Aspekt des Menschen herauszuarbeiten. Ich und Du, Subjekt und sozialer Kontext sind damit gleichursprünglich.394 Die Offenheit des Menschen gegenüber dem Anderen und gegenüber seiner Umwelt, die negativ-kritisch auch als Unableitbarkeit unserer Handlungen aufgefasst werden kann, mündet in der Zuschreibung von Freiheit und der Herausbildung von Vertrauen als Grundlage menschlicher Sozialität. Dialogische Interaktionen des Menschen mit seiner Umwelt ermöglichen die Konstitution komplexer sozialer Strukturen von Beziehung, Partnerschaft, Freundschaft, Ehe, Familie, von Gruppen, Gemeinschaften, Gesellschaften und auch der Menschheit. Neben den Bestimmungen der Offenheit, der Freiheit, des Vertrauens und dialogischer Beziehungen muss eine vernunftkritische Einordnung der Grenzen von Sozialität auch die Fragilität menschlicher Interaktionen in den Blick nehmen. Erst durch die unbedingte und nie restlos auflösbare Möglichkeit des Scheiterns und des Zerbruchs werden ethische Bestimmungen erst sinnvoll. Sie können ihrerseits nie in einem positiven, affirmativen Sinn ein solches Scheitern verhindern, sondern nur aus dem Bewusstsein einer solchen Fragilität Bestimmungen entwickeln, deren Unterlaufen die Offenheit menschlicher Sozialität bedrohen würde. Hierzu gehört die prinzipielle Leugnung der Ebenen sinnkonstitutiver Negativität, da Offenheit, Freiheit, Vertrauen und dialogische Beziehungen genau in diesen Bestimmungen gründen. Positivistische Vgl. Rentsch, Thomas: Die Konstitution der Moralität, a. a. O., S. 163f.
394
330
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
und transhumanistische Entwürfe bergen daher auch sinndestruktives Potential hinsichtlich der Grundbestimmungen von Sozialität. Im Zuge der Bewusstwerdung um die Bedeutung von Negativität als Sinnkonstitution zeigen sich in transhumanistischen Argumentationsstrukturen dystopische Elemente auch für die Frage nach der Selbstbestimmung des Menschen. Durch den Imperativ der funktionalen Optimierung des Menschen wird der Wert des Menschen unter ein messbares Leistungsprinzip gestellt. Die Verdinglichung von Sinn und Transzendenz hebelt dabei die Möglichkeit aus, sich gegenüber der Entzogenheit von Sinn als zu Erringendem zu verhalten und den Charakter der Offenheit auch in den Fragen letzter Sinnorientierung des Menschen zu bewahren. Der Mensch verhindert, indem er sich nur unter den Bestimmungen einer Maschine betrachtet, die Möglichkeit einer Selbstannahme als leiblich konstituiertes Wesen in seiner Fragilität und Offenheit. Die mechanistisch-funktionale Reduktion menschlicher Personalität steht damit einer dialektischen Vermittlung der Würde des Menschen im Weg. In den verschiedenen Zugängen zur Beschreibung des Menschlichen kann damit ein Holismus vielschichtiger, miteinander verschränkter Ebenen herausgearbeitet werden, die nicht in einer abstrakten oder auf Einzelaspekte beschränkten Darstellung aufgehen würden. Systematisch kann eine philosophische Beschreibung menschlicher Personalität daher nur negativ als Grenzziehung eines letztlich Entzogenen, eines Unableitbaren, eines Nichtaufgehens der Totalität des personalen Lebens in irgendeiner vereinseitigenden Darstellung erfolgen.395 In einem solchen Holismus der menschlichen Person können Perspektiven der Leiblichkeit, der Emotionalität, des Seelisch-Psychischen, des Geistig-Intellektuellen wie des Spirituellen herausgearbeitet werden. Auch die Elemente des instrumentellen Vernunftgebrauchs bilden, eingebettet in einen lebensweltlich-pragmatischen offenen Weltumgang, dabei eine Schicht menschlich-personaler Existenz. Auf diese kann jedoch nicht die Essenz personaler Intelligenz reduziert werden. Stattdessen ist in allen Beschreibungsebenen auch die Bedeutung des Negativen als einer Begrenztheit und Unverfügbarkeit herleitbar. Die Rede von Seele und Geist des Menschen kann ausgehend davon neu, jenseits von verdinglichenden oder substanzontologischen Konzeptionen, reformuliert werden. Als begrifflicher Versuch, komplementär zu einer objektiven, materiellen, funktionalen Beschreibung organischer körperlicher Abläufe des Menschen in einer z. B. empirischen Sprache verdeutlichen Begriffe wie Seele oder Geist die letztlich entzogene, nicht-objektivierbare Personalidentität des Menschen. Der Begriff des Geistes hat bereits im Griechischen drei Entsprechungen, die im deutschen Begriff enthalten sind: νοῦς, πνοή, πνεῦμα. Νοῦς bezeichnet die Rationalität, das Denken, die Vernunft und bezeichnet in den kosmologischen Spekulationen der griechischen Antike als philosophischer Begriff auch ein das Universum umfassendes Prinzip, in einer Ebd.
395
331
3 Negativität und philosophische Vernunftkritik
Bedeutungsnähe zum λόγος.396 Πνοή bezeichnet den Lebensatem des Menschen.397 Πνεῦμα wiederum ist stärker religiös geprägt und drückt in der Antike vor allem ein göttliches Eingreifen oder eine mystische Erfahrung aus, wobei πνεῦμα sowohl als Subjektivität von innen her als auch als von außen her verstanden werden kann. Der Mensch erlebt in seiner Immanenz seine Transzendenz, diese widerfährt ihm jedoch auch als von außen an ihn herantretend.398 Hierin unterscheidet sich der Begriff des Geistes vom Begriff der Seele (ψυχή), da letztere keine Dimension des Außen annimmt, sondern doch in ihren Begriffskonnotationen das innere Leben bezeichnet. Etymologisch sind beide Begriffe von einem Naturerleben geprägt und in diesem Sinn einander sehr nah. Ψυχή, πνοή, πνεῦμα bezeichnen allesamt ursprünglich Wind, Atem, Hauch. Der Wind ist spürbar, aber nicht greifbar. Er wird zum Bild der Personalidentität des Menschen, die doch in keinem Begriff sich erschöpft und letztlich ganz greifen lässt. Im Deutschen entstammen die Begriffe ursprünglich einem Erleben der Naturgewalten: die Seele als zum See gehörig,399 der Geist als Gischt, als Aufschäumen des durch den Wind bewegten Wassers, wenn das Meer an seine Grenze stößt und sie überschreitet.400 Der Mensch erlebt sich mit dem Bewusstsein um die seelisch-geistige Dimension seiner Personalität dennoch als in der Natur, als verwurzelt in seiner Lebenswelt. Die Begriffe „Seele“ und „Geist“ sind aus einer solchen Perspektive der philosophischen Vernunftkritik nicht substanzontologisch, verdinglicht zu begreifen, sondern als holistische Begriffe transzendentaler Entzogenheit und Vielschichtigkeit, die komplementär zum leiblichen Apriori die Irreduzibilität der Totalität menschlichen personalen Lebens begreifbar machen. Die semantische Nähe ihrer ursprünglichen Konnotation in der Nähe des Atems, des Windes, der Gischt stellt ihre unlösbare Beziehung zum Leiblichen dar als nicht-objektivierbar, nichtgreifbar, unsichtbar und jeder Verdinglichung entzogen. Der Atem als Teilhabe am Lebendigen ist in der Entwicklung einer künstlichen Intelligenz nicht konstruierbar. Von „beseelten“ Maschinen zu sprechen, wäre damit eine reduktionistische Hypostasierung. Die instrumentelle Rationalität, in deren Bestimmungen die informationstechnische Architektur künstlicher Intelligenz operieren kann, umfasst nicht die Dimensionen des Seelischen im personalen
Historisches Wörterbuch der Philosophie, a. a. O., Bd. 3, Basel 1974, S. 156. Alfred Rahns / Robert Hanhart: Septuaginta, Stuttgart 2006, Gen. 2,7. 398 Πνεῦμα ist damit in einer Linie mit dem hebräischen ( חורruach). Historisches Wörterbuch der Philosophie, Bd. 3, a. a. O., S. 165. Vgl. auch Heschel, Joschua Abraham: Gott sucht den Menschen. Eine Philosophie des Judentums, Neukirchen – Vluyn 1980, S. 151. 399 Gerhard Wahrig: Deutsches Wörterbuch,, a. a. O., Stichwort „Seele“. Der Mensch ist eingebettet in den Kosmos, in die Natur, die ihn umgibt und ihm vorausgeht. 400 Für die etymologische Nähe beider Wörter, Gischt und Geist, finden sich überschneidende Belege, vgl. Jacob und Wilhelm Grimm: Deutsches Wörterbuch, Vierter Band, I. Abteilung, 2. und 4. Teil, Leipzig 1898 / 1911, dort entsprechende Stichworte. 396 397
332
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
Leben des Menschen, sondern ist als Perspektive menschlicher lebensweltlicher Praxis nur Teilbestimmung einer Dimension von der Intelligenz des Menschen in seinem pragmatischoffenen Weltumgang. Als Begriff zur Bezeichnung der Totalität des Psychosozialen, des Emotionalen, der Subjektivität ist das Seelische gegenüber einem instrumentellen formallogischen Verständnis inkommensurabel. Es stellt als Begriff vielmehr die nicht-objektivierbare holistische Dimension des Unverfügbaren der menschlichen Person dar. Uns ist der Andere nie unmittelbar aufschließbar und jeder Einzelne nicht einmal gegenüber sich selbst. Unter diesen Bestimmungen ist auch der Begriff der Personalität neu aufzuschließen. Das „Durchklingen“ als per-sonare deutet etymologisch auf die Entzogenheit und Offenheit dessen hin, was in personalem Handeln sich offenbart, nach außen durchklingt.401 Die Rede von Personalität ist damit ein Hinweisen auf ein Entzogenes, was gerade durch seine Offenheit und als Unverfügbarkeit zur Grundbestimmung personalen Handelns wird. Die persona bezeichnet im Lateinischen die Maske.402 Aus ihr erklingt etwas, was doch verborgen bleibt. Wir erkennen in der Person eines Anderen zwar etwas – es zeigt sich aber immer als vorläufig, als Erscheinung, nicht als Ding an sich. Das Wesen des Menschen entzieht sich seiner vollständigen begrifflichen Verfügbarmachung. Heidegger bestimmt diese Form der Entzogenheit als wesentlich für den Menschen. Auch das Denken des Menschen weist immer über sich selbst hinaus. Heidegger radikalisiert in seiner Schrift Was heißt Denken? den Charakter der Entzogenheit, welcher mit dem Denken des Menschen und damit auch mit der Wesensbestimmung des Menschen untrennbar verbunden bleibt, „zeigend auf das Sichentziehende“.403 „Was sich uns entzieht, zieht uns dabei gerade mit, ob wir es sogleich und überhaupt merken oder nicht. Wenn wir in den Zug des Entziehens gelangen, sind wir – nur ganz anders als die Zugvögel – auf dem Zug zu dem, was uns anzieht, indem es sich entzieht. Sind wir als die so Angezogenen auf dem Zuge zu dem uns Ziehenden, dann ist unser Wesen schon durch dieses ‚auf dem Zuge zu …‘ geprägt. Auf dem Zuge zu dem Sichentziehenden weisen wir selber auf dieses Sichentziehende. Wir sind wir, indem wir dahin weisen; nicht nachträglich und nicht nebenbei, sondern: dieses ‚auf dem Zuge zu‘ ist in sich ein wesenhaftes und darum ständiges Weisen auf das Sichentziehende. ‚Auf dem Zuge zu …‘ sagt schon: zeigend auf das Sichentziehende. Insofern der Mensch auf diesem Zug ist, zeigt er als der so Ziehende in das, was sich entzieht. Als der dahin Zeigende ist der Mensch der Zeigende. Der Mensch ist hierbei Georges: Ausführliches Lateinisch-Deutsches Handwörterbuch, a. a. O. Ebd. 403 Heidegger, Martin: Was heißt Denken?, a. a. O., S. 10.
401
402
333
3 Negativität und philosophische Vernunftkritik jedoch nicht zunächst Mensch und dann noch außerdem ein Zeigender, sondern: gezogen in das Sichentziehende, auf dem Zug in dieses und somit zeigend in den Entzug, ist der Mensch allererst Mensch. Sein Wesen besteht darin, ein solcher Zeigender zu sein.“404
Das Sich-Verhalten gegenüber einer Ebene von Unverfügbarkeit, Entzogenheit, Transzendenz gehört mit Heidegger damit unverrückbar in die Dimension menschlichen Denkens und menschlicher Selbstbestimmung. Heidegger greift damit auch das Denken auf als die Fähigkeit der Vernunft, über sich selbst hinauszuweisen. Denken im Heideggerschen Sinn wird damit zu einer Haltung gegenüber dem Entzogenen, als des Sich-Abwendenden. Der Mensch weist durch die Vernunft über das Sinnliche, Physische hinaus: „Nennen wir das Tierische das Sinnliche und fassen wir die Vernunft als das Nicht- und Übersinnliche, dann erscheint der Mensch, das animal rationale, als das sinnlich-übersinnliche Wesen. Nennen wir das Sinnliche nach der Überlieferung das Physische, dann zeigt sich die Vernunft, das Übersinnliche als das, was über das Sinnliche hinausgeht; hinüber heißt μετὰ; μετὰ τὰ φυσικά …“.405 Das Metaphysische hat damit irreduziblen Anteil an der Wesensbestimmung des Menschen. Es bildet eine Wesensbestimmung des offen-fragenden Denkens des Menschen. Es sei vermerkt, dass auch Heidegger an dieser Stelle das Menschenbild noch durch eine scharfe Abtrennung zum Animalischen begründet. Vernunft ist jedoch nicht, wie Heidegger unterstellt, „nicht-sinnlich“, sondern immer von Sinnlichkeit vorgeprägt. Menschliche Vernunft ist durch ein leibliches in-der-Welt-Sein bestimmt. Heideggers Arbeiten trugen selbst wesentlich dazu bei, die Einbettung des menschlichen Denkens in seine leibliche Konstitution mit zu begründen. Dennoch kann Vernunft nicht in derselben Weise verdinglicht verstanden werden wie das Körperliche. Dadurch bildet der Begriff der Vernunft für Heidegger einen komplementären Gegenbegriff zum unmittelbar Verfügbaren. Heideggers Passage ist gekennzeichnet von einem Ringen um den Stellenwert des Denkens für die Herausbildung des Menschlichen. Gerade in seinem Suchen nach einem solchen Stellenwert zeigt sich, dass das Denken des Menschen über etwas hinausweist. Der Mensch ist und bleibt Suchender, Fragender. Fragen kann man nur nach dem, was nicht sich offensichtlich zeigt. Indem menschliches Denken und Fragen sich immer auf das richtet, was zunächst entzogen scheint, beinhaltet das menschliche Denken eine Ebene des Darüber-hinaus-Fragens oder Dahinterzeigens. Hinter allem Erkennbaren ist immer mehr. Das Denken des Menschen ahnt dieses Mehr und fragt danach. Nur weil es sich nicht unmittelbar erschließt, kann überhaupt erst danach gefragt werden. Der Mensch ist mit Heidegger
Ebd., S. 9f. Ebd., S. 38.
404 405
334
3.4 Negativität und Anthropologie – Was ist der Mensch nicht?
wesensmäßig dadurch bestimmt, dass er mit seinem Denken fragen, hinterfragen und weiterfragen kann, und gerade damit weist er immer auch hinaus über sich selbst. Die Unterschiede zwischen Mensch und Maschine müssen für eine vernunftkritische Anthropologie in einer grundlegenden Revision des mechanistischen Menschenbildes und einer rationalistischen Überhöhung des Menschen münden. Eine mechanistische Beschreibung des Menschen geht an grundlegenden Aspekten vorbei, die für die Herausbildung seiner Intelligenz und Personalität wesentlich sind. Das, was den Menschen als Mensch ausmacht, lässt sich auch nicht nur als Rationalität bestimmen. Der Wert des Menschen kann nicht aus funktionalen Bestimmungen her definiert werden. Sowohl für technikethische als auch für anthropologische Analysen ist eine klare Trennung von Mensch und Maschine wichtig. Jede Anthropomorphisierung von Technik kann dementsprechend als irreführend bezeichnet werden und erschwert einen Diskurs, der um eine gelingende Mensch-Maschine-Interaktion ringt, in welchem die Vorteile neuer Technologien verantwortlich eingesetzt werden können. Eine Betrachtung des Menschen aus einer technischen Perspektive als Maschine kann lediglich als Modell betrachtet werden, das jedoch wesentliche Aspekte des Menschlichen unterschlägt. In dieser kritischen Auseinandersetzung birgt sich eine Chance und ein Potential für das Selbstbild des Menschen. Die Einsicht in falsche Schwerpunkte in der Bestimmung des Wesens des Menschen in der Geschichte der philosophischen Anthropologie, besonders in der Überbetonung des Rationalen, Logischen gegenüber dem Leiblichen und Affektiven, ermöglicht eine Neubesinnung über Würde und Selbstwert jenseits von Leistungsdenken und Quantifizierung.
335
4 Exkurse 4.1 Künstliche Intelligenz in einer freien Gesellschaft Künstliche Intelligenz ist zum Hoffnungsträger einer zugespitzten positivistischen Aufklärung geworden. In der technischen Nachbildung des menschlichen Geistes kann dieser optimiert werden und ist endlich losgelöst von seiner leiblich-emotionalen Struktur. Die Utopie von einer Verschmelzung von Mensch und Maschine wird zur Fantasie von einer Überwindung der Grenzen des Menschen. Leid, Krankheit, Tod, Unwissenheit, die räumlich-leibliche Begrenzung und die Unwiederbringlichkeit des Daseins können mithilfe einer digital-transhumanistischen Neudeutung des Humanen überwunden werden – und damit der Mensch selbst. Wenn sich die Grenzen des Menschen als Grundbedingung seiner Sinnkonstitution entfalten, dann ist das Unterlaufen dieser Grenzen auch das Ende des Menschlichen. Die Utopie der totalitären Optimierung wird zur Dystopie, wenn nur das optimiert werden kann, was messbar ist. Reine Rationalität wird zur Lebensfeindlichkeit, weil Leben sich einer vollständigen Rationalisierung entzieht. In den Entwürfen des Transhumanismus gipfelt die Möglichkeit der technischen Rekonstruktion des menschlichen Geistes in der Auslöschung von individueller Personalität. Reproduzierbarkeit und Einzigartigkeit schließen sich aus. Der Gedanke von Würde im Sinne einer Unaustauschbarkeit und Unersetzbarkeit jedes einzelnen Menschen wird damit verabschiedet. Der Imperativ stetiger Optimierung ist hingegen kein abschließbares Projekt. Immer die Schwächsten werden verdrängt, solange Gesetze des biologischen oder marktwirtschaftlichen Wettbewerbs gelten, vielleicht solange, bis das menschliche Leben in seiner Verletzlichkeit ausgelöscht ist. Künstliche Intelligenz ist in ihren gegenwärtigen Ausprägungen kein isoliertes aufklärerisches Forschungsprojekt, sondern steht als Werkzeug im Dienst von global organisierten Digitalunternehmen. Als Werkzeug erweitert künstliche Intelligenz die Handlungsmöglichkeiten des Menschen und vergrößert damit seine Macht, um die Natur und auch andere Menschen zu beherrschen. In der Nutzbarmachung von künstlicher Intelligenz für egoistische und hedonistische Zwecke wird sie Teil einer Kulturindustrie, welcher sich der Mensch selbst unterordnet.1 Die Ausbeutung des Menschen durch den Menschen zum Zweck der Gewinnma-
1
Vgl. zum Begriff der Kulturindustrie als reziprokes Verhältnis von Mensch und Technik: Max Horkheimer und Theodor W. Adorno: Kulturindustrie. Aufklärung als Massenbetrug, in: Dialektik der Aufklärung, a. a. O., S. 128–176.
337
4 Exkurse
ximierung findet in künstlicher Intelligenz eine weitere Waffe, solange die Grundparadigmen kapitalistischer Marktwirtschaft von denen nicht hinterfragt werden, welche die Entwicklungen der künstlichen Intelligenz vorantreiben.2 Ethische Diskurse müssen Radikalpositionen durchdenken, um anthropologische Grenzen und Sinndimensionen zu rekonstruieren. Dennoch bleibt zu hoffen, dass in gesellschaftlichen Diskursen gerade in demokratischen Gesellschaften zwischen radikalen Positionen so vermittelt wird, dass technologische Neuerungen zu Kulturprodukten werden. Nicht nur der technische Umgang, sondern auch die gesellschaftlichen Umgangsformen mit neuer Technologie können erlernt werden. Tradierte Sinndimensionen können durch technologischen Wandel vergessen, sie können aber auch rekonstruiert und wiederbelebt werden. Geschichte verläuft weder linear noch dualistisch. Ethische Konflikte finden immer in konkreten und letztlich nicht formalisierbaren Situationen statt. Die Missbrauchsmöglichkeiten moderner Technologien sind dennoch enorm. Gegenwärtige Entwicklungen in China zeigen beispielsweise, wie eine umfassende Digitalisierung und mit künstlicher Intelligenz gestützte Datenauswertung die technischen Möglichkeiten staatlicher Überwachung und Manipulation so stark steigern kann, dass kaum mehr ein Bereich des Privaten bleibt, in welchem Widerstand sich überhaupt nur formen könnte. Die vollständig digitalisierte Welt birgt neue Potentiale von Gleichschaltung und Unmenschlichkeit. Auch marktwirtschaftliche Entfremdungsprozesse können durch die Formalisierung menschlicher Lebenswelten noch stärkere Konfliktpotentiale entfalten. Der Begriff der Optimierung birgt die Bedrohung, dass alles Schwache, Hässliche, Kranke noch stärker verleugnet wird und dass in einer immer mehr in konkreten Zahlen operierenden Leistungsgesellschaft all das verleugnet und ausgeblendet wird, was im harten Wettbewerb nicht standhält. Der Imperativ der Optimierung macht dann auch vor dem Selbst nicht halt. Die Möglichkeiten der immer stärkeren Konstruierbarkeit digitaler Identitäten kann dazu führen, dass der Spagat zwischen der gegebenen leiblich-existentiellen und der optimierbaren digitalen Identität immer größer wird. Doch steht demgegenüber in ethischen Diskursen der Gegenwart das Potential, dass im Bewusstsein dieser Gefährdungen der Begriff der bedingungslosen Menschenwürde jenseits von Leistungsdenken neu rekonstruiert und vermittelt werden kann. Jede Gefährdung von Menschlichkeit durch eine rationale Formalisierung und Optimierung birgt auf der Gegenseite auch das gesellschaftliche Potential für mehr Humanität. Mehr Menschlichkeit durch Technologie ist möglich, wenn Pflegeroboter die pflegenden Menschen nicht ersetzen, sondern in den Aufgaben unterstützen, welche sie körperlich stark belasten, sodass den Pflegekräften in allen Aufgaben mehr Zeit für die menschliche Begegnung bleibt. 2
Ray Kurzweil: „Der Erfolgsmaßstab der technischen Evolution ist Wirtschaftlichkeit.“ (Menschheit 2.0, a. a. O., S. 39).
338
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Wenn in der Industrie 4.0 alle routinierten und formalisierbaren Prozesse mithilfe von künstlicher Intelligenz in einem Bruchteil der Zeit gelöst werden können, dann kann dies entweder zu einer kaum aufzuhaltenden Zunahme von Arbeitslosigkeit führen oder wieder Raum schaffen für Aufgaben, welche den Menschen in seiner Ganzheitlichkeit fordern. Wenn sich die technische Umsetzung des in der Aufklärung formulierten Programms der vollständigen Quantifizierung und Formalisierung der Welt als Dystopie erweist, in welcher Sinndimensionen menschlicher Lebensentwürfe unterlaufen werden, dann bedeutet das im Umkehrschluss auch, dass dieses Programm, welches axiomatisch noch wissenschaftlichem Fortschrittsdenken anhaftet, reflektiert und revidiert werden muss. Ethik kann nicht positivistisch konzipiert werden, kein ethisch relevanter Wert geht in irgendeiner Quantifizierung ganz auf. Den Einsichten dieser Grenzen des Positivismus folgend, muss eine systematische Ethik sich auf Aspekte sinnkonstitutiver Negativität besinnen als Einsicht in die Grenzen menschlicher Erkenntnis und Moral, um Möglichkeiten sinnkonstitutiver Lebenspraxis für den Menschen freizulegen. Der dystopische Gehalt des Transhumanismus Im Kapitel 3.3 dieser Arbeit wurden die religiösen Motive transhumanistischer Utopien systematisch dargestellt. Angesichts des Unterlaufens der negativen Sinnkonstitutionsbedingungen, welche im Transzendenzbegriff im Anschluss an religiöse Traditionen vernunftkritisch rekonstruiert werden können, erweisen sich transhumanistische Verheißungen techno-religiöser Erlösungsansprüche des Menschen als dystopische Verfehlungen. Die technologische Einlösung einer Struktur von technisch-instrumenteller Allwissenheit schlägt im Sinne einer vollständigen Vermessung, Quantifizierung und Formalisierung um in einen Apparat totaler Transparenz des privaten wie gesellschaftlichen Lebens. Ein solcher Gesellschaftsentwurf zeigt zahlreiche Parallelen zu dystopischen Romanen wie von Huxley, Orwell oder Eggers.3 Für die technologischen Entwicklungen im Bereich der künstlichen Intelligenz implizieren diese Dystopie-Rezeptionen vernunftkritische und ethische Potentiale. Die Aporetik und Ziellosigkeit des Optimierungsimperativs, die mit Huxley und Eggers herausgearbeitet werden kann, verdeutlicht die Grenzen des Human Enhancements. Leistungsprinzip und Gewinnmaximierung forcieren ohne rechtsstaatliche Regulation eine immer stärkere Entfremdung des Menschen von seinen sinnkonstitutiven Grenzen, innerhalb derer er seine lebensweltlichen Handlungsvollzüge gestalten kann. Wenn eine Besinnung auf die Unabschließbarkeit von Maximierung ausbleibt, dann steht eine zunehmende Ausbeutung von Menschen und Ungleichverteilung von Gütern zu erwarten. Der Begriff der Optimierung steht, wenn er verabsolutiert
3
Vgl. Kap. 3.2.9 dieser Arbeit.
339
4 Exkurse
wird, dem Begriff der Freiheit als unversöhnlich gegenüber. Bedingungslose Optimierung wird zum Antagonisten der Freiheit. Genügsamkeit und Maß werden individualethisch neu zu erringende Aufgaben in der lebensweltlichen Selbstbestimmung des Menschen. Die zunehmende Überführung des privaten, verborgenen Lebens in eine transparente, digitale Welt bedroht die Grundlagen einer freiheitlichen Gesellschaft, in welcher die Tiefe öffentlicher Diskurse sich auch aus den Prozessen der Verborgenheit des privaten Lebens speist. Monopolbildungen zur Informationsverwaltung im Bereich des Digitalen bedrohen dabei, wie Eggers „Circle“ zeigt, in besonderer Art und Weise die Fragilität demokratischer Vermittlungs- und Entscheidungsprozesse.4 Der Umgang mit Tod, Leid und Schmerz bildet auch bei weiteren Fortschritten im Bereich der Gesundheitstechnologie weiterhin eine unhintergehbare Voraussetzung für menschliche Lebenspraxis. Als sinnkonstitutive Negativität darf bei einer zunehmenden technologischen „Optimierung“ des Menschen seine Fragilität als Wesensmerkmal nicht vergessen werden. Indem künstliche Intelligenz als Kulturleistung des Menschen immer stärker Einzug in seine Lebenswelt findet, muss der Mensch sich auch der Aufgabe der Vermittlung zwischen neuen Technologien und sinnkonstitutiven Bedingungen seiner lebensweltlichen Praxis stellen. Die Zunahme des Einflusses der ökologischen Bewegung ebenso wie die wieder stärker zunehmende Rezeption spiritueller Sinntraditionen aus verschiedenen Kulturen deutet darauf hin, dass sich in diesen gesellschaftlichen Entwicklungen auch bereits Kompensationsversuche gegenüber einer technologischen Entfremdung des Menschen von sich selbst zeigen. Im Sinne der ökologischen Bewegung stellt sich für eine ethische Eingrenzung technologischer Entwicklungspotentiale auch die Frage nach den Grenzen der vorhandenen Ressourcen und nach einem nachhaltigen Umgang mit diesen. Unter diesem Gesichtspunkt sind transhumanistische Utopien einer lebensweltlichen Verschmelzung von Mensch und Technologie bis hin zur Austauschbarkeit kaum realistisch einzulösen. Die exponentielle Steigerung der Rechenleistung, von der Moravec und Kurzweil ausgehen, müsste auch durch eine ebenso wachsende nachhaltige Energieversorgung dieser immer komplexer werdenden technischen Systeme gewährleistet werden. Künstliche Intelligenz als wichtigstes Element in transhumanistischen Utopien Einige Passagen dieser Arbeit könnten, weil sie der Zuspitzung und Konkretisierung von ethischen Gefährdungspotentialen dienen, als dualistische Gegenüberstellung gelesen werden: Künstliche Intelligenz und Transhumanismus wären als Gefährdung und Bedrohung von 4
Ebd.
340
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Humanität anzusehen, vor welcher die Philosophie als Stimme des gesellschaftlichen Bewusstseins zu warnen hätte. In transhumanistischen Deutungen des Geltungsanspruchs von künstlicher Intelligenz können tatsächlich Gefährdungen und Bedrohungen von Humanität aus der Perspektive einer philosophischen Vernunftkritik nachgezeichnet werden. Dennoch sind weder technologische Innovationen im Bereich der künstlichen Intelligenz per se ethisch problematisch noch ist das Anliegen des Transhumanismus, mithilfe von technologischem Fortschritt zum Lindern von Krankheiten und zum Erweitern menschlicher Möglichkeiten beizutragen, grundsätzlich zu verwerfen. Künstliche Intelligenz bietet Potentiale für technische Innovationen, die in verschiedenen Lebensbereichen implementiert und verwendet werden können. Das Anliegen, mit wissenschaftlichem und technologischem Fortschritt auch der Menschheit in ihrer Weiterentwicklung zu dienen, gehört zu den Zielstellungen der europäischen Geistesgeschichte seit der Antike. In den Recherchen zu den Deutungen der technologischen Innovationen im Bereich der künstlichen Intelligenz und zu den Zielstellungen des Transhumanismus ist der Autor auf zahlreiche Verkürzungen und Vereinseitigungen aufmerksam geworden, die eine Implementierung der Technologien in eine gesellschaftliche Struktur erschweren, welche auf der Unhintergehbarkeit der Menschenwürde und auf den Grundlagen einer freien, demokratischen Diskursgesellschaft aufbaut. Der Zusammenhang zwischen transhumanistischen Zielstellungen und einem positivistischen Menschenbild der Aufklärung, welches den Menschen als komplexe Maschine versteht, wurde im Laufe der Recherchen immer deutlicher sichtbar. Technologien der künstlichen Intelligenz erweisen sich dabei als das Mittel zu einer technischen Realisierung dessen, was zuvor nur eine spekulative Utopie zu sein schien. Die technische Nachbildung des Menschlichen gründet in der Auffassung des Menschen als Maschine. Der Bereich der Rationalität ist durch die mit ihm einhergehende Abgrenzung des Menschen vom Animalischen dabei zum Dreh- und Angelpunkt der Debatte geworden, ob sich das ganze Wesen des Menschen in einem technisch-mechanistischen Verständnis erfassen lässt. Die Entwicklungen von Technologien der künstlichen Intelligenz sind nicht per se an eine mechanistische Auffassung des Menschen geknüpft. Doch lässt sich eine solche Verknüpfung von mechanistischem Menschenbild und der Motivation, Forschungen im Bereich der künstlichen Intelligenz zu verfolgen, vom Beginn der Computerentwicklung bis zu verschiedenen Arbeiten von Autoren der Gegenwart nachweisen, nicht nur in transhumanistischen Entwürfen. Künstliche Intelligenz kann jedoch auch losgelöst von einem Anspruch, die Intelligenz des Menschen nachzubilden, konstruiert werden. Eine solche Haltung gegenüber KI-Technologien
341
4 Exkurse
vertreten beispielsweise Irrgang,5 Nida-Rümelin,6 Tsvasman und Schild.7 Auch die Zahl der Ingenieure, die im Bereich von künstlicher Intelligenz forschen und sich dabei nicht von transhumanistischen Utopien leiten lassen, ist sicherlich sehr groß. Technologische Innovation in der Entwicklung von künstlicher Intelligenz fokussiert sich dabei auf die Stärken maschineller Informationsverarbeitung und richtet deren Entwicklungen und Anwendungen auf die Unterstützung menschlicher Akteure in offenen, intersubjektiven Sinnstrukturen aus.8 Gerade die Bewusstwerdung der grundlegenden Verschiedenheit von menschlicher und maschineller Intelligenz ermöglicht demnach eine erfolgreiche Vermittlung und Implementierung von KI-Technologien, welche die Grundlagen von Humanität nicht gefährden, sondern stützen können. Technologien mit künstlicher Intelligenz bilden in diesem Sinn keine Sonderrolle gegenüber anderen technischen Innovationen, sondern entwickeln eine ethische Relevanz vorrangig durch den Kontext ihrer technischen Anwendungen. Warum wurde dann in dieser Arbeit so viel Kraft darauf verwendet, transhumanistische Deutungen von künstlicher Intelligenz darzulegen und zu analysieren, wenn diese Haltung vielleicht nur von einer Minderheit von Forschern vertreten wird? Zum einen artikulieren sich in transhumanistischen Arbeiten verschiedene Annahmen über das Verhältnis von Mensch und Maschine, die von Beginn der Computerentwicklung an die Diskussion mitbestimmten und bis heute in Publikationen zu künstlicher Intelligenz teilweise implizit vorausgesetzt werden. Auch wenn vermutlich viele Forscher sich von transhumanistischen Radikalpositionen wie Kurzweils Aussage „Biologische Intelligenz werden wir hinter uns lassen“9 distanzieren würden, sind viele erkenntnistheoretische, ethische und anthropologische Grundannahmen von Relevanz, die seit dem Beginn der Computerentwicklung diskutiert worden sind. Transhumanistische Positionen stellen eine radikale Form des Denkens dar – doch Elemente dieses Denkens finden sich in abgewandelter Form in vielen gegenwärtigen Diskursen wieder. Zum anderen sind transhumanistische Zielstellungen ethisch relevant, weil zu den prominentesten Vertretern Personen wie Ray Kurzweil gehören, die in leitenden Positionen der führenden globalen Digitalkonzerne agieren. Ihre Positionen können nicht als bloß subjektive
Vgl. Irrgang, Bernhard: Posthumanes Menschsein? Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und Designer-Menschen. Anthropologie des künstlichen Menschen im 21. Jahrhundert, Stuttgart 2005, S. 167. 6 Vgl. Nida-Rümelin, Julian und Weidenfeld, Nathalie: Digitaler Humanismus, München 2018. 7 Vgl. Tsvasman, Leon und Schild, Florian: AI-Thinking. Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz, Baden-Baden 2019, S. 32f. 8 Ebd., S. 159f. 9 Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 385. 5
342
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Privatmeinung gedeutet werden, sondern sind von globaler politischer und gesellschaftlicher Relevanz. Ethisch relevant jenseits von Anwendungskontexten ist bereits eine Gleichsetzung maschineller Intelligenz mit menschlich-personaler Intelligenz, wie sie teilweise von transhumanistischen Autoren wie Ray Kurzweil vertreten wird, weil sie die Grundlagen der Humanität und Menschenwürde zu unterlaufen drohen, welche das diskursiv-freie Selbstverständnis unserer Gesellschaft fundieren. Transhumanistische Entwürfe rekurrieren auf eine quantitative Bestimmung des Wertes von Menschen. Dies kann bereits als Unterlaufen einer vernunftkritischen Ethik gedeutet werden. Die systematische Vermeidung und Verleugnung von Aspekten sinnkonstitutiver Negativität führt zu normativ problematischen Zielstellungen in transhumanistischen Entwürfen. Die Thematisierung der kontextuellen, sozialen und kulturellen Vorbedingungen für künstliche Intelligenz führt auch zu einer Problematisierung der Intentionalität, welche hinter der Entwicklung von künstlicher Intelligenz steht. Als Technik wurde und wird künstliche Intelligenz unter den Zielsetzungen einer instrumentellen Rationalität entwickelt und spiegelt in der Struktur ihrer Prozesse diese auch wieder. Hinter der Entwicklung von künstlicher Intelligenz stehen menschliche Akteure, deren Handlungsmotive und intentionale Vorbedingungen ihrerseits problematisiert werden können. Forschungen zur künstlichen Intelligenz werden vorrangig von Digitalkonzernen finanziert und vorangetrieben, für welche die neue Technik als verlängerter Arm der Unternehmenslogik fungiert. Sie kann als Technik in den Dienst unterschiedlicher Akteure treten, seien es Unternehmen oder Staaten. Mit ihrem Anspruch und Potential einer umfassenden Quantifizierung und Beobachtung des Menschen und ihrer wachsenden lebensweltlichen Bedeutung für Mensch und Gesellschaft rücken die Interessen derer, die als Akteure von Entwicklungen im Bereich der künstlichen Intelligenz profitieren können, in das Blickfeld. Wissen und Digitale Herrschaft Markus Jansen hat die Themenfelder von Digitalisierung, künstlicher Intelligenz, Transhumanismus und synthetischer Biologie als Ausweitung des Herrschaftsanspruchs über Natur und Mensch thematisiert.10 Durch eine Verfügbarmachung sensibler Daten verlagern sich Machtverhältnisse und Selbstverständnisse, die auch unter der Perspektive einer kapitalkritischen Analyse Entfremdungspotentiale und Verselbständigungstendenzen beinhalten. Die moralische Problematisierung eines Wissensbegriffs, welcher sich in einem Zugriff auf die Welt durch eine instrumentelle Rationalität erschöpft, hat für die Untersuchungen zu Markus Jansen: Digitale Herrschaft. Über das Zeitalter der globalen Kontrolle und wie Transhumanismus und Synthetische Biologie das Leben neu definieren, Budapest 2015.
10
343
4 Exkurse
künstlicher Intelligenz und transhumanistischen Utopien weitreichende Konsequenzen. Wenn Transformationsprozesse mit digitalen Technologien die Totalität des Menschen erfassen sollen, dann ist damit auch die Freiheit des Menschen bedroht. Wenn instrumentell-technisches Wissen in Macht und Ausbeutung umschlagen kann, dann ist die Utopie einer technischen Optimierung des Menschen verbunden mit dem Machtanspruch derer, die das damit verbundene Wissen verwalten. Die Kontrollierbarkeit der Technik und des Informationsflusses geht mit der Ausweitung von Möglichkeiten indirekter oder direkter Machtausübung einher und je umfassender das Programm der Quantifizierung und Digitalisierung menschlicher Lebenswelt fortschreitet, umso stärker wächst die Macht der Digitalkonzerne, welche auf dieses Wissen zugreifen können. Systematisch hat Markus Jansen die moralische Problematik von digitalen Transformationsprozessen ausgearbeitet. Er zeigt darin Bedrohungspotentiale auf, die in der Verbindung von marktökonomischem Denken in führenden Digitalkonzernen mit dem Totalitätsanspruch transhumanistischer Utopien entstehen können. Jansen verbindet in seiner Arbeit technikphilosophische mit kapitalismuskritischen Aspekten. Gerade weil künstliche Intelligenz immer unter funktionalen Bestimmungen entwickelt wird, ist die menschliche Absicht, die hinter den Konstruktionen steht, gefährlicher als die Rechenprozesse der künstlichen Intelligenz selbst. Durch ihre funktionale Bestimmung erweist sich künstliche Intelligenz als dienstbar gegenüber jeder fremden Absicht. Sie fügt sich, anders als der Mensch, jedem instrumentellen Zugriff auf die Welt und auf andere Menschen ein. Sie ist nicht skeptisch gegenüber einem gegebenen Befehl. Sie prüft und reflektiert getroffene Entscheidungen nicht. Sie muss keine innere Stimme des Gewissens abtöten, bevor sie Menschen töten kann. Auch Menschen folgen vielen funktionalen Bestimmungen und bedienen sich nicht so häufig ihrer Offenheit zum Ungehorsam wie sie könnten. Die Geschichte des Nationalsozialismus zeigt, wie lange ein Gehorsamseid aufrechterhalten werden kann, auch wenn Befehle offensichtlich unmenschlich oder widersinnig sind. Menschen können sich selbst zu Maschinen machen; Menschen können auch einander wie Maschinen behandeln. Aber Menschen können auch widersprechen, Menschen können ungehorsam sein, Menschen können Befehle verweigern. Die Geschichte der Revolutionen zeigt den Zerbruch linearer geschichtlicher Berechenbarkeit durch die Offenheit der menschlichen Handlungspraxis. Auch in der Geschichte des Nationalsozialismus finden sich überall Verweise auf Ungehorsam, Flucht und Verweigerung. Diktaturen und totalitäre Regime erwiesen sich deshalb immer wieder als instabil, weil auch die Führerebene selbst trotz aller Kontrollinstanzen abhängig bleibt von den Grundkonstitutionen des Vertrauens in Andere. Verrat, Ungehorsam und Widerstand ließen totalitäre und autoritäre Regime scheitern. Künstliche Intelligenz birgt nicht wie die Unzuverlässigkeit des Menschen eine solche Disposition zur Verweigerung. Unter den Zielsetzungen eines autoritären Regimes konstruiert, kann künstliche Intelligenz den Herrschaftsanspruch von Menschen 344
4.1 Künstliche Intelligenz in einer freien Gesellschaft
technisch weitaus zuverlässiger absichern als durch Indoktrination und Propaganda. Künstliche Intelligenz als mächtiges technisches Werkzeug im Dienst von Menschen und ihrer Eigeninteressen ist daher eine Bedrohung in einer freien Welt. Auch Science-Fiction-Szenarien einer direkten Bedrohung durch eine verselbständigte KI gegenüber dem Menschen bergen Bezüge zu reellen Gefahren. Eine solche Wendung der Technik gegen den Menschen ist selbstverständlich möglich. Literarische Entwürfe wie die Golemlegende deuten auf die Bedrohung der Unkontrollierbarkeit und der möglichen Irreversibilität einer solchen Umkehrung. Ob dies eintrifft, hängt davon ab, wie die Technik gestaltet ist und wie mit ihr umgegangen wird. Dass Technik sich gegen Menschen kehren kann, ist nicht erst durch künstliche Intelligenz möglich. Die Axt, mit dem der Baum gefällt wurde, spaltete in Konflikten auch den Schädel von Menschen im Krieg. Ebenso können die Reaktorunfälle in Tschernobyl als Verselbständigung von nicht mehr durch den Menschen kontrollierbaren Abläufen interpretiert werden. Für diesen Unfall benötigte man keine künstliche Intelligenz. Unspektakulärer können auch Betriebsunfälle bereits als Umkehrung des Verhältnisses von Mensch und Technik gedeutet werden. Technik steht immer in der Gefahr, den Menschen in eine Abhängigkeit und Unfreiheit zu führen, die Ausbeutung des Menschen zu befördern oder schlichtweg anders zu arbeiten als gedacht – wenn die Bremsen versagen, führt die Technik des Automobils zum Fahrer des Fahrers, anstatt seine Mobilität zu erweitern. Ethische Fragen zur Verantwortbarkeit von KI-Entwicklungen sind deshalb zunächst stark von Fragen nach der Zuverlässigkeit von Technik geprägt. Technikversagen ist jedoch keine Offenheit personalen Handelns. Dies betrifft auch ScienceFiction-Szenarien einer Verselbständigung von künstlich intelligenter Technik. Eine solche Wendung der Technik gegen den Menschen wäre kein personales Handeln im Sinne einer Auflehnung gegen den Menschen, sondern würde auf einer mangelhaften Einschätzung und in einem unverantwortlichen Einsatz von Technik durch den Menschen gründen. Ein solcher Einsatz könnte aus dem unverrückbaren Vorsatz hervorgehen, alle Aspekte der menschlichen Intelligenz in KI-Technologien nachzubilden, auch seine Fähigkeit zu philosophieren. Philosophie als grundsätzliches Hinterfragen aller konstituierenden Bedingungen beinhaltet auch die Möglichkeit, alle Werte zu hinterfragen. Setzungen einer Ethik oder Moral im Sinne eines Programmcodes entsprechen nicht einem philosophischen Ethikverständnis, welches aus seiner Einsicht in die Bedingungen sinnkonstitutiver Negativität hervorgeht. Die Errungenschaften der Ethik resultieren aus der Offenheit und Fragilität des Menschen, welche auch bis zu Folter, Versklavung und Vernichtungskriegen geführt hat. Der Begriff der Menschenwürde ist eine Reaktion auf das Unterlaufen derselben. Doch wie kann Einsicht in moralische Prinzipien formallogisch repräsentiert werden, ohne die Freiheit zu einem Anderskönnen und damit die Grundbedingung für moralisches Handeln aufzugeben? Eine transhumanistische Ideologie könnte das Experiment anstreben, eine superintelligente Technologie mit einer Freiheit zu 345
4 Exkurse
allem auszustatten – unter der einzigen Zielstellung, die in der Sprache der Evolutionsbiologie auch die Entwicklung des Menschen determiniert hat: zu überleben, sich auszubreiten und möglichst viele Nachkommen der eigenen Art im Universum hervorzubringen. Wenn eine vom Menschen geschaffene Technik mit dieser Zielstellung losgelassen würde, ohne ethische Grenzen, einem ideologischen Programm eines Transhumanismus folgend, der blind in die menschenähnliche Intelligenz von KI-Technologie vertraut, dann ist die Verwirklichung einer Science-Fiction-ähnlichen Dystopie im Sinne einer Herrschaft durch digitale Technologien möglich. Für die Ausbreitung von künstlich intelligenter Technik wäre, wenn die Produktionsabläufe zur Herstellung derselben ebenso wie die Weiterentwicklung der Software-Architektur unter die Bestimmungen der Automatisierung und Formalisierung gestellt werden, irgendwann kein Mensch mehr notwendig. Für das Verfolgen einer solchen letzten Zielfunktion von lernfähiger künstlicher Intelligenz wäre damit auch die Vernichtung von Lebewesen bis hin zur Auslöschung der Menschheit gegebenenfalls zielführend, falls diese sich gegen eine solche unbeschränkte Ausbreitung stellen würden. Für Russell und Norvig, die Autoren eines Standard-Lehrbuchs zur künstlichen Intelligenz, gehört zur Liste der „Risiken bei der Entwicklung künstlicher Intelligenz“ auch die Bedrohung der Menschheit: „Der Erfolg der künstlichen Intelligenz könnte das Ende der menschlichen Rasse bedeuten.“11 Ähnliche Gefahren birgt eine Formalisierung von ethischen Prinzipien, verbunden mit autonomen, formalisierten Lernprozessen künstlich intelligenter Technik. Wenn als höchste Zielfunktion von künstlicher Intelligenz die Minimierung von Leid gesetzt wird, dann wäre die Auslöschung des organischen Lebens langfristig gesehen die einfachste Lösung für eine reine Rationalität.12 Wir bewegen uns mit diesen Überlegungen in den Bereich von Spekulation und Science Fiction. Bisher sind die Technologien der künstlichen Intelligenz keineswegs so weit entwickelt, dass eine solche radikale Verselbständigung realistisch absehbar wäre. Stattdessen erweisen sich die Entwicklungen der künstlichen Intelligenz als Technik wie alle bisherige Technik – als eine neuartige Technik führt sie zu Transformationsprozessen und Veränderungen, die gesellschaftlich bewältigt werden müssen. Wir müssen den Umgang mit ihr erlernen und auch, wann es besser ist, sie nicht zu nutzen. Der Verzicht auf die Anwendung von Technik gehört zum kultivierten Umgang mit Technik. Obwohl Äxte zur Spaltung eines menschlichen Kopfes aus einer technischen Sicht hervorragend geeignet sind, wurde ihre Anwendung mittlerweile hauptsächlich für die Holzbearbeitung eingegrenzt. Auch für die Entwicklungen der Russell und Norvig: Künstliche Intelligenz. Ein moderner Ansatz, 3. Auflage, a. a. O., S. 1191. Mit anderen menschlichen Werten verhält es sich ähnlich. Wird ein letzter Wert vereinseitigt, wird er totalitär. Vgl. Bostrom: Superintelligenz, a. a. O., S. 171ff. Letztlich kann auch die Totalitarismusgeschichte der Menschheit als eine Geschichte vereinseitigter und absolut gesetzter Werte des Menschen gedeutet werden.
11
12
346
4.1 Künstliche Intelligenz in einer freien Gesellschaft
künstlichen Intelligenz dürfen keine Horrorszenarien in den Vordergrund gerückt werden, sondern immer konkrete Anwendungssituationen, die gegenüber bisherigen Lösungen Vorteile und Nachteile haben können. Für eine jeweilig vernünftige Einschätzung der konkreten Situationen ist es sinnvoll, die grundlegenden Wirkmechanismen zu kennen und auch aus einer ethisch-philosophischen Perspektive her zu beurteilen. Einer transhumanistischen Programmatik folgend technische Produkte mit einer „Roboterwürde“ zu versehen und die Rechenprozesse von KI mit der personalen Intelligenz des Menschen gleichzusetzen, ist dafür sicherlich nicht hilfreich. Ebenso unangebracht ist eine prinzipielle oder unreflektierte Ablehnung von technologischen Innovationen als Fortschrittsverweigerung. In den gegenwärtigen Entwicklungen erweisen sich KI-Anwendungen als ausgesprochen effektiv für eine Verarbeitung enorm großer Datenmengen, zu deren Bearbeitung formalisierte Prozesse zielführend sind. Dies betrifft z. B. im medizinischen Bereich vor allem diagnostische Verfahren,13 es dient im Finanzsektor zur Kalkulation von Börsenkursen.14 In vielen Bereichen des privaten und öffentlichen Lebens kann künstliche Intelligenz für die Problemlösung und Aufgabenbewältigung sinnvoll eingesetzt werden. Künstliche Intelligenz ist in vielen Aufgabenfeldern schon jetzt „besser“ als der menschliche Experte – zumindest unter den funktionalen Aspekten seiner Problemlösungskompetenz. Wichtig ist dabei jedoch zu wissen, dass die Arbeitsweise der künstlichen Intelligenz sich auf das beschränken muss, was im Rahmen formallogischer Systeme möglich ist und was zudem bei ihrer Konzeption bedacht wurde. In offenen, neuen Kontexten sich zu orientieren, können Menschen auch im Vergleich mit anderen Lebewesen gut.15 Künstliche Intelligenz funktioniert in offenen Systemen weitaus schlechter als in geschlossenen Systemen, weil die Offenheit erst für die Geschlossenheit der funktional bestimmten formallogischen Architektur in eine mathematische Sprache übersetzt werden muss. Auch in Fragen moralischer Handlungsfähigkeit und Verantwortbarkeit sind Technologien der künstlichen Intelligenz ethisch problematisch. Die formalisierte Entscheidungsfindung in künstlich intelligenten Systemen suggeriert Autonomie. Diese ist jedoch nicht als personales Handeln gegeben. Der Mensch entscheidet sich, mitunter auch falsch, im alltäglichen Leben wie in Extremsituationen. Doch er kann sich gegenüber seinen Fehlentscheidungen verhalten. Mit dem Begriff der Verantwortung kann auch moralische Schuld gesellschaftlich Vgl. Tuck, Jay: Evolution ohne uns, Kulmbach 2016, S. 236f. Ebd., S. 239. 15 Vgl. Irrgang, Bernhard: Posthumanes Menschsein, a. a. O., S. 66. Vgl. Irrgang, Bernhard: Homo Faber. Arbeit, technische Lebensform und menschlicher Leib, Würzburg 2010, S. 172ff. Vgl. Irrgang, Bernhard: Der Leib des Menschen, a. a. O., S. 290. Vgl. auch Irrgang, Bernhard: Der Leib des Homo Faber, in: Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015, S. 125–150, dort S. 144ff. 13 14
347
4 Exkurse
aufgearbeitet werden: Die existentielle Orientierungslosigkeit des Menschen kann in seinen konkreten Entscheidungssituationen, z. B. in juristischen Prozessen, rekonstruiert und bearbeitet werden. Möglichkeiten zur Bestrafung, zum Eingeständnis von Schuld, bedienen zumindest symbolisch Aspekte von Wiedergutmachung oder Ausgleich; sie verweisen auf die Möglichkeit zur Wiederherstellung von Ordnung nach deren Zerbruch. Künstliche Intelligenz kann jedoch keine Verantwortung für personales Handeln übernehmen. Ihre Entscheidungen folgen den Vorgaben ihres Konstrukteurs. Indem Entscheidungspraktiken an KI-Systeme übergeben werden, müssen neue Wege zur Vermittlung und Aufarbeitung von Fehlern gesucht und gefunden werden. Es ist z. B. im Bereich autonomer Waffentechnik aus moralphilosophischer Perspektive nicht vertretbar, wenn die Verantwortung für das Töten von Menschen an formalisierte Entscheidungen künstlich intelligenter Technologien abgegeben wird.16 Künstliche Intelligenz ohne Transhumanismus Die transhumanistischen Entwürfe von Moravec und Kurzweil stellen technologische Entwicklungen ebenso wie marktwirtschaftlichen Wettbewerb als Naturgesetze dar. Die technologischen Transformationsprozesse, die mit der Weiterentwicklung von Computertechnologien mit künstlicher Intelligenz einhergehen, werden von transhumanistischen Autoren als naturgesetzliche Prozesse beschrieben. Technologischer Fortschritt wäre unausweichlich. Dies ist aus einer gesellschaftsphilosophischen und normativen Perspektive der philosophischen Vernunftkritik nicht haltbar. Sowohl wirtschaftliche als auch technologische und wissenschaftliche Prozesse werden im Bereich menschlicher Handlungspraxis unter den Prinzipien von Offenheit gestaltet. Selbstverständlich lässt sich wissenschaftlicher und medizinischer Fortschritt nicht „aufhalten“ und das wäre zweifelsohne auch nicht wünschenswert. Doch ebensowenig ist der Mensch gezwungen, alle technischen Potentiale zwanghaft auszuschöpfen, um sich selbst restlos funktional zu optimieren. Technologische Weiterentwicklung ist nicht determinierbar im Sinne eines naturgesetzlichen Zusammenhangs, sondern neben ökonomischen, mathematisierbaren und prognostizierbaren Aspekten spielen soziale, normative, gesellschaftliche und politische Dynamiken jeweils eine große Rolle, die ihrerseits nicht restlos bestimmbar sind, sondern in offenen Handlungs- und Diskursprozessen immer wieder neu vermittelt werden. Der positivistisch-fatalistische Slogan „alles, was gemacht werden kann, wird irgendwann gemacht“ erweist sich nicht als zutreffend für eine Beschreibung der Bedingungen wissenschaftlicher und ökonomischer Praxis, sondern als Kapitulation der praktischen Vernunft. Sogar in der Ära des Nationalsozialismus hatte sich die medizinische Forschung an dem normativen Selbstverständnis der Zeit orientiert. Die unmenschlichen 16
Vgl. Kap. 4.2 dieser Arbeit.
348
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Forschungen des KZ-Arztes Mengele standen nicht im Widerspruch zu den ethischen Prinzipien der nationalsozialistischen Gesellschaft. In diesem Sinn ist auch die weitere Entwicklung von KI-Technologie und die damit einhergehende Transformation der Arbeitswelt nicht durch Naturgesetze vorgezeichnet, sondern hängt davon ab, wie diese Entwicklungen und die Bedingungen dieser Transformationsprozesse gesellschaftlich, politisch und durch Abwägungsprozesse aller beteiligten Entscheidungsträger gestaltet werden. Es ist nicht zu erwarten, dass sich aus einem naturgesetzlich vorbestimmten Prinzip eine künstliche Superintelligenz entwickeln würde. Stattdessen sind immer konkrete menschliche Akteure mit unterschiedlichen Zielen und Motiven Anlass für wissenschaftliche Forschung und technische Weiterentwicklung. Nur wenn die Erschaffung einer menschenähnlichen oder übermenschlichen Intelligenz angestrebt wird, werden in dieser Richtung Fortschritte zu verzeichnen sein. Die Weiterentwicklung von Technologien mit künstlicher Intelligenz kann jedoch auch unter ganz anderen Zielstellungen erfolgen und sich beispielsweise stärkeorientiert darauf fokussieren, wo KI-Technologien gegenüber menschlicher Intelligenz im Vorteil sind: in der routinierten und zuverlässigen Verarbeitung enorm hoher Datenmengen, die den Menschen viel zu sehr langweilen würden, als dass er in einem solchen Aufgabenfeld die Stärken seiner Intelligenz überhaupt erst entfalten könnte. Ob Technologien mit künstlicher Intelligenz die Intelligenz und die Arbeit des Menschen ergänzen oder ersetzen wird, hängt maßgeblich von den Werten und Diskursen einer offenen Gesellschaft ab. Deren Weiterentwicklung ist jedoch nicht naturgesetzlich absehbar. Wenn z. B. die Forderungen von Klimaaktivisten in der politischen Willensbildung maßgeblich resonieren, dann steht nicht zu erwarten, dass die Visionen von Kurzweil durch eine Bereitstellung ausreichender Ressourcen für die dafür benötigte Rechenleistung realisierbar werden könnten. Wissenschaftliche Forschung und Weiterentwicklung erfolgt nicht linear und auch nicht exponentiell. Stattdessen kann es durch Paradigmenwechsel und wissenschaftliche Revolutionen zu einer kompletten Neuausrichtung wissenschaftlicher Praxis kommen. Dementsprechend kann auch die Implementation neuer Technologien nicht, wie Moravec und Kurzweil dies unterstellen, als unaufhaltsame lineare oder exponentielle Entwicklung prognostiziert werden.17 Auch unerwartete, neue wissenschaftliche Erkenntnisse können technologische Entwicklungen und Implementationen ausbremsen und behindern. Was wäre, wenn sich herausstellte, dass zu starke Internetfrequenzen langfristig eine problematische Gefährdung für natürliche Organismen darstellen? Dem exponentiellen Wachstumstrend der Datenübertragung wäre dann für Prozesse der gesellschaftlich akzeptierten Implementierung eine Grenze des Wachstums gesetzt, die sich jedoch nicht aus den bisherigen Entwicklungen vorzeichnen Vgl. Moravec, Hans: Mind Children, a. a. O., S. 141f. Vgl. auch Kurzweil, Ray: Menschheit 2.0, a. a. O., S. 429.
17
349
4 Exkurse
lässt, sondern die sich erst dann zeigt, wenn ein kritischer Schwellenwert erreicht wird. Sollten gesundheitliche Gefährdungen nachweisbar werden, kann vielleicht sogar ein Rückbau des kabellosen Internets ein realistisches Szenario sein, dem sich technologische Entwicklungen und Implementierungen anpassen müssten. Solche Überlegungen sind spekulativ – sie dienen an dieser Stelle der Vergegenwärtigung, dass wissenschaftliche und technologische Weiterentwicklungen prinzipiell nicht vollständig determinierbar sind. Unser Wissen über die Welt und ihre Zusammenhänge ist vorläufig. Wir können Voraussagen immer nur ausgehend von dem treffen, womit wir mit unserem gegenwärtigen Forschungsstand am besten arbeiten können. Dass wir die aktuellen Methoden derzeitig für die besten halten, wird Generationen nach uns nicht daran hindern, sie für falsch oder mangelhaft zu erklären. Wissenschaftlicher und technologischer Fortschritt erfolgt nicht linear im Sinne einer naturgesetzlich quantifizierbaren und determinierbaren Dynamik. Stattdessen gehören Wissenschaft und Technik in den Bereich der menschlichen Handlungspraxis, die offen gestaltet wird. Digitalisierung und Freiheit Digitalisierung und künstliche Intelligenz sind keine Antagonismen einer freien Gesellschaft, solange sie nicht in den Dienst einer totalen Quantifizierung und Optimierung gestellt werden. Ihre Potentiale gerade für die Bestärkung und Beförderung von Freiheit dürfen nicht unterschätzt werden. Die Aufgaben, in denen künstliche Intelligenz ihr volles Potential entfaltet, sind diejenigen, welche den Potentialen des Menschen gerade nicht entsprechen. Hierzu gehört die Verarbeitung enorm großer Datenmengen, die millionenfach wiederholte vergleichende Beobachtung der gleichen Prozesse und Abläufe, das Verrechnen und Vergleichen von unüberschaubaren großen Zahlenmengen. Robotische Systeme können Aufgaben übernehmen, die für menschliche Akteure gefährlich, gesundheitsschädigend oder schlicht unzumutbar wären. Es ist unwahrscheinlich, dass ein Minenräumroboter um seinen Arbeitsplatz beneidet wird. Vielleicht können die Arbeitsbedingungen mancher Berufstätigkeit durch künstliche Intelligenz deutlich verbessert werden. Die Kreativität, die ein solches junges Forschungsfeld für neue Aufgaben, neue Produkte, neue Lösungen, neue Wege ermöglicht, stellt ein neues Feld vor, in dem menschliches Denken sich entfalten und innovativ werden kann. Auch die Vernetzung und automatisierte Auswertung von Daten ist nicht nur problematisch, sondern kann innovative Lösungen ermöglichen, die in manchen Situationen mehr Freiheit, mehr Lebensqualität, mehr Menschlichkeit ermöglichen. Die „Corona-App“, deren Entwicklung in den Zeitraum der Fertigstellung dieser Arbeit fällt, mag ein solches Beispiel sein. Eine freiwillig genutzte App zur Zusammenführung von Bewegungsdaten, um Infektionsketten nachvollziehbar werden zu lassen und Quarantänebestimmungen nur dort vorzunehmen, wo es nötig ist, kann Freiheit befördern, wenn dann nicht 350
4.1 Künstliche Intelligenz in einer freien Gesellschaft
mehr pauschal eine ganze Gesellschaft in Quarantäne geschickt werden muss. Es ist auch in solchen Kontexten immer wichtig, dass Sinn, Nutzen, Kosten und Risiken abgewogen werden. Aus der Perspektive einer vernunftkritischen Gesellschaftsphilosophie erweist es sich als problematisch, wenn die Lebenswelt des Menschen vollständig digital durchleuchtet werden soll. Transparenz ist kein Wert, der vereinseitigt und verabsolutiert werden darf. Wenn Vertrauen eine Grundbedingung für gelingende Sozialität darstellt, dann kann der Mensch nicht restlos transparent werden dürfen. Vertrauen gründet im Nichtwissen, in einer Dimension der Verborgenheit und des Loslassens. Vertrauen kann nur dort genuin wachsen, wo es auch enttäuscht werden kann. Nicht in allen Kontexten darf zwar die Forderung nach Privatsphäre, Verborgenheit und Nichtwissen vereinseitigt hochgehalten werden. Transparenz kann und muss in gewissen Kontexten eingefordert werden. Es ist ein hohes Gut, dass bestimmte Prozesse der politischen Praxis transparent gemacht werden müssen. Eine Demokratie gründet zwar einerseits auf Vertrauen, andererseits müssen Kontrollmechanismen vorbehalten werden dürfen, die es ermöglichen, Missbrauch und Fehlverhalten freizulegen. Doch gerade die politische Praxis lebt ebenso wie andere Bereiche des gesellschaftlichen Lebens von einer Dimension der Verborgenheit und Privatheit. Politische Willensbildung büßt einen großen Teil ihrer Qualität ein, wenn alle Diskurse transparent werden. Im öffentlichen Diskurs muss abgewogen werden, was eine Aussage für Implikationen haben wird. „Die Gedanken sind frei“ – nicht aber die Worte einer politischen Rede. Politische Stellungnahmen müssen abwägen, welche gesellschaftlichen Kräfte durch eine Formulierung gestärkt werden, wie Aussagen interpretiert werden und wer dadurch diskriminiert werden könnte. In diesem hohen Maß an Differenzierung, wie es für eine politische Rede notwendig ist, ist kaum ein Mensch fähig, frei zu denken. Die Qualität politischer Entscheidungen hängt auch davon ab, wie frei die Diskurse sind, in welchen um sie gerungen wird. Private Diskurse stehen nicht unter so vielen Tabus und Denkverboten wie öffentliche Diskurse. Der Gedanke, der im hitzigen Gespräch am Stammtisch begann, kann in einer differenzierten öffentlichen Stellungnahme münden. Doch die lebensweltliche Praxis kann sich nicht darin erschöpfen, eine Bühne zu sein. Die Qualität eines Bühnenauftritts hängt davon ab, wie gut hinter den Kulissen gearbeitet wurde. Wie der Mensch das Wort braucht, so braucht er auch die Stille. Die Qualität des öffentlichen Lebens speist sich aus der Tiefe des verborgenen Lebens. In der digitalen Welt verschwimmen die Grenzen zwischen öffentlichem und privatem Diskurs. Die gängige Sprachform in vielen Internetportalen ist, geprägt vom angloamerikanischen Einfluss, das Du. Alles geht schnell, unkompliziert und mit einem Klick werden Freunde gefunden. Der Raum, in Foren und mit Freunden in aller Welt über alles reden zu können, alle Informationen teilen zu können, ohne dass ein Zuhörer gelangweilt gähnen könnte, suggeriert Vertraulichkeit. Doch wie viele Menschen sind sich darüber bewusst, dass die meisten Diskurse im Internet letztlich öffentliche Diskurse sind? 351
4 Exkurse
In der europäischen Union wurde mit der EU-Datenschutzgrundverordnung eine Einsicht gesetzlich konkretisiert, die für die Grundlagen einer freien Gesellschaft wesentlich ist. Die menschliche Lebenswelt darf nicht restlos transparent werden, ohne dass damit unser Grundverständnis von einer freien Gesellschaft aufgegeben wird. Um den Erfolg globaler Digitalunternehmen zu erklären, kursiert das Diktum „Daten sind das neue Gold“. Doch die Goldsucher zogen in Zeiten des Goldrauschs von den besiedelten Gesellschaften weg, in die Einöde, um fündig zu werden. Das meiste wurde ignoriert; nur das seltene Gold war von Bedeutung. Digitalunternehmen dringen in die Privatsphäre, in die Lebenswelt der Menschen ein, um Daten zu sammeln. Alles, was gefunden wird, hat potentielle Bedeutung. Indem der gesamte Raum des Privaten in den Raum des Öffentlichen überführt wird, verliert der Mensch mehr, als er damit gewinnen kann. Eine problematische Tendenz stellt auch die Ausweitung des technischen Umgehens auf Bereiche der zwischenmenschlichen Praxis dar. Sollte der Einfluss von KI-Systemen in der Arbeitswelt und in der Freizeitverwaltung zunehmen, dann steht zu befürchten, dass die Vorherrschaft einer instrumentellen Rationalität nicht nur in der Interaktion mit künstlich intelligenter Technik, sondern auch im zwischenmenschlichen Umgang sich noch stärker etabliert. Bleibt für die Fragilität des Menschen und für die Offenheit seiner Sinnorientierung dann noch Raum? Gerade, weil wir einander nicht nur technisch, instrumentell, unter Kriterien der Nützlichkeit behandeln, ist eine menschliche, freie Gesellschaft überhaupt möglich. Doch nicht alle digitalen Technologien werden unter den Zielstellungen einer vollständigen Quantifizierung oder Transparenz entwickelt. Weder Staaten noch Unternehmen sind verpflichtet, Daten zu missbrauchen. Die Einsicht in dystopische Entwicklungspotentiale darf nicht in eine vollständige Verweigerung gegenüber jedwedem technologischen Innovationspotential münden. Zu den Stärken des Menschen gehört es, in sich verändernden Umgebungen sinnvolle neue Verhaltensweisen zu entwickeln. Die gesellschaftlichen Transformationsprozesse, die mit der Weiterentwicklung von KI-Technologien einhergehen, können zu einer besonderen Herausforderung für eine freie Gesellschaft werden. Doch Herausforderungen können auch gemeistert werden. Die ethischen Problematisierungen zu Anwendungsfragen von künstlicher Intelligenz berühren auch, abgesehen von den Zielstellungen transhumanistischer Utopien, technische, juristische, moralische, gesellschaftliche, individualethische und wissenschaftliche Fragen. Neben den wissenschaftlichen und gesellschaftlichen Aufgaben im Anschluss an ethische Problematiken, die sich in einer Auseinandersetzung mit technologischen Entwicklungen im Bereich der künstlichen Intelligenz ergeben, dürfen die technischen, juristischen und moralischen Aspekte nicht übersehen werden. Technisch stellt sich für die Entwicklungsaufgaben im Bereich der künstlich intelligenten Technologien zunächst die Herausforderung, im Bereich 352
4.1 Künstliche Intelligenz in einer freien Gesellschaft
der Fehlerprävention verantwortungsvoll zu bleiben und zugleich die Weiterentwicklung der Technologien in ihren Anwendungspotentialen zu ermöglichen. Juristisch stellen sich im Bereich der künstlichen Intelligenz vor allem Haftungsfragen; bei einer zunehmenden Komplexität und Uneinsichtigkeit in technische Entwicklungen müssen rechtliche Haftungs- und Verantwortungsfragen diskutiert und definiert werden. Damit ist jedoch noch keine Antwort auf moralische Probleme gegeben. Wie kann die Schuld eines autonomen Waffensystems, welchem Zivilisten zum Opfer gefallen sind, aufgearbeitet werden? Technik ist kein Verantwortungsträger und entzieht sich sowohl einem moralischen Diskurs als auch einer Straf- oder Rechtsmündigkeit. Gegenüber einer technologischen Konzeption des Humanen gilt es, ein Menschenbild zu formulieren, welches die hier ausgeführten Einsichten in sinnkonstitutive Negativität zum Ausgangspunkt der anthropologischen Selbstbestimmung werden lässt. Weder Leiblichkeit noch Weltoffenheit lassen sich letztlich von künstlicher Intelligenz adäquat nachbilden. Eine Zuschreibung von Personalität, Geist oder Würde an künstliche Intelligenzsysteme unterläuft die ethischen Potentiale dieser Begriffe, die ohne ihren Negativitätsbezug sinnlos bleiben. Für eine anthropologische Ethik ergeben sich aus der Auseinandersetzung mit Entwicklungen der künstlichen Intelligenz auch Potentiale für eine Rekonstruktion zur menschlichen Identität unter den Gesichtspunkten von Offenheit und Unverfügbarkeit. Gegenüber der Einseitigkeit eines funktionalen, instrumentellen oder marktwirtschaftlichen Leistungsprinzips kann gerade die Einsicht in die Fragilität der menschlichen Existenz für die Konstitution eines Würdebegriffs fruchtbar gemacht werden. Die KI-Thematik wird damit zur Chance für eine Neubesinnung des Menschen, dessen Stärken gerade in seiner Offenheit und Fragilität gründen anstelle eines Versuchs der Angleichung des Menschen an eine Maschine. Individualethisch kann für die lebensweltliche Bedeutung von künstlicher Intelligenz, die voraussichtlich im Zuge der technologischen Entwicklungen deutlich zunehmen wird, ein Imperativ zur Vermittlung, Besinnung und Rekonstruktion sinnstiftender Negativitätspotentiale wie Verborgenheit, Stille, Schweigen, Unsagbarkeit, Askese und Genügsamkeit rekonstruiert werden.18 Alltägliche lebensweltliche Entscheidungen zu Fragen von Informationsgewinnung, sozialer Kommunikation sind davon ebenso betroffen wie eine Rekultivierung des Bewusstseins Michel Foucault formuliert in seinem philosophischen Spätwerk individualethische Ansätze, welche an die antike Tradition der Stoa anknüpfen und Tugenden der Selbstbeherrschung, Besonnenheit und Mäßigung hervorheben. Vgl. Foucault, Michel: Die Sorge um sich. Sexualität und Wahrheit, dritter Band, a. d. Franz. übers. von Ulrich Raulff und Walter Seitter, in: Ders: Die Hauptwerke, Frankfurt am Main 2013, S. 1371–1582, dort S. 1406. Foucaults Rückgriff auf individualethische Ansätze in der philosophischen Tradition können als Versuch eines Auswegs aus aporetischen Machtanalysen gelesen werden, welche jede affirmative Normativität problematisieren. Für den Umgang mit neuen Technologien könnte eine solche individualethische Ausrichtung ebendort ansetzen, wo das Abhängigkeitsverhältnis von Mensch und Technik sich umzukehren droht.
18
353
4 Exkurse
leiblicher Identität gegenüber einer Weltflucht in eine funktional gestaltete digitale Welt. Gerade für eine Analyse der Diskurs- und Debattenkultur bieten die digitalen Transformationsprozesse Anschluss für weiterführende Untersuchungen zum Verhältnis von Partnerschaft und Sexualität in einer technologisch geprägten Welt. Partnerschaftliche Beziehungen mit künstlich intelligenter Technik und sexuelle Dienstleistungen durch Sexroboter sind hier Beispiele für Phänomene, mit denen ein freiheitlich pluralistisches Gesellschaftsverständnis herausgefordert sein könnte. Wandel der Arbeitswelt und der Lebenswelt Technologien mit künstlicher Intelligenz berühren so viele mögliche Anwendungsgebiete, dass hier nur wenige Beispiele beleuchtet werden können. Dennoch möchte der Autor nicht darauf verzichten, Einsichten in mögliche gesellschaftliche Transformationsprozesse sowie normative Zugänge zu Fragen der angewandten Technikethik zu formulieren. Die systematisch vergleichende Untersuchung wird dabei zum Ausgangspunkt für einen Transfer in technikethische Fragen zu möglichen Anwendungsfeldern der Technologien mit künstlicher Intelligenz. Damit soll auch einer technikfeindlichen Lesart der vorliegenden Arbeit vorgebeugt werden. Die Exkurse stellen an dieser Stelle keine systematischen Untersuchungen der angewandten Ethik dar, die der Komplexität der jeweiligen Anwendungsfelder und Kontexte vollständig gerecht würden. Der Schwerpunkt dieser Exkurse liegt auch nicht in einer Einschätzung technologischer Möglichkeiten und Risiken, sondern darin, Einsichten der vernunftkritischen Untersuchung in dieser Arbeit als Anknüpfungspunkte für Fragen der angewandten Technikethik aufzuzeigen. Je nach Themenfeld werden dabei verschiedene Ebenen der philosophischen Kritik aufgezeigt, an denen eine systematischere normative Arbeit ansetzen könnte. Die massiven Veränderungen des Sozialverhaltens, die durch Technologien mit künstlicher Intelligenz einhergehen, müssen an anderer Stelle intensiviert werden. Die systematische Arbeit zu den konstitutiven Bedingungen von Lebenswelt, Unverfügbarkeit, Leiblichkeit kann leicht auch für andere Kontexte erschlossen werden. Ein Gesellschaftsbereich, in dem Transformationsprozesse durch Innovationen im Bereich der KI-Forschung unausweichlich scheinen, ist die Wirtschaft. Einige Gedanken hierzu sollen am Beispiel von Landwirtschaft und Industrie skizziert werden. Künstliche Intelligenz in Landwirtschaft und industrieller Fertigung Die Automatisierung von Arbeitsprozessen mithilfe von künstlicher Intelligenz betrifft zahlreiche Produktionszweige in der Industrie und Landwirtschaft. In diesen Kontexten ist absehbar, dass sich durch die Stärken von KI-Systemen gegenüber dem Mensch zahlreiche 354
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Möglichkeiten zur Implementierung der neuen Technologien ergeben, die zu weitreichenden Transformationsprozessen führen werden. Die Automatisierung in der Produktion beruht zu großen Teilen auf Computertechnologien. Diese gehören zum Fachgebiet der künstlichen Intelligenz, wobei diese zu einem Großteil formallogischen deterministischen Abläufen folgen. Doch auch künstliche Intelligenz mit neuronalen Netzen kann in der industriellen Fertigung zur Anwendung kommen, etwa wenn es in der Qualitätssicherung um Fragen der Mustererkennung geht, also ob beispielsweise ein hergestelltes Teil so aussieht, wie es aussehen soll. Künstliche Intelligenz hat gegenüber menschlichen Arbeitnehmern den Vorteil, dass die Funktionalität in dem Rahmen, wie Abläufe störungsfrei funktionieren, mit zuverlässigen berechenbaren Größen gegeben ist. Ausfälle durch Krankheit und Störungen durch Unaufmerksamkeit können vermieden werden. In diesem Sinn birgt die Technologie das Potential der Entlastung von Angestellten oder der Effizienzsteigerung von Unternehmen. Eine große Stärke von künstlicher Intelligenz liegt in der Verarbeitung enorm großer Datenmengen. Manche Arbeitsprozesse können dadurch leicht automatisiert werden. In der Delegation von Arbeit an eine Maschine drohen drei Dinge verloren zu gehen: menschliches Wissen, Arbeitsplätze und Kontrolle. Diese Kritikpunkte sind allerdings abhängig von dem Maß, wie die Implementierung von Computertechnologien mit künstlicher Intelligenz erfolgt. Sie treffen zu für eine vollautonome Fabrik, in der kein Mensch mehr eingreifen kann. Der Wandel der Arbeitswelt vollzieht sich jedoch nicht derart abrupt. Der Mensch wird aus der Produktionskette nicht ausgeschlossen – er steht zu Beginn wie am Ende, er bleibt Konsument und Produzent. Verloren gehen schneller diejenigen Arbeitsplätze, deren Aufgaben in leicht automatisierbaren Abläufen bestehen. Der Verlust von Arbeitsplätzen ist für diejenigen, deren Lebensunterhalt von der Arbeit abhängt, gravierend. Auch darf der Aspekt von Sinnstiftung durch Arbeit aus einer gesellschaftsphilosophischen Perspektive nicht unterschätzt werden. Nach Norbert Wiener wird der Fabrikarbeiter bereits in der Industrialisierung als Maschine behandelt. Den Potentialen, die in seiner Persönlichkeit angelegt sind, wird eine leicht automatisierbare Arbeit nicht gerecht, wenn die Stärken des Menschen darin bestehen, sich in offenen Kontexten anzupassen und kreative Lösungen für Probleme zu finden. Das Gelingen oder Scheitern der Implementierung von künstlicher Intelligenz in der industriellen Fertigung hängt nicht davon ab, ob Maschinen wie Menschen gestaltet werden können und ob alle Aspekte der menschlichen Intelligenz von Maschinen je nachgebildet werden können. Ein solcher Ansatz wäre defizitorientiert und würde die jeweiligen Stärken vernachlässigen. Die Einbindung von Technologien mit künstlicher Intelligenz in die industrielle Fertigung hängt letztlich von einer gelingenden Mensch-Maschine-Interaktion ab. Künstliche Intelligenz arbeitet zuverlässig und schnell und in kurzer Zeit können enorm große Datenmengen verarbeitet werden. Menschen sind offen, abwägend, handeln situativ und kontextbezogen, können verschiedene Ebenen und Denkweisen zusammenbringen, den Sinn von Regeln 355
4 Exkurse
kontextbezogen einschätzen und kreative Lösungen für komplexe oder neue Probleme finden. Künstliche Intelligenz kann in diesem Kontext als Erweiterung des instrumentellen Zugriffs des Menschen auf die Natur interpretiert werden. Sie ist Technik wie das Rad oder der Hammer und erleichtert die Arbeit des Menschen. Im Anschluss an die Kapitalkritik von Karl Marx könnte eine philosophische Kritik im Prozess auf die „Entfremdung des Arbeiters von seinem Produkt“ hinweisen.19 Die Kritik von Marx setzte bei den Transformationsprozessen der Industrialisierung an. Eine solche Kritik kann auch Transformationsprozesse der Arbeitswelt 4.0 durch künstliche Intelligenz als Erweiterung, als Potenzierung, als Beschleunigung von Entfremdungsprozessen deuten. Immer weniger Menschen werden in Produktionsabläufen benötigt und ihre Arbeit entfernt sich immer mehr von der manuellen Bearbeitung eines Produktes. Mit Marx kann ein solcher Transformationsprozess auch als Verselbständigung des Kapitals gedeutet werden. Quantitative Bestimmungen sind Element marktökonomischer Prinzipien. Sie fallen damit in den Bereich von Aufgaben, die der Logik von künstlicher Intelligenz entsprechen können. Was quantifiziert werden kann, kann auch von einer künstlichen Intelligenz optimiert werden. In der Abstraktion der Zahl fällt jedoch das weg, was zwar zur Lebenswelt von Menschen gehört, jedoch in einer quantitativen Bestimmung nicht erfasst werden kann. Die Jahresbilanz beinhaltet die Menge der produzierten Teile, den aus ihrem Verkauf erzielten Gewinn gegen die notwendigen Ausgaben, um die Produktion zu gewährleisten. Ob Menschen oder Maschinen im Produktionsprozess die notwendigen Zwischenschritte der Fertigung vollziehen, spielt dabei in einer quantitativen Bestimmung nach marktökonomischen Prinzipien wie einer Jahresbilanz keine Rolle. Der Mensch bewegt sich an seinem Arbeitsplatz zwar auch in instrumentellen Bestimmungen, doch gehört seine Arbeit auch zu seiner Lebenswelt. Der Mensch grüßt seine Kollegen, hilft und lässt sich helfen, gestaltet Pausen, nimmt Anteil auch am Leben der Anderen. Er wird Teil einer sozialen Gruppe, er lebt Konflikte, löst Probleme und fügt sich in eine gesellschaftliche Struktur ein, wodurch er sich auch als Teil eines Kollektivs verstehen kann. Die Gefahr einer zunehmenden Ausweitung der Automatisierung von Arbeitsprozessen mithilfe von künstlicher Intelligenz besteht in einem Verlust an lebensweltlicher Praxis, in welcher der Mensch Teil hat am Entstehungsprozess dessen, was er konsumiert. Die Distanz vom Produktionsprozess und die Entfremdung nicht nur des Arbeiters, sondern auch des Konsumenten vom Produkt kann mit einer zunehmenden Geringschätzung des
19
Israel, Joachim: Der Begriff Entfremdung. Makrosoziologische Untersuchung von Marx bis zur Soziologie der Gegenwart, Reinbek bei Hamburg 1972, S. 53ff. Vgl. auch Oppolzer, Alfred A.: Entfremdung und Industriearbeit: Die Kategorie der Entfremdung bei Karl Marx, Köln 1974, S. 34ff.
356
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Konsumierten einhergehen. Die Pflanze, die aus dem eigenen Hausgarten geerntet worden ist, wurde vom Samenkorn bis zum Mittagstisch im gesamten Wachstumsprozess begleitet. Beim Kauf von Gemüse am Markstand begegnet der Käufer noch dem Bauern, der die Pflanze gesät, begossen und geerntet hat. Im Supermarktverkauf sind die eingeschweißten Produkte schon soweit anonymisiert, dass nur noch ein Markenname als Abstraktion für den Produktionsprozess steht. Im Zuge der Automatisierung mithilfe von künstlicher Intelligenz wird die Distanz zwischen Mensch und Produkt noch größer. Wenn automatisierte Maschinen die Bearbeitung der Felder übernehmen, von der Bodenbearbeitung und Aussaat über die optimale Begleitung des Wachstumsprozesses bis hin zur Ernte, dann braucht ein Bauer kaum mehr sein Feld zu betreten. Dieser Transformationsprozess erfolgt nicht schlagartig, sondern sukzessiv und ist bereits in vollem Gange. Kühe gehen selbständig zum Melkroboter, welcher per Scan des Euters die Kuh wiedererkennt, melkt und dabei entnommene Proben misst und auswertet. Der Bauer, der früher jede Kuh zweimal selbst melken musste, sah und berührte seine Kühe täglich und entwickelte ein Gespür für ihren Gesundheitszustand. Heute vergleicht er die Daten, die tabellarisch ausgegeben werden. Die lebensweltliche Praxis in der Arbeitswelt der landwirtschaftlichen und industriellen Produktion verändert sich so, dass die digitale Datenerhebung und -verarbeitung als Mittler zwischen Arbeiter und Produkt tritt. Die genannten Transformationsprozesse stellen einen Verlust an lebensweltlichem unmittelbarem Bezug des Arbeiters zu seinem Produkt dar. Was in der Industrialisierung und zunehmenden Arbeitsteilung begann, findet in den Technologien der künstlichen Intelligenz ihre Zuspitzung. Technologischer Fortschritt ist dabei von zahlreichen Vorteilen begleitet. Wenn ein Melkroboter die tägliche Arbeit von jeweils zwei Stunden am Morgen und zwei Stunden am Abend übernimmt, bedeutet das für einen Landwirt eine starke Entlastung. Der Einsatz von Robotik in der Landwirtschaft kann auch aus ökologischen Aspekten Vorteile bringen, wenn z. B. durch gezielte Unkrautvernichtung das flächendeckende Ausbringen von Pestiziden nicht mehr nötig wird. Ökologische Verantwortung kann dabei bereits in den technologischen Entwicklungsprozess mit einfließen, wenn z. B. in der Entwicklung automatisierter Erntemaschinen Möglichkeiten bedacht werden, die gewährleisten, dass frei lebende Tiere nicht zum Opfer der automatisierten Maschinen werden, sondern immer Fluchtwege offen haben. Fraglich ist, inwieweit Entfremdungsprozesse kompensiert werden können, indem Menschen anderweitig die Bezüge wiederzugewinnen suchen, die durch die Optimierung von Produktionsprozessen verlorengehen. Im Silicon Valley werden mittlerweile Hühner gehalten.20 20
https://www.washingtonpost.com/news/business/wp/2018/03/02/feature/the-silicon-valley-eliteslatest-status-symbol-chickens/, abgerufen am 12.5.2020, 16:00 Uhr.
357
4 Exkurse
Die „Sehnsucht nach dem ‚einfachen Leben‘“21, die schon Norbert Wiener in seinen Überlegungen zu Fortschritt und Entropie erwähnte, ist auch den Protagonisten der technologischen Transformation offenbar nicht fremd. Führt uns künstliche Intelligenz in eine bessere Welt? Durch eine differenzierte Betrachtung der grundlegenden Unterschiede zwischen Mensch und Maschine können Technologien mit künstlicher Intelligenz als effizientes Instrument genutzt werden. Künstliche Intelligenz verliert dann ihren Bedrohungs- und Konkurrenzcharakter ebenso wie ihre Dimension religiöser Sinnstiftung, die ihr in transhumanistischen Entwürfen zugeschrieben wird. Problematisch für die Grundlagen der Moralphilosophie und damit auch für die Grundlagen einer freien Gesellschaft ist jedoch eine Gleichsetzung von Mensch und Technik, eine Anthropomorphisierung von Technologie, weil dadurch die adäquate Beurteilung von technikethischen Anwendungsfragen erschwert wird. Warum wird Technik mit künstlicher Intelligenz so oft humanoid gestaltet? Wenn man sich der Unterschiede zwischen künstlicher und menschlicher Intelligenz bewusst wird, dann erscheint eine Anthropomorphisierung von Technik einerseits als ethisch problematisch, andererseits ist ein anthropomorphes Design auch technisch widersinnig. Welchen Sinn hat ein menschenähnliches Gesicht für die Problemlösungswege, die für KI-Prozesse effizient und sinnvoll sind? Wofür braucht ein Roboter eine Nase? In welchen Kontexten sind für einen Roboter zwei Augen besser als mehrere optische Sensoren, die z. B. eine Beobachtung der gesamten Umgebung ermöglichen? In den wenigsten Kontexten dürfte sich eine Annäherung an die menschliche Anatomie als sinnvoll erweisen für eine Problembearbeitung durch KI-gestützte Robotik, die den Stärken von KI-Technologien entspricht. In der äußerlichen Angleichung von künstlicher Intelligenz und Robotik an den Menschen schwingt doch die transhumanistische Zielstellung einer Verschmelzung von Mensch und Maschine mit. Wenn KI-Forschung und Robotik von dieser Zielstellung entlassen würde, könnte sich ihr Potential vielleicht leichter entfalten. Wie neue Technologien die Welt verändern, liegt nicht im Wesen der Technologie selbst begründet, sondern in der Art und Weise, wie gesellschaftliche Vermittlungsprozesse gestaltet werden. Die Atombombe ist ein fürchterliches Instrument des Schreckens. Die Befürchtungen vor einem weltweiten Nuklearkrieg waren zwar gerechtfertigt, aber das Schreckensszenario traf nicht ein, weil die Einsicht der Entscheidungsträger sogar von konkurrierenden Staaten überwog, die Welt vor solch einem irreversiblen Schaden zu bewahren. Menschen sind zur 21
Wiener, Norbert: Mensch und Menschmaschine. Kybernetik und Gesellschaft, Frankfurt am Main 1966, S. 52.
358
4.1 Künstliche Intelligenz in einer freien Gesellschaft
Einsicht fähig in Grenzen, die nicht überschritten werden dürfen. Selbst wenn in einzelnen Situationen diese Grenzen überschritten werden, dann kann daraus die Einsicht gestärkt werden, dass um ein „Nie wieder!“ mit allen gewaltlosen Mitteln gekämpft werden muss. Nuklearwaffeneinsätze wurden ebensowenig im großen Stil wiederholt wie die Experimente des KZ-Arztes Mengele. Menschen sind fähig zu erschrecken. Menschen sind sogar fähig, vorher nachzudenken, bevor sie Ungeheuerliches zulassen. Hat die Entwicklung der Atombombe die Welt besser gemacht? Sicherlich nicht für die Opfer der unmittelbaren Einsätze sowie der langfristigen Folgen. Doch wenn die Hypothese stimmt, dass durch die weltweite nukleare Aufrüstung eine solche Abschreckung entstanden ist, dass viele mögliche andere Kriege dadurch verhindert werden konnten, dann ist es kaum mehr absehbar, ob die Welt dadurch besser oder schlechter geworden ist. Die Weiterentwicklungen im Forschungsfeld der künstlichen Intelligenz haben das Potential, die Welt, politische, gesellschaftliche, ökonomische und lebensweltliche Bereiche stark zu verändern. Diese Veränderungen sind in sich weder gut noch schlecht. Sicherlich wird es in der Weiterentwicklung von Technologien mit künstlicher Intelligenz und in der Implementierung verschiedener Anwendungen zum Wegfall von Arbeitsplätzen und vielleicht von ganzen Industriezweigen kommen. Damit stellen Technologien mit künstlicher Intelligenz aber keinen Sonderfall in der Geschichte der technischen Weiterentwicklungen dar. Im mittelalterlichen Bergbau hatte jeder Bergmann bis zu acht Wasserträger, die ihren Tag damit verbrachten, das unter Tage nachtropfende Wasser nach oben an die Erdoberfläche zu bringen. Durch die Entwicklung von Pumpsystemen wurden diese Menschen schlagartig arbeitslos. Eine vernunftkritische technikethische Position kann gegenüber technischem Fortschritt keine technophobe Haltung einnehmen. Ihre Aufgabe ist es aber, auf problematische Entwicklungen hinzuweisen, von denen technologische und gesellschaftliche Transformationsprozesse begleitet sind. Führt uns künstliche Intelligenz also in eine bessere Welt? Nein. Die Welt bleibt eine unperfekte und der Mensch ebenso. Jeder Versuch, das zu ändern, lässt uns mehr verlieren, als wir je damit gewinnen könnten. Künstliche Intelligenz stellt weder eine Entlastung oder Erlösung für den Menschen dar, noch ist sie als Technologie intrinsisch schlecht. Welt und Mensch sind im Wandel, permanent. Zu diesem Wandel gehört auch die technologische Weiterentwicklung. Doch mit jeder Lösung kommen neue Probleme. Ein Problem, das durch die Weiterentwicklung von künstlicher Intelligenz sich massiv verstärken wird, ist die technizistische Vereinseitigung lebensweltlicher Praxis. Indem Technik immer mehr eine Mittlerrolle einnimmt zwischen Menschen, wird auch der zwischenmenschliche Umgang mehr und mehr von einer technischen Haltung geprägt. Die Gefahr besteht dann nicht in den Maschinen selbst, sondern dass Menschen einander immer mehr wie Maschinen behandeln. Die Welt wird nicht besser oder schlechter durch technologische Entwicklungen, 359
4 Exkurse
sondern durch die Art und Weise, wie Menschen miteinander umgehen. Unsere Potentiale der Menschlichkeit zu entfalten, wird uns keine Technologie jemals abnehmen können.
4.2 Können Maschinen moralisch handeln? Für technikethische und maschinenethische Grundlagenfragen müssen moralphilosophische Grundbegriffe geklärt und reflektiert werden, um zu prüfen, inwieweit diese in maschinenethische und technikethische Kontexte übertragen werden können. Transhumanistische Autoren gehen davon aus, dass Technologien auf der Grundlage von künstlicher Intelligenz auch zu moralischem Handeln fähig sind. Auch andere Autoren wie Misselhorn und Brand wenden im philosophischen, bzw. theologischen Kontext den Begriff „moralische Akteure“ auf Maschinen an.22 Problematisch ist dabei, dass eine Übertragung eines solchen Begriffs auf Maschinen suggeriert, dass damit auch dasjenige auf Maschinen übertragen werden kann, was bei Menschen die Grundlagen der Moralität konstituiert. Begriffe wie „Moral“, „Autonomie“, „Freiheit“, „Verantwortung“ rekurrieren jedoch auf eine Ebene sinnkonstitutiver Negativität, die sich in moralphilosophischer Perspektive aus der Fragilität und Fehlbarkeit des Menschen ableitet, die ihrerseits wieder auf eine nicht abschließbare Perspektive von Sinnorientierung rekurriert. Menschen können erschrecken, wenn sie in ihrem Verhalten einem verbrecherischen Programm gefolgt sind, wie dies zum Teil in totalitären Systemen und in Kriegen des 20. Jahrhunderts geschehen ist. Der Soldat des Romans „im Westen nichts Neues“ ist in seinem ganzen Wesen emotional erschüttert und durchlebt die Sinnlosigkeit des Krieges durch die unhintergehbare Verwobenheit von Emotionalität, Rationalität, Leiblichkeit und Sozialität, in welche die menschliche Intelligenz eingebettet ist.23 Eine Maschine erlebt nie ihr eigenes Programm als sinnlos, welchem sie gefolgt ist. Sie erlebt auch kein Programm als sinnvoll, denn die Ebene
Vgl. Brand, Lukas: Künstliche Tugend. Roboter als moralische Akteure, Regensburg 2018. Vgl. Misselhorn, Catrin: Grundfragen der Maschinenethik, Stuttgart 2018, S. 70ff. Die in diesem Exkurs formulierte Kritik an Misselhorns Ansatz bezieht sich nur auf diese Publikation. Misselhorn entwickelt ihren eigenen Ansatz in ihrer jüngeren Publikation Künstliche Intelligenz und Empathie (2021, a. a. O.) deutlich weiter und stellt darin deutlich heraus, dass der Empathiebegriff nicht plausibel auf robotische Systeme übertragen werden kann (vgl. Kap. 2.2.2.2 dieser Arbeit). Dennoch überträgt Misselhorn ihre Einsichten darin noch nicht auf die Fragen nach dem moralischen Status von Robotern und auf die Möglichkeiten und Grenzen, von Moralität in robotischen Systemen überhaupt sinnvoll sprechen zu können. Die hier formulierte Kritik behält dadurch trotz der Weiterentwicklungen in Misselhorns Ansatz ihre volle Aktualität, weil sie ihre Einsichten auf den Kontext der Maschinenethik aus moralphilosophischer Sicht noch nicht übertragen hat. 23 Vgl. Remarque, Erich Maria: Im Westen nichts Neues (1929), Köln 2007, S. 151 u. 153. 22
360
4.2 Können Maschinen moralisch handeln?
von Sinnkonstitution ist nicht formallogisch abbildbar. Sinn entzieht sich einer quantifizierbaren Bestimmung. Da künstlich intelligente Systeme in ihrer Architektur auf die Möglichkeiten einer mathematischen formallogischen Sprache eingeschränkt ist, muss jeder Umgang mit Menschen formalisiert und dinghaft instrumentalisiert werden, um eine autonome maschinelle Entscheidungsfindung in offenen Kontexten zu ermöglichen. Moral Machine Die technologischen Entwicklungen hin zum selbstfahrenden Auto gehören zu den medial und populärwissenschaftlich vielleicht meistdiskutierten Themen zu ethischen Aspekten von Technologien mit künstlicher Intelligenz. Untersuchungen zu einer statistischen Erhebung für eine utilitaristische Quantifizierung von Menschenleben laufen bereits als offene Umfrage-Projekte. So hat das MIT eine Online-Plattform mit dem Namen „Moral Machine“ eingerichtet, in der Menschen beurteilen sollen, wie ein autonom fahrendes Auto in DilemmaSituationen entscheiden sollte. Wird das Auto mitsamt jungem Insassen an eine Wand fahren oder soll lieber ein älterer Mensch getötet werden, der gerade die Straße überquert? Soll lieber ein Kind überfahren werden, das bei Rot über die Ampel geht oder ein alter Mensch, der bei Grün über die Ampel geht? Werden Kriminelle eher überfahren als Ärzte?24 Die Grundfrage ist dabei, welche Personen überfahren werden sollen, wenn ein selbstfahrendes Auto anhand einer künstlichen Intelligenz eine solche Entscheidung treffen muss. Im Portal „Moral Machine“ werden dabei schemenhaft Szenarien solcher Dilemmaentscheidungen gezeigt und Nutzer geben ihre „moralische“ Präferenz per Mausklick ab. Zum einfacheren Verständnis sind in den beiden Entscheidungsfeldern über den jeweils zu tötenden Verkehrsteilnehmern kleine Totenköpfe abgebildet. Die Antworten werden statistisch ausgewertet. Klassifiziert werden die von den Nutzern getroffenen Entscheidungen nach folgenden Kriterien: wie viele Menschenleben werden gerettet, nach Alter, Geschlecht, Gesetzestreue (ob die Person bei Rot oder Grün über die Ampel läuft), gesellschaftlicher Status (Diebe oder Gesundheitspersonal) und ob überhaupt interveniert werden soll. Die Auswertung der Entscheidungen wird durch Fragen nach der Person des Nutzers ergänzt: nach Geschlecht und Alter, nach Einkommen und Bildungsabschluss und nach Religiosität und politischer Grundhaltung. Die Ergebnisse fließen nach Angaben der Homepage in die Erarbeitung von Maschinenethik mit ein. Der Name „Moral Machine“ suggeriert, dass eine maschinelle Intelligenz durch die so erhobenen Daten mit moralischer Urteilskraft ausgestattet werden kann. Die künstlichen 24
„Moral Machine“, Online-Pattform des MIT, unter http://moralmachine.mit.edu, abgerufen am 24.02.2020, 17:45 Uhr.
361
4 Exkurse
Dilemma-Situationen, die dabei zur Auswahl stehen, zielen auf eine quantifizierende Beurteilung des Wertes von Menschenleben. Die Ergebnisse spiegeln damit eine statistische Erhebung utilitaristischer Grundhaltungen der Nutzer wieder. Problematisch ist in diesem Projekt, dass die Bearbeitung der Aufgaben bereits unter der Prämisse einer utilitaristischen Bewertbarkeit von Menschenleben gestellt wird. Bereits die Aufgabenstellung, sich entscheiden zu müssen, zwingt zu einer Beurteilung des Wertes von Menschen. Indem eine Entscheidung darüber getroffen werden muss, ob ein jüngerer Mensch mehr wert ist als ein älterer, ein gesetzestreuer mehr als einer, der bei Rot über die Straße geht, wird die quantifizierende Beurteilung von Menschenleben erzwungen. Eine moralphilosophische Position, die sich gegen eine Abwägung von Menschenleben aufgrund bestimmter Kriterien stellt, kann in dem Portal gar nicht erst eingenommen werden. Ausgeblendet wird dabei, dass eine solche Klassifizierung die Grundlagen der Moralität infrage stellt, die auf dem Verständnis der unhintergehbaren Gleichheit und der Bedingungslosigkeit der Menschenwürde gründet. Die Abwägung, ob man einen jüngeren oder älteren Menschen überfahren sollte, zeugt nicht von einer Einsicht in die Grundlagen der menschlichen Moralität. Wenn in der Programmierung automatisch fahrender Autos Präferenzen für die Auswahl der Opfer getroffen werden, dann unterläuft eine solche Programmierung bereits die Grundlagen der Menschenwürde, welche allen Menschen unabhängig von ihrem Alter, ihrer Herkunft und ihrem Geschlecht einen unhintergehbaren Wert zugesteht. Der Wert eines Menschen darf nicht davon abhängig gemacht werden, wie viele Jahre lang der Mensch voraussichtlich noch in die Steuerklassen einzahlt. Eine Zuspitzung formuliert Marc Uwe Kling in seinem Roman Quality Land, wo auch die Einkommensklasse der Menschen zur relevanten Größe für die moralischen Entscheidungen automatisierter Autos wird.25 Eine solche rationale Abwägung wie in der Gegenüberstellung auf dem Portal findet zudem in einer Unfallsituation nicht statt. Die Möglichkeit „nicht zu entscheiden“, die beispielsweise unter Schock passiert, ist dabei nicht bedacht. Autofahrer in Unfallsituationen handeln nicht primär von ihrer Rationalität geleitet, sondern in einem Reflex, welcher sich der eigenen Reflexion entzieht. Menschen treffen in Unfallsituationen intuitive Entscheidungen. In diese kann gesetzlich nicht eingegriffen werden. Wird jedoch in der Programmierung eines automatisch fahrenden Autos prinzipiell eine bestimmte Menschengruppe bevorzugt, bzw. benachteiligt, dann ist dies ethisch nicht vertretbar. Die Kriterien in „Moral Machine“ wären zudem selbst für utilitaristische Bestimmungen nicht brauchbar. Alter sagt nichts darüber aus, wieviel Glück oder Unglück, wieviel Lebensqualität jemand gibt oder nimmt. Ein Kind kann drogenabhängig sein und damit zu einem Gefährder für Andere werden. Ein Rentner leitet vielleicht noch eine Stiftung, deren Aktivität Marc-Uwe Kling: Quality Land, Berlin 2017, S. 155f.
25
362
4.2 Können Maschinen moralisch handeln?
für unüberschaubar viele Menschen in bedeutsamem Maß die Lebensqualität steigert. All das ist jedoch nicht quantitativ sicher bestimmbar. Der Jugendliche aus einem kriminellen Milieu kann vielleicht zu der Person werden, die einen jahrzehntelang andauernden Bandenkrieg schließlich beenden wird. Das Kind aus privilegiertem Haus kann später vielleicht in einer führenden Position Entscheidungen treffen, die viele Menschen in Armut führen und unvorstellbares Leid hervorrufen. Die Quantifizierung des Wertes von Menschenleben kann nicht plausibel begründet werden, weil die Möglichkeiten von Sinnzuschreibung im menschlichen Leben prinzipiell unerschöpflich sind. Es ist außerdem höchst fraglich, ob „Bauchentscheidungen“ von Menschen in einem Portal wie „Moral Machine“ mit Moral in Verbindung gebracht werden können, ob damit also validierbare Daten über statistische Moralvorstellungen in einer menschlichen Bevölkerung erhoben werden könnten. Oftmals sind konkrete Entscheidungen in einer Situation anders, als wenn man in einem Diskurs darüber steht, welche Handlungen richtig sind. Viele Menschen sind sich darüber bewusst, dass ihr Handeln nicht moralisch richtig ist und sie tun es dennoch. Wenn beispielsweise in einem Portal wie „Moral Machine“ eine Entscheidung darüber getroffen werden müsste, ob man das Kind eines Diktators oder das Kind eines Arztes töten sollte, wie würden sich die Menschen per Mausklick entscheiden? Wie würden Menschen aber auf die Frage antworten, ob es richtig ist, das Leben eines Kindes gegen das eines anderen abzuwägen? Der Name „Moral Machine“ suggeriert, dass es sich bei der Evaluation um eine Ebene von Moralität handelt, die in eine maschinelle Intelligenz integriert werden könnte. Menschen bilden ihre Moralität jedoch immer in Kontexten von Offenheit aus, welche sie hinterfragen und weiterentwickeln, dabei aber nie formal verfügbar haben. Die Moralität des Menschen ist gerade dadurch gekennzeichnet, dass ein Todesfall durch einen Unfall nicht einfach mit einer utilitaristischen Hochrechnung bewältigt werden kann. Die Frage nach Schuld, Verantwortung und Vermeidbarkeit stellt sich auch nach einem unvermeidlichen Unfall. Nicht nur die Rationalität, sondern auch die Emotionalität des Menschen ist in seine Moralität eingebunden. Zur Autonomie des Automobils In der Diskussion um Möglichkeiten und Risiken selbstfahrender Autos hat sich der Begriff des „autonomen Fahrens“ etabliert. Aus der Perspektive einer philosophischen Vernunftkritik ist der Begriff allerdings irreführend. Der Begriff der Autonomie meint vom griechischen Wortsinn her „Selbstgesetzgebung“. Ein automatisch fahrendes Auto gibt sich jedoch keine eigenen Gesetze, sondern folgt in seiner Funktionsweise einprogrammierten Algorithmen. Der Autonomiebegriff rekurriert philosophiegeschichtlich auf die Möglichkeit des Menschen, sich auch gegenüber seinen eigenen konstitutiven Bedingungen gestaltend zu verhalten. 363
4 Exkurse
Bei Kant richtet sich der Autonomiebegriff auf die Freiheit, seine Handlungspraxis nicht als „Abhängigkeit vom Naturgesetze“ auszurichten, sondern diese von der Einsicht in normative Prinzipien zu gestalten.26 Der Autonomiebegriff richtet sich demnach gerade gegen eine deterministische Bestimmung des Menschen und rekurriert auf die Möglichkeit und Aufgabe, sein Verhalten zu reflektieren und gemäß der Einsicht in normative Grundlagen auszurichten. Damit beinhaltet der Autonomiebegriff die Ambivalenz des Anderskönnens, welche grundlegend für die menschliche Handlungspraxis ist. Autonomie ist der Gegenbegriff zum Automatischen. Für selbstfahrende Autos kann der Autonomiebegriff nicht adäquat angewendet werden. Die Funktionsweise selbstfahrender Autos gründet in Strukturen, die einer linearen Kausalität entsprechen und deterministische Systeme darstellen. Die Möglichkeit eines Hinterfragens seiner naturgesetzlichen Bestimmungen und einer Hinwendung auf Grundprinzipien der Normativität ist für ein automatisch fahrendes Auto nicht möglich. Es wäre vermutlich auch von den meisten potentiellen Nutzern selbstfahrender Autos nicht gewünscht, dass diese beginnen, sich ihre eigenen Gesetze zu geben; und vielleicht die Entscheidung treffen, dass sie im Zweifelsfall lieber Menschen töten, als selbst gegen die Wand zu fahren und zerstört zu werden. Dies wäre die Konsequenz einer Anthropomorphisierung von Technik im Sinne transhumanistischer Utopien, wenn Technologien mit künstlicher Intelligenz die nächste Stufe der Evolution darstellen sollen. Die Konstruktion selbstfahrender Autos dient dem Zweck einer störungsfreien Funktionalität für das Erbringen einer Dienstleistung für Menschen. Mobilität ist aus unterschiedlichen Motiven und Notwendigkeiten heraus ein wichtiges Mittel für Menschen, um gewisse Ziele zu erreichen. Sie kann auch Selbstzweck sein, beispielsweise im Fall von Rennwagen. In diesem Fall ist vielleicht gerade das Erleben von Einswerden mit dem Fahrzeug und das riskante Spiel von Kontrolle und Wagnis ausschlaggebend dafür, dass Menschen darin Erfüllung suchen, einen Rennwagen zu fahren. Die Konstruktion selbstfahrender Autos zielt eher auf den Dienstleistungsaspekt. Selbstfahrende Autos werden nicht gebaut, damit sie über die Grundlagen der Normativität nachdenken, sondern damit sie zuverlässig und sicher Menschen oder Güter transportieren. Der Begriff der Autonomie ist daher für eine Beschreibung selbstfahrender Autos unangebracht. Der Autonomiebegriff in der Maschinenethik Die Technikphilosophin Catrin Misselhorn wendet den Begriff „moralische Akteure“ auch auf Maschinen an und begründet dies damit, dass in automatisierten Systemen unter gewissen Kant, Immanuel: Kritik der praktischen Vernunft, Stuttgart 1992, S. 58.
26
364
4.2 Können Maschinen moralisch handeln?
Umständen auch von Autonomie gesprochen werden kann. Misselhorn bezieht sich zur Begründung auf eine Definition von Autonomie, die auf die Philosophen Floridi und Sanders zurückgeht und schlägt drei Bedingungen vor, die für eine Begründung von Autonomie hinreichend sein sollen: „1. Interaktivität mit einer Umwelt, d. h. der Akteur reagiert auf die Umwelt und beeinflusst diese, 2. eine gewisse Unabhängigkeit von der Umwelt, die darin besteht, dass der eigene Zustand ohne direkte Einwirkung der Umwelt verändert werden kann, sowie 3. Anpassungsfähigkeit, die die Veränderung der eigenen Verhaltensregeln im Licht neuer Umweltbedingungen beinhaltet“27
Diese Definition wird für Misselhorn an späterer Stelle des Buches leitend, um den Autonomiebegriff beispielsweise für ein automatisiertes Waffensystem anzuwenden.28 Gemeinsam mit Floridi und Sanders überträgt sie diesen Autonomiebegriff auf den Schachcomputer Deep Blue, obwohl dessen Funktionsweise in deterministischen Algorithmen gründet, weil dennoch für Außenstehende die Handlungen des Systems nicht einfach vorhersagbar sind: „Für Floridi und Sanders ist das ausreichend, damit basale Autonomie vorliegt, selbst wenn es bei eingehender Untersuchung möglich sein sollte, die Züge des Systems aus den Ausgangsbedingungen und den verwendeten Algorithmen abzuleiten. […] Im vorliegenden Fall betrachtet man den Schachcomputer als Black Box und abstrahiert von den Algorithmen, die seiner Funktionsweise zugrundeliegen. Diese Zugangsweise wird plausibel vor dem Hintergrund, dass es sich bei Menschen ähnlich verhalten könnte: Würden wir die Ausgangsbedingungen und die relevanten Naturgesetze kennen, dann ließe sich unter Umständen auch ihr Verhalten vorhersagen.“29 Misselhorn bleibt damit auf einem mechanistischen Welt- und Menschenbild eines Leibniz, Descartes oder Laplace stehen. Sie unterstellt, dass die Unableitbarkeit menschlicher Handlungspraxis mit der Unvorhersagbarkeit komplizierter mechanisch-deterministischer Systeme vergleichbar ist. Auch der Mensch ist demnach nur eine Maschine – warum sollte der Moralund der Autonomiebegriff dann nicht auf Maschinen ausgeweitet werden?30 Floridi, Luciano und Sanders, Jeff W.: On the Morality of Artificial Agents, in: Minds and Machines 14 (2004/03), S. 349–379, zit. nach Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 77. 28 Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 163. 29 Ebd., S. 78f. 30 Vgl. zur ausführlichen Kritik des mechanistischen Welt- und Menschenbildes Kap. 2.4 und 3.1 dieser Arbeit. 27
365
4 Exkurse
Interessanterweise nimmt Misselhorn gemeinsam mit Floridi und Sanders zur Begründung der Zuschreibung von Autonomie für den Schachcomputer Deep Blue gar nicht mehr Bezug auf die zuvor erarbeitete Definition, sondern rekurriert auf den Aspekt der Unvorhersagbarkeit und Unableitbarkeit von außen für das Verhalten eines Systems. Dass Misselhorn sich zur Begründung von Autonomie auf ein Kriterium berufen muss, das gar nicht in ihrer ursprünglich zugrundegelegten Definition genannt war, mag darin begründet sein, dass Floridis und Sanders Definition viel zu weit und allgemein formuliert ist, um damit moralische Autonomie begründen zu können. Die drei genannten Bedingungen werden von sehr vielen Systemen erfüllt, die wir intuitiv nicht unbedingt als moralisch autonome Subjekte bezeichnen würden: von Schnecken, Tulpen, automatisierten Regnern mit Wettersensor, Alarmanlagen, Kühlschränken oder Gartenschlauchadaptern mit Wasserstopp. Eine Tulpe beispielsweise steht in vielfältigen Interaktionsprozessen mit ihrer Umwelt und verändert ihren eigenen Zustand, indem sie sich an die jeweiligen Umweltbedingungen anpasst – sie geht in Trockenzeiten schneller mit einem nur kurz ausgebildeten Stiel in Blüte. Letztlich kann die Definition auf alle Technik ausgeweitet, die in irgendeiner Weise Elemente von Automatik enthält und die auf unterschiedliche Inputs mit unterschiedlichen Outputs reagiert. Ein Beispiel für eine solche „basale Autonomie“ wäre dann auch die Tierfalle aus der Zeit der Jäger und Sammler, die erst bei solchen Tieren ausgelöst wird, die schwer genug sind. Der einzige strittige Punkt in der angebrachten Definition wäre die Frage nach der „gewissen Unabhängigkeit von der Umwelt, die darin besteht, dass der eigene Zustand ohne direkte Einwirkung der Umwelt verändert werden kann“. Diese Bedingung bleibt jedoch leer, wenn sie nicht konkretisiert wird. Auch der Schachcomputer Deep Blue ist nicht absolut unabhängig von der Umwelt und verändert den eigenen Zustand nicht ohne Einwirkung der Umwelt. Die Bedingung der Anpassungsfähigkeit rekurriert gerade darauf, dass unterschiedliche Umweltbedingungen zu unterschiedlichen Handlungen führen. Damit wäre die Zustandsänderung doch durch eine Einwirkung der Umwelt bedingt, wodurch sich zwei der Bedingungen logisch widersprechen. Der Unterschied zwischen der Autonomie des Schachcomputers und der Tierfalle besteht nur in der Komplexität. Ein „Input“ löst mechanisch-deterministisch eine geplante Kausalwirkung aus, die unter den instrumentellen Vorgaben der Erfinder implementiert wurde. Auch die Tierfalle tötet „autonom“ – sie entscheidet anhand der vorgegebenen Kriterien auf einer Input-Ebene, ab wann sie ausgelöst wird (z. B. ab welchem Gewichts-Schwellenwert), um das Tier gefangen zu nehmen oder zu töten. Es erscheint jedoch absurd, einer Tierfalle moralische Autonomie zuzuschreiben. Der adäquate Begriff zur Beschreibung solcher Systeme ist daher nicht „Autonomie“, sondern „Automatik“. Misselhorn begründet letztlich selbst nicht anhand der Definition des Autonomiebegriffs von Floridi und Sanders die Autonomie von Deep Blue, sondern mit dem Aspekt der Unvorhersagbarkeit und Unableitbarkeit. Damit stellt sie sich doch wieder in die Nähe einer Reflexion 366
4.2 Können Maschinen moralisch handeln?
auf die moralphilosophische Begründung durch Aspekte sinnkonstitutiver Negativität, wie sie u. a. von Thomas Rentsch systematisiert wurde.31 Misselhorn gesteht jedoch bereits zu, dass diese Kriterien für ein deterministisches System letztlich nur in Ansatz gebracht werden können, wenn man von einer Kenntnis über die deterministischen Algorithmen „abstrahiert“. Man weiß also, dass die Handlungen nicht prinzipiell unvorhersagbar oder unableitbar wären, sondern grundsätzlich nach mechanistisch-deterministischen Abfolgen ablaufen. Die Unvorhersagbarkeit des Systems gründet also nur im Unwissen über die zugrundeliegenden Wirkmechanismen. Die Stärke des Arguments bleibt dann dabei stehen, dass die Tierfalle für denjenigen wie Zauberei wirken muss, der die Mechanik noch nicht kennt. Es mag plausibel sein, dass für den Mann aus der Steinzeit ein autonom fahrendes Auto wie ein autonomes Geschöpf, ein Gott oder Zauberwerk wirken müsste. Wir kennen heute ja aber die Wirkmechanismen, nach denen unsere automatische Technik funktioniert und es fällt uns daher schwer, Tierfallen und Autos die Fähigkeit zu moralisch autonomem Handeln zuzuschreiben. Wir können den Menschen im Gegensatz zu der von uns geschaffenen Technik nicht restlos deterministisch beschreiben. Die Hypothese, der Mensch wäre nur eine komplexe Maschine, gründet in einer Überdehnung des mechanistischen Kausalprinzips, das heute wissenschaftlich nicht mehr plausibel aufrechterhalten werden kann.32 Aus einer mechanistischen oder funktionalen Deutung des Menschen lässt sich keine Moralphilosophie begründen. Im letzten Satz ihres Buches postuliert Misselhorn, „dass es nicht die Abgrenzung von Maschinen ist, die uns zu Menschen macht, sondern die Ausübung unserer moralischen Fähigkeiten, insbesondere auch gegenüber Wesen, die nicht zu unserer Spezies gehören.“ 33 Wer unmoralisch handelt, wäre demnach kein Mensch; eine Maschine, deren Algorithmen auf universalisierbare moralische Kriterien rekurrieren, wäre ein Mensch. Darin zeigt sich eine Überhöhung der formalistischen Rationalität für die Herausbildung einer anthropologischen Selbstbestimmung, die ähnlich wie bei transhumanistischen Entwürfen dazu führt, dass Maschinen letztlich als bessere Menschen gelten werden. Wie ist es zu verstehen, wenn Misselhorn das Wesen des Menschen dadurch kennzeichnet, dass wir uns auch gegenüber anderen Intelligenzformen empathisch verhalten sollen und gleichzeitig Misselhorns moralphilosophische Analysen weitgehend funktionalistisch begründet werden? Funktional entspricht das Ausschalten einer Maschine dem Tod. Handle ich dann unmoralisch, wenn ich eine Maschine ausschalte, weil ich sie funktional damit töte? Macht derjenige sich schuldig,
Vgl. Rentsch: Die Konstitution der Moralität, a. a. O. und Negativität und praktische Vernunft, a. a. O. Vgl. Kap. 3.2 und Kap. 3.4 dieser Arbeit. 32 Vgl. Kap. 3.1.6 und 3.1.9 dieser Arbeit, vgl. vertiefend dazu auch: Falkenburg: Mythos Determinismus, a. a. O. sowie Kinnebrock: Bedeutende Theorien des 20. Jahrhunderts, a. a. O. 33 Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 222. 31
367
4 Exkurse
der einen Roboter ausschaltet? Bei Misselhorn verschwimmen Mensch und Maschine, instrumentell-funktionalistische Technikhermeneutik und anthropomorphe Beschreibungen von Technik. Mit dem Autonomie- und Moralbegriff überträgt Misselhorn Begriffe der Moralphilosophie, die auf das vielschichtige personale Leben des Menschen rekurrieren, auf Maschinen. Sie stellt sich damit in die Tradition von McCarthy, der davon sprach, dass Thermostaten „Überzeugungen“ haben.34 Doch mit solchen mutigen Analogieschlüssen lässt sich keine Moralphilosophie plausibel begründen. Aus dem Autonomiebegriff von Floridi und Sanders, den Misselhorn verwendet, lässt sich moralische Autonomie ebensowenig begründen, wie sich aus dem Begriff der „Überzeugung“ von McCarthy, der auch für die Temperaturmessung von Thermostaten gelten soll, ableiten lässt, dass ein Thermostat zu politischem Handeln fähig wäre, weil er ja Überzeugungen hat, für die er einstehen kann. McCarthy und Misselhorn begehen dabei Kategorienfehler. Wenn Tulpen, Tierfallen und Automaten, deren Funktionsweise nicht auf Anhieb von Laien eingesehen werden können, als moralische Akteure gedeutet werden, dann höhlen wir die Grundlagen einer vernunftkritischen Moralphilosophie systematisch aus. Können Kants Kategorische Imperative formalisiert werden? Eine Maschine folgt einem optimierbaren Ziel, welches sich in einer Zahl ausdrücken lässt. Die menschliche Handlungspraxis folgt keiner formallogisch repräsentierbaren Logik. Auch die Moral des Menschen kann nicht in einfachen formallogischen Regeln, die als Programm für eine „moralische“ Lebenspraxis gelten können, repräsentiert werden. Selbst die kategorischen Imperative Kants entziehen sich einer formallogischen Repräsentation: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“35 Wie sähe ein Transfer dieses moralischen Grundsatzes auf eine Maschine aus? Was soll eine Maschine wollen können? Ein Mensch, der über den kategorischen Imperativ Kants nachdenkt, könnte etwa folgender Reflexion folgen: „Die Kette in diesem Geschäft ist sehr schön – ich kann sie zwar nicht bezahlen, aber ich kann sie stehlen. Doch was wäre, wenn alle Menschen anfingen, die Dinge zu stehlen, die sie besitzen möchten? Dann wäre die Welt bald eine Räuberhöhle und niemand könnte mehr in Vertrauen und Freiheit sein Haus verlassen. Würde ich in einer solchen Welt leben wollen?“
Vgl. McCarthy, John: Können einer Maschine geistige Eigenschaften zugeschrieben werden?, in: Zimmerli und Wolf (Hg.): Künstliche Intelligenz. Philosophische Probleme, a. a. O., S. 184–231. Vgl. Searle, John R.: Geist, Hirn und Wissenschaft, Frankfurt am Main 1986, S. 29. 35 Kant: Grundlegung zur Metaphysik der Sitten, a. a. O., S. 53. 34
368
4.2 Können Maschinen moralisch handeln?
Künstliche Intelligenz hat keine Präferenz für eine Welt, in der sie leben will, die sie von sich aus entwickeln könnte. Selbst wenn man Menschen fragt, in welcher Welt sie leben möchten, gibt es darauf keine eindeutige formalisierbare Antwort. Oftmals sind dem Menschen die moralischen Grundlagen seines Handelns selbst nur bedingt verfügbar. Dennoch kann der Mensch auf die Frage, in welcher Welt er leben will, intuitiv etwas antworten. Jeder Mensch hat Werte, jeder Mensch erlebt Ereignisse seines Lebens, die ihn dazu bringen, eine Haltung gegenüber der Fragilität des Daseins zu entwickeln. Der Mensch beginnt nicht mit Formallogik. Jeder Rationalität vorausgehend ist seine Leiblichkeit und seine Interaktion mit seiner Umwelt. Der Säugling schreit, das Kind bockt, junge Menschen lieben – und entwickeln aufgrund ihrer Erfahrungen erst die Einsicht in Verallgemeinerbares und mögliche Leitlinien für die Handlungspraxis. Ihr Tun geht einer Formalisierung voraus. Obwohl Kants Programm auch als rationalistisch oder formalistisch interpretiert wurde, zeigt sich in der Substruktur ein Rekurs auf die Intuition des Menschen und ein lebensweltlich zurückgebundenes Wollen des Guten. So findet sich bei Kant der „gute Wille“ als Grundlegung für die Möglichkeit von Moral.36 Eine Maschine sieht den moralischen Grundsatz, dass es besser ist, nicht zu stehlen, nicht als Prinzip ein. Es müsste ihr als formallogische Regel von außen gegeben werden, nicht zu stehlen. Diese Regel wäre aber kein Imperativ, sondern eine formale Vorgabe. Die Maschine hätte keine andere Wahl, als sich so zu verhalten; sie kann also auch keine Einsicht entwickeln, ob eine Maxime universalisierbar ist oder nicht. Damit ist das Verhalten der Maschine aber nicht mehr in einer moralischen Maxime begründet, die gerade auf die Möglichkeit des Anderskönnens rekurriert.37 Der zweite kategorische Imperativ „Handle so, dass du die Menschheit sowohl in deiner Person, als auch in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel gebrauchst“,38 entzieht sich ebenso einer Formalisierung. Wie genau soll man den Zweck des Anderen quantifizieren, um ihn für ein formallogisches System einzubinden? Versuche, den Wert eines Menschenlebens quantitativ zu bestimmen, laufen genau darauf hinaus, dass die Unbedingtheit des Wertes eines Menschen dabei unterlaufen wird, die mit dem zweiten kategorischen Imperativ gerade zum Ausdruck gebracht werden soll. In ihrer Kant-Rezeption grenzt Misselhorn die Ethik Kants als Pflichtethik vor allem gegen utilitaristische Ethiken ab. Reflexionen auf Ebenen der Grenzen der menschlichen Vernunft, wie sie in Kants Philosophie kennzeichnend sind, werden von Misselhorn jedoch nicht soweit
Ebd., S. 15. Kant führt diese Unterscheidung in einer Fußnote ein, vgl. Grundlegung zur Metaphysik der Sitten, a. a. O., S. 53. 38 Ebd., S. 65. 36 37
369
4 Exkurse
systematisiert, dass sie ausgehend davon eine Abgrenzung des Moralbegriffs für maschinelle Systeme entwickeln würde.39 Ihrem eigenen Anspruch nach fokussiert sie sich in ihrer Untersuchung auf die Frage, wie eine Implementation von Moral in Maschinen realisiert werden kann. Dennoch erwähnt Misselhorn auch den eigenen Anspruch, philosophisch zu diskutieren, inwieweit der Moralbegriff überhaupt auf maschinelle Akteure ausgeweitet werden kann. Misselhorn bezieht sich zwar in ihren Analysen zu automatisierter Waffentechnik auf Kants zweiten Kategorischen Imperativ und auf den Begriff der Menschenwürde.40 Daraus leitet sie jedoch keine Schlussfolgerungen für eine systematische Moralphilosophie ab. Misselhorn grenzt die Fähigkeit zu moralischem Handeln für Maschinen letztlich doch ein auf funktionale Aspekte.41 Inwieweit dann noch von moralischer Handlungspraxis in maschinellen Systemen gesprochen werden kann, lässt Misselhorn aber unbeantwortet. Gerade für diese Fragestellung erweist sich für eine Kant-Rezeption jedoch dessen Reflexion auf Ebenen des Unverfügbaren, des Unbegreiflichen, des für die menschliche Rationalität Entzogenen als unhintergehbar, auch in der Herausbildung seiner Moralphilosophie. Die prinzipiellen Unterschiede zwischen Mensch und Maschine lassen eine Übertragung der Begriffe Moral, Autonomie, Freiheit oder Verantwortung auf maschinelle Systeme fraglich erscheinen. Gerade die Unmöglichkeit für maschinelle Systeme, eine Einsicht in die Unrichtigkeit des laufenden Programms zu entwickeln und die daraus resultierende Unfähigkeit zur Reue unterläuft die Bestimmungen dessen, was die Moralität des Menschen erst ermöglicht. Dennoch steht fest, dass maschinelle Systeme in Kontexten eingesetzt werden können, die moralische Grenzfragen des Menschen berühren. Eine technische Einbettung von Grundregeln, nach denen ein robotisches System operieren sollte, ist daher nicht von Vornherein abzulehnen. Doch es ist fraglich, ob eine Anthropomorphisierung von Technik hilfreich ist, um gesellschaftlich einen verantwortlichen Umgang mit immer stärker automatisierten Technologien zu entwickeln oder ob eine Zuschreibung von Moralität für Maschinen nicht vielmehr eine Verweigerung darstellt, als Mensch Verantwortung für den Einsatz von Technik zu übernehmen, deren Risiken immer schwerer abschätzbar werden. Wenn moralische Grundverständnisse des Menschen in technische Systeme eingebunden werden, dann führt dies nicht zu einer moralischen Autonomie von Maschinen, sondern bestenfalls dazu, dass der instrumentelle Gebrauch von Technik nicht zu einer Aushöhlung der menschlichen Moralvorstellungen führt. Der in transhumanistischen Entwürfen formulierte Anspruch, sämtliche Aspekte menschlicher Vernunft im Kontext der technologischen Entwicklungen zur künstlichen Intelligenz Vgl. Misselhorn: Grundfragen der Maschinenethik, S. 58-63. Ebd., S. 182. 41 Ebd., S. 205. 39
40
370
4.2 Können Maschinen moralisch handeln?
nachzubilden und zu überflügeln, müsste auch die Fähigkeit zu einer normativen Selbstbestimmung beinhalten. Wenn jedoch die Freiheit des Menschen simuliert werden soll, alles Bestehende zu hinterfragen, dann tritt eine solche Technik aus dem Bereich des Kontrollierbaren heraus. Eine Nichtberechenbarkeit solcher Offenheit birgt jedoch auch das Potential einer Bedrohung, da die Grundherangehensweise von menschlicher und maschineller Intelligenz grundverschieden ist. Die Offenheit menschlicher Handlungspraxis als Grundlegung von Moralphilosophie Klassische, symbolverarbeitende künstliche Intelligenz ist auf die Grenzen formallogischer Sprache verwiesen, um in künstlichen oder natürlichen Umgebungen mit der Umwelt operieren zu können. Geschlossene formale Systeme können in reduktionistischen Abstraktionen von Welt nur einen Ausschnitt dessen fassen, was Menschen implizit von ihrer Umgebung wahrnehmen. Die Weltoffenheit des Menschen findet in den bisherigen Möglichkeiten künstlich intelligenter Systeme keine Parallele. Neuronale Netze sind zwar lernfähig und damit offen hinsichtlich der mathematischen Wichtung eines zuvor in der Konstruktion festgelegten in der Umgebung gemessenen Inputs, die Offenheit dieser Systeme beschränkt sich jedoch auf die Optimierung der Output-Ebene für eine zuvor festgelegte Zielfunktion. Die Offenheit von intelligenten IT-Systemen beinhaltet damit nicht die Hinwendung auf die Bedingungen des Handelns selbst, sondern sie bleibt in den engen Grenzen formallogischer Operationen verhaftet. Offenheit beschränkt sich in neuronalen Netzwerken auf Rechenprozesse, mit denen die Lösungen von Problemen optimiert werden. Optimierung ist dabei an die Ergebnisse auf der Output-Ebene gebunden, deren Richtigkeit mathematisch entscheidbar sein muss. Wenn für die Beurteilung der Richtigkeit von Ergebnissen Menschen als Trainer von neuronalen Netzwerken eingesetzt werden, dann wird das offene und implizite Erfahrungswissen dieser Menschen auch als statistische Information für die Entscheidungs- und Lernprozesse in KI-Systemen verfügbar gemacht. Dennoch ist die Struktur dieses Wissens für Menschen und KI-Systeme grundverschieden. Eine künstliche Intelligenz bedarf der Überführung jeglicher Information in die Sprache der Mathematik, um mit dieser umgehen zu können. Menschliches Wissen geht hingegen in einer formallogischen Darstellung nicht auf, sondern ist aufgrund der weltoffenen Struktur des Menschen als implizites Wissen auch für den Menschen selbst nur partiell verfügbar und nie vollständig formalisierbar. Letzte Zielorientierungen sind für KI-Systeme nicht selbst hinterfragbar. Auch wenn in der Programmierung eine interne Option zur Abschaffung einzelner Zielfunktionen vorgesehen und eingerichtet würde, benötigt ein neuronales Netzwerk ein mathematisches Kriterium für eine solche Entscheidung. Diese wäre abhängig von einer neuen Zielfunktion als letzte 371
4 Exkurse
Orientierung, wonach ein neuronales Netzwerk erst entscheiden könnte, welche Zwischenziele gegebenenfalls nicht mehr verfolgt werden sollen, weil sie für die Erreichung der letzten Zielfunktion nicht zielführend wären. Die Offenheit des Menschen gilt hingegen auch gegenüber seinen letzten Zielen. Auch der Sexualtrieb oder der Überlebenstrieb des Menschen wurden und werden im Verhalten von Menschen nicht als feststehende letzte Ziele verfolgt. Der Mönch, der Märtyrer ebenso wie der Selbstmörder und der Magersüchtige bezeugen die grundsätzliche Hinterfragbarkeit jeder letzten normativen Zielorientierung des Menschen. Im Kapitel 3.2 wurde dargelegt, wie für eine moralphilosophische Perspektive ausgehend von der Einsicht in die Unableitbarkeit der personalen Handlungspraxis die interpersonale Zuschreibung von Freiheit begründet werden kann. Catrin Misselhorn begründet die Plausibilität, von moralischer Autonomie bei Maschinen zu sprechen, damit, dass aufgrund der Komplexität von außen ebenso von Unableitbarkeit gesprochen werden kann. Eine Form von Unableitbarkeit könnte in künstlich intelligenter Technik durch eine Zufallsvariable simuliert werden. Die lineare, deterministische Struktur von Entscheidungsprozessen in KI-Systemen wird dadurch aufgebrochen und die Ergebnisse unberechenbar und unableitbar. Entspricht eine solche Unableitbarkeit von deterministisch-aleatorischen KI-Systemen der Offenheit des Menschen in lebensweltlichen Handlungsvollzügen? Auch wenn menschliches Verhalten den Anschein von Willkür oder Beliebigkeit haben kann, gründet die Unableitbarkeit menschlicher Handlungspraxis nicht im Einfluss einer Zufallsgröße, welche als zusätzliche Variable im komplexen Universalrechner Mensch zu unberechenbaren Ergebnissen führen würde. Stattdessen wurzelt die Unableitbarkeit des menschlichen Verhaltens in der Uneinholbarkeit der Komplexität des personalen Lebens. Die Vielschichtigkeit der menschlichen Personalität entzieht sich seiner eigenen Formalisierbarkeit und Rekonstruierbarkeit. Er kann einzelne Phänomene und Aspekte der sein Handeln mitbestimmenden Vorbedingungen nur partiell rekonstruieren und einzuholen versuchen, ohne jedoch eine restlose Überführung seiner personalen Totalität in eine instrumentelle Logik je erreichen zu können. Zufällig erscheint Verhalten somit nur durch die Unmöglichkeit einer vollständigen Überführung der Vielschichtigkeit menschlicher Entscheidungsvollzüge in ein mathematisch-formallogisches System. Zufall wäre in diesem Sinne ein Surrogat für sinnkonstitutive Negativität des Menschen. Die Parallele liegt dabei nur in einer Unmöglichkeit, mit der Logik einer instrumentellen Rationalität eine determinierende Ursache festzumachen. Zufall ist die Überführung von Negativität in die Sprache des Positivismus. Gleichzeitig unterläuft eine solche Überführung die sinnkonstitutiven Potentiale des Negativen und macht stattdessen Negativität für eine instrumentelle Rationalität handhabbar und verfügbar. Negativität verliert dadurch ihr Wesen als Unverfügbarkeit, Entzogenheit, sie wird eingebettet in funktionalistische Bestimmungen. 372
4.2 Können Maschinen moralisch handeln?
Der Begriff des Zufalls selbst ist mehrdeutig. Er zielt wissenschaftstheoretisch auf eine Erkenntnisgrenze. Wo Ereignisse nicht durch kausal-deterministische Beschreibungen erklärt werden können, beginnt die Rede vom Zufall. Das Verhalten einer Maschine könnte für Außenstehende unableitbar werden, wenn dies durch das Einfügen einer Zufallsvariable realisiert wird. Die Unableitbarkeit des Menschen resultiert aber darin, dass in jedem Versuch zur Systematisierung menschlichen Verhaltens Aspekte vernachlässigt werden müssen, die ebenso das Verhalten dieses Menschen mitbestimmen. Diese Elemente sind jedoch nicht in sich zufällig, sondern folgen einer Logik, die sich lediglich einer anderen Logik gegenüber als inkommensurabel erweist. Wenn ein strebsamer und intelligenter Mensch sein Studium abbricht, weil er seine große Liebe in einem anderen Kontinent gefunden hat, dann war eine solche Wende nicht aus seinem bisherigen Lebensstil ableitbar. Dennoch wird dieser Mensch die innere Logik seines Verhaltens erläutern können: „Ich war noch nie so glücklich wie mit diesem Menschen. Also will ich mit dieser Person zusammensein, koste es, was es wolle.“ Die Logik der Karriere ist gegenüber der Logik der Liebe inkommensurabel. Kierkegaard fasste dies mit den Worten Fénelons zusammen: „Glaube an die Liebe! Sie nimmt alles, sie gibt alles.“42 Es mag sein, dass auch eine solche leidenschaftliche Liebe verebbt. Es mag sein, dass ein Mensch eine solche Entscheidung bereut. Gerade die Fähigkeit zur Reue ist es aber vielleicht, was die Fähigkeit des Menschen, moralisch zu handeln, begründet. Die Möglichkeiten des Menschen zur Reue und zur existentiellen normativen Neuausrichtung skizzieren eine Dimension von Offenheit, die in technischen Konstruktionen nicht nachgebildet werden kann, weil sie sich einer Überführung in die Sprache einer instrumentellen Rationalität entzieht.43 Künstliche Agenten operieren in deterministischen oder probabilistischen Systemen und können nur in den Grenzen von Mathematik und Formallogik funktionieren. Was sich einer Messbarkeit und Quantifizierbarkeit entzieht, kann in KI-Systeme nicht implementiert werden. Um die Anwendungsbereiche von Technik in offenen und menschlichen Kontexten auszuweiten, muss vages Wissen statistisch und probabilistisch verarbeitet werden. Verhalten von Maschinen folgt dennoch mechanistischen Abläufen, deren essentielle Strukturen sich grundsätzlich zunächst in monokausal-deterministischen Befehlsketten erschöpfen. Die Multidimensionalität einer offenen Umgebung kann dabei nur nach einer Messung, Quantifizierung und Überführung in die mathematisch-formallogische Struktur der KI-Systeme verarbeitet werden. Auch wenn eine solche Verarbeitung für eine bestimmte Problemlösung ebensogut gelingen würde wie bei einem Menschen, erschöpft sich für den Menschen die Bedeutung des Handlungsvollzug nicht in funktionalen Aspekten von Erfolg oder Misserfolg, ohne die künstlich intelligente Systeme nicht auskommen. Kierkgegaard: Entweder – Oder, a. a. O., S. 652. Vgl. Kap. 4.4 dieser Arbeit.
42 43
373
4 Exkurse
Auch die Konstruktion einer künstlichen Intelligenz mit Zufallsvariablen oder „hidden layers“, deren Struktur von außen nicht mehr einsehbar ist, kann kein Surrogat für Freiheit und Vertrauen werden. Menschliches Verhalten ist nicht zufällig in einem akausal-statistischen Sinn. Wenn menschliches Verhalten willkürlich erscheint, dann gründet dies in der Uneinsichtigkeit in die Komplexität und Vielschichtigkeit der menschlichen Psyche und in emotionale Strukturen. Diese Vielschichtigkeit kann zumindest teilweise diskursiv erschlossen werden. Sie bleibt zwar grundsätzlich entzogen im Sinne einer nie abschließbaren Handhabbarkeit, allerdings zugänglich im Sinne eines möglichen Dahinterfragens als Auseinandersetzung des Selbst mit der eigenen psychologischen Tiefenstruktur in dialogischen Prozessen. Die Unableitbarkeit der menschlichen Handlungspraxis ist daher nicht mit einem mathematischen Zufallsbegriff gleichzusetzen. Automatisiertes Fahren: Pragmatische Überlegungen Wenn der Anspruch des Transhumanismus, mithilfe von KI-Systemen das Wesen des Menschen nachbilden zu können, aufgegeben wird, dann kann die Frage nach den Möglichkeiten und Notwendigkeiten einer formallogischen Konzeption von Moral für Maschinen neu gestellt werden. Wenn künstliche Intelligenz als Technik für konkrete Anwendungen hergestellt wird, dann müssen die operativen Grenzen und Bedingungen autonomer maschineller Entscheidungsprozesse das Risiko von Fehlern und die Bedrohung von Menschen minimieren. Damit einhergehen kann auch eine Formalisierung bestimmter Operationsregeln, welche aus moralischen Grundverständnissen des Menschen abgeleitet werden können. In einem solchen Sinn bleibt dennoch künstliche Intelligenz im Verhältnis zum Menschen im Raum der Technik. Sie gemäß einer instrumentellen Rationalität für konkrete Anwendungen einzusetzen entspricht dem Sinn ihrer Konstruktion. Dabei muss aber die Hypostasierung personaler Intelligenz oder gar einer Roboterwürde verabschiedet werden, weil die Begriffe der Personalität wie der Würde von ganz anders gearteten Bedingungen hergeleitet werden müssen. Aus einer rein instrumentell-technischen Perspektive ist eine plausible Herleitung dieser moralphilosophischen Grundbestimmungen nicht möglich. Eine Maschine agiert nicht „moralisch“, selbst wenn sie einer Berechnung folgt, die moralische Vorstellungen von Menschen in ihren Berechnungen integriert. Eine technikethische Überlegung ist hingegen, ob und in welchen Kontexten man fahrerlose Autos überhaupt zulassen sollte. Grundlegend für eine angemessene Beurteilung der Leistungsfähigkeit selbstfahrender Autos ist dabei ein Wissen um die Unterschiede zwischen menschlicher und maschineller Intelligenz. Maschinelle Intelligenz operiert sehr zuverlässig in geschlossenen Systemen, in welchen sämtliche mögliche Ereignisse in berechenbare Operationen überführt werden können. Je 374
4.2 Können Maschinen moralisch handeln?
größer die Diversität möglicher Störungen, umso unzuverlässiger wird die Funktionalität der Technologie. Menschen haben gegenüber einer maschinellen Intelligenz zwar eine geringere Zuverlässigkeit in ihren determinierten Routinen, aber sie haben den Vorteil des lebensweltlichen Erfahrungswissens, was ihnen eine angemessene Einschätzung verschiedenster Situationen ermöglicht. Es kann für technikethische Überlegungen unterschieden werden, ob fahrerlose Autos in einem Kontext eingesetzt werden, in welchen auch menschliche Verkehrsteilnehmer und Autofahrer unterwegs sind oder ob sie in einem separaten System operieren. Für ersteres müsste gewährleistet werden, dass sämtliche Ereignisse, die im Straßenverkehr auftreten können, adäquat eingeschätzt werden können. Auch lernfähige künstliche Intelligenz kann nur in den Kontexten zuverlässig funktionieren, für die sie trainiert worden ist. Dennoch fehlt einer solchen maschinellen Intelligenz lebensweltliches Erfahrungswissen, welches eine Einschätzbarkeit neuer Kontexte und Situationen ermöglicht. Die Wahrscheinlichkeit des Auftretens unvorhersehbarer Ereignisse im Straßenverkehr variiert dabei stark. Auf einer Autobahn ist die Verkehrssituation anders als beispielsweise auf einer Dorfstraße. Diesen Unterschieden hat sich auch das Verhalten von Menschen auf Straßen angepasst. Niemand geht auf einer Autobahn spazieren, weil eine solche Situation als lebensgefährlich eingeschätzt wird. Eine Dorfstraße hingegen kann auch der Ort sein, wo Kinder ihre Rollschuhe testen, wo Blumen verkauft werden und wo ein Pferd entlanggeführt wird. Die Menge möglicher Situationen, die eine maschinelle Intelligenz wahrnehmen und adäquat in Algorithmen für die weitere Funktionalität überführen muss, ist hierbei weitaus größer. Selbstfahrende Autos müssen also für das Befahren einer Autobahn nicht für eine so große Bandbreite an möglichen Szenarien vorbereitet sein wie auf einer Dorfstraße. Nicht zu vernachlässigen ist auch die Rolle der zwischenmenschlichen Verständigung im Straßenverkehr, gerade in Wohngebieten, wo auf engen Straßen Passanten, Fahrradfahrer und Autofahrer interagieren. Mitunter wird trotz Vorfahrt einem anderen Verkehrsteilnehmer der Vorrang gewährt. Wenn an einer gleichberechtigten Kreuzung von allen vier Seiten ein Verkehrsteilnehmer zufährt, dann sieht auch die Straßenverkehrsordnung vor, dass in diesem Fall über Verständigung die Vorfahrtsfrage geklärt werden soll. All diese Aspekte stellen noch Herausforderungen für das maschinelle Lernen und die Entwicklung von selbstfahrenden Autos dar, die noch gelöst werden müssen, bevor diese sich in einem von Menschen geprägten Straßenverkehr sicher bewegen können. Anders kann eine technikethische Einschätzung für ein automatisiertes Verkehrssystem eingeschätzt werden, welches keine menschlichen Verkehrsteilnehmer zulässt, die das automatisierte System stören würden. Denkbar ist hier das automatisierte Fahren in festgelegten Strecken, die auch für Fußgänger nicht zugänglich sind. Ein einfaches Beispiel wäre der Weg vom Gate des Flughafens zum Flugzeug über eine festgeschriebene Route. Automatisch fahrende Autos können leicht aufeinander abgestimmt werden, um nicht zu kollidieren. Menschen, die 375
4 Exkurse
sich in einem solchen System bewegen, müssen dann über die Risiken wissen, um sich neben und in diesen automatisierten Systemen sicher bewegen zu können. Ein Betreten von Straßen, die von fahrerlosen Autos befahren werden, wäre dann für Menschen ähnlich riskant wie das Betreten von Eisenbahngleisen, wo aufgrund der hohen Geschwindigkeit auch menschliche Fahrer nur selten reagieren können, um einen Unfall zu verhindern. Der Prozess der weiteren Entwicklung selbstfahrender Autos könnte an einer solchen Stelle ansetzen, wo keine menschliche Interaktion von Menschen zu erwarten ist, die nicht auf die Einschätzung der Lage, dass es sich um selbstfahrende Autos handelt, vorbereitet wären. Eine sukzessive Ausweitung des automatischen Fahrens müsste dann vor allem von dem Ziel geleitet sein, dass sich ein gesellschaftliches Wissen um die Funktionsweise und die Probleme selbstfahrender Autos herausbildet und dass gesellschaftliche Lernprozesse Schritt halten mit der technologischen Entwicklung. Wenn das Wissen um die Funktionsweise automatisch fahrender Autos zur gesellschaftlichen Selbstverständlichkeit geworden ist und beispielsweise eine separierte Taxistraße mit selbstfahrenden Taxis von seiner Beschilderung her von allen Verkehrsteilnehmern angemessen eingeschätzt werden kann, dann kann sich daraus auch eine gelingende Mensch-Maschine-Interaktion entwickeln, die vielleicht sogar sicherer ist als eine nur von menschlichen Fahrern geprägte Verkehrslage. Eine solche technikethische Position, die an der Unhintergehbarkeit der Menschenwürde als bedingungsloser Gleichheit aller Menschen festhält, würde die Konstruktion automatisch fahrender Autos also zunächst in Bereichen zulassen, wo das Auftreten von Dilemmasituationen wie im MIT-Portal „Moral Machine“ nicht realistisch auftreten kann, solange sich Menschen nicht selbst mutwillig in eine absehbare Gefährdungssituation begeben. Die Konstruktion der intelligenten Technik sollte ihre Rechenleistung also nicht darauf verwenden, Menschen zu klassifizieren und gegeneinander in eine Wertung zu setzen. Wie sollte außerdem davon auszugehen sein, dass Autos erkennen können, wen sie töten sollen? Installierte Sensoren in einem Auto können nicht alle Informationen erfassen, die sicher bestimmen könnten, welches Alter, Geschlecht, Sozialstand, Gesundheitszustand etc. ein Passant hätte. In der Lebenswelt des Menschen agieren keine Symbolbilder, sondern einzigartige Individuen mit einer Fülle an Eigenschaften. Es ist zumindest davon auszugehen, dass die dafür benötigte Rechenleistung immens wäre. Auch für Waffensysteme ist es technisch noch nicht möglich, völkerrechtlich legitime Ziele zu diskriminieren.44 Da die gegenwärtige technologische Entwicklung für eine angemessene Entscheidung unvorhersehbarer Situationen noch nicht als ausreichend sicher eingestuft wird,45 sollte die Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 184. In Kalifornien testen Unternehmen bereits vollautonom fahrende Autos und es kam dabei auch schon zu Unfällen, bei denen auch schon eine Passantin getötet worden ist, vgl. Misselhorn: Grundfragen
44 45
376
4.2 Können Maschinen moralisch handeln?
verfügbare Rechenleistung lieber dafür eingesetzt werden, um unfallfreier zu fahren, statt durch eine Klassifizierung von Menschen die Grundlage der bedingungslosen Gleichheit aller Menschen im Sinne einer universellen Menschenwürde aufzugeben. Künstliche Intelligenz im Militär Zu den vieldiskutierten Anwendungsbereichen von KI-Forschung zählt auch KI-gestützte Waffentechnik. Die Stärken von künstlicher Intelligenz liegen nicht in der Fähigkeit, moralisch urteilsfähig zu werden. Doch können die Stärken von KI-gestützter Computertechnologie durchaus für militärische Zwecke sinnvoll genutzt werden. Bernhard Koch weist darauf hin, dass dabei differenziert werden kann in gewaltorientierte und gewaltfreie Technik. Zu letzterer gehören z. B. Minenräumroboter oder Sanitätsroboter, für deren Weiterentwicklung keine ethischen Bedenken angebracht wären. Ebenso sollte militärethisch zwischen Gewalt gegen Menschen und Gewalt gegen Sachen (wie beispielsweise defensive Raketenabwehrsysteme) differenziert werden.46 Gerade für die Verminderung von Kollateralschäden bei gezielten Militäreinsätzen kann Computertechnologie mit künstlicher Intelligenz genutzt werden, z. B. im Bereich der militärischen Aufklärung und Beobachtung, bei Verschlüsselung und Entschlüsselung, bei der Zerstörung von Objekten, beim Räumen von Minen oder bei der Evakuation von Menschen. Wenn automatisierte Technik zum Töten von Menschen eingesetzt werden soll, entfalten sich jedoch dabei aus einer vernunftkritischen Moralphilosophie besondere Problematiken. Der Begriff „autonome Waffen“ erweist sich als ebenso irreführend wie der Begriff des autonomen Fahrens. Auch automatisierte Waffentechniksysteme werden nicht konstruiert, um zu einer normativen Einsicht in Grundprinzipien der Moralität zu gelangen, sondern um zuverlässig und zielsicher zu töten. Dadurch wird die technikethische Diskussion automatisierter Waffensysteme mit künstlicher Intelligenz ethisch problematischer als für die Konstruktion selbstfahrender Autos. Denn obwohl auch automatisch fahrende Autos ein Risiko darstellen, bei welchen Menschenleben gefährdet werden können, ist die technische Konstruktion selbstfahrender Autos immer von dem Ziel begleitet, Menschenleben zu schützen und im Idealfall niemanden zu töten. Dilemmasituationen wie im MIT-Portal „Moral Machine“ werden nur diskutiert, weil Verkehrsunfälle mit möglichen Todesopfern nicht ausgeschlossen werden können und damit im Zweifelsfall, wenn es tatsächlich zu einer solchen Dilemmasituation kommt,
der Maschinenethik, a. a. O., S. 187. Koch, Bernhard: Die ethische Debatte um den Einsatz von ferngesteuerten und autonomen Waffensystemen, in: Werkner, Ines-Jacqueline und Hofheinz, Marco (Hg.): Unbemannte Waffen und ihre ethische Legitimierung. Fragen zur Gewalt, Bd. 5, Wiesbaden 2019, S. 13–40, dort S. 27f.
46
377
4 Exkurse
die technische Möglichkeit besteht, eine konkrete Entscheidung durch einen entsprechenden Algorithmus einzuprogrammieren. Dennoch ist das Ziel automatisierten Fahrens, das Überleben aller Verkehrsteilnehmer zu gewährleisten. Die Konstruktion automatisierter Waffentechnik ist hingegen darauf ausgerichtet, Menschen zu töten.47 Das Opfern von Menschenleben ist damit eine Aufgabe der automatisierten Technik. Automatisierte Waffentechnik wird dadurch zu einer besonderen Form von Technik mit künstlicher Intelligenz, die eine gesonderte technikethische Beurteilung verdient. Auch für eine adäquate Beurteilung dieser Form von Technologie ist ein Bewusstwerden der grundlegenden Unterschiede zwischen menschlicher und maschineller Intelligenz hilfreich. Gerade an diesem Beispiel zeigt sich die Problematik der immanenten Argumentationslogik transhumanistischer Entwürfe, die eine Gleichsetzung von Maschine und Mensch unterstellen und sich dabei auf die darwinistische Evolutionstheorie berufen, wenn sie in der Fortsetzung der technologischen Entwicklung von künstlicher Intelligenz die nächste Stufe der Evolution sehen. Die Konstruktion automatisierter Waffentechnik, die das Ziel verfolgt, selbst zu überleben und sich zu vervielfältigen und für das Erreichen dieses Ziels auch bereit zu sein, andere Intelligenzformen zu vernichten – was ja das Grundprinzip des evolutionären Artenkampfes ist – würde gerade nicht einen zuverlässigen militärischen Einsatz ermöglichen, sondern eine Bedrohung auch für die eigenen Soldaten darstellen. Der Sinn von KI-gestützter Waffentechnik erschließt sich nicht durch die Ähnlichkeit von künstlicher und menschlicher Intelligenz, sondern durch die Unterschiede. Statt einer anthropomorphen oder sozialdarwinistischen Beschreibung von Technologien mit künstlicher Intelligenz schlägt die vorliegende Arbeit eine normative Einordnung der Technologien im Sinne einer Erweiterung des instrumentellen Zugriffs des Menschen auf die Natur dar, die zwar komplexer ist als andere Formen von Technik, aber dennoch den Zielen und Motiven von Menschen dient, als Mittel zur Erreichung eines jeweils konkreten Zwecks. Wie jede andere Technik auch kann künstliche Intelligenz sich gegen den Menschen kehren, wenn ihre Funktionalität versagt oder wenn gerade durch ihre Funktionalität neue Abhängigkeiten geschaffen werden und der Mensch selbst zum Instrument, zum Bediener der Technik wird und dabei seine eigene Orientierung verliert. Waffentechnik wird seit ihrem Bestehen zum Schaden von Menschen eingesetzt. Ihr Nutzen ist immer nur Nutzen für einen Sieger, falls es einen solchen gibt. Für Kriegsopfer ist jede Waffentechnik Instrumentarium des Todes und der Beraubung. Der instrumentelle Zugriff des Menschen auf die Natur, der nicht jedem Menschen einen unhintergehbaren Selbstwert im
47
Vgl. auch Koch, Bernhard: Ethische und anthropologische Herausforderungen durch KI-basierte militärische Kampfroboter, in: Una Sancta. Zeitschrift für ökumenische Begegnung, 3/2019: Ethische Fragen im ökumenischen Dialog, S. 228–238, dort S. 229.
378
4.2 Können Maschinen moralisch handeln?
Sinne des zweiten kategorischen Imperativ von Immanuel Kant zuschreibt, wird mithilfe von Waffentechnik zum Mittel, um das Recht des Stärkeren durchzusetzen. Waffentechnik birgt in sich daher immer eine ethische Problematik, denn ihr Ziel ist die Destruktion. Die Legitimierung von Krieg und Gewalt zählt daher zu den Grundfragen der militärethischen Reflexion, die an anderer Stelle eine vertiefende Untersuchung erfahren muss, als es hier geschehen kann. Vorausgesetzt wird an dieser Stelle, dass eine Anwendung von automatisierter Waffentechnik mit künstlicher Intelligenz sich an den Bedingungen des Völkerrechts48 orientiert und nur zum Ziel der Vermeidung von Schlimmerem eingesetzt wird, also eventuell zur Defensive, zur Terrorismusbekämpfung oder zur Bekämpfung totalitärer Systeme, wenn diesen so viele Menschen zum Opfer fallen, dass ein militärisches Vorgehen völkerrechtlich abgesichert ist und eine Legitimierung der internationalen Gemeinschaft nicht infrage steht. Das Bewusstwerden um die grundlegenden Unterschiede zwischen Mensch und Maschine kann an dieser Stelle einige Orientierungspunkte geben, an denen eine normative Untersuchung zur automatisiert operierenden Waffentechnik ansetzen kann. Aus den Unterschieden ergeben sich Vorteile und Nachteile in pragmatischer Hinsicht wie auch aus der Perspektive einer philosophischen Ethik. So könnte idealerweise die Konstruktion von automatisierter Waffentechnik grundlegend davon geleitet werden, dass völkerrechtliche Prinzipien eingehalten werden. Dies kann jedoch nur so weit gelingen, wie völkerrechtliche Prinzipien zuverlässig formalisiert werden können. Doch auch die Deutung juristischer Definitionen ist von ihrem situativen Kontext abhängig ist und nicht vollständig formallogisch abbildbar. Stattdessen können auch die Abläufe von Algorithmen in unterschiedlichen Kontexten verschiedenartige Auswirkungen haben, die auch völkerrechtlich unterschiedlich eingeordnet werden müssen. Für eine mögliche Implementierung einer „Völkerrechts-Software“ in einer formallogischen Sprache sollte genau geprüft werden, inwieweit eine formallogische Repräsentation vergleichbare Ergebnisse ermöglichen kann wie eine Einschätzung durch Menschen. Abhängig ist ein solcher Ansatz vor allem davon, ob die technische Konstruktion von automatisierter Waffentechnik unter eine internationale Aufsicht gestellt würde, die ein Umgehen solcher Einschränkungen verhindern kann. Doch wenn die internationale Völkergemeinschaft je zu einem solchen Maß an Kooperation gelangen sollte, dann ist vielleicht der Bau von
48
Vgl. zu den Spannungsfeldern, die sich in der Entwicklung autonomer Waffensysteme ergeben, auch Robin Geiß: Autonome Waffensysteme – ethische und völkerrechtliche Problemstellungen, in: Werkner, Ines-Jacqueline und Hofheinz, Marco (Hg.): Unbemannte Waffen und ihre ethische Legitimierung. Fragen zur Gewalt, Bd. 5, Wiesbaden 2019, S. 41–62. Vgl. zu ethischen Aspekten auch Koch, Bernhard: Die ethische Debatte um den Einsatz von ferngesteuerten und autonomen Waffensystemen, in: ebd., S. 13–40.
379
4 Exkurse
Waffen nicht mehr notwendig. Eine normative Diskussion um die Rechtmäßigkeit von automatisierter Waffentechnik erübrigt sich dann. Wir folgen an dieser Stelle einmal der Annahme, es wäre tatsächlich möglich und beabsichtigt, automatisierte Waffen unter der Berücksichtigung völkerrechtlicher Bestimmungen zu konstruieren. Gegenüber menschlichen Soldaten hätte eine automatisierte Waffentechnik dann den Vorteil, dass eine Übertretung völkerrechtlicher Grenzen ausgeschlossen wäre, wie dies im Fall von Vergeltungsakten oder sexuellen Übergriffen durch Menschen geschehen kann. Die Funktionalität wäre weder durch Müdigkeit oder Unaufmerksamkeit noch durch emotionale und psychologische Problematiken eingeschränkt. Die hohe Funktionalität und Zuverlässigkeit im Ausführen von Befehlen wäre also dahingehend vorteilhaft, dass ein militärischer Befehl, wenn dieser völkerrechtlich legitimiert ist, auch nur so ausgeführt wird, wie es der Notwendigkeit des Auftrags entspricht und keine Erweiterung destruktiver Gewaltpotentiale durch Menschen in der Kriegssituation erfolgt. Die hohe Funktionalität und Gewährleistung der Ausführung des Algorithmus in automatisierten Waffensystemen birgt jedoch auf der Ebene einer gesellschaftsphilosophischen Kritik eine bedeutende Problematik. Automatisierte Technik hinterfragt keine Regeln, verweigert keine Befehle, kennt kein Gewissen, keine Empathie und kein Mitleid. In der Konstruktion von künstlich intelligenter Waffentechnik könnten zwar Algorithmen der „Befehlsverweigerung“ einprogrammiert werden, indem z. B. völkerrechtswidrige Befehle nicht umgesetzt werden, allerdings nur, wenn dies in der Programmierung so beabsichtigt ist und eine Löschung dieser Einschränkungen nicht ohne weiteres möglich ist. Technisch ist es möglich und zudem einfacher, automatisierte Waffentechnik zu entwickeln, die zuverlässig und funktional alle Aufträge ausführt, ohne dass eine Rebellion oder eine Befehlsverweigerung möglich wäre. Für totalitäre oder autoritäre Systeme bedeutet dies ein enormes Potential zur Erweiterung und Absicherung des jeweiligen Herrschaftsanspruchs. Hannah Arendt sah in der Verweigerung der Übernahme von persönlicher Verantwortung als „Banalität des Bösen“ einen Hauptgrund für die Stabilität und das Ausmaß der nationalsozialistischen Gewaltherrschaft in Europa und der Durchführung der planmäßigen Vernichtung jüdischer Menschen.49 Eichmann musste sich in Jerusalem rechtfertigen, warum er die Stimme des Gewissens verdrängt hatte. Er berief sich auf den Eid zum Gehorsam, den er geleistet hatte, er sah sich als Mann der Pflicht. Ähnlich antwortete der General Alfred Jodl im Nürnberger Prozess auf die Frage: „‚Wie war es möglich, dass Sie und alle die anderen ehrbewussten Generäle immer noch mit so fragloser Loyalität einem Mörder gehorchten?‘“, mit der Aussage, „dass es nicht die Aufgabe des Soldaten sei,
49
Arendt, Hannah: Eichmann in Jerusalem. Ein Bericht von der Banalität des Bösen, München 2013, S. 231–249.
380
4.2 Können Maschinen moralisch handeln?
sich zum Richter über seinen Oberbefehlshaber aufzuwerfen.“50 Die Verweigerung, selbst zu denken, Verantwortung zu übernehmen und Befehle zu hinterfragen, wird für Arendt daher zu einer Haltung, die eine ungebremste Entfaltung von Dynamiken des Bösen erst ermöglicht. Maschinelle Waffensysteme haben keine Stimme des Gewissens, die einer Ausführung der Befehle im Weg stünde, für die sie geschaffen werden. Sie sind der verlängerte Arm derer, die sie bedienen oder beauftragen. Während das totalitäre System im Nationalsozialismus durch Indoktrination, Gleichschaltung, Propaganda und psychologische Beeinflussung dafür sorgen musste, dass Widerstände in der Bevölkerung kontrollierbar wurden, muss ein totalitärer Herrscher, welcher über künstlich intelligente Systeme als Instrumente der Exekutive verfügt, kein Risiko eingehen, dass diese den Auftrag nicht umsetzen, weil sie dies mit ihrem Gewissen nicht in Einklang bringen könnten. Das destruktive Potential Weniger genügt dann, um viel Schaden anzurichten. Automatisierte Waffentechnik würde ermöglichen, dass der Wahnsinn Einzelner sich potenziert. Bereits Norbert Wiener wies auf die Parallele zwischen dem Jerusalemer Prozess gegen Eichmann und ethischen Problemen in der Weiterentwicklung automatisierter Technik hin. In der unkritischen Überhöhung einer verselbständigten Technologie sah Wiener den „Wunsch, die persönliche Verantwortung für eine gefährliche oder unheilvolle Entscheidung dadurch zu vermeiden, daß man die Verantwortung auf etwas anderes schiebt: auf den Zufall, auf Vorgesetzte und deren Vorschriften, die man nicht anzweifeln darf oder auf ein mechanisches Gerät, das man zwar nicht ganz versteht, das jedoch vermutlich eine Objektivität besitzt. Dies ist die Haltung, die Schiffbrüchige dazu verleitet, darum zu losen, wer von ihnen zuerst gegessen werden soll. Und dies ist es, worauf der verstorbene Herr Eichmann seine geschickte Verteidigung stützte.“51 Das automatisierbare Töten von Menschen in seiner Verbindung mit den Vorteilen des maschinellen Lernens einer künstlichen Intelligenz birgt stärker als andere Technologien die Gefahr des Kontrollverlustes. Dabei weisen die beiden grundlegend verschiedenen Prinzipien der künstlichen Intelligenz grundlegend unterschiedliche Probleme und Gefährdungen auf: die formallogische Struktur der künstlichen Intelligenz kann nicht gut in offenen Kontexten operieren und birgt die Gefahr, dass Algorithmen auf Kontexte angewendet werden, in denen ihre ursprüngliche Funktion nicht mehr gewährleistet ist oder gar in das Gegenteil dessen umschlägt, was ursprünglich damit beabsichtig war. Neuronale Netze bergen mit ihrer Offenheit und Lernfähigkeit die Gefahr des Kontrollverlustes. Je stärker in der Konstruktion einer der Schwerpunkte in der Entwicklung forciert wird, umso deutlicher werden sich die Ebd., S. 248. Wiener, Norbert: Gott & Golem Inc., Düsseldorf / Wien 1965, S. 79f. Die Passage war bereits im Kap. 2.2.2 zitiert worden.
50 51
381
4 Exkurse
Gefahren und Risiken herausbilden, die damit einhergehen. Das Risiko des Kontrollverlustes ist auch mit einem möglichen Wettrüsten zwischen Staaten verbunden und einer Spirale von Gewalt und Bedrohung, die Akteuren und Entscheidungsträgern aus den Händen gleiten könnte. Eine gesellschaftsphilosophische Kritikebene muss auch das in den Blick nehmen, was nach dem Krieg geschieht. In der Fragilität der menschlichen Existenz, in seiner Fehlbarkeit und auch in seiner Schuld bewegt sich der Mensch in seiner Frage nach Sinnorientierung und Normativität. Die Konstruktion automatischer Waffensysteme kann die Frage nach der persönlichen Verantwortung für Entscheidungen verschwimmen lassen. Autoren wie Catrin Misselhorn oder Lukas Brand wollen den Begriff moralischer Entscheidungen auf Maschinen selbst übertragen. Sicherlich fällt der Anwendungsbereich von automatisierten Waffentechniken in den Bereich moralischer Entscheidungen. Doch ist eine Übertragung des Begriffs der Moralität auf eine Maschine mit künstlicher Intelligenz problematisch, weil grundlegende Aspekte der Moralität des Menschen in der Funktionalität einer Maschine nicht abgebildet werden können. Hierzu gehört die Frage nach Schuld und Verantwortung. Wie soll eine Maschine zur Verantwortung gezogen werden für eine automatisierte Entscheidung? Maschinen können selbst keinen Beitrag zu einer Aufarbeitung der Vergangenheit leisten, denn auch das Eingeständnis eines Fehlers mit der Bitte um Verzeihung wäre nur eine technologische Simulation einer Ebene, die sich einer algorithmischen Verarbeitbarkeit entzieht. Menschen sind zur Reue fähig, zu einer existentiellen Neubewertung bisheriger Zielsetzungen und vergangener Handlungen. Allein aufgrund dieser Möglichkeit ist eine Rede von Aufarbeitung der Vergangenheit und Versöhnung möglich. Die Perspektiven von Schuld, Verantwortung und Versöhnung gründen in der prinzipiellen Fehlbarkeit des Menschen und rekurrieren auf die existentielle Offenheit des Menschen in seinen lebensweltlichen Handlungsvollzügen sowie in der Möglichkeit, normative Orientierungsfragen neu auszurichten. Eine Aufarbeitung von Schuld ist nur möglich, wenn Menschen bereit sind, Verantwortung zu übernehmen. Norbert Wiener wies bereits darauf hin, dass ein solches „Abwälzen der Verantwortung“ des Menschen auf die Maschine unabsehbare Folgen haben und ihn mit Situationen konfrontieren kann, die kaum mehr einholbar sind: „Jede zum Fällen von Entscheidungen gebaute Maschine wird sich starr an den Buchstaben halten, wenn sie nicht die Fähigkeit zu lernen besitzt. Wehe uns, wenn wir sie unser Verhalten bestimmen lassen, ohne vorher die Gesetze ihres Handelns geprüft und uns überzeugt zu haben, daß es sich nach für uns annehmbaren Grundsätzen vollzieht! Die Maschine aber, die wie der Flaschengeist lernen kann und auf Grund ihres Lernens Entscheidungen fällen kann, wird durchaus nicht gebunden sein, Entscheidungen zu treffen, wie wir sie getroffen hätten oder wie sie für uns annehmbar wären. Denn der Mensch, der das Problem seiner Verantwortung blindlings auf die Maschine 382
4.2 Können Maschinen moralisch handeln?
abwälzt, sei sie nun lernfähig oder nicht, streut seine Verantwortung in alle Winde und wird sie auf den Schwingen des Sturmwinds zurückkommen sehen.“52 Krieg und Verantwortung Misselhorn spricht in Bezug auf automatisierte Technik von einer „Verantwortungslücke“, insbesondere in ihrer Analyse zu automatisierten Waffensystemen.53 Misselhorn bezieht sich dabei auf Robert Sparrow, der den Begriff eingeführt hat, um die These zu formulieren, dass weder Programmierer noch Befehlshaber noch die Maschine selbst die moralische Verantwortung für die Handlungen eines Systems tragen könnten.54 Die Kriterien einer Verantwortungszuschreibung wären demnach nicht erfüllt: „Es liegen keine Absicht, keine Einsicht in die Folgen und keine kausale Kontrolle vor.“55 Misselhorn weist selbst auf verschiedene Schwächen dieses Arguments hin,56 bezieht sich letztlich in der Begründung ihrer Zusammenfassung doch auf Sparrows Begriff und weist darauf hin, dass die Verantwortung „aufgrund des Risikos“ jedenfalls nicht dem Programmierer zugeschrieben werden kann: „Doch haben nicht letztlich die Programmierer anstelle der Maschinen diese Entscheidung getroffen? Dies ist nicht der Fall, denn die Programmierer haben nur festgelegt, dass das System Personen tötet, die bestimmte allgemeine Kriterien erfüllen. Sie haben jedoch nicht über den Tod des jeweiligen Individuums entschieden.“57 Catrin Misselhorn geht daher so weit, den Begriff des moralischen Handelns auf Maschinen auszuweiten. Indem nicht der Programmierer die Entscheidung darüber trifft, welcher Verkehrsteilnehmer getötet werden soll, wäre das KI-System selbst ein moralischer Entscheider. Diese Argumentation erscheint problematisch. Kann Verantwortung grundsätzlich nur übernommen werden, wenn alle kausalen Folgen abschätzbar sind? Es scheint zumindest kein Anlass gegeben, dass automatisierte Waffensysteme mit künstlicher Intelligenz einen Sonderfall bilden, der nicht Parallelen zu anderen Waffenarten und militärischen Operationen aufweisen würde. Wenn weder der Befehlshaber noch der Programmierer von Technik, die letztlich Entscheidungen über den Tod von Menschen trifft, die Verantwortung für den Tod dieser Menschen übernehmen soll, nur weil Befehlshaber und Programmierer keine spezifische Wiener, Norbert: Mensch und Menschmaschine. Kybernetik und Gesellschaft, Frankfurt am Main 1966, S. 194. 53 Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 167. 54 Vgl. Sparrow, Robot: Killer Robots, in: Journal of Applied Philosophy 24 (2007/01), S. 62–77, dort S. 67, zit. nach Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 167. 55 Misselhorn: Grundfragen der Maschinenethik, a. a. O., S. 168. 56 Ebd., S. 168ff. 57 Ebd., S. 183. 52
383
4 Exkurse
Auswahl der zu tötenden Menschen vornehmen, dann ist das nicht plausibel. Der Pilot, der eine Bombe explodieren lässt, weiß auch nicht, wer sterben wird. Selten können kausale Folgen im Krieg eindeutig abgeschätzt werden, insbesondere bei Waffen, die starke Kollateralschäden bewirken. Die moralische Rechtfertigung solcher Waffen ist daher immer von besonderer Problematik. So ist auch beim Einsatz von Landminen nicht absehbar, wer letztlich zum Opfer der Mine wird. Wer ist verantwortlich, wenn ein Unschuldiger durch eine Landmine stirbt? Der Soldat, der sie vergraben hat, der Kommandeur, der den Auftrag dazu gegeben hat, der Politiker, der ihren Einsatz im Krieg für legitim erklärt hat, der Hersteller oder der Erfinder der Landmine? Die Mine selbst tötet; sie trifft gewissermaßen die Entscheidung anhand formaler Kriterien, nach denen sie entwickelt wurde – wer darauf tritt, löst die Explosion aus. Es wäre dennoch absurd, davon auszugehen, dass es sich dabei um eine moralische Entscheidung der Landmine handeln würde. Der Verantwortungsbegriff rekurriert nicht nur auf eine eindeutige Zuschreibung von einer Handlung auf eine Person. Kriegsoperationen sind multidimensional und kein Entscheidungsträger kann als allein Verantwortlicher gedeutet werden. Verantwortlich sind hingegen in gewissem Maß alle Akteure, die am Einsatz von automatisierter Waffentechnik (z. B. von Landminen oder Killerrobotern) beteiligt sind. Wenn ein Soldat beim Vergraben von Landminen weiß, dass dadurch Unschuldige sterben werden, dann kann er die Verantwortung für den Tod Unschuldiger nicht an den Befehlshaber zurückgeben, sondern muss sich rechtfertigen, warum er sich einem solchen Befehl nicht widersetzt hat. Seit den Verbrechen des Nationalsozialismus ist auch im Ethos der Bundeswehr verankert, dass ein Befehl nicht ausgeführt werden darf, welcher der Menschenwürde oder dem eigenen Gewissen zuwiderläuft.58 Dieses Prinzip der „Inneren Führung“ stellt eine Antwort auf eine Einsicht dar, die durch die Verbrechen des Nationalsozialismus offenbar geworden ist. Im Prozess gegen Josef Eichmann wurde deutlich, dass der Gehorsamseid bei vielen Deutschen zur letzten Antwort auf moralische Fragen wurde.59 Die Verbrechen des Nationalsozialismus waren nach damals geltendem Recht gesetzeskonform. Eichmann und viele andere Verantwortungsträger mussten sich in den Nachkriegsprozessen rechtfertigen, warum sie Befehle nicht hinterfragt haben, die offensichtlich widersinnig waren und Unrecht beförderten.
Das deutsche Soldatengesetz legitimiert mit § 11 Abs. 1 Satz 3 und Abs. 2 Satz 1 zum Ungehorsam gegen Befehle, die der Menschenwürde zuwiderlaufen oder die eine Straftat darstellen würden. Unter Berufung auf die im Grundgesetz verankerte Gewissensfreiheit (Art. 4 Abs. 1 GG) weist die „Zentrale Dienstvorschrift Innere Führung außerdem darauf hin, dass der Staat grundsätzlich niemanden zu Handlungen zwingen darf, die gegen eigene ethische Maßstäbe von Gut und Böse verstoßen. Vgl. Bundesministerium der Verteidigung: Zentrale Dienstvorschrift Innere Führung. Selbstverständnis und Führungskultur, A-2600/1, S. 29, Absatz 4c. 59 Vgl. Arendt: Eichmann in Jerusalem, a. a. O. 58
384
4.2 Können Maschinen moralisch handeln?
Doch eine Maschine kann keine Einsicht in Unrecht entwickeln, wenn formale Vorgaben widersinnig werden. Der Vorwurf gegen Josef Eichmann bestand darin, nicht selbst zu denken, zu hinterfragen und Verantwortung zu übernehmen. Maschinen können nicht denken, hinterfragen und daher auch keine Verantwortung übernehmen. Moralische Urteile können wir deshalb nicht an sie delegieren. Die Rede von einer „Verantwortungslücke“ ist also nicht darin begründet, dass eine Maschine tatsächlich zu moralischer Autonomie in der Lage wäre, sondern darin, dass vermutlich kein Mensch dafür verantwortlich sein will, dass ein automatisiertes System Unschuldige tötet. Dieses Unbehagen kann jedoch nicht dadurch aufgelöst werden, dass Menschen, die für die Entwicklung und den Einsatz automatisierter Technik verantwortlich sind, den Maschinen moralische Urteilskraft zuschreiben. Darin scheint sich ein Wunsch nach Entlastung zu artikulieren. Jeder Mensch, der den Tod Unschuldiger verhindern kann, ist mitverantwortlich. In Kriegsund Ausnahmesituationen kann es dazu kommen, dass Schlimmes geschieht, um Schlimmeres zu verhindern. Nicht immer ist es möglich, „moralisch optimale“ Kriege zu garantieren. In Kriegshandlungen werden immer Menschen schuldig. Manches Leid kann vielleicht erst später aufgearbeitet werden. Wenn es jedoch durch automatisierte Waffensysteme zu solchen Kollateralschäden kommen sollte, wie es z. B. am Ende des zweiten Weltkriegs durch den Abwurf der Atombomben auf Japan geschehen ist, dann steht nur zu hoffen, dass es danach zu einem ähnlichen „Nie wieder!“ kommen möge. Auch in der damaligen Situation waren vielleicht die furchtbaren und langfristigen Folgen nicht absehbar und die Entscheidung wurde in einer Abwägung gegen einen unerbittlichen Kampf durch eine Invasion Japans getroffen. Ob die Entscheidung moralisch zulässig, gerechtfertigt oder maßvoll war, ob die Folgen absehbar gewesen waren, wer letztlich dafür die Verantwortung trägt – angesichts der Dimension des Schreckens, die durch diese Entscheidung ausgelöst wurde, wirken Versuche, darauf eine rationale Antwort zu finden, hilflos. Es bleibt zu hoffen, dass das mögliche Ausmaß des Schreckens, das durch eine Delegation des Tötens an restlos automatisierte Systeme erfolgen würde, von allen beteiligten Entscheidungsträgern, die in die Situation geraten, solche Entscheidungen zu treffen, derart vergegenwärtigt werden kann, dass in keinem Augenblick der Wunsch nach Entlastung von Verantwortung dazu führt, dass unüberlegte Entscheidungen damit begründet werden können, dass die Folgen des Handelns nicht absehbar gewesen wären. Wenn die Konsequenzen einer Technik insbesondere in moralischer Hinsicht überhaupt nicht abschätzbar werden können, dann ist es letztlich auch nicht vertretbar, sie zu benutzen. Misselhorn spricht in Bezug auf mögliche Verantwortungslücken davon, dass die „Last der Verantwortung“, die mit der Entwicklung von autonomen Waffensystemen zusammenhängt, „schier erdrückend“ sein kann. Aus einer vernunftkritischen Position muss jedoch betont werden, dass genau darin die Stärke des Verantwortungsprinzips liegt, dass der Mensch sich auch 385
4 Exkurse
einer übermächtigen Verantwortung stellen kann, darin zwar selten unschuldig bleibt, immer Möglichkeiten unterlässt, niemals ein Ideal erreicht, sondern immer unter einer Bestimmung des Fragilen, Gescheiterten, Unerreichbaren und Fragmentarischen steht – gleichzeitig aber genau in diesem Sich-Stellen eine Antwort finden kann auf die Frage nach der moralischen Dimension seiner Handlungspraxis. Wer sich der Schwere und des Ausmaßes solcher Verantwortung nicht stellen will, sollte weder eine militärische Karriere anstreben noch sich für die Programmierung automatisierter Waffen bereiterklären. Nur wer die Schwere dieser Verantwortung erkennt, nur wer fähig ist, angesichts der Risiken auch zu erschrecken, der gewinnt eine Ahnung davon, wie sorgsam jede Nuance abgewogen und geprüft werden muss, bevor über Entwicklung oder Einsatz solcher Systeme entschieden werden darf. Automatisierte Waffensysteme setzen den Menschen in eine lebensweltliche Distanz zu den Opfern von Kriegshandlungen. Die Distanz, die sich phänomenologisch für die Praxis des Krieges ergibt, wenn automatisierte Waffentechnik eingesetzt wird, birgt den Vorteil, dass eine Traumatisierung von Soldaten durch die Unmittelbarkeit von Kriegserfahrung vermieden werden kann. Auf der anderen Seite kann jedoch ebendiese Distanz auch in eine Leichtfertigkeit umschlagen, da der Schrecken des Krieges für Entscheidungsträger und Akteure in immer weniger anschauliche Entfernungen rückt. Wenn Algorithmen an die Schnittstelle zwischen Akteur und Opfer treten, dann führt eine solche Distanzierung auch dazu, dass die Einsicht in die Sinnlosigkeit und den Schrecken von Krieg erschwert wird. Ein solcher Einwand soll nicht dazu dienen, eine Traumatisierung von Soldaten zu befürworten. Doch ist der Schrecken des Krieges das wichtigste Argument gegen ihn und wenn dieser Schrecken in eine solche Distanz rückt, dass der Krieg nur noch wie ein Spiel erscheint, dann birgt eine solche Distanz die Gefahr der Leichtfertigkeit gegenüber militärischen Entscheidungen, in denen Menschen sterben müssen. Eine automatisierte Waffentechnik kann nicht erschrecken vor dem Tod, den sie selbst bringt. Sie kann nicht emotional erschüttert werden oder durchzogen sein von Mitgefühl und Reue. Sie folgt einem Algorithmus, tötet und funktioniert weiter. Ihre Entscheidungen folgen dem Prinzip der Zahl und der Formallogik. Der Protagonist im Nachkriegsroman „Im Westen nichts Neues“ findet im Schützengraben die persönlichen Fotos eines gefallenen feindlichen Soldaten. Der Einblick in den lebensweltlichen Bezug des Feindes bewirkt eine Einsicht in das prinzipiell Ungeheuerliche des Krieges: „Es ist der erste Mensch, den ich mit meinen Händen getötet habe, den ich genau sehen kann, dessen Sterben mein Werk ist. Kat und Kropp und Müller haben auch schon gesehen, wenn sie jemand getroffen haben, vielen geht es so, im Nahkampf ja oft – Aber jeder Atemzug legt mein Herz bloß. Dieser Sterbende hat die Stunden für sich, er hat ein unsichtbares Messer, mit dem er mich ersticht: die Zeit und meine Gedanken.
386
4.3 Können Maschinen ein Bewusstsein entwickeln? Ich würde viel darum geben, wenn er am Leben bliebe. Es ist schwer, dazuliegen und ihn sehen und hören zu müssen. Nachmittags um drei Uhr ist er tot. Ich atme auf. Doch nur für kurze Zeit. Das Schweigen erscheint mir bald noch schwerer zu ertragen als das Stöhnen. Ich wollte, das Röcheln wäre wieder da, stoßweise, heiser, einmal pfeifend leise und dann wieder heiser und laut. […] Ohne Entschluß halte ich die Brieftasche in der Hand. Sie entfällt mir und öffnet sich. Einige Bilder und Briefe fallen heraus. […] Es sind Bilder einer Frau und eines kleinen Mädchens, schmale Amateurfotografien vor einer Efeuwand. Neben ihnen stecken Briefe. Ich nehme sie heraus und versuche sie zu lesen. Das meiste verstehe ich nicht, es ist schlecht zu entziffern, und ich kann nur wenig Französisch. Aber jedes Wort, das ich übersetze, dringt mir wie ein Schuß in die Brust – wie ein Stich in die Brust – […]“60
Besteht nicht in der Fähigkeit des Menschen, vor seiner eigenen Gewalt zu erschrecken, die Grundlage jeder Moral?
4.3 Können Maschinen ein Bewusstsein entwickeln? Immer wieder wird die Frage diskutiert, ob Maschinen denn ein Bewusstsein entwickeln können. Die Frage nach dem Bewusstsein gehört zu den wenigen Momenten, in denen Ray Kurzweil in seinem Buch Menschheit 2.0 auf die Grenzen von wissenschaftlicher Erkenntnis reflektiert. Das entsprechende Kapitel „Die lästige Bewusstseinsfrage“ ist durchzogen von Fragen, die in seinem Buch letztlich unbeantwortet bleiben – es bildet damit einen Gegensatz zum Rest des Buches, in dem ein visionäres Programm dargestellt wird, nicht als Frage, nicht als Option, sondern als wissenschaftliche und ökonomische Notwendigkeit. Kurzweil weist in diesem Kapitel auch auf die Grenzen seines eigenen Standpunkts hin und delegiert die Thematik an die Philosophie: „Eben weil wir die Bewusstseinsfrage nicht vollständig durch objektive Messungen und wissenschaftliche Analysen beantworten können, kommt der Philosophie eine entscheidende Rolle zu. Die Bewusstseinsfrage ist die wichtigste ontologische Frage.“61 Was geschieht, wenn man einem Philosophen einen kleinen Finger reicht? Seit den Dialogen von Sokrates ist bekannt, dass die Fragesteller dann nicht mehr so schnell davon kommen, wie sie möchten. Remarque: Im Westen nichts Neues, a. a. O., S. 151 u. 153. Kurzweil: Menschheit 2.0, a. a. O., S. 391.
60 61
387
4 Exkurse
Für Kurzweil konkretisiert sich die Frage nach dem Bewusstein auch in den Fragen: „Wer bin ich? Was bin ich?“62 Die Frage, ob mit einem mathematischen Modell eines Dings tatsächlich das Wesen dieses Dings, in einem mathematischen Modell des Menschen also das Bewusstsein des Menschen nachgebildet werden kann, ist für Kurzweil relevant, um sicherzugehen, dass mit einem Gehirn-Scan und -upload auch wirklich seine Personalität nachgebildet werden könnte: „Wir haben zuvor über die Möglichkeit gesprochen, die Muster unseres individuellen Geistes – Wissen, Fähigkeiten, Persönlichkeit, Erinnerungen – in ein anderes Medium hochzuladen. Auch wenn sich diese neue Entität ganz genau wie ich verhält, bleibt die Frage: Bin das wirklich ich?“63 Obwohl Kurzweil an anderen Stellen seines Entwurfs mit keinem Augenblick daran zweifelt, dass mathematische Modelle der Wirklichkeit diese vollständig abbilden, wird er skeptisch, wenn es dabei um seine eigene Unsterblichkeit gehen soll: „Obwohl die Kopien dasselbe Muster aufweisen wie ich, wäre es schwierig, sie als mich zu begreifen, da ich ja – möglicherweise – auch noch da wäre. Man könnte mich sogar scannen und kopieren, während ich schlafe. Wenn man mir dann am nächsten Morgen eröffnete: ‚Gute Neuigkeiten, Ray, wir haben dich erfolgreich in einem langlebigeren Substrat reinstanziiert, dein alter Körper samt Gehirn wird nicht mehr benötigt‘ – so wäre ich da voraussichtlich anderer Meinung.“64 Eine Alternative zu einer vollständigen Nachbildung als Kopie, die parallel zum Original existieren könnte, sieht Kurzweil daher, ebenso wie Moravec, in einer „allmählichen Ersetzung“,65 doch auch dabei vermutet Kurzweil das Ende des „alten Ich“.66 Kurzweil löst diese Dilemmata nicht systematisch auf, sondern begnügt sich mit der Feststellung, dass auch in biologischen Organismen sich die Teilchenmenge und Zusammensetzung beständig verändert. Nur die „Muster“ bleiben gleich.67 Die Kernfrage, die für Kurzweil unlösbar bleibt, ist die „schwere“ Bewusstseinsfrage: „Wie kann Materie (unser Gehirn) etwas so scheinbar immaterielles wie das Bewusstsein hervorbringen?“68 Wesentlich sind für Kurzweil ähnlich wie für Moravec „Muster“, im englischen „pattern“. Kurzweil bezeichnet sich daher als „Patternist“: „Trotz dieser Dilemmata beruht meine persönliche Philosophie weiterhin auf Patternismus: Ich bin ein über die Zeit hinweg beständiges Muster und ich kann die Richtung meiner Entwicklung beeinflussen.“69 Ebd., S. 393. Ebd. 64 Ebd., S. 394f. 65 Ebd., S. 395. 66 Ebd. 67 Ebd., S. 394. 68 Ebd., S. 396. 69 Ebd., S. 397. 62
63
388
4.3 Können Maschinen ein Bewusstsein entwickeln?
Gegenüber der „Bewusstseinsfrage“ nimmt Kurzweil dennoch letztlich eine Art agnostische Haltung ein: „Ob ein Wesen bewusst ist oder nicht, weiß letztlich nur das Wesen selbst.“70 Gibt es etwas, was in einer mechanistischen Beschreibung des Menschen nicht aufgeht? Wenn es so etwas gibt – wie kann es dann in einer Maschine entstehen? Bei Descartes wurde diese Frage durch die dualistische Gegenüberstellung von KörperWelt und Geist beantwortet. Die körperliche Welt ist geprägt von deterministischen Kausalzusammenhängen im Sinne einer Mechanik wie in einem Uhrwerk. Doch in dieser Beschreibung geht die Erfahrungswelt des Menschen nicht auf. In Descartes’ Zweifel meldet sich das „Ich“ zu Wort: „Ich zweifle“, da gibt es also ja etwas, was offenbar nicht mechanisch ist, denn mein Ich kann ich nicht finden und schon gar nicht als Maschine beschreiben, denn mein Ich ist kein beobachtbarer Prozess, kein auffindbares und beobachtbares Ding. Stattdessen ist die Erfahrung, ein „Ich“ zu sein, die unhintergehbare Erfahrung des Seins überhaupt. Wir erleben die Welt. Wir sind – bevor wir erst darüber reflektieren können. Wir nehmen die Welt wahr und reflektieren zunächst noch nicht darüber, warum wir die Welt wahrnehmen und wer diese Welt wahrnimmt. Die Wahrnehmungsperspektive ist vorläufig, vortheoretisch. Sie ist die Grundbedingung von Erkenntnis überhaupt. Erst in dem Prozess der objektivierenden Beschreibung der Welt beginnen wir, auch uns selbst als „Gegenstand“ dieser Welt zu beschreiben. Unser Körper lässt sich leichter als Gegenstand beschreiben als unser Bewusstsein – denn den menschlichen Körper können wir immerhin nach dem Tod eines Menschen auseinandernehmen und untersuchen. Er wird Teil unseres technischen Verstehens, unseres empirischen Untersuchens. Doch zu unserem Bewusstsein finden wir keinen objektiven Zugang. Das Bewusstsein bildet damit eine jeweils exklusive Perspektive: Kein anderer Mensch kann die Welt so sehen und empfinden wie ich. Und ich habe auch keinen unmittelbaren Zugang zu der „Innenperspektive“ eines anderen Menschen. Wir können uns über unser Empfinden austauschen und es somit „objektivieren“, zum Gegenstand des Diskurses werden lassen. Wir können unser Bewusstsein jedoch nicht unter ein Mikroskop spannen. Der Philosoph Klaus Mainzer meint, dass die Antwort auf die Frage, ob Maschinen ein „künstliches Bewusstsein“ haben können, von der Definition abhängt.71 Können Wissenschaftler oder Philosophen einfach eine formale Definition von Bewusstsein erstellen, um hinterher entscheiden können, ob Maschinen bewusst sind – oder eben nicht? Klaus Mainzer weist die prinzipielle Unmöglichkeit zurück, dass sich in komplexen künstlichen Systemen Bewusstsein entwickeln könnte, wie dies der Philosoph John R. Searle behauptet und mit seinem Gedankenspiel des Chinesischen Zimmers zu illustrieren versucht Ebd., S. 396. Vgl. Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 210.
70 71
389
4 Exkurse
hatte: „Wenn aber Bewusstsein, was auch Searle zugibt, durch das Gehirn als biologisches Organ ausgelöst wird, dann unterliegt diese Dynamik physikalischen, chemischen und neurobiologischen Gesetzen. Die mathematischen Gleichungen, die diese komplexe Gehirndynamik beschreiben, wären dann ebenso Computersimulationen zugänglich wie andere neuronale Prozesse auch.“72 Diese Begründung geht davon aus, dass Bewusstsein eine Eigenschaft wäre, die von einem Organ „ausgelöst“ wird. Das Gehirn tut etwas und erzeugt damit Bewusstsein. Wir müssen also das Gehirn untersuchen, um das Bewusstsein zu verstehen. Wenn Bewusstsein nur eine unter vielen anderen Eigenschaften ist, warum ist es dann von so zentraler Bedeutung? Das Gehirn ist einer solchen Auffassung zufolge eine Art Bewusstseins-Ding, das es irgendwie schafft, Bewusstsein zu produzieren. Wir wollen herausfinden, wie, um diesen Mechanismus nachzubilden. Mainzer unterstellt, wenn er die mathematische Modellierbarkeit von Bewusstsein anspricht, dass in einem mathematischen Modell die Wirklichkeit nachgebildet werden kann; dass man das „Ding an sich“ greifen kann mit seinem mathematischen Modell. Doch unsere mathematischen Beschreibungen sind unsere Konstruktionen, unsere Zuschreibungen und nicht mit dem Original gleichzusetzen. Das mathematische Modell der Liebe liebt doch nicht, das mathematische Modell des Sonnensystems ist selbst kein Sonnensystem. Unsere wissenschaftliche Erkenntnis ist nicht einfach die unmittelbare Wahrheit, sondern der Versuch, unsere Perspektive auf die Welt zu systematisieren. Wir schreiben der Natur unsere Naturgesetze zu.73 Wir können Objekte in der Natur auch mathematisch beschreiben. Doch wie viel wir auch immer über ein „Ding“ in mathematischer Sprache wiedergeben wollen, wir erfassen damit doch niemals das „Ding an sich.“ Sicherlich können mit dem Fortschreiten der empirischen Erforschung des Gehirns auch zunehmend mehr mathematische Gleichungen gefunden werden, mit denen stoffliche Vorgänge im Gehirn beschrieben werden können, die mit Prozessen einhergehen, welche zu der Ebene des personalen Erlebens zugeordnet werden können, die mit dem Begriff des Bewusstseins beschrieben werden soll. Doch diese mathematischen Prozesse können dieses Bewusstsein selbst nicht abbilden, sondern nur in einer mathematisch-abstrakten Form Zusammenhänge ausdrücken, die Aspekte unserer Beobachtungen in verallgemeinerten Form zusammenfassen. Der Bewusstseinsbegriff erweist sich nicht als einfache Eigenschaft, sondern ist mehrdeutig. In welchen Kontexten entfaltet der Begriff des Bewusstseins seinen Sinn? Vgl. Mainzer: Gehirn, Computer, Komplexität, a. a. O., S. 209. Hervorhebungen im Original. Vgl. Kant: Prolegomena, a. a. O., S. 74 (§36).
72 73
390
4.3 Können Maschinen ein Bewusstsein entwickeln?
a) Der Bewusstseinsbegriff bildet einen Gegenbegriff zum Unbewussten oder Unterbewussten. b) Der Bewusstseinsbegriff bezeichnet eine Perspektive der Wahrnehmung. c) Der Bewusstseinsbegriff rekurriert auf die Fähigkeit zur Reflexion, zum Denken. d) Der Bewusstseinsbegriff kann auf eine Ebene von Personalität rekurrieren, auf das „Ich“. Der Bewusstseinsbegriff birgt also in besonderer Art und Weise eine Mehrdeutigkeit und Vielschichtigkeit in sich, die es erschwert, den Begriff als mathematisch modellierbare Eigenschaft zu definieren. Der Begriff des Bewusstseins birgt eine Ebene von Erkenntniskritik in sich selbst, indem damit auch die Perspektive der ersten Person beschrieben wird, die ihrerseits nicht vollständig objektiviert werden kann. Der Bewusstseinsbegriff bezeichnet also auch eine Grenze der wissenschaftlichen Objektivierbarkeit. Im Kapitel 3.1 dieser Arbeit wurde die Vorstellung, dass die Welt im Labor vollständig dechiffriert werden kann, zurückzuweisen versucht. Nicht nur unser Bewusstsein, auch alles andere ist nicht einfach wie ein „offenes Buch der Natur“ ablesbar, wenn man es nur unter dem Mikroskop zu fassen bekommt. Die Fertigstellung der vorliegenden Arbeit fällt mit der Corona-Krise zusammen. Im öffentlichen Diskurs wird dabei das Missverhältnis von wissenschaftlicher Praxis und der landläufigen Vorstellung von wissenschaftlicher Praxis deutlich. Politiker und Bürger fragen Virologen und Epidemiologen als Experten um Rat und erwarten eine zuverlässige Auskunft mit „harten Fakten“. Dass Studien sich gegenseitig widersprechen und zu unterschiedlichen Ergebnissen kommen, sich als unvollständig erweisen, immer wieder revidiert werden müssen, wird dabei als erstaunlich wahrgenommen. Die Wissenschaft hat ja ihre Labore, mit denen schnelle, belastbare und unverrückbare Fakten geliefert werden können. Studierte Virologen müssen dieses Virus nur unter ihr Mikroskop packen, schauen es sich an und lesen aus diesem Virus ab, welche Krankheitssymptome das Virus auslöst und welche Medikamente und Impfstoffe dagegen helfen. Das Virus erzählt uns jedoch auch unter dem Mikroskop nichts. Wir entwickeln Hypothesen, wir raten, wir testen, beobachten, werten aus, entwickeln neue Hypothesen, raten, testen wieder, beobachten und werten wieder aus. Wissenschaft ist ein unabschließbarer Prozess, in dem Menschen eine Wirklichkeit konstruieren. Idealerweise stimmt unsere wissenschaftliche Wirklichkeitskonstruktion irgendwann so gut mit unseren jeweils immer wieder neuen Erfahrungen und Beobachtungen überein, dass wir eine wissenschaftliche Beschreibungen erst einmal so lassen können, wie sie ist. Dennoch können auch wissenschaftliche Erkenntnisse, die als absolut sicher gelten, revidiert werden. Verschiedene Paradigmenwechsel im 20. Jahrhundert verwarfen komplette Weltmodelle, weil unsere gegenwärtige Beschreibung der Welt 391
4 Exkurse
durch neue Erkenntnisse und Beobachtungen an seine Grenzen gekommen ist. Wissenschaftliche Erkenntnis ist ein Prozess menschlicher Wirklichkeitskonstruktion, offen, unabschließbar, indeterminiert. Viren können wir immerhin überhaupt zum wissenschaftlichen Untersuchungsgegenstand werden lassen. Doch unser Bewusstsein können wir nicht einfach unter ein Mikroskop spannen. Untersuchen können wir lediglich die Materie, von der wir glauben, dass darin unser Bewusstsein „wohnt“. Die Hirnforschung wird daher als Disziplin gesehen, die das Bewusstsein des Menschen irgendwann vollständig empirisch beschreiben kann. Marvin Minsky meinte einmal in einem Interview: „Ich bin fest davon überzeugt, dass man mit einem Scanner, der über eine Auflösung von einem Angström verfügt, jedes einzelne Neuron im menschlichen Gehirn sichtbar machen kann. Man beobachtet dies tausend Jahre lang und sagt dann: ‚Wir wissen genau, was geschieht, wenn ein Mensch blau sagt.‘ Und dies wird von mehreren Generationen von Wissenschaftlern überprüft, so dass die Theorie schließlich gut fundiert ist. Wenn nichts schiefgeht, ist die Sache damit erledigt.“74 Kurzweil hat jedoch in seinen Überlegungen zum Begriff des Bewusstseins an einer Stelle recht: Die 1.-Person-Perspektive ist nicht einholbar durch eine 3.-Person-Perspektive. Personale Subjektivität ist nicht restlos objektivierbar. Bewusstsein kann daher kein verdinglichter Untersuchungsgegenstand empirischer Forschungen werden. Dennoch bleibt Kurzweil für eine Deutung des Bewusstseinsbegriffs bei einem aporetischen Dualismus stehen: Ich weiß zwar, dass ich bewusst bin, kann mir das aber nicht erklären und weiß auch nicht, ob andere bewusst sind. Mein Bewusstsein ragt sozusagen aus der materiellen Welt hervor und keiner weiß, wo es genau herkommt. Erkenntnistheoretisch ist Kurzweil damit noch stark in einer Nähe zum Dualismus bei Descartes. Der cartesische Dualismus zwischen Körper und Geist ist bei Kurzweil eine Aufteilung in eine objektivierbare, messbare, formalisierbare, mathematisierbare Welt auf der einen Seite und die Perspektive eines Ich als Subjektivität, Bewusstsein, Geist auf der anderen Seite. Beide Ebenen können nicht miteinander vermittelt werden, weil sie sich als inkommensurabel zueinander verhalten. Die Möglichkeit der analytischen Systematisierung des Objektivierbaren führt für Kurzweil dazu, die Frage nach dem Bewusstsein in die Ebene persönlicher Glaubensfragen zu verlagern. Dieser Frage hat sich Husserl jedoch auch gestellt und ist dabei nicht bei einem aporetischen Dualismus stehengeblieben. Stattdessen erweist sich die Ebene der Subjektivität als unhintergehbare Bedingung für jede Objektivierung. Erst aus einer Perspektive der subjektiven Lebenswelt heraus kann sich Objektivität entwickeln. Horgan, John: An den Grenzen des Wissens. Siegeszug und Dilemma der Naturwissenschaften, Frankfurt am Main 2000, S. 300.
74
392
4.3 Können Maschinen ein Bewusstsein entwickeln?
Ohne Leiblichkeit kann daher menschlicher Geist nicht verstanden werden. Im Begriff des Leibes ist die Aufhebung eines Dualismus zwischen Subjektivität und Objektivität angelegt. Die Perspektive personaler Subjektivität kann nur aus einer leiblichen Konstitution heraus begründet werden. Leibphänomenologie ist ein Schlüssel zur Überwindung eines aporetischen Dualismus zwischen Körper und Geist. Auch die „lästige Bewusstseinsfrage“ kann damit neu systematisiert werden. Wenn man den Begriff des Bewusstseins als eine verdinglichte Substanz auffasst, die losgelöst von ihrer materiellen Struktur verstanden werden soll, droht eine Philosophie immer in eine dualistische Deutung zu geraten. Stattdessen beschreibt der Begriff des Bewusstseins eine Ebene lebensweltlicher Subjektivität aus einer Leibphänomenalität heraus, hinter deren Bestimmung wir existentiell und erkenntnistheoretisch nicht zurück können. Wir wissen nicht, wie sich ein Bewusstsein anfühlen würde, das nicht wir wären, das sich nicht aus unserer Leiblichkeit heraus zur Welt verhalten würde. Wir sind in der Welt als leiblich konstituierte Personen. Die analytischen Zugänge zur Untersuchung der Wirklichkeit, welche die Geschichte der Wissenschaft prägen, können zwar helfen, die Vorgänge der Welt zu systematisieren, zu ordnen und zu deuten, doch können wir nicht unsere eigene Perspektive so restlos analysieren, dass wir damit die Grundlage leugnen könnten, aus welcher sich heraus Wissenschaft erst entwickeln kann. Für die Frage, wie wir wissenschaftlich von „Bewusstsein“ sprechen können, bedeutet dies: 1. Wir können die Ebene leiblich-lebensweltlich konstituierter personaler Subjektivität nie vollständig objektivieren. Eine Überführung von Begriffen, die unsere Selbstwahrnehmung in der Welt beschreiben, in eine Sprache objektiver Wissenschaftlichkeit als mathematische Formel ist damit nicht möglich. 2. Dennoch bildet die Ebene leiblich-lebensweltlich konstituierter personaler Subjektivität die Voraussetzung für jede mögliche Objektivierung und wissenschaftliche Erkenntnisprozesse überhaupt. Sie ist daher eine Apriori-Bestimmung für jede Erkenntnistheorie und kann ihrerseits nicht wissenschaftlich widerlegt werden. 3. Wir können nicht nur von mathematisch-wissenschaftlich objektivierbaren Entitäten sinnvoll sprechen. 4. Auch wenn die Ebene personaler Subjektivität nicht in eine Sprache von wissenschaftlichmathematischer Objektivität überführt werden kann, ist es dennoch möglich, darüber zu sprechen. Dabei müssen jeweils die unterschiedlichen Ebenen sprachlicher Begrifflichkeiten füreinander hermeneutisch erschlossen werden. Dies ist zum Beispiel nicht gelungen im Streit zwischen John R. Searle und Ray Kurzweil. Searle vertrat gegenüber Kurzweil die Position, dass nur biologische Organismen ein Bewusstsein haben können, Maschinen hingegen nicht. Searle schrieb: „echte menschliche 393
4 Exkurse
Gehirne erzeugen Bewusstsein durch eine Reihe spezifischer neurobiologischer Abläufe im Gehirn.“75 Searle verdeutlichte seinen Standpunkt in einem Brief an Kurzweil: „Es könnte sich herausstellen, dass recht simple Organismen wie Termiten oder Schnecken ein Bewusstsein haben. […] Der entscheidende Punkt ist, sich zu vergegenwärtigen, dass Bewusstsein ein biologischer Prozess ist, so wie Verdauung, Laktation, Photosynthese oder Mitose, und dass man nach seiner biologischen Erklärung suchen sollte, wie man auch biologische Erklärungen für diese anderen Prozesse sucht.“76 Kurzweil entgegnete Searle: „Ja, es stimmt, dass Bewusstsein emergent aus dem / den biologischen Prozess(en) von Gehirn und Körper hervorgeht, doch es gibt zumindest einen Unterschied. Wenn ich frage: ‚Produziert ein bestimmtes Wesen Kohlenstoffdioxid?‘, so lässt sich diese Frage durch eine objektive Messung eindeutig beantworten. Wenn ich frage: ‚Ist dieses Wesen bewusst?‘, so könnte ich zwar Argumente anführen – möglicherweise gute und überzeugende Argumente –, jedoch keine eindeutige, objektive Messung anstellen.“77 Kurzweil diskutiert im Anschluss die Möglichkeiten einer empirischen Überprüfbarkeit von Bewusstsein bei Schnecken.78 Searles Einwand, dass Bewusstsein ein „biologischer Prozess“ ist, kann für seine Diskussion mit Kurzweil nicht kohärent aufrechterhalten werden, da auch die biologische Forschung unter den Bestimmungen der empirischen Objektivierung steht. Die Ebene des subjektiven Bewusstseins erweist sich aber nicht als vollständig objektivierbar und die „Bewusstseinsfrage“ kann somit auch nicht durch die biologische Forschung beantwortet werden. Kurzweil rekurriert mit seinem Verständnis des Bewusstseinsbegriff auf die Ebene der philosophischen Vernunftkritik, welche die Ebene leiblich konstituierter lebensweltlich-subjektiver Personalität als inkommensurable Grundbestimmung jeder möglichen Erkenntnis bezeichnen soll. Searle bezeichnet mit dem Bewusstseinsbegriff aber offenbar eine dinghafte Eigenschaft, die irgendwie vom Gehirn produziert wird. Damit kann Searles Kritik nicht gegen Kurzweils Maschinenverständnis ausgespielt werden, der auch komplexe, dynamische und indeterministische Prozesse für KI-Architekturen in Anspruch nimmt. Bewusstsein ist keine quantifizierbare Eigenschaft, die in einem empirischen Verfahren gemessen werden könnte und damit auch kein Untersuchungsgegenstand der biologischen Forschung. Stattdessen bezeichnet der Begriff des Bewusstseins eine Beschreibung der eigenen Perspektive in der Welt; zumindest hat der Begriff des Bewusstseins in der Fachdiskussion um das Leib-Seele-Problem diese Bedeutung eingenommen. 77 78 75 76
Zitiert nach Kurzweil: Menschheit 2.0, S. 483. Zitiert nach: ebd. Ebd., S. 483. Ebd., S. 484.
394
4.3 Können Maschinen ein Bewusstsein entwickeln?
Die sprachliche Verwendung des Bewusstseinsbegriffs ist jedoch darauf nicht reduzierbar. Als Gegenbegriff zum „Unbewussten“ bezeichnet er eine Aufmerksamkeit von Wahrnehmung oder Reflexion, während sich eine solche bewusste Wahrnehmung nicht auf alle Ebenen und Elemente der menschlichen Wahrnehmung erstreckt. Ich bin mir meiner Verdauungsprozesse nicht immer bewusst. Ich kann aber darauf achten und wenn ich Verdauungsbeschwerden habe, rücken mir diese Prozesse, die mir sonst weniger bewusst sind, wieder ins Bewusstsein. In einem solchen Sinn bezeichnet der Begriff des Bewusstseins eine Abgrenzung zu Ereignissen und Phänomenen, deren Sich-Ereignen sich meiner Aufmerksamkeit entzieht. Die Grenzen zwischen Bewusstem und Unbewusstem sind graduell und nicht hermetisch gegeneinander abgegrenzt und die Begriffe bilden daher keine dualistischen Gegensätze. Im Kontext der philosophischen Debatte zwischen Kurzweil und Searle hat der Begriff des Bewusstseins jedoch eine andere Bedeutung. Es handelt sich hierbei um ein sprachliches Ringen um die Grenzen des Objektivierbaren. Uns ist mit keiner wie auch immer gearteten Messung oder Beschreibung die Ebene der subjektiven Erfahrung zugänglich. Thomas Nagel konkretisierte diese Grenzziehung wissenschaftlicher Aussagbarkeit in seinem Essay: „Wie fühlt es sich an, eine Fledermaus zu sein?“79 Wir können, wie viele Messungen wir auch immer anstellen mögen, niemals nachempfinden, wie es sich anfühlt, eine Fledermaus zu sein. Diese Grenze betrifft nicht nur Fledermäuse, sondern auch andere Menschen, Säugetiere, Insekten, Sonnenblumen. Von all diesen Lebewesen nehmen wir an, dass sie in irgendeiner Weise ihre Umwelt wahrnehmen. Empfinden alle Lebewesen etwas? Wir wissen, dass wir selbst Schmerz empfinden können und uns fällt daher nicht schwer, davon auszugehen, dass auch andere Menschen Schmerz empfinden können. Wie „empfindet“ eine Biene oder eine Sonnenblume die Welt? Auch Pflanzen nehmen Informationen aus ihrer Umgebung wahr und passen ihr Verhalten sinnvoll daran an. Samen keimen erst ab einer gewissen Temperatur, Pflanzen richten sich nach dem Licht aus und gehen schneller in Blüte, wenn die Wachstumsverhältnisse problematisch sind. Man kann dieses Verhalten auch als intelligent bezeichnen. Doch wieviel „empfindet“ eine Pflanze dabei? „Empfindet“ ein Baum Schmerz, wenn sein Ast abgesägt wird? In seinem Verhalten lässt sich durch das Verharzen der Wunde eine Reaktion auf den invasiven Eingriff beobachten. Ob es angemessen ist, von einem „Bewusstsein“ von Pflanzen zu sprechen, ist jedoch fraglich. Einer Kuh gestehen wir wohl eher zu, dass sie in einem volleren Sinn „Bewusstsein“ hat, ihre Welt wahrnimmt, ihren Leib empfindet. Nagel diskutiert nicht die Frage, ob Fledermäuse ein „Bewusstsein“ haben, das gleichzusetzen wäre mit dem Bewusstsein eines Menschen. Nagel knüpft in seiner Position an unsere intuitive Auffassung von der Natur an: Wir gehen davon aus, dass auch andere Menschen und Nagel: Wie fühlt es sich an, eine Fledermaus zu sein?, a. a. O.
79
395
4 Exkurse
Lebewesen in irgendeiner Weise Empfindungen haben, ihren eigenen Körper und ihre Umgebung wahrnehmen können. Und dennoch ist diese Ebene subjektiver Empfindungen kein Gegenstand wissenschaftlicher Objektivierung. Wir können, egal wieviel wir wissenschaftlich über Fledermäuse herausfinden können, niemals genau nachempfinden, wie es sich anfühlt, selbst eine Fledermaus zu sein. Die Diskussion dreht sich also nicht darum, ob es möglich ist, „Bewusstsein“ als Kompetenz des Geistes zu explizieren, etwa als Selbstrepräsentation in der Welt oder als Reflexion auf das eigene Handeln. Vielmehr dreht sich die Diskussion um den Begriff des Bewusstseins, um die prinzipielle Unmöglichkeit, die Ebene subjektiver Wahrnehmung ganz in eine Sprache von Objektivität zu überführen. Diese Aspekte können auch für die Diskussion zwischen Searle und Kurzweil, ob Menschen, Maschinen oder Schnecken Bewusstsein haben, rekonstruiert werden. Auch Kurzweil reflektiert auf die Unterscheidung zwischen Subjektivität und Objektivität: „Bestimmte Korrelationen subjektiver Erfahrungen können wir messen (beispielsweise objektiv feststellbare neuronale Aktivität zum Zeitpunkt einer objektiv feststellbaren Vermeldung der subjektiven Wahrnehmung eines Tons). Doch subjektive Erfahrungen an sich können wir nicht durch Messungen erschließen. Wie schon in Kapitel 1 erwähnt, haben wir es dabei zu tun mit einer Diskrepanz zwischen ‚objektiver‘ Erfahrung in der dritten Person, welche die Grundlage von Wissenschaft ist, und ‚subjektiver‘ Erfahrung in der ersten Person, welche synonym mit Bewusstsein ist.“80 Kurzweil bezieht mit diesen Ausführungen eine Stellungnahme, welchen Geltungsanspruch die Frage nach dem Bewusstsein hat. Indem er Bewusstsein gleichsetzt mit der Subjektivität der 1.-Person-Perspektive, entkoppelt er sie von einer wissenschaftlichen Untersuchbarkeit überhaupt. Damit wird Searles Einwand, dass Bewusstsein sich nur in biologischen Prozessen entwickeln könnte, für Kurzweil unhaltbar, weil auch in der biologischen Forschungspraxis empirische Methoden verwendet werden. Kurzweil umgeht damit aber auch eine Frage nach den leiblichen Bedingungen des Bewusstseins. Indem er die Inkommensurabilität von Subjektivität und Objektivität untermauert, entzieht er die Diskussion über die „Bewusstseinsfrage“ jedem objektivierenden Zugang. Strenggenommen müsste Kurzweil sich dann aber darüber enthalten, ob Maschinen ein Bewusstsein entwickeln können oder nicht, denn er führt ja an, dass dazu keine Kriterien entwickelt werden können. Kurzweil unterstellt mit seiner szientischen Grundausrichtung, dass nur empirisch nachweisbare und mathematisch-formal modellierbare Entitäten Anspruch auf objektive Gültigkeit und damit auf Wirklichkeit haben. Bewusstsein geht jedoch nicht in einem messbaren, objektivierbaren, empirischen, quantifizierbaren Begriff auf. 80
Kurzweil: Menschheit 2.0, S. 390.
396
4.3 Können Maschinen ein Bewusstsein entwickeln?
Für Kurzweil wird die Bewusstseinsfrage damit zur einer Frage nach einer Privatmeinung. Weil sie sich durch keine quantitative Messung beantworten lässt, kann sie prinzipiell nicht beantwortet werden. Kurzweil nimmt ihr gegenüber daher formell eine agnostische Haltung ein – wir wissen nicht, wer oder was Bewusstsein haben kann. Kurzweil bleibt seinem Bewusstseinsbegriff als Einsicht in prinzipielle Nichtobjektivierbarkeit des subjektiven Erlebens aber nicht treu, wenn er schreibt: „Bewusstsein – der Sitz der ‚Personalität‘“.81 Damit vergegenständlicht er den Begriff des Bewusstseins, den er zunächst als Grenze der wissenschaftlichen Objektivierbarkeit entwickelt hatte. Indem Kurzweil die Frage nach dem Bewusstsein gleichsetzt mit der Unterscheidung von 3.-Person-Perspektive und 1.-Person-Perspektive, formuliert er eine Einsicht in prinzipielle Grenzen der menschlichen Erkenntnis, die zunächst nichts mit dem Untersuchungsgegenstand zu tun haben muss. Wir können unsere eigene Perspektive nicht aufgeben. Wir können auch nicht nachvollziehen, wie es ist, ein Staubkorn zu sein. Er entkoppelt damit die Bewusstseinsfrage von der prinzipiellen Möglichkeit, diese im Rahmen einer empirischen Wissenschaftspraxis überhaupt zu diskutieren. Die damit formulierte Einsicht in prinzipielle Grenzen der menschlichen Erkenntnis steht aber einem ansonsten sehr optimistischen Szientismus bei Kurzweil gegenüber, der in allen anderen Fragen grundsätzlich davon ausgeht, dass die gesamte Wirklichkeit vermessen, objektiviert, formalisiert, modelliert und nachgebildet werden kann. Kurzweil verweigert sich in seiner eigenen wissenschaftstheoretischen Praxis einer solchen prinzipiellen Erkenntnisgrenze, die er nun aber aufgreift, um sich einer argumentativen Auseinandersetzung mit Searle zu entziehen. Er verwendet den Begriff des Bewusstseins mehrdeutig, um damit die Qualität der personalen Individualität zu beschreiben, bezieht sich aber in der Zurückweisung der Argumentation von Searle auf nur eine Ebene der Begriffsbedeutung, nämlich die der Vernunftkritik als Inkommensurabilität von Subjektivität und Objektivität. In Searles Einwand steckt dennoch ein berechtigter argumentativer Kern. Wir können versuchen, diesen Kern freizulegen, indem wir die von Nagel formulierte Fragestellung für den Kontext der KI-Forschung übertragen und fragen: „Wie fühlt es sich an, ein Computer zu sein?“ Auch wenn „Bewusstsein“ nicht vollständig objektivierbar ist, so kann doch eine empirische Forschung auf die objektiv beschreibbaren Grundlagen des organischen Lebens rekurrieren, die sich in Lebewesen ereignen. Dabei kann zwar der Bewusstseinsbegriff selbst nicht quantifiziert werden, doch können in einer Beschreibung der materiellen Grundlagen des organischen Lebens und der sich darin ereignenden Prozesse durchaus Phänomene untersucht werden, die in Verbindung gebracht werden können mit dem, was sich für eine Ebene subjektiver Personalität als „Bewusstsein“ beschreiben lässt. 81
Ebd., S. 399f.
397
4 Exkurse
Unhintergehbar erweist sich dabei die Leiblichkeit des Menschen. Wir sprechen von Bewusstsein, weil wir wahrnehmen können, weil wir empfinden, weil wir denken. All dies widerfährt uns im Leib, als Leib. Alle Wahrnehmungen, Empfindungen, Gedanken entwickeln wir aus einer leiblichen Perspektive heraus. Unser Leib ist dabei die Perspektive subjektiver Wahrnehmung, aus welcher wir erst die Welt wahrnehmen, er gehört aber gleichzeitig als Körper zur objektivierbaren Welt. Wir können zu unserem Leib also eine objektivierende Perspektive einnehmen, obwohl er als Perspektive der subjektiven Wahrnehmung diese erst ermöglicht. Unsere leibliche Subjektivität und damit das, was wir mit dem Begriff des Bewusstseins bezeichnen wollen, hat also zwei Ebenen: Einerseits ist unser Leib uns gegeben als die Art und Weise des Seins in der Welt, in der wir erst wahrnehmen, erkennen, empfinden und handeln können: Ich greife mit meiner Hand, fühle die Gegenstände, empfinde dabei vielleicht sogar Geborgenheit oder Ekel. Andererseits ist unser Leib uns gegeben als Körper, den wir untersuchen können. Ich kann meine Hand messen, beobachten, Teile abschneiden und unter dem Mikroskop untersuchen. Obwohl beide Perspektiven, die 1.-Person-Perspektive und die 3.-Person-Perspektive, gleichermaßen legitime Beschreibungen der Wirklichkeit sind, können sie nicht in die jeweils andere Ebene überführt werden. Ich kann eine Messung nicht in ein bewusstes Erleben übersetzen, auch wenn ich das Messen selbst als etwas erlebe. Wer keine Finger mehr hat, kann das Gefühl, etwas zu greifen, nicht mehr wiedergewinnen, auch wenn er alles verfügbare Wissen über die Anatomie des Fingers in Erfahrung bringen kann. Und ich kann auch kein bewusstes Erleben in eine Messung übersetzen. Selbstverständlich kann ich Daten erfassen: von meinem Finger, von den biochemischen Prozessen darin und auch von Signalen in meinem Gehirn, die mit einer Aktivierung der Fingermuskulatur korrelieren. Doch diese Daten sind nicht das Erleben des Fingers. Was kann also in einer 3.-Person-Perspektive über das Bewusstsein gesagt werden? Auch wenn das phänomenale Erleben selbst sich einer Objektivierung entzieht und daher nicht Gegenstand der biologischen Forschung sein kann, können doch in einer Sprache der empirischen Wissenschaftlichkeit Prozesse beschrieben werden, die offenbar damit korrelieren, dass eine Ebene der 1.-Person-Perspektive plausibel angenommen werden kann. Für welche Entitäten lässt sich Nagels Fragestellung übertragen? „Wie fühlt es sich an, meine Frau zu sein?“ „Wie fühlt es sich an, ein alter Mensch zu sein?“ „Wie fühlt es sich an, ein Neugeborener zu sein?“ „Wie fühlt es sich an, ein Affe zu sein? „Wie fühlt es sich an, eine Fledermaus zu sein?“
398
4.3 Können Maschinen ein Bewusstsein entwickeln? „Wie fühlt es sich an, eine Schnecke zu sein?“ „Wie fühlt es sich an, ein Virus zu sein?“ „Wie fühlt es sich an, ein Atom zu sein?“ „Wie fühlt es sich an, ein Stein zu sein?“ „Wie fühlt es sich an, ein Sonnensystem zu sein?“ „Wie fühlt es sich an, eine Glühbirne zu sein? „Wie fühlt es sich an, eine Fabrik zu sein?“ „Wie fühlt es sich an, ein Computer zu sein?“
In der Aufstellung dieser Fragen zeigt sich, dass für eine Diskussion des Bewusstseinsbegriff ein Entweder – Oder problematisch ist, wie es in der Philosophie des Geistes seit Descartes gehandhabt wird. Descartes ging selbstverständlich davon aus, dass Tiere kein Bewusstsein haben und bloße Maschinen sind.82 Welche Kriterien können wir entwickeln, um über eine Zuschreibung von Bewusstsein überhaupt sinnvoll sprechen zu können? Für uns selbst ist die Ebene von Bewusstsein als subjektive Phänomenalität so evident, dass wir sie nicht leugnen können. Da man keine Menschen trifft, die behaupten würden, sie hätten kein Bewusstsein, gehen wir davon aus, dass es auch auf andere Menschen zutrifft. Überlegungen, ob ein Stein oder ein Sonnensystem ein Bewusstsein entwickeln können, erscheinen angesichts der Ausgangsdiskussion unangebracht, dass der Bewusstseinsbegriff helfen soll, um die Diskrepanz zwischen subjektiver Wahrnehmung und wissenschaftlicher Objektivierung für eine argumentative Diskussion freizulegen. Meine Wahrnehmung der Farbe Rot geht in einer Messung von Gehirnaktivität beim Betrachten der Farbe Rot nicht auf, sondern ist qualitativ etwas anderes. Können wir diese Argumentation auf einen Stein anwenden? Uns fehlt dazu offenbar ein Anlass, dass ein Stein etwas wahrnehmen oder empfinden könnte – ein Stein verhält sich nicht gegenüber irgendeinem Erkenntnisobjekt. Für eine Diskussion der Frage, ob ein Stein Bewusstsein hat, fehlt daher jeder Anhaltspunkt. Kann ich diese Argumentation auf meine Ehefrau anwenden? Ja, denn ich habe aus all ihrem Verhalten und ihrer Interaktion mit mir Anlass, davon auszugehen, dass sie selbst aus einer Perspektive subjektiv-lebensweltlicher Leibphänomenalität die Welt wahrnimmt und mit ihr umgeht. Diese Argumentation kann auch auf andere Menschen und auch auf Lebewesen übertragen werden, die Wahrnehmungen und Empfindungen haben. 82
Vgl. dazu ausführlicher Kap. 2.4.2 dieser Arbeit.
399
4 Exkurse
Dabei können zwei Kriterien in Ansatz gebracht werden: zum Einen beobachtbares Verhalten, zum Anderen die Ähnlichkeit der Strukturen und Prozesse, die offenbar mit dem korrelieren, was mit Bewusstsein zusammenhängt. Eine Messbarkeit als objektive Kausalbeschreibung nach den Prinzipien der empirischen Wissenschaftlichkeit ist hingegen für die Ebene der subjektiven Wahrnehmung nicht möglich. Die Einsicht, dass mit dem Bewusstseinsbegriff eine Grenze von wissenschaftlicher Erkenntnis bezeichnet wird, kann jedoch nicht im Umkehrschluss dafür genutzt werden, für alle Ebenen, in denen die Erkenntnis des Menschen sich als begrenzt erweist, den Begriff des Bewusstseins anzusetzen. Der philosophische Begriff, der dieses Bewusstsein um Grenzen des Erkennbaren zum Ausdruck bringen will, ist stattdessen der Begriff der Transzendenz. Sprache ist transzendent, weil sie über sich selbst hinausweist. Sprache hat aber kein Bewusstsein. Wir können nicht von einer Grenze von Erkenntnis beliebig auf Bewusstsein schließen. Wir können auch nicht von Grenzen der Berechenbarkeit auf Bewusstsein schließen. Auch ein Stein ist eingebettet in Prozesse, die auf quantenmechanischer Ebene indeterministisch verlaufen. Deshalb gehen wir dennoch nicht davon aus, dass ein Stein Bewusstsein hat. Physikalischer Indeterminismus ist keine hinreichende Bedingung für Bewusstsein, Geist oder Freiheit. Der physikalische Indeterminismus ist lediglich eine Widerlegung des kausal geschlossenen physikalischen Determinismus, in dem keine Freiheit Raum hatte. Die Einsicht in die Grenzen eines deterministischen Weltbildes ermöglicht überhaupt erst eine sinnvolle Rede über Freiheit, Geist, Bewusstsein. Dennoch kann aus der Einsicht in diese Grenzen nicht Beliebiges geschlossen werden. Ist es nun angemessen, davon zu sprechen, dass Computer ein Bewusstsein entwickeln können? Schließlich ist es uns ja auch unmöglich einzusehen, wie sich die Innenperspektive eines Computers anfühlt. Robotische Systeme können mithilfe von Sensoren Reize ihrer Umgebung wahrnehmen und anhand von algorithmischen Strukturen darauf sinnvoll reagieren. Doch hat das robotische System eine „Wahrnehmung“ der Außenwelt? Die Frage nach dem Bewusstsein konkretisiert sich oft darin, „wie es sich anfühlt“, ein gewisser Jemand oder ein gewisses Etwas zu sein. Das „sich-Anfühlen“ verweist auf die Frage nach der Möglichkeit der Empfindungsfähigkeit. Wir wollen also zunächst die Frage betrachten: Können Computer Empfindungen haben? Für Kurzweil ist Emotionalität „rätselhaft“.83 Da er den Menschen von einer Computermetapher her deutet, geht er über die Ebene des emotionalen Erlebens nonchalant hinweg, indem er z. B. hervorhebt, dass „Spindelneuronen keine rationale Problemlösung betreiben, 83
Menschheit 2.0, a. a. O., S. 195.
400
4.3 Können Maschinen ein Bewusstsein entwickeln?
weshalb wir auch nicht rational steuern können, wie wir Musik erleben oder wann wir uns verlieben.“84 Nida-Rümelin und Weidenfeld beziehen sich in ihrem Buch Digitaler Humanismus85 auf den Film Ex Machina, um Möglichkeiten der Simulation von Gefühlen durch eine künstliche Intelligenz zu skizzieren.86 In dem Film erfolgt die Interpretation und Reproduktion von Mimik auf der Grundlage einer enormen Datenauswertung von menschlichen Stimmen und Gesichtern.87 Dem Anspruch einer erfolgreichen Simulierbarkeit von Emotionalität im Sinne einer Zuschreibbarkeit von außen, als „Imitationsspiel“ würde ein solcher technischer Ansatz genügen, wenn es damit gelingen würde, einen menschlichen Beobachter zu überzeugen. Jedoch ergibt sich daraus noch kein Anlass, auf Empfindsamkeit zu schließen. Die erfolgreiche Reproduktion von Gesichtsausdrücken, deren beobachtbare Mimik als emotionale Ausdrücke interpretiert würde, wäre technisch durch eine Verarbeitung statistischer Vergleichsdaten erreicht worden. Ein Mensch entwickelt jedoch seine Emotionalität nicht durch die Auswertung von großen Mengen an Vergleichsdaten. Stattdessen entfaltet sich das emotionale Leben des Menschen in seinem leiblichen Sein. Aus der Perspektive einer biologischen Psychologie lassen sich damit korrelierende Prozesse in der Sprache einer empirischen Wissenschaftlichkeit als stoffliche, biochemische Prozesse beschreiben. Neuronale Netzwerke wiederum benötigen keine biochemischen, stofflichen Austauschprozesse, wie sie in organischen Lebewesen beschreibbar sind. Der Begriff des Bewusstseins bezeichnet also einerseits eine Ebene philosophischer Vernunftkritik und weist auf eine Inkommensurabilität zwischen Subjektivität und Objektivität, insbesondere in der empirisch-wissenschaftlichen Beschreibung der subjektiv-lebensweltlichen Perspektive des Menschen, aus welcher dieser die Welt wahrnimmt und erlebt. Des Weiteren rekurriert der Begriff des Bewusstseins auf eine Ebene der Empfindsamkeit, der Rationalität und Personalität des Menschen. Er ist daher ein holistischer Begriff, der mehrere Bedeutungsebenen in sich vereinen soll. Jeder Versuch, den Begriff soweit in Einzelteile zu zerlegen, dass diese Vielschichtigkeit handhabbar oder sogar mathematisch modellierbar gemacht werden könnte, muss daher fehlschlagen. Die Bedeutungsdimension des Bewusstseinsbegriff, die auf die Inkommensurabilität von Subjektivität und Objektivität zielt, kann empirisch gar nicht beantwortet werden, sondern gehört in den Bereich philosophischer Vernunftkritik und Erkenntnistheorie. Diese
Ebd. Nida-Rümelin, Julian und Weidenfeld, Nathalie: Digitaler Humanismus, München 2018. 86 Regie: Alex Garland, UK 2015, zit. nach Nida-Rümelin und Weidenfeld: Digitaler Humanismus, a. a. O., S. 37. 87 Digitaler Humanismus, a. a. O., S. 33f. 84 85
401
4 Exkurse
Grenzziehung betrifft jedoch alle Objekte der Welt, nicht nur Menschen. Auch die Frage „Wie fühlt es sich an, ein Stein zu sein?“ kann nicht durch eine menschliche oder wissenschaftliche Perspektive beantwortet werden. Eine andere Bedeutungsdimension des Bewusstseinsbegriffs, die auf die Möglichkeit von Empfindungsfähigkeit und Wahrnehmungsfähigkeit zielt, kann hingegen durchaus zum Gegenstand der empirischen Forschung werden. In der Beantwortung dieser Frage können durchaus in abgestufter Form ausgehend von objektiven Erkenntnissen über die Welt auch Aussagen darüber getroffen werden, inwieweit plausibel darüber gesprochen werden kann, dass Wesen ihre Umgebung und sich selbst wahrnehmen und Empfindungen haben können. In unterschiedlichen Ebenen können diese Aussagen spezifiziert und in ihrer jeweils eigenen Logik erschlossen werden. In der Sprache einer empirischen Wissenschaftlichkeit können beispielsweise biologische Prozesse beschrieben werden, die in einer objektiven Ebene dem entsprechen, was in einer subjektiven Ebene der jeweilige Organismus empfindet. Während eine Kuh Schmerz empfindet, passieren viele Dinge in diesem Organismus, die Gegenstand empirischer Untersuchungen werden können. Wahrnehmungen und Empfindungen bilden für diesen Organismus eine jeweils eigene Totalität, die als Wahrnehmungsperspektive für diese Organismen ein „Ich“, ein „Bewusstsein“ darstellt. Dieses Bewusstsein ist keine Eigenschaft, die ein Organismus entweder hat oder nicht hat. Stattdessen ermöglicht die jeweils einzigartige Konstitution jedes Organismus eine wiederum einzigartige Form der Wahrnehmung der jeweiligen Umwelt. Das „Weltbild“ eines Virus ist sicherlich anders geartet als das Weltbild eines Menschen und es ist fraglich, ob der Bewusstseinsbegriff wirklich dafür geeignet ist, die subjektive Perspektive eines Virus zu beschreiben. Es gibt jedoch keine Grenze, ab welcher man sagen könnte, dass die Eigenschaft „Bewusstsein“ ab diesem Punkt vollständig „da“ wäre, vorher aber nicht. Der Bewusstseinsbegriff rekurriert auf das „Innenleben“, die „Innenperspektive“ eines Menschen, aus welcher dieser die Welt wahrnimmt. Der Bewusstseinsbegriff impliziert die Ebenen der Wahrnehmung, des Denkens und der Empfindung und zielt auf das personale Wesen des Menschen. Als Begriff weist er dabei nicht auf jeweils nur einzelne Aspekte, sondern auf die holistische Totalität der 1.-Person-Perspektive eines Menschen. Ich kann aus meinem Ich nicht einfach die Emotionalität herauslösen, um sie vollständig isoliert von den anderen Aspekten zu untersuchen; ebensowenig meine Rationalität, mein fragendes Denken, meine Leiblichkeit, meine Wahrnehmung. Als Perspektive, die ich auf die Welt habe, bildet sie ein irreduzibles Ganzes. Empirisch-wissenschaftliche Praxis zielt jedoch auf die Möglichkeit, isolierte Einzelaspekte zu untersuchen. Auch die künstliche Intelligenz arbeitet mit „Bausteinen“, nicht mit holistischen Systemen. Selbstverständlich besteht jedes holistische System aus Bausteinen – nicht jedes System kann jedoch anhand der zerlegbaren Bausteine rekonstruiert werden. 402
4.3 Können Maschinen ein Bewusstsein entwickeln?
Kann ich mir mein Bewusstsein vorstellen, wie es ohne Emotionalität wäre? Oder, wie es ohne Rationalität wäre? Oder ohne Leib? Oder ohne Wahrnehmung? Ist Bewusstsein, wie Searle schreibt, ein „biologischer Prozess“? Wenn der Bewusstseinsbegriff darauf zielt, die Grenzen der wissenschaftlichen Objektivierbarkeit subjektiven Erlebens aufzuzeigen, dann verweist der semantische Gehalt des Wortes nicht auf die Forschungsmethodik der Biologie. Doch kann Searles Einwand rekonstruiert werden als Einsicht in die leiblichen Grundlagen für bewusste Wahrnehmungs-, Empfindungs- und Erkenntnisprozesse des Menschen. Damit werden auch argumentative Ansätze aufgeschlossen, mit denen die Position begründet werden kann, dass der Bewusstseinsbegriff für Maschinen und Computer unangemessen ist, während eine Übertragung auf andere Lebewesen vielleicht weniger unangemessen erscheint. Gerade weil alle menschlichen Wahrnehmungen, Empfindungen und Erkenntnisprozesse unter dem Primat der Leibperspektive stehen, kann Bewusstsein nicht losgelöst von diesen Aspekten vergegenständlicht werden. Inwieweit kann nun der Begriff des Bewusstseins überhaupt sinnvoll verwendet werden? Wir fassen zusammen: Der Bewusstseinsbegriff bezeichnet die Perspektive einer ersten Person. Diese Perspektive ist grundsätzlich nicht zugänglich für objektive Zugänge, sondern gewissermaßen privativ. Die Ebene der subjektiv-lebensweltlichen Erfahrung ist durch keine andere Perspektive zugänglich. Der Bewusstseinsbegriff weist auf eine Ebene der irreduziblen Totalität menschlicher Personalität. Für die Beschreibung dieser Personalität können verschiedene sprachliche Zugänge gefunden werden, doch geht in keiner dieser Beschreibungen diese Personalität vollständig auf. Ebensowenig lässt sich die Totalität fragmentieren, zerlegen und wieder zusammensetzen. Stattdessen erweisen sich die verschiedenen Ebenen des personalen Seins als unauflöslich miteinander verwoben. Der Bewusstseinsbegriff rekurriert auf die Möglichkeit, den eigenen Leib und die Umgebung wahrzunehmen und zu empfinden, zu erleben, zu erfahren. Der Bewusstseinsbegriff ist außerdem traditionell konnotiert mit der Möglichkeit zum Denken, zur Reflexion.88 Inwieweit lässt sich also der Begriff des Bewusstseins plausibel auf andere Wesen übertragen? Die subjektive Perspektive einer anderen Person bleibt mir zwar immer unzugänglich. Doch in sprachlichen Diskursen kann sich der Mensch artikulieren, um anderen Menschen Anteil zu geben an der Art und Weise, wie er die Welt erlebt und das „Private“, die eigene Empfindung und Wahrnehmung offenbaren, in sprachlichen Akten freizulegen, sodass der Andere, 88
Vgl. z. B. Pascal: Pensées, in: Geist und Herz, a. a. O., S. 168f.
403
4 Exkurse
geprägt durch seine eigene Selbsterfahrung ansatzweise nachvollziehen kann, wovon die Person spricht. Ohne die subjektive Erfahrung bleibt jedoch auch das Verständnis des Anderen sehr bruchstückhaft. Wer nie verliebt war, versteht doch den genuinen Schmerz des Liebeskummers kaum. Wesen, die sich sprachlich nicht offenbaren können, wie z. B. Tiere, bleiben uns in der Art und Weise, wie sie die Welt wahrnehmen, wesentlich stärker verschlossen und unzugänglich. Ich kann daher nie nachfühlen, wie sich die Welt als Fledermaus anfühlt. Ich kann zwar auch nicht nachfühlen, wie sich die Welt aus der Perspektive meiner Frau anfühlt – durch die Gespräche mit ihr verfeinert sich aber meine Ahnung für diese Perspektive, weil sie mir immer wieder erklären kann, was welche Ereignisse in ihr auslösen. Dadurch lerne ich sie immer besser kennen, meine Empathie kann sich vertiefen, auch wenn ich sie nie ganz und gar verstehen kann. Aber das kann ich selbst nicht in Bezug auf die Vielschichtigkeit meiner eigenen Personalität. Tiere hingegen können sich nicht in einer menschlichen Sprache artikulieren und wir sind in unserem Bild, das wir uns von ihrer je eigenen Perspektive auf die Welt machen, stark angewiesen auf unsere Phantasie und auf empirische Möglichkeiten, tierische Organismen zu untersuchen. Wo sich in empirischen Untersuchungen Parallelen zeigen zwischen der Empfindungsfähigkeit und Weltwahrnehmung von Mensch und Tier, lässt sich die Annahme rechtfertigen, dass in gewisser Weise auch eine Ähnlichkeit besteht, vielleicht nicht wie die Welt bewusst erlebt wird, aber zumindest dass die Welt erlebt wird. Doch nicht nur in empirischen Untersuchungen, sondern auch in unserer lebensweltlichen Praxis gründet unsere Zuschreibung von Bewusstsein bei anderen Menschen sowie bei Säugetieren. Wenn Haustiere in ihrem Sozialverhalten Parallelen zu menschlichem Sozialverhalten aufweisen, dann fühlen wir uns ihnen stärker verbunden als einem Fadenwurm, zu dem wir keinen lebensweltlichen Bezug haben. Das Erleben der leiblichen Perspektive eines Säugetiers ist dabei vermutlich dem Bewusstsein des Menschen ähnlicher als das Erleben einer Schnecke. Auch einer Schnecke, die den Salat in meinem Garten verzehrt, kann ich vielleicht eine Art von „Genuss“ zuschreiben. Ich gehe dennoch davon aus, dass sich dieser „Genuss“ vermutlich doch anders anfühlt als mein eigener. Ob der Genuss schwächer oder vielleicht sogar intensiver ist – weil vielleicht eine Schnecke weniger vielschichtig ist als der Mensch und dadurch sozusagen das „ganze Bewusstsein“ der Schnecke sich an dem Salat ergötzen kann, bleibt spekulativ. Begriffe des personalen Lebens können nicht beliebig in andere Kontexte übertragen werden. Wenn ich davon spreche, dass mein Auto die Welt bewusst erfährt, dann erscheint das absurd, selbst wenn in dem Auto Sensoren eingebaut sind, die Außeneindrücke wahrnehmen (z. B. die Lichtverhältnisse, um automatisch die Beleuchtung zu regeln). Wenn man einem Auto Bewusstsein zuschreibt, dann ist mir nicht einsichtig, worin diese Zuschreibung gründet. 404
4.3 Können Maschinen ein Bewusstsein entwickeln?
Eine „Input“-Ebene allein genügt nicht: Sonst hat letztlich auch mein Lichtschalter bereits ein Bewusstsein oder mein Fahrrad. Begriffe des personalen Lebens sind in unterschiedlicher Weise übertragbar auf andere Kontexte. Einem Säugetier schreibe ich zu, dass es die Erfahrung des sexuellen Begehrens kennt. Bezüglich der Erfahrung einer romantischen Liebe bin ich mir weniger sicher; doch lässt sich beispielsweise im Bindungsverhalten von Schwänen eine Intensität beobachten, die sogar eine solche Zuschreibung zumindest metaphorisch plausibel werden lässt. Indem der Bewusstseinsbegriff traditionell auch mit der Fähigkeit zu denken in Zusammenhang gebracht wird, erschwert sich eine Übertragung des Begriffs auf Schnecken. Doch letztlich hat auch eine Schnecke vermutlich eine irreduzible „Totalität“ der eigenen Weltwahrnehmung. Auch Maschinen können als „Totalität“ aufgefasst werden. Doch inwieweit ist eine Analogie gerechtfertigt zwischen der Informationsverarbeitung in einer Maschine und der Weltwahrnehmung eines lebendigen Organismus? In einer empirisch-wissenschaftlichen Deutungsperspektive des organischen Lebens lässt sich Emotionalität, das Erleben von Gefühlen, beschreiben als Prozesse von biochemischen Austausch- und Botenstoffen. Ansätze der KI-Forschung zur Simulation von emotionaler Intelligenz und auch transhumanistische Konzeptionen beanspruchen nicht, diese Prozesse nachbilden zu können, sondern lediglich, diese in abstrakter, formaler, funktionaler Form zu modellieren: „Dank selbstorganisierender Technik brauchen wir nicht jede einzelne Neuronenbindung nachzubauen. Jedes Gehirnareal enthält eine ordentliche Portion Redundanz. Wie sich zeigt, sind Gehirnmodelle höherer Ebenen oft einfacher als Modelle ihrer neuronalen Komponenten. […] Mithilfe der Informationen, die uns Gehirnscans und -modelle liefern, können wir Software entwickeln, die einer neuromorphen Simulation gleichkommt (also dem Gehirn funktional vollständig äquivalent ist).“89 Auch Catrin Misselhorn weist darauf hin, dass das KI-Forschungsgebiet zur Emotionalität von Maschinen, „Artificial Emotions“ nicht darauf abzielt, Gehirnprozesse oder Stoffwechselvorgänge in Organismen nachzubilden, mit denen emotionales Erleben korreliert.90 Stattdessen wird die funktionale Rolle von Emotionen für die Kognition zum Ziel der technischen Modellierung: „Der Anspruch ist in diesem Fall nicht, künstliche Systeme mit echten Emotionen zu schaffen, sondern die kognitiven und Verhaltensfunktionen umzusetzen, die Emotionen bei Menschen und Tieren erfüllen.“91 Kurzweil spricht in Bezug auf ein „Reverse Engineering des Gehirns“ auch nicht von einer vollständigen Rekonstruktion, sondern von einer „Modellierung“.92 „Der Sinn des Reverse Kurzweil: Menschheit 2.0, a. a. O., S. 147. Misselhorn: Maschinenethik, a. a. O., S. 42ff. 91 Ebd., S. 43. 92 Kurzweil: Menschheit 2.0, a. a. O., S. 169. 89
90
405
4 Exkurse
Engineering des Gehirns ist nicht, den Stoffwechsel oder andere sperrige Prozesse biologischer Neuronen zu kopieren, sondern die entscheidenden Prinzipien der Informationsverarbeitung zu verstehen.“93 „Wenn wir die Fortschritte in Neurobiologie, Scantechnik, Modellierung von Neuronen und Neuronenverbänden, neuroelektronischer Kommunikation, Neuroimplantation und ähnlichen Gebieten verfolgen, so sehen wir, dass sich die hervorragenden Funktionalitäten biologischer Informationsverarbeitung mit beliebiger Genauigkeit reproduzieren lassen. Mit anderen Worten, die Kopie kann ‚nah genug‘ an das Original herankommen, um jeden erdenklichen Zweck zu erfüllen – einschließlich des Turing-Tests.“94 Doch was geschieht, wenn wir einen emotionalen Zustand auf eine mathematisch modellierbare Funktion reduzieren und die „sperrigen“ Stoffwechselprozesse des Körpers, in denen emotionales Erleben seine empirisch beschreibbaren Korrelationen nachweisbar werden lässt, außen vor lassen? Vermutlich verliert man darin gerade die Empfindung, die Möglichkeit für einen Organismus, eine Emotion wirklich leiblich zu empfinden. Es ist nicht auszuschließen, dass in all dem, was die körperlichen, biochemischen Prozesse so „langsam“ und „ineffizient“ macht, sich gerade das ereignet, was für die Ebene phänomenaler Subjektivität sich als bewusstes Erleben erweist. Es ist nicht geklärt, wie mit einer Modellierung der funktionalen Bedeutung von Emotionalität auch das Erleben nachgebildet werden sollte. Nehmen wir ein Beispiel: Schmerz. Funktional lässt sich Schmerz leicht modellieren, als etwas, was vermieden werden soll. Die Herdplatte ist heiß; wenn man sie anfasst, erzeugt die Hitze eine Verbrennung, die furchtbar schmerzt. Weil man sich daran erinnert, dass es schmerzt, die Herdplatte anzufassen, wird man vorsichtiger und meidet die wiederholte Berührung. Die Verbrennung zerstört Gewebestrukturen, vielleicht sogar unwiederbringlich. Der Schmerz hat also eine einen funktionalen Sinn; Schmerz kann als Schutzfunktion für den Organismus gedeutet werden. Eine solche Schutzfunktion lässt sich ohne weiteres für eine künstliche Intelligenz, z. B. in einem Robotersystem, simulieren. In die robotischen Strukturen können Sensoren eingebaut werden, die z. B. die Hitze messen, die für das System gefährlich werden können. Bei einem festgelegten Schwellenwert an Temperatur kann im Programm festgeschrieben werden, entsprechende Konsequenzen für das Verhalten des Roboters einzuleiten – die Hand wird beispielsweise zurückgezogen. Ohne weiteres könnte auch leicht ein Schmerzensschrei eingebaut werden, der ausgestoßen wird, wenn es zu einem solchen Erreichen des Schwellenwertes kommt. In einem solchen Prozess geschieht jedoch nichts, woraus man schließen könnte, dass ein solches System tatsächlich Schmerz empfinden würde. In einer funktionalen Bestimmung geht Bewusstsein, subjektives Erleben, Emotionalität nicht auf. 93
Ebd., S. 459. Ebd., S. 458.
94
406
4.3 Können Maschinen ein Bewusstsein entwickeln?
Dies trifft für alle Emotionen zu. Ein Sexroboter kann so programmiert werden, dass er bei bestimmten Berührungen ein Stöhnen von sich gibt. Es gibt jedoch keinen Anhaltspunkt dafür, dass der Sexroboter tatsächlich so etwas wie sexuelle Erregung oder Lust empfinden könnte. Vom beobachtbaren Verhalten kann man nicht auf subjektives Erleben schlussfolgern. Auch beim Menschen kann man nicht von beobachtbarem Verhalten auf tatsächliches Erleben schließen. Auch Menschen können nur so tun, als ob sie Schmerz empfinden. Auch Menschen können sexuelle Lust nur vortäuschen. Aber Menschen kennen auch die genuine Empfindung. Selbst jedes „So-tun-als-ob“ ist bei Menschen von Empfindungen begleitet. In einer Beschreibung empirischer Wissenschaftlichkeit sind in einem organischen System verschiedene Prozesse notwendig, die das Erleben von Gefühlen ermöglichen. Hierzu gehören beispielsweise hormonelle Botenstoffe in der Blutbahn. Die Struktur dieser Austauschprozesse ist biochemisch konstituiert und erfolgt durch bestimmte Stoffe und Rezeptoren. Wahrnehmung und Emotionalität korrelieren mit biochemischen Prozessen, in denen u. a. hormonelle Botenstoffe eine wichtige Rolle spielen.95 Kurzweil bietet keine Erklärungsansätze, wie eine Auslassung dieser Prozesse durch eine bloß funktionale Modellierung dennoch gewährleisten soll, dass eine Perspektive von Empfindungsfähigkeit und Bewusstsein in nichtbiologischen Systemen entstehen soll. Solange KI-Prozesse nicht durch biochemische Stoffwechselprozesse realisiert werden sollen, sondern nur durch abstrakte formallogische Funktionen, korreliert eine solche funktionale Nachbildung von Emotionalität oder Wahrnehmung nicht auf eine Ebene von Leiblichkeit als Wahrnehmungsperspektive. Wie würde eine funktionale Modellierung von Sexualität aussehen? Sicherlich lassen sich verschiedene Funktionen herausarbeiten, die sexuelle Empfindungen für einen Organismus haben: Reproduktion von Nachkommenschaft, Stärkung von Bindung und Zugehörigkeit, Erleben von Anerkennung im Sinne von Selbstbestätigung, Selbstwirksamkeit und Selbstwert; vielleicht auch Rebellion, Loslösung vom Elternhaus, Kompensation, Stressbewältigung, Traumaverarbeitung, Flucht, Betäubung oder das Erleben von Sinn. Es sei dahingestellt, welche dieser Funktionen nun zum Gegenstand der funktionalen Modellierung als „artificial emotion“ für ein künstliches System werden soll. Doch wäre es befriedigend, wenn Sexualität nicht erlebt wird, sondern nur die Funktion simuliert wird, die sie erfüllen soll? Das Denken des Menschen gründet konstitutiv in seiner Leiblichkeit. Es ist nicht auszuschließen, dass vielleicht gerade durch diese unhintergehbare leibliche Einbettung, die Verwobenheit mit emotionalem, leiblichem Erleben und der sozial geprägten individuellen Herausbildung von personaler Intelligenz der Mensch sich als bewusst erfährt. Er erfährt alles, was Vgl. Schandry, Rainer: Biologische Psychologie, Basel 2016.
95
407
4 Exkurse
er erfährt, in seinem Leib, emotional, sinnlich, als vielschichtige Person. In dieses Erleben fügt sich auch seine Selbstwahrnehmung ein. Wenn diese Ebene der Wahrnehmung auf rationale Strukturen verkürzt wird, dann wird davon eben nur eine formallogische Struktur abstrahierend erfasst; nicht aber das, woraus die Perspektive von leiblich-personaler Wahrnehmung her sich erst hätte entwickeln können. Der Mensch ist leiblich konstituiert und all sein Denken vorbedingt durch leibliche Wahrnehmung. Der Mensch ist deshalb auch bewusst: Er erfährt die Welt, erst danach denkt er. Seine Intelligenz ist immer vorgeprägt von Wahrnehmungen. Künstliche Intelligenz muss nicht existieren, um zu funktionieren. Die logischen Strukturen und Algorithmen müssen nicht an Wahrnehmungen gebunden sein. Deshalb ist diese Form der Intelligenz auch nicht bewusst, denn ihre funktionale Struktur ist nicht abhängig von einer leiblichen Wahrnehmung und Empfindsamkeit, in welcher sich erst eine bewusste Intelligenz herausbilden kann. Jede funktionale Beschreibung muss von der Ebene des subjektiven Erlebens abstrahieren. Genau darum ist nicht davon auszugehen, dass eine funktionale Beschreibung auch die Ebene des subjektiven Erlebens transportieren könnte, sondern eben nur die abstrahierte Funktion. Es ist daher nicht davon auszugehen, dass die funktionalen Modellierungen von Emotionalität, Kognition und Bewusstsein in einer künstlichen Intelligenz auch eine Ebene des subjektiven Erlebens nachbilden könnten. Bewusstsein ist somit nicht funktional modellierbar und kann mit den gegenwärtig diskutierten Mitteln der KI-Forschung nicht rekonstruiert werden. Doch warum wird der Frage nach dem Bewusstsein überhaupt so eine große Bedeutung zugemessen, dass Kurzweil sie als „wichtigste ontologische Frage“ bezeichnet? Offenbar hängt mit der Frage danach, ob Maschinen ein Bewusstsein entwickeln können, auch die Frage zusammen, ob es nicht doch etwas gibt, was den Menschen von einer Maschine unterscheidet und was ihn zu Autonomie, Reflexion, Freiheit, Empfindungsfähigkeit befähigt. Der Begriff des Bewusstseins ist damit an die Stelle von den Begriffen „Seele“ und „Geist“ getreten. Anscheinend werden mit diesem Begriff zahlreiche weitere aufgeladene und geschichtsträchtige Begriffe und Reflexionstraditionen in Verbindung gebracht, die wir darin gern mit garantiert hätten: Personalität, Autonomie, Würde – all das hätten wir gern „im Preis inbegriffen“, durch Bewusstsein garantiert. Doch wie kommen wir dazu anzunehmen, dass wir durch eine Beantwortung der Bewusstseinsfrage auch gleichzeitig diese anderen Themen mit abgesichert hätten? Wenn wir einer Kuh Bewusstsein zugestehen, hält uns das davon ab, sie in einen Stall einzusperren und uns an ihrer Milch zu erfreuen? Die Tierrechtsbewegung folgt immerhin dieser Konsequenz. Vielleicht wäre jedoch auch ein Transfer des Bewusstseinsbegriff nicht nur für Säugetiere, sondern auch für Insekten und Pflanzen zu rechtfertigen, wenn vielleicht auch in einer weniger komplexen Form. Aus empirischen Erkenntnissen lassen sich jedoch nicht unmittelbare ethische 408
4.4 Kann eine Maschine denken?
Einsichten ableiten. Wir werden durch eine Klärung des Bewusstseinsbegriffs daher keine Antwort auf ethische Fragen erwarten dürfen. Wenn die Hypothese stimmt, dass der Bewusstseinsbegriff an die Stelle der theologisch begründeten Begriffe „Seele“ und „Geist“ getreten ist, ließe sich damit begründen, dass mit dem Begriff „Bewusstsein“ auch Autonomie, Würde und Personalität in Verbindung gebracht werden. Mit dem Wegfall theologisch begründeter Moralphilosophie entfällt auch ein kaum überschaubarer Raum damit verbundener tradierter Begründungsstrukturen, insbesondere im Bereich des Normativen. Wenn der säkulare Mensch sich nicht mit dem Nihilismus anfreunden möchte, dann muss er ethische Prinzipien anders begründen. Das ist sicherlich möglich. Aber es ist zweifelhaft, ob der Bewusstseinsbegriff dafür geeignet ist, um als Garantieschein für Würde und Autonomie zu gelten. Verbirgt sich darin nicht letztlich „das Verlangen, durchaus etwas fest haben zu wollen“96, ist dies nicht der Versuch, den Wert des Menschen irgendwie zu verdinglichen, handhabbar zu machen? Vielleicht verbirgt sich in der Überhöhung der Diskussion um den Bewusstseinsbegriff die alte Sehnsucht, doch etwas „Metaphysisches“ zu finden, woraus der Mensch seinen Selbstwert und seine Ethik ableiten kann. Wenn wir schon an keine gottgegebene Seele mehr glauben wollen, so doch wenigstens an ein emergentes Bewusstsein. Wir wollen uns damit absichern, etwas besonderes zu sein. Irgendwo ist es vielleicht ein narzisstisches Geltungsbedürfnis.
4.4 Kann eine Maschine denken? „Der Zufall ist zwar großzügig, aber er ist auch unzuverlässig.“ Demokrit97
Die Frage nach den Möglichkeiten und Grenzen künstlicher Intelligenz soll an dieser Stelle erneut aufgegriffen und zu beantworten versucht werden. Kann eine Maschine denken – analog zum Denken eines Menschen? Kann es eine „starke KI“ geben? Künstliche Intelligenz kann rechnen und Rechnen gehört in den Bereich menschlicher Intelligenz. Damit zielt der Begriff „künstliche Intelligenz“ nicht ins Leere. Doch inwieweit entspricht die Architektur von KI-Systemen dem, was das Denken des Menschen ausmacht? Die Logik ist der Versuch einer formalen Repräsentation dessen, was der Mensch in seinem Suchen nach Sinn, nach Systematisierung der Komplexität von Welt in einer mathematischen Nietzsche: Die fröhliche Wissenschaft, a. a. O., S. 212 (§347). Zit. nach Mansfeld und Primavesi: Die Vorsokratiker, a. a. O., S. 675.
96 97
409
4 Exkurse
Sprache wiedergeben kann. Dabei büßt er einen großen Teil dessen ein, was der formallogischen Repräsentation vorausgeht. Wahrheit ist im formallogischen Sinn Widerspruchsfreiheit; ihr Gegenteil ist der logische Widerspruch. Lebensweltliche Wahrheit läuft häufig gegen die Logik an. Innere Konflikte von Menschen offenbaren sich z. B. als Konflikte zwischen gesetzten Prinzipien und Wünschen; in Sätzen wie „eigentlich müsste ich ja glücklich sein“ offenbart sich die Fähigkeit des Menschen zum Vereinen von Paradoxien. Lebenspartner in einer Liebesbeziehung können einander gleichzeitig hassen und lieben, brauchen einander, gehen sich vielleicht dennoch aus dem Weg und halten es wiederum nicht allein aus. Immer wieder müssen Nähe und Distanz ausgelotet werden, Versöhnungen folgen Zerwürfnisse, Trennungen folgen Wiederauflebensversuche. Menschen können Angst vor dem Tod haben und sich dennoch für ihn entscheiden. Menschen können ihre Ziele erreichen und dadurch in existentielle Sinnkrisen geraten oder sie können durch Schicksalsschläge alles verlieren, was ihnen wertvoll schien und diesen Veränderungsprozess später als wichtigstes Erlebnis in ihrer Suche nach Sinn und auf dem Weg zu sich selbst beschreiben. Das Orakel von Delphi deutet darauf, dass der Mensch sich auch sich selbst gegenüber erst noch aufschließen muss: „Erkenne dich selbst.“98 Kierkegaard konkretisiert diese Einsicht: „In jedem Menschen ist etwas, was ihn bis zu einem gewissen Grade daran hindert, sich selbst völlig durchsichtig zu werden.“99 Wäre unser Handeln logisch und widerspruchsfrei, dann wäre die Suche nach uns selbst gar nicht notwendig. Gerade darin, dass der Mensch fähig ist, jedes logische System und jeden letzten Wert immer wieder zu hinterfragen, birgt er in seinem fragenden und hinterfragenden Denken auch eine besondere Stärke. Der Mensch kann fragend denken: Er kann immer nach dem fragen, was hinter den offensichtlichen Dingen liegt. Das können wissenschaftliche Zusammenhänge sein, das können Ebenen emotionalen Lebens sein, das kann eine Ebene von Transzendenz oder Religion sein, das kann die Frage nach dem Glück, nach Sinn, nach Ursprung und Ziel der menschlichen Geschichte oder der individuellen Existenz sein. Auf viele dieser Fragen findet der Mensch vielleicht nie eine befriedigende Antwort – doch bereits in seinem Fragen formt sich seine lebensweltliche Praxis, die durch diese vielschichtig offenen und unverfügbaren Sinndimensionen nie abschließbar voraussagbar wird. Künstlicher Intelligenz bleibt die Herausforderung der existentiellen Orientierungslosigkeit des Menschen ebenso erspart wie seine Eingrenzung in die Beschränkungen des biologischen Leibes. Doch die Reichweite ihrer Operationen und die Genauigkeit ihrer Ergebnisse kann das Suchen und Finden, das Fragen und Zuhören in seinen vielen Facetten, wie es für die menschliche Lebenspraxis wesentlich ist, niemals adäquat wiedergeben. Eine künstliche Intelligenz kann nur hinterfragen, wenn dieses Hinterfragen einer Berechnung folgt. Menschen 98
Giebel: Das Orakel von Delphi, a. a. O., S. 48. Kierkegaard: Entweder – Oder, a. a. O., S. 708.
99
410
4.4 Kann eine Maschine denken?
fragen und hinterfragen, bevor sie anfangen zu rechnen. Die Offenheit der menschlichen Welt gründet daher nicht in Kriterien der Berechenbarkeit. Künstliche Intelligenz kann nicht existentiell fragen, kann sich nicht dem zuwenden, was sich entzieht, ohne es bereits vorher auf eine berechenbare Größe zu reduzieren. Den Grenzen der Leiblichkeit ist künstliche Intelligenz ebensowenig verpflichtet wie ihren Bestimmungen und Möglichkeiten. Sinnlichkeit und Emotionalität durchziehen die Gesamtheit des Menschen, seine Rationalität inbegriffen, wesentlich. Entwürfe für Gottes- oder Antigottesbeweise gründen weniger in einer logischen Notwendigkeit ihrer Durchführung durch die Bedingungen der Logik selbst als in dem Bedürfnis nach Sicherheit gegenüber einer offenbar so gewichtigen Frage. Jede Philosophie, die sich auf eine formale Logik berufen will, weist bereits über die Grenzen der Logik hinaus. Wie will künstliche Intelligenz der Einsicht begegnen, dass alles, was für die Sinnorientierung des Menschen von Bedeutung ist, für einen formallogischen Weltzugang inkommensurabel ist? Künstliche Intelligenz kann nicht empfinden, hat keine leiblich-organische Entsprechung von Emotionalität. Wenn ein Sensor eines Roboters Schmerz simulieren soll, dann muss ein klar messbarer Input für den Sensor mathematisch in einen technischen Befehl überführt werden: z. B. um eine Wiederholung zu vermeiden. Doch das Wesen des Schmerzes gründet nicht nur in seiner Vermeidungsfunktion für den Menschen. Borderline, Masochismus, ekstatische Erfahrungen, Extremsport, Geburt – Schmerz ist für den Menschen nicht nur ein zu Vermeidendes, sondern ist als Vergewisserung über die eigene Existenz und Empfindungsfähigkeit auch Teil der menschlichen Selbsterfahrungsprozesse und damit ein unhintergehbares Element in der Entwicklung von Personalität. Viele emotionale Aspekte können zwar auch unter funktionalen Bestimmungen beschrieben werden, gehen aber in einer solchen Beschreibung niemals vollständig auf. Welche Funktion hat das Staunen? Oder die Resignation? Die Verzweiflung? Die Euphorie? Selbstverständlich kann in der Deutung verschiedener emotionaler Zustände jeweils auch eine Funktion zugeschrieben werden, welche diese Emotion beispielsweise in einem sozialen System ausfüllt. Doch geht eine Emotion nicht in ihrer funktionalen Deutung auf. Stattdessen sind auch die Möglichkeiten, emotionale Zustände funktional zu deuten, mehrdeutig und abhängig von Kontext und äußeren Zuschreibungen. Traurigkeit kann in bestimmten sozialen Kontexten Aufmerksamkeit und Zuwendung auslösen; die soziale Funktion wäre in diesem Fall, eine Einbindung in soziale Praxis, das Erleben von Fürsorge, Wertschätzung z. B. für das innere Kind. In anderen Kontexten kann die soziale Funktion von Traurigkeit wiederum als Abgrenzung zu einem sozialen System gedeutet werden. Emotionalität gehört vielleicht zu den Aspekten personalen Lebens, die sich am deutlichsten gegen eine vereinseitigende funktionale Deutung sperren. Funktionale Deutungsmöglichkeiten von Emotionalität sind schier unbegrenzt und so vielfältig wie die Möglichkeiten sozialer Kontexte vielfältig sind, in denen Menschen sozial interagieren. Wiederum birgt emotionales Erleben auch eine Dimension, die sich ganz der funktionalen Deutung entzieht: die Ebene des 411
4 Exkurse
emotionalen Erlebens als subjektive Empfindung. Eine solche kann zwecklos sein. Zu lernen, in der Empfindung selbst als Zwecklosigkeit der Selbsterfahrung verweilen zu können, kann eine Einsicht nach Prozessen von existentieller Sinnorientierung sein. Zwecklosigkeit widerspricht Funktionalität. Emotionalität ist formallogisch oder mathematisch nicht eindeutig bestimmbar; ihr Erleben und die Vielschichtigkeit des Gehalts emotionalen Lebens ist inkommensurabel für rationale, logische oder funktionale Deutungen. Künstliche Intelligenz kann rechnen – sie kann damit intelligent operieren. Sie kann aber nicht denken, analog zur Vielschichtigkeit und Offenheit des menschlichen Denkens in seiner existentiellen Rückgebundenheit an seine Leiblichkeit. Eine „schwache KI“, als IT-Architektur zur Problemlösung von Aufgaben, für die normalerweise menschliche Intelligenz benötigt wird, gibt es demnach. Eine „starke KI“, die als Technik dem Wesen des menschlichen Denkens in seiner anthropologischen Offenheit entspricht oder diesen gar überflügelt, gibt es nicht. Jede künstliche Intelligenz ist immer schon von ihrem technischen Zweck her bestimmt. Menschliche Genese ist von keinem technischen Zweck bestimmt. Aber: Eine „schwache KI“ kann als in vielerlei Hinsicht der Intelligenz des Menschen funktional überlegene Technik viele Aspekte von Intelligenzleistungen des Menschen übertreffen; der Begriff „schwache KI“ ist daher vielleicht keine gelungene Bezeichnung. Quantitativ und funktional kann KI menschlicher Intelligenz überlegen werden. In ihrer Bestimmung als funktionale Intelligenz ist künstliche Intelligenz der Offenheit von menschlicher Intelligenz jedoch immer in gewisser Hinsicht unterlegen. Die Frage nach Überlegenheit oder Unterlegenheit ist jedoch letztlich für eine technikethische Einordnung irrelevant. Stattdessen erweist sich bereits die Setzung eines Antagonismus zwischen Mensch und Maschine als verfehlt. Nicht Maschinen bedrohen Menschen, sondern Maschinen als Instrumente von Menschen können zur Bedrohung werden. Ein Antagonismus zwischen Mensch und Maschine kann nur entstehen, wenn dieser von Menschen angestrebt wird. Ein Wettbewerb zwischen Mensch und Maschine entsteht nicht von selbst. Kein Computer hat ein genuines Wettbewerbs-, Selbstbehauptungs- oder Machtinteresse. Maschinen werden unter instrumentellen Bestimmungen konstruiert, Menschen hingegen nicht. Die Operationen von Maschinen sind deshalb auch nicht bestimmt von den Dynamiken sozialer Systeme, unter denen die Lebenspraxis des Menschen sich entfaltet. Maschinen finden sich nicht existentiell als in-die-Welt-geworfen wieder, in welcher sie sich erst behaupten und um Sinn ringen müssten. Im dritten Kapitel dieser Arbeit wurde dies systematisch zu begründen versucht. Es ist daher auch kein genuines Anliegen für Maschinen, sich gegenüber Menschen zu behaupten. Maschinen streben nicht nach Anerkennung. Stattdessen folgen ihre Prozesse der Optimierung einer Zielfunktion, die von Programmierern definiert werden kann. Ein Selbsterhaltungs- und Selbstbehauptungstrieb müsste erst simuliert werden. Transhumanistische Autoren wie Kurzweil würden an dieser Stelle sicherlich erwidern, dass nichts leichter wäre als die Simulation von einem 412
4.4 Kann eine Maschine denken?
Streben nach Anerkennung in sozialen Prozessen. Hier ließe sich mit der Argumentationslinie dieser Arbeit herausstellen, dass auch Anerkennungsprozesse nicht vollständig formalisierbar sind. Doch es stellt sich zunächst die Frage, warum überhaupt die Entwicklung von künstlicher Intelligenz unter der Zielstellung der Angleichung von Mensch und Maschine erstrebenswert sein sollte? Es gibt offenbar zwei unterschiedliche Zielstellungen, unter denen die Weiterentwicklung von künstlicher Intelligenz verfolgt werden kann. Entweder zielt man auf eine Nachbildung des menschlichen Geistes mithilfe von Technik oder man zielt darauf, die genuinen Stärken von künstlicher Intelligenz auszunutzen. Beide Zielstellungen erweisen sich als konträr zueinander. Formallogische Systeme arbeiten enorm zuverlässig und sind in bestimmten Kontexten kaum fehler- oder störanfällig. Ihre Leistungsfähigkeit übertrifft dadurch in verschiedenen Kontexten die Genauigkeit und auch die Geschwindigkeit, mit der ein Mensch eine solche Tätigkeit ausüben könnte. Wenn die Zielstellung der Weiterentwicklung von KI-Technologien davon motiviert ist, die Vorteile von künstlicher Intelligenz auszunutzen, dann kann einer der Vorteile beispielsweise in der hohen Sicherheit und Funktionalität bestehen. Wenn hingegen in der Entwicklung angezielt wird, das Wesen des menschlichen Geistes zu imitieren, dann müssten Lernfähigkeit, Offenheit und Hinterfragen zum Ziel der technischen Weiterentwicklung werden. Die hohe Funktionalität in deterministischen Systemen widerspricht jedoch der offenen Lernfähigkeit beim Menschen. Wenn die Entwicklung komplexer indeterministischer Systeme zur Zielstellung in der KI-Entwicklung würde, dann erhöht sich die Gefahr des Kontrollverlustes und die unter dieser Zielstellung konstruierte Technik wäre nicht in dem Maß zuverlässig wie ein System, dessen Entwicklung unter der Vorgabe maximaler Zuverlässigkeit und Funktionalität erfolgt. Wir wollen dies am Beispiel eines intelligenten Kampfroboters vergleichen: Das System, dessen Konstruktion unter der Zielstellung von Zuverlässigkeit und Funktionalität steht, wird darauf programmiert, Befehle vorbehaltlos und präzis auszuführen. Das System hingegen, dessen Konstruktion eine Nachbildung des menschlichen Geistes anzielt, würde mit einer Unmenge verschiedener Informationen über die Subschichten des psychosozialen Lebens gefüttert werden müssen, welche sich im lebensweltlichen Wissen eines Menschen wiederfinden. Menschen können gegen sinnlose Befehle aufbegehren oder sie verweigern. Menschen können auf die Stimme ihres Gewissens hören oder sie abtöten. Menschen können in emotionale Traumata geraten, durch den Krieg zu Pazifisten werden oder Lust am Gefühl der Macht entwickeln, wenn ihr Knopfdruck über Leben und Tod entscheidet. Das Leben menschlicher Generäle hängt ab vom Vertrauen zu ihren Soldaten. Doch wollen wir Technik, die aufbegehren kann? Wollen wir die Weiterentwicklung von Technik so stark an die Zielstellung der Nachbildung menschlicher Personalität angleichen, dass sie sich ganz und gar unserer Kontrolle entzieht? Wir wollen das Gedankenspiel der individuellen humanoiden Kampfroboter einmal durchspielen: Fünf Kampfroboter mit individueller Wichtung 413
4 Exkurse
unterschiedlicher Subschichten des menschlichen personalen Lebens werden mit der Aufgabe betraut, eine terroristische Zelle zu zerschlagen. Einer der Roboter weigert sich, den Auftrag anzunehmen, solange nicht die Frage nach der Fürsorge der hinterbliebenen Familienmitglieder geklärt ist. Ein zweiter Roboter fordert seine Kollegen zu einem Wettkampf auf: Um die Herausforderung und den Abenteuercharakter des Unternehmens zu erhöhen – der Auftrag erscheint ihm sonst zu einfach – plädiert er dafür, in dem Einsatz auf die Hauptwaffensysteme zu verzichten. Der dritte Roboter hat in seinem psychosozialen System starke sadistische Persönlichkeitsanteile, bedingt durch die raue Jugend, die ihm als individuelles lebensweltliches Wissen eingespeist worden ist. Er will töten, möglichst grausam, weil dies seine Zielfunktion des Erlebens von Selbstwirksamkeit mit dem stärksten Wert bedient und er dringt darauf, so schnell wie möglich zum Auftragsgebiet zu gelangen, es aber mit den Opfern nicht so genau zu nehmen. Es könne ja ohnehin nicht überprüft werden, wie genau sie die Haupttäter unterscheiden könnten. (Die Simulation der Unbestimmbarkeit des personalen Lebens beinhaltet schließlich auch, dass getroffene Entscheidungen in vollautonomen Systemen nicht von außen nachvollziehbar sein dürfen.) In der Simulation des psychosozialen Systems des vierten Roboters wiederum eröffnet sich durch die sich anbahnenden Konflikte im Team die Perspektive, eine Führungsrolle einzunehmen. Es korreliert auf das Vaterkomplex und Selbstwertdefizit, das in die Simulation des lebensweltlichen Wissens dieses Roboters eingespeist wurde und setzt als Hypothese, dass jetzt endlich der Zeitpunkt gekommen sei, „es allen zu beweisen“ und eine Machtposition zu erlangen. Der Oberbefehlshaber wird zur Projektionsfläche der inneren Selbstwertkonflikte und der Wunsch, sich an diesem zu rächen – stellvertretend für den cholerischen, ungerechten Vater – wird zur geheimen Zielstellung, die ab jetzt alle weiteren Handlungen leiten wird. Der fünfte Roboter, dessen Simulation des lebensweltlichen Erfahrungswissens in ihm das Persönlichkeitsmuster bestärkt, in Gruppen immer Harmonie anzustreben, versucht seine Kollegen durch Gespräche davon zu überzeugen, dass es doch besser wäre, dem Oberbefehlshaber zu vertrauen und den Auftrag einfach durchzuführen. Er möchte am liebsten, dass dabei alle glücklich werden und ihre Ziele erreichen können. Wie wird diese Geschichte wohl ausgehen? Sicherlich bietet die Simulation der Vielschichtigkeit menschlich-personaler Intelligenz auch Potentiale, dass KI-Systeme auf Lösungen kommen, die mit deterministischen Systemen nicht erreicht werden können. Vielleicht kommen die fünf Roboter ja recht bald zur Einsicht in den Sinn von Menschenwürde und Völkerrecht. Die Errungenschaften der menschlichen Kultur sind zwar aus Freiheit geboren, doch ihr Preis war hoch. Der Weg der Lerngeschichte der Menschheit war gepflastert von Gewalt, Folter, Kriegen und Genoziden. Wie viele Weltkriege müssen künstliche Intelligenzen führen, um zur Einsicht zu gelangen, dass es sich auch lohnt, einen hohen Preis zu zahlen, um Frieden 414
4.4 Kann eine Maschine denken?
zu wahren? Wenn künstliche Intelligenz den Weg des Menschen bis zur Einsicht in die Unbedingtheit der Menschenwürde nachzeichnen soll, dann kann dies nur ein Weg des Schreckens sein. Und können wir sicher sein, dass ein KI-System auf dieselben Ergebnisse kommt wie der Mensch? Kann es nicht sein, dass künstliche Intelligenz – weil sie die Fragilität und Leidensfähigkeit des Menschen letztlich doch nicht existentiell nachbilden kann – auf ganz andere Schlüsse kommt und Gewalt vielleicht gar nicht als so problematisch empfindet, weil ja jederzeit ausreichende Sicherheitskopien zur Verfügung stehen? Die Zielstellung, um jeden Preis das Wesen der menschlichen Intelligenz nachzubilden, wäre ein höchst riskantes, ja sogar wahnsinniges Projekt. Ihr Reiz ist vielleicht vergleichbar mit Neros Blick auf das brennende Rom: Es ist reizvoll, einfach weil wir es können. Das Gefühl, etwas Undenkbares zu tun, kann die unreflektierten narzisstischen Bedürfnisse von Menschen befriedigen. Eine künstliche Intelligenz wäre darauf niemals selbst gekommen: Welchen Nutzen hat es, die Hauptstadt in Flammen zu setzen? Nun, der Nutzen ist das Ego: Ich kann, ich will, ich werde – Rom muss brennen. Mein Ich erfährt seine Selbstwirksamkeit in der radikalsten Form. Der größte Glanz Europas, die Metropole Rom – muss brennen, einfach weil ich das will. Das Gefühl von Macht, auch das größte Tabu brechen zu können, erweist sich damit als mögliche Triebkraft des menschlichen Handelns. Liegt nicht in einem solchen Schauder, eine künstliche Intelligenz ganz und gar zu entfesseln und zu beobachten, was daraus sich ereignet, vielleicht auch eine Triebkraft transhumanistischer Motive? Wäre es nicht reizvoll, einen Supercomputer zu entfesseln, ganz in die Autonomie zu entlassen? Welchen Sinn hätte es sonst, die Intelligenz des Menschen vollständig nachzubilden? Menschliche Intelligenz gibt es ja bereits genug. Reizvoll wäre, wenn wir diese auch nutzen würden, anstatt sie verkümmern zu lassen und unsere Fähigkeit zu denken, an Roboter und Supercomputer zu delegieren. Menschliche und künstliche Intelligenz erweisen sich als derart unterschiedlich zueinander, dass es doch vielmehr naheliegt, die Verschiedenartigkeit zu nutzen anstatt sie zu nivellieren. Viele Aufgaben können von maschinellen Rechenprozessen deutlich leichter, schneller und zuverlässiger bearbeitet werden als von Menschen. Doch für wen resultierte jemals die Einsicht, dass ein Taschenrechner schneller komplexe Rechenoperationen lösen kann als ein Mensch, in einer Sinnkrise des Zweifels am eigenen Selbstwert? Die Antwort auf die Frage, ob ein Computer dem Anspruch gerecht werden kann, „intelligent“ zu sein, hängt von dem ab, was mit dem Begriff der Intelligenz gemeint werden soll. Das Kriterium der Verwechselbarkeit eines Computer-Sprachprogramms mit dem Sprachvermögen eines Menschen bildet dabei offensichtlich nur einen Ausschnitt von dem, was in der Intelligenz eines Menschen zusammengefasst werden kann. Die Vielfalt menschlicher Intelligenz umfasst nicht nur Rechnen und logisches Schließen, sondern korreliert mit einem umfassenden 415
4 Exkurse
Spektrum an Wahrnehmungs-, Empfindungs- und Handlungsmöglichkeiten. Hierzu gehören visuelle, auditive, olfaktorische Sinneswahrnehmungen ebenso wie triebhaft-instinktive Aspekte teilweise unbewusster Formen von intelligentem Verhalten. Neben implizitem Wissen, Intuition, Spontaneität spielen auch Gefühle, emotionale Intelligenz sowie Körperbewusstsein, Körperbeherrschung und Sensomotorik eine wichtige Rolle. Sozialkompetenz, Charisma und Empathie, Transzendenz, Religiosität und Mystik, Kreativität sowie die Fähigkeit zum Genießen und Glücklichsein sind weitere Ausschnitte aus dem breiten Spektrum personaler Intelligenz. Nur isoliert und als kleine Ausschnitte einer komplexeren Wirklichkeit können einzelne Aspekte davon formalisiert und erfolgreich nachgebildet werden. Künstliche Intelligenz braucht dabei immer entweder ein formallogisches Modell der Umgebung, in welcher sie agieren soll, oder sie muss anhand von neuronalen Netzen das Output-Ergebnis zugunsten einer klaren Zielvorgabe optimieren. Sie bleibt dabei instrumentell, zweckorientiert, d. h. die Prozesse des Machine Learning arbeiten nach dem Prinzip, möglichst immer zuverlässiger eine definierte Aufgabe zu bearbeiten. Der Mensch ist hingegen existentiell in eine normative Orientierungslosigkeit geworfen. Er befindet sich in einer offenen Welt und geht mit dieser um. Einen Sinn, eine letzte Zielfunktion, versucht er dabei mitunter zu finden, doch ist diese ihm nicht gegeben; schon gar nicht in einem formallogisch-mathematischen Zugang. Der Wertepluralismus multikultureller Gesellschaften ist ein Resultat der offenen Lern- und Orientierungsprozesse des Menschen. Computer können als intelligent gelten, wenn man die Bedeutung des Intelligenzbegriffs auf ein Minimum reduziert. Eine solche Begriffsreduktion karikiert Searle, wenn er schreibt: „Meine absolute Lieblingsübertreibung über den digitalen Computer stammt von John McCarthy, dem Erfinder des Ausdrucks ‚artificial intelligence‘. McCarthy sagt, sogar ‚von so einfachen Maschinen wie Thermostaten kann man sagen, dass sie Überzeugungen haben‘. Laut McCarthy kann man in der Tat fast jeder Maschine, die Probleme lösen kann, Überzeugungen zuschreiben. Ich bewundere McCarthys Mut. Einmal habe ich ihn gefragt: ‚Was für Überzeugungen hat Ihr Thermostat?‘ Und er sagte: ‚Mein Thermostat hat drei Überzeugungen: Es ist zu warm hier drinnen, es ist zu kalt hier drinnen, und die Temperatur hier drinnen ist gerade richtig.‘“100
Für einen technischen Zugang mag der Ansatz, ein formales Kriterium für die Möglichkeit der Zuschreibung eines Attributes zu einem Gegenstand zu finden, pragmatisch hilfreich sein. Wenn in ethischen oder rechtlichen Diskussionen jedoch die „Intelligenz“ einer Maschine zum Kriterium für Diskussionen um eine Roboterwürde o. ä. wird, dann muss im Verständnis Searle, John R.: Geist, Hirn und Wissenschaft, Frankfurt am Main 1986, S. 29.
100
416
4.4 Kann eine Maschine denken?
der technischen Abläufe auch ein Bewusstsein für die Differenzen zwischen menschlicher und künstlicher Intelligenz wachgehalten werden. Was ist Denken? Wenn sich die Dimensionen des menschlichen Denkens bis zur Ebene dessen erstrecken, was Kant als das Unbegreifliche101 bezeichnet, so kann dies für einen quantifizierenden und formalisierenden Ansatz der künstlichen Intelligenz nicht übertragen werden. Martin Heidegger hat in seinem Aufsatz „Was ist Denken?“ die Frage verfolgt, wie der Mensch im Denken sich doch dem widmen muss, was ihm zunächst entzogen scheint. Nur dann dringt der Mensch in die sinnstiftende Ebene des Denkens vor, wenn er bereit ist, dem zu folgen, was sich ihm nicht als offensichtliche Wirklichkeit sinnlich aufdrängt, sondern was sich ihm zunächst als Unbegreifliches entzieht: „Das Bedenklichste zeigt sich in unserer bedenklichen Zeit daran, daß wir noch nicht denken. Wir denken noch nicht, weil das zu-Denkende sich vom Menschen abwendet und keinesfalls nur deshalb, weil der Mensch sich dem zu-Denkenden nicht hinreichend zuwendet. Das zu-Denkende wendet sich vom Menschen ab. Es entzieht sich ihm, indem es sich ihm vorenthält. Das Vorenthaltene aber ist uns stets schon vorgehalten. Was sich nach der Art des Vorenthaltens entzieht, verschwindet nicht. Doch wie können wir von dem, was sich auf solche Weise entzieht, überhaupt das geringste wissen? Wie kommen wir darauf, es auch nur zu nennen? Was sich entzieht, versagt die Ankunft. Allein – das Sichentziehen ist nicht nichts. Entzug ist hier Vorenthalt und ist als solcher – Ereignis. Was sich entzieht, kann den Menschen wesentlicher angehen und inniger in den Anspruch nehmen als jegliches Anwesende, das ihn trifft und betrifft. Man hält die Betroffenheit durch das Wirkliche gern für das, was die Wirklichkeit des Wirklichen ausmacht. Aber die Betroffenheit durch das Wirkliche kann den Menschen gerade gegen das absperren, was ihn angeht, – angeht in der gewiß rätselhaften Weise, daß das Angehen ihm entgeht, indem es sich entzieht. Der Entzug, das Sichentziehen des zu-Denkenden, könnte darum jetzt als Ereignis gegenwärtiger sein denn alles Aktuelle.“102
Kann eine Maschine „noch nicht denken“? Sicherlich können mit Algorithmen in zunehmendem Maß zahlreiche Aspekte alltäglicher menschlicher Kommunikation nachgebildet werden. Doch gibt es keinen Anlass, davon auszugehen, dass maschinelles Lernen irgendwann in der Lage wäre, ein Gespür für das zu entwickeln, was sich nicht formalisieren lässt. Mit Heidegger gesprochen muss man wohl vielleicht bald beginnen, den Turing-Test Vgl. Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, Stuttgart 2008, S. 112. Martin Heidegger: Was ist Denken?, in: Martin Heidegger: Vorträge und Aufsätze, Stuttgart 2004, S. 123–138, dort S. 128f.
101
102
417
4 Exkurse
mit umgekehrter Zielstellung anzuwenden: Wenn man das Verhalten eines Menschen mit einer Maschinen verwechselt, dann kann man zwar nicht zu dem Schluss kommen, dass die Maschine denken kann, wohl aber leider zu dem Schluss, dass der Mensch offenbar „noch nicht denkt“. Dieses Defizit ist aber nicht statisch: Heidegger spricht dies als Einladung aus, die eigenen Grenzen zur Besinnung werden zu lassen für eine Ebene des Denkens, die sich nicht in einer instrumentellen Zweckrationalität erschöpft. In dieser Ebene verdeutlichen sich die Grenzen des Menschen nicht als Defizite, sondern als Möglichkeitsbedingung und Handlungsrahmen, in dem das, was den Menschen ausmacht, sich erst entfalten kann. Die Konstruktion von künstlich intelligenten IT-Systemen kann nicht beim Fragen ansetzen, ohne vorher eine formalisierte Architektur vorauszusetzen, in welcher das System operieren kann. Damit wird jedem KI-System die prinzipielle Offenheit vorenthalten, welche in den Prozessen des menschlichen Suchens und Fragens zur Voraussetzung von Erkenntnisprozessen gehört. Die Operationen von KI-Systemen beschränken sich auf formallogische mechanistische Abläufe. Sie stellen einen Ausschnitt dessen dar, was als instrumentelle Rationalität nur einen Teil menschlicher Geistestätigkeit ausmacht. Das Sich-Zuwenden gegenüber den unverfügbaren Grundbedingungen von Erkenntnis im Sinne eines existentiellen Fragens des Menschen kann technisch nicht mit formalen Logiken simuliert werden. In der Entwicklung künstlich intelligenter Systeme muss jede Simulation von Offenheit oder Nichtwissen in der Sprache der Mathematik, d. h. mit Zahlen und Variablen dargestellt werden. Als solche gliedert sich das Unbekannte bereits unter die Kategorien der instrumentellen Rationalität des Quantifizierbaren, anstatt es zu einem Gegenstand des Fragens und Hinterfragens werden lassen zu können. Mit den Worten Adornos: „Wenn im mathematischen Verfahren das Unbekannte zum Unbekannten einer Gleichung wird, ist es damit zum Altbekannten gestempelt, ehe noch ein Wert eingesetzt ist. Natur ist, vor und nach der Quantentheorie, das mathematisch zu Erfassende; selbst, was nicht eingeht, Unauflöslichkeit und Irrationalität, wird von mathematischen Theoremen umstellt.“103 Ein Abwenden vom Quantifizierbaren im Sinne eines Sich-Zuwendens zu einer Dimension des prinzipiell Unverfügbaren als Erkenntnisbedingung ist technisch hingegen nicht einlösbar. Nichtwissen als sinnkonstitutive Negativität in Bezug auf Erkenntnisprozesse ist damit aus dem Bereich der KI-Entwicklung ausgeklammert. Damit ist eine künstliche Intelligenz nicht zum Philosophieren befähigt, denn dieses beginnt beim Nichtwissen. Konstruktionen künstlich intelligenter Agentensysteme in offenen Kontexten tragen der Geworfenheit menschlicher Existenz nicht Rechnung. Ihre Arbeitsweise beschränkt sich auf wenige Aspekte menschlicher Logik, die hinsichtlich einer konkreten Problemlösungsaufgabe mathematisiert und formalisiert werden können. Aufgrund der fehlenden Horkheimer und Adorno: Dialektik der Aufklärung, a. a. O., S. 31.
103
418
4.4 Kann eine Maschine denken?
Leiblichkeit, in welcher sich Emotionalität, Intentionalität, Rationalität, Fragilität, Sozialität und weitere Aspekte inkommensurabel und unauflöslich miteinander verschränken, wäre ein philosophierendes KI-System lediglich ein Spiel der Konstrukteure, auch wenn eine solche den Sinn des Daseins bezweifelte. Aus einer reinen Formallogik kann kein Zweifel am Sinn des Daseins gefolgert werden – dieser müsste von außen, durch einen Menschen vorgegeben und in die Struktur eines formallogischen Systems übertragen werden. Doch wie sollte ein Begriff wie „Dasein“ oder „Sinn“ in eine formallogische Sprache übertragen werden? Die Untersuchung greift hier zurück zu Wittgensteins sprachphilosophischen Einsichten. Die „Welt“ als „alles, was der Fall ist“,104 als Summe von Tatsachen birgt keinen Raum für Begriffe, die über sich selbst hinausweisen. In der Strenge seiner eigenen sprachphilosophischen Studien gelangte Wittgenstein zu der Einsicht, dass ein großer Teil der menschlichen Sprache und der Art und Weise seiner Verwendung nicht in einer formallogischen Reduktion aufgeht. So kann auch die Möglichkeit sprachlicher Interaktion und die Simulation personalen Handelns durch künstlich intelligente Systeme als prinzipiell eingeschränkt auf formallogisch abbildbare Prozesse betrachtet werden. Sprache als Grundproblem der künstlichen Intelligenz Die Frage nach der Möglichkeit, ob Maschinen denken können, wurde schon von Turing mit der Fähigkeit des Sprachverstehens zu beantworten versucht. Sprache und Denken gehören zusammen. Menschliches Denken ist sprachlich geprägtes Denken. Hier entfaltet die Definition von Aristoteles, dass der Mensch ein ζῷον λόγον ἔχων ist, ihren Sinn. Das griechische Wort λόγος bezeichnet gleichermaßen die Sprache und die Vernunft. Die Sprache geht dem Menschen existentiell und uneinholbar voraus – er wird hineingeboren in eine sprachlich geprägte Welt. Sein Denken entfaltet sich in sprachlich geprägter Handlungspraxis. Menschliche Sprache und menschliches Denken hängen unauflöslich miteinander zusammen. In den technologischen Entwicklungen der künstlichen Intelligenz haben sich sprachliche Aufgaben als schwierig lösbare technische Probleme erwiesen. Ein Aufgabenfeld, in denen das Sprachverstehen von künstlicher Intelligenz in der Frühphase der KI-Entwicklung scheiterte, war das Verstehen von Kindergeschichten und Fabeln. Doch warum sind ausgerechnet so einfache Geschichten für ein KI-System so schwer dechiffrierbar? Als Beispiel sei hier eine Fabel von Äsop genannt: „Ein großer Hund hatte einem kleinen, schwächlichen Hündchen ein dickes Stück Fleisch abgejagt. Er brauste mit seiner Beute davon. Als er über eine schmale Brücke lief, Wittgenstein: Tractatus, a. a. O., S. 9 (1.).
104
419
4 Exkurse fiel zufällig sein Blick ins Wasser. Wie vom Blitz getroffen blieb er stehen, denn er sah unter sich einen Hund, der gierig seine Beute festhielt. ‚Der kommt mir zur rechten Zeit‘, sagte der Hund auf der Brücke, ‚heute habe ich wirklich Glück. Sein Stück Fleisch scheint noch größer zu sein als meins.‘ Gefräßig stürzte sich der Hund kopfüber in den Bach und biß nach dem Hund, den er von der Brücke aus gesehen hatte. Das Wasser spritzte auf. Er ruderte wild im Bach umher und spähte hitzig nach allen Seiten. Aber er konnte den Hund mit dem Stück Fleisch nicht mehr entdecken, er war verschwunden. Da fiel dem Hund sein soeben erbeutetes, eigenes Stück ein. Wo war es geblieben? Verwirrt tauchte er unter und suchte danach. Doch vergeblich, in seiner dummen Gier war ihm auch noch das Stück Fleisch verlorengegangen, das er schon sicher zwischen seinen Zähnen gehabt hatte.“105
Es fällt einem menschlichen Leser nicht schwer, den Sinn dieser Fabel zu verstehen. Doch für ein KI-System bringt das Verständnis dieser Geschichte verschiedene Herausforderungen mit sich. Zunächst werden für das Verständnis der Fabel verschiedene lebensweltliche Vorerfahrungen vorausgesetzt, die nicht im Text stehen. So ist beispielsweise nicht explizit ausgeführt, dass der Hund sein eigenes Spiegelbild erblickt. Man muss also, um die Fabel verstehen zu können, wissen, dass sich in der Wasseroberfläche ein Bild dessen spiegeln kann, was sich über dem Wasser befindet. Dass es sich nicht um einen realen, zweiten Hund handelt, sondern nur um ein Spiegelbild des ersten Hundes, ergibt sich dennoch nicht zwingend – es ist ja theoretisch möglich, dass sich tatsächlich unter der Brücke ein weiterer Hund aufhält; Hunde können ja auch schwimmen. Diese Deutung erweist sich als unwahrscheinlich, weil der zweite Hund plötzlich verschwindet. Doch warum verschwindet das Stück Fleisch? Auch hierüber steht nichts im Text. Auch das lebensweltliche Vorwissen der Flussströmung wird beim Leser vorausgesetzt, wodurch das Fleisch offenbar bereits weggetrieben ist. Oder war der andere Hund einfach nur schnell zur Seite gesprungen und hat dabei das Stück Fleisch des ersten Hundes mitgenommen? Darüber schweigt der Text. Viele Elemente des Textes werden nicht explizit erklärt. Für ein Verständnis des Textes wird lebensweltliches Wissen vorausgesetzt, das für die meisten Menschen selbstverständlich ist. Wäre es nicht möglich, eine künstliche Intelligenz zum Verständnis des Textes zu befähigen,
Nacherzählung einer Fabel Äsops, zit. nach https://www.projekt-gutenberg.org/aesop/fabeln/ chap060.html, abgerufen am 15.5.2020, 13:50 Uhr. Vgl. das Original bei Äsop: Fabeln, gr./dt., übersetzt von Thomas Voskuhl, Stuttgart 2005, S. 130f.
105
420
4.4 Kann eine Maschine denken?
indem man die entsprechenden Hintergrundinformationen bereitstellt? Sicherlich stellt es technisch mittlerweile kein Problem mehr dar, KI-Systeme für das Verständnis einzelner Texte zu befähigen, indem genau die lebensweltlichen Vorerfahrungen expliziert werden, die für das Verständnis des jeweiligen Textes nötig sind. Doch wer trifft die Auswahl, welche Vorerfahrungen für ein Verständnis bedeutsam sind? Es kann nicht Anspruch der Simulation von Sprachverstehen durch KI-Systeme sein, wenn für jedes Textverständnis zuvor die nötigen Hintergrundinformationen in formallogischer Form bereit gestellt werden müssen. Man müsste also alles formalisieren – alles Weltwissen, alles Erfahrungswissen; oder zumindest so viel, wie ein gewöhnlicher erwachsener Mensch im Laufe seines Lebens sammelt. Ein solches Projekt scheint jedoch angesichts der Mehrdeutigkeit, Offenheit, Unbestimmbarkeit menschlicher Sprachpraxis nicht realisierbar zu sein. Menschliches Erfahrungswissen entspricht seiner Struktur nach keinem formallogischen Modell der Welt. Menschen interagieren in einer Welt, die sie nicht vollständig analytisch beschreiben oder explizieren können. Menschliches Erfahrungswissen ist nicht objektiv oder mathematisch, sondern individuell erworbenes Erfahrungswissen. Das lebensweltliche Wissen jedes Menschen ist einzigartig. Gerade darin gründet auch die Individualität, welche die Struktur der personalen Intelligenz des Menschen ausmacht. Nur so kann die Herausbildung vielfältiger unterschiedlicher Perspektiven auf die Welt möglich werden, die eine pluralistische Gesellschaft kennzeichnet. In dieser Vielfalt von Perspektiven und in der Vermittlung dieser Verschiedenartigkeiten besteht eine nicht zu unterschätzende Kompetenz des menschlichen Geistes, der menschlichen Intelligenz, sowohl was die Intelligenzleistung betrifft, die jedes einzelne menschliche Individuum im Laufe seines Lebens immer weiter ausbildet als auch was die „kollektive Intelligenz“ in Form kultureller Leistungen betrifft, die sich durch diese Verschiedenartigkeit personaler Intelligenzperspektiven in sprachlichen und gesellschaftlichen Vermittlungsprozessen über jahrhundertelange Prozesse herausbilden konnten. Gerade durch diese Perspektivenvielfalt gehört zu den Errungenschaften des menschlichen Geistes eine gar nicht mehr rational einholbare Komplexität von Ambivalenzen, Mehrdeutigkeiten, Paradoxien und Widersprüchlichkeiten. Ebensowenig explizit formuliert wird die Hauptaussage der Fabel, ihr Sinn. Warum wird überhaupt eine Geschichte von diesem Hund und seinem Stück Fleisch erzählt? Wen interessiert, was Hunde mit ihrer Beute anstellen? Der Sinn des Textes weist über die Buchstaben des Textes hinaus. Er rekurriert nicht auf eine Schilderung von Tatsachen, sondern zielt auf eine individualethische Aussage: Freue dich an dem, was du hast und schiele nicht zu gierig nach dem, was andere haben, denn das macht dich auf Dauer nur unglücklich und du verlierst dabei mehr, als du gewinnen kannst. Es ist eine Einsicht, die aus einer Lebenspraxis heraus formuliert werden kann, durch menschliche Erfahrungen, geprägt von emotionalen, sozialen und normativen Kontexten. Der Mensch 421
4 Exkurse
erlebt sich in seinem Streben nach Zufriedenheit in einem Spannungsfeld: Auf der einen Seite möchte er „mehr“ und dieses Streben nach mehr ist auch das, was ihn zu Erfolgen führen kann und ihn damit auch zufriedener machen kann. Auf der anderen Seite kann dieses Streben nach mehr in eine Unersättlichkeit führen, wobei man ganz vergisst, was man alles schon Gutes hat und genießen kann. Wer nur nach dem strebt, was er nicht hat, wird niemals zufrieden sein. Der Mensch steht immer zwischen diesen beiden Spannungsfeldern – einem Streben nach mehr auf der einen Seite, dem Blick auf das, was man noch nicht hat; und einer Genügsamkeit und Dankbarkeit auf der anderen Seite, dem Genießen dessen, was man hat. Das Gelingen von menschlicher Lebenspraxis hängt auch davon ab, ob ein Mensch eine gute Mitte zwischen diesen beiden Polen findet. Doch wie soll diese existentielle Grunderfahrung des Menschen, diese Ambivalenz zwischen Haben und Nicht-Haben, zwischen Wollen und Zufriedengeben, zwischen Streben und Lassen in irgendeiner Weise mathematisch modellierbar werden? Letztlich ist auch die hier vorgestellte Interpretation nicht die einzige Möglichkeit, den Sinn des Textes zu deuten. Manche Fabeln von Äsop wurden von späteren Schriftstellern reinterpretiert und in neue Zusammenhänge gestellt, die Äsop so gar nicht bedacht haben kann. So wurde beispielsweise Äsops Fabel „Die Schildkröte und der Hase“106 von C. H. Bennett auf den Klassenkampf übertragen. In der Fabel verliert ein Hase ein Wettrennen gegen die Schildkröte, weil der Hase zwischendurch ein Nickerchen hält. Bennett deutet die Schildkröte als kapitalistischen Unternehmer und den Hasen als angestellten Handwerker.107 Damit verschiebt sich auch der über den Buchstaben hinausweisende Sinn des Textes. Es gibt keine objektive Referenz, anhand derer beurteilt werden könnte, welches der „wahre“ Sinn einer Fabel ist. Stattdessen können Sinnpotentiale von Fabeln in verschiedenen Kontexten plausibel gedeutet werden. Diese Deutungen rekurrieren mit ihrem Sinn auf die lebensweltliche Praxis des Menschen. Nicht nur im Bereich von Fabeln ist der Sinngehalt von Sprache unabschließbar. Auch Alltagssprache ist durchzogen von Offenheit und einem über-sich-selbst-Hinausweisen. Der Satz „ich bin glücklich“ ist keine Angabe über einen Zustand des Hormonspiegels in einem Organismus. Stattdessen weist er auf eine Ambivalenz des emotionalen Erlebens des Menschen, auf ein Spannungsfeld, das ein Mensch erst erfahren muss, um diesen Satz sprechen zu können. Nur weil der Mensch verschiedene emotionale Zustände kennt, auch das Gefühl von Unzufriedenheit, innerer Leere, Rastlosigkeit, Sinnlosigkeit, Trauer, Hass, Wut und Ärger – kann er auch davon sprechen, dass er glücklich ist. Es gäbe kein Wort für Glück, wenn es kein Gefühl
Äsop: Fabeln, a. a. O., S. 214f. C. H. Bennett: The Fables of Aesop and Others. Translated into Human Nature, London 1857, Nachdruck der Franklin Classics Trade Press 2018.
106 107
422
4.4 Kann eine Maschine denken?
für dessen Abwesenheit gäbe. Das deutsche Wort Glück ist verwandt mit der Lücke.108 Das Empfinden von Glück weist auf eine Lücke – die geschlossen wurde. Menschliche Sprache beinhaltet in allen Ebenen Dimensionen von Ambivalenz, Widersprüchlichkeit, Paradoxie, Mehrdeutigkeit, Unabschließbarkeit, Kontextualität und Offenheit. Das Wesen der mathematischen Logik besteht hingegen darin, alle Formen von Widersprüchlichkeit, Ungenauigkeit und Mehrdeutigkeit zu ersetzen durch eine exakte Form. Dies ist der große Schatz der Mathematik: dass sie so exakt ist. Doch sie ist gerade deshalb nicht geeignet, um das Wesen der menschlichen Sprache wirklich zu erfassen. Mit Hegels Worten: „Die Evidenz dieses mangelhaften Erkennens, auf welche die Mathematik stolz ist, und womit sie sich auch gegen die Philosophie brüstet, beruht allein auf der Armut ihres Zwecks und der Mangelhaftigkeit ihres Stoffs.“109 Die formallogische Aussage „A=A“ ist unstrittig, solange diese Aussage nicht über die Formallogik hinausweisen soll. Doch sobald damit etwas ausgedrückt werden soll als eine mathematische adaequatio, verliert die Aussage ihre Exaktheit. Wir können über diese Gleichung „A=A“ unabschließbar viel aussagen; unter anderem, dass diese Gleichung einen logischen Widerspruch birgt. Was können wir über das linke A sagen und was können wir über das rechte A sagen? Das linke A ist ja nicht das rechte A, sondern es sind zwei Buchstaben mit der Form A. Selbst wenn sie gleich geformt sind, sind es zwei und damit zwei verschiedene. Nicht alle ihrer Eigenschaften sind gleich, denn das linke A hat die Eigenschaft, auf der linken Seite von dem rechten A zu stehen. Diese Eigenschaft kann das linke A aber nur besitzen, weil es ein rechtes A gibt. Beide sind daher voneinander abhängig. Wenn sie voneinander abhängig sind, dann können sie letztlich nicht durch das Andere ersetzt werden. Zielt nicht aber die adaequatio darauf, dass damit die Ersetzbarkeit dessen ausgedrückt werden soll, was links und rechts vom Gleichheitszeichen steht? Selbst in der Gleichung birgt sich noch der logische Widerspruch. Ihre Existenz mit der vollen Summe ihrer Eigenschaften könnten die Seiten gar nicht isoliert voneinander haben. Ihre Beschreibung verhält sich analog zu einer politischen Gesellschaftstheorie, in welcher die politische Linke und die politische Rechte sich durch ihre Abgrenzung Vgl. Grimm, Jacob und Wilhelm: Deutsches Wörterbuch, Vierter Band, I. Abteilung, 5. Teil, Leipzig 1958, S. 226ff. Der Begriff ist etymologisch vielschichtig. Abgeleitet werden kann er u. a. von der idg. Wurzel „leug-“ mit der Bedeutung „biegen“, woraus sich über die Bedeutung „zubiegen, zuziehen“ die germanische Wortsippe „schließen“ / „öffnen“ entwickelt hat, zu der auch die Worte „Lücke“ oder „Loch“ gehören. Als Begriff beschreibt das Glück zunächst das Schicksal, Geschick, den Ausgang einer Sache und erst später taucht er in Wendungen wie dem „Glück der Ehe“ auf. Er weist dabei auf ein Gelingen, ist also kein statischer Zustand, sondern entfaltet seinen Sinn erst unter der Perspektive des möglichen Scheiterns. Es ist bezeichnend für die Transzendenz von Sprache, dass sich der Sinn des Wortes nur mit Bezügen zur Lebenswelt und nur dialektisch, in einem Kontextbezug rekonstruieren lässt. (Ebd.) 109 Hegel: Phänomenologie des Geistes, a. a. O., S. 45. 108
423
4 Exkurse
vom politischen Gegenpol her definieren. Wird die Aussage „A=A“ damit zur politischen Gesellschaftstheorie? Weist eine solche Interpretation nicht deutlich über das hinaus, was eine mathematische Formallogik leisten kann und will? Selbst die so unstrittige Formel „A=A“ birgt für die menschliche Sprache die Möglichkeit, ein darüber hinausweisendes Sinnpotential zu konstruieren. Doch was soll ursprünglich überhaupt damit bezeichnet werden, mit der formallogischen Struktur der adaequatio? Ihr Geltungsanspruch bezieht sich auf mathematische Rechenoperationen und weist die Möglichkeit aus, dass mathematische Elemente durch andere mathematische Elemente ersetzt werden können und dass der mathematische, bzw. formallogische Wahrheitsgehalt durch eine solche Substitution erhalten bleibt: „Die Methode der Mathematik, zu ihren Gleichungen zu kommen, ist die Substitutionsmethode. Denn die Gleichungen drücken die Ersetzbarkeit zweier Ausdrücke aus und wir schreiten von einer Anzahl von Gleichungen zu neuen Gleichungen vor, indem wir, den Gleichungen entsprechend, Ausdrücke durch andere ersetzen.“110 Die Substitutionsmethode ist das heuristische Prinzip der Mathematik. Für die mathematische Praxis ist die Substitution von mathematischen Elementen durch Gleichungen konstitutiv, um überhaupt mathematische Rechenoperationen durchführen zu können. Genau in diesem Kontext entfalten formallogische Systeme und Gleichungen in Form einer adaequatio ihren Sinn. Formallogische Systeme können jedoch nicht über sich selbst hinausweisen, ohne dadurch ihre Exaktheit einzubüßen. Wittgenstein wies darauf im Tractatus hin: „Die Sätze der Logik sind Tautologien. Die Sätze der Logik sagen also Nichts. […] Theorien, die einen Satz der Logik gehaltvoll erscheinen lassen, sind immer falsch.“111 Die mathematische Logik ist zwar ein exaktes System, kann in dieser Exaktheit aber keine Aussagen treffen über das, was sich außerhalb der Logik befindet: „Der Satz der Mathematik drückt keinen Gedanken aus. Im Leben ist es ja nie der mathematische Satz, den wir brauchen, sondern wir benützen den mathematischen Satz nur, um aus Sätzen, welche nicht der Mathematik angehören, auf andere zu schließen, welche gleichfalls nicht der Mathematik angehören.“112 Für die Systeme der künstlichen Intelligenz bedeutet das, dass die menschliche Sprache und lebensweltliche Praxis durch mathematische und formallogische Strukturen nie vollständig abgebildet werden kann. Stattdessen erweisen sich die Grundbeschaffenheit einer mathematischen Sprache und die Struktur menschlicher Sprachpraxis als inkommensurabel zueinander. Die optimistischen Prognosen zu Beginn der IT-Entwicklung mussten enttäuscht werden. Das Projekt einer vollständigen Quantifizierung und Formalisierung der Welt im Sinn einer Transformation menschlicher Alltagssprache in die mathematische Sprache formaler Logik Wittgenstein: Tractatus, a. a. O., S. 100 (6.24). Ebd., S. 90 (6.1, 6.11 und 6.111). 112 Ebd., S. 98 (6.21 und 6.211). 110
111
424
4.4 Kann eine Maschine denken?
wurde durch die technischen Entwicklungen der künstlichen Intelligenz einer Anwendungsprüfung unterzogen. Die vernunftkritischen Bedenken der in dieser Arbeit genannten Philosophen des 20. Jahrhunderts in Bezug auf die Grenzen einer vollständigen Mathematisierung und Formalisierung der Welt erwiesen sich also in technischen Anwendungsproblemen als begründet. In der technikphilosophischen Diskussion um Möglichkeiten und Grenzen von künstlicher Intelligenz wurden daher auch Wittgenstein und Heidegger mit ihren jeweiligen sprachkritischen und vernunftkritischen Ansätzen wieder aufgegriffen und ihre Einsichten für die technische Lösungsfindung hermeneutisch zu rekonstruieren versucht. So verweisen Dreyfus und Dreyfus darauf, dass Wittgensteins Philosophische Untersuchungen als sprachphilosophische Kritik eines logischen Atomismus mit dem ersten Aufblühen der symbolsprachlich arbeitenden KI zeitlich zusammenfiel: „Es gehört zur Ironie der intellektuellen Geschichte, dass Wittgensteins vernichtende Kritik seines eigenen Tractatus, seine Philosophischen Untersuchungen, 1953 publiziert wurden, genau zu dem Zeitpunkt, als die KI die abstrakte atomistische Tradition übernahm, die er angriff.“113 Ebenso bezieht sich Dreyfus auf Heideggers Kritik an einer theoretischen Formalisierung der Welt und seiner Gegenstände. „Er [Heidegger] kam wie Wittgenstein zu dem Ergebnis, dass die Alltagswelt nicht durch eine Anzahl von kontextfreien Elementen repräsentiert werden kann. […] Wenn wir ein Werkzeug wie einen Hammer verwenden, so Heidegger, aktualisieren wir eine Fähigkeit (die nicht im Geist vorgestellt zu werden braucht) im Kontext einer sozial organisierten Verknüpfung von Ausstattung, Zwecken und menschlichen Rollen (die nicht vorgestellt zu werden braucht als eine Gruppe von Fakten).“114 Beide Philosophen artikulieren von einer je unterschiedlich geprägten Denktradition kommend eine Kritik am Entwurf einer vollständig formalisierbaren Welt und verweisen stattdessen auf die Unhintergehbarkeit und Uneinholbarkeit des sprachlich wie leiblich konstituierten Lebensvollzugs in der menschlichen Existenz.115 „Wenn Heidegger und Wittgenstein richtig liegen, so sind menschliche Wesen sehr viel holistischer als neuronale Netze. Intelligenz muss motiviert werden durch Absichten des Organismus und durch Ziele, die der Organismus von einer umgebenden Kultur erhält. Wenn die Minimaleinheit der Vgl. Dreyfus, Hubert L. und Dreyfus, Stuart E.: Einen Geist bauen gegen ein Gehirn modellieren: Künstliche Intelligenz wieder an der Abzweigung, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 15–44, dort S. 28. Es sei vermerkt, dass eine allzu diametrale Gegenüberstellung des Tractatus und der Philosophischen Untersuchungen Wittgensteins oder gar eine Aufteilung in Wittgenstein I und II auch die gemeinsame Linie übersieht, welche das gesamte Denken Wittgensteins durchzieht. Vgl. Rentsch: Philosophie des 20. Jahrhunderts, a. a. O., S. 81. Vgl. auch Kap. 3.1.2 dieser Arbeit. 114 Ebd., S. 31. 115 Vgl. vertiefend auch Dreyfus, Hubert L.: Was Computer nicht können. Die Grenzen künstlicher Intelligenz, Frankfurt am Main 1989. Dreyfus, Stuart E. und Dreyfus, Hubert L.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition, Leck 1991. 113
425
4 Exkurse
Analyse ein ganzer Organismus ist, der in eine ganze Umwelt eingreift, dann haben neuronale Netze, ebenso wie symbolisch programmierte Computer, noch einen sehr langen Weg vor sich.“116 Hubert Dreyfus systematisiert in einer späteren Publikation gemeinsam mit C. Taylor seine Kritik positivistischer Abbildtheorien der Wirklichkeit.117 Dabei rekurrieren die Autoren explizit auf Wittgensteins Philosophische Untersuchungen, in welchen dieser die Abbildtheorie von Sprache kritisch reflektiert118 und sie beziehen den Aspekt der Leiblichkeit als Einbettung menschlichen Wissens in diese Systematik mit ein; sie bedienen sich dabei der Formulierung „verkörpertes Verstehen“.119 Auch im Begriff des „Vorbegrifflichen“120 zeigen sich Parallelen zum Begriff der Lebenswelt (Welter), zum Begriff des „impliziten Wissens“ (Polanyi) und zum „Nichtidentischen“ bei Adorno.121 Doch treffen diese Kritikpunkte für künstliche Intelligenz generell zu oder nur für einen Teil? Die Herausgeber eines einflussreichen Lehrbuchs über künstliche Intelligenz, Stuart Russell und Peter Norvig, grenzen beispielsweise den Geltungsanspruch der Kritik der Brüder Dreyfus ein auf logische Agenten erster Ordnung.122 Für probabilistische Systeme und neuronale Netze hingegen sei die Kritik nicht ohne Weiteres übertragbar. Der Geltungsanspruch ihrer Kritik wurde eingeschränkt auf klassische, symbolverarbeitende künstliche Intelligenz.123 Russell und Norvig verkennen dabei aber die Tragweite der philosophischen Kritik von Dreyfus und Dreyfus. Der Begriff der Lebenswelt, den Husserl gegenüber einer mathematischen Objektivierung der Welt herausgestellt hat, erweist sich als Schlüsselbegriff für das, was künstliche Intelligenz nicht abbilden kann. Auch neuronale Netzwerke bilden zwar Strukturen anhand von Erfahrungen nach dem Prinzip „Versuch und Irrtum“ in Problemlösungsaufgaben in entsprechenden Feedback-Strukturen, sie bilden jedoch kein lebensweltliches Wissen heraus, welches sich nicht anhand der Optimierung einer Zielfunktion zur Bearbeitung eines Problems oder einer Aufgabe verstehen ließe. Beide Systeme beziehen sich auf ein mathematisches Weltmodell und müssen ihre Umgebung in Form von Zahlen repräsentieren und
Vgl. Dreyfus, Hubert L. und Dreyfus, Stuart E.: Einen Geist bauen gegen ein Gehirn modellieren: Künstliche Intelligenz wieder an der Abzweigung, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 15–44, dort S. 43. Vgl. auch Dreyfus, Hubert L. und Dreyfus, Stuart E.: Mind over Machine. The Power of Human Intuition and Expertise in the Era of the Computer, New York 1988, S. 11. 117 Vgl. Dreyfus, Hubert und Taylor, Charles: Die Wiedergewinnung des Realismus, Berlin 2016. 118 „Ein Bild hielt uns gefangen“ (Wittgenstein: Philosophische Untersuchungen, a. a. O., §115). 119 Ebd., S. 171–190. 120 Ebd., S. 137. 121 Vgl. Kap. 3.1 dieser Arbeit. 122 Russell und Norvig: Künstliche Intelligenz. Ein moderner Ansatz, 3. Auflage, a. a. O., S. 1180–1182. 123 Ebd. 116
426
4.4 Kann eine Maschine denken?
weiterverarbeiten. Auch wenn neuronale Netze nicht immer einen „Trainer“ brauchen, um zu lernen,124 muss für neuronale Netze die Möglichkeit geschaffen werden, eine Outputfunktion funktional zu optimieren. Lernen steht dabei immer unter der Zielstellung der Optimierung von Problemlösung. Das entspricht nicht dem Lernen beim Menschen, für den das Optimieren von Problemlösungen nur einen Teil des Lernens ausmacht. Der überwiegende Teil menschlicher Lernprozesse ist jedoch nicht auf eine spezifische Problemlösung ausgerichtet, sondern formt als implizites Wissen das menschliche lebensweltliche Erfahrungswissen. Lebensweltliches Wissen ist personales Wissen, weil es sich an die leibliche Konstitution im biographischen und sozialen Kontext einer Person einbettet. Menschlicher Wissenserwerb ist dabei nicht von einer spezifizierbaren Zielfunktion geprägt, sondern durch seine Offenheit gekennzeichnet. Eine solche Offenheit ist in künstlich intelligenten Systemen nicht gegeben, auch nicht in neuronalen Netzen. Für eine Analyse von Computertechnologien mit künstlicher Intelligenz unter erkenntnistheoretischen Fragestellungen lässt sich herausstellen, dass eine adäquate Einordnung von künstlicher Intelligenz nur mit einer Bewusstwerdung um die grundlegende Unterschiedlichkeit von menschlicher und maschineller Intelligenz gelingen kann. Die Einsichten in die Grundbedingungen menschlicher Erkenntnis erweisen sich hier als wegweisend für die Herausbildung eines Bewusstseins über den Unterschied zwischen formallogisch repräsentierten Wissensstrukturen und den Grundstrukturen menschlichen Wissens. In Bezug auf die Möglichkeiten künstlicher Intelligenz ergeben sich aus diesen Einwänden verschiedenartige Implikationen für die beiden unterschiedlichen Grundherangehensweisen zur Konstruktion von IT-Architekturen: für deterministisch-formallogische Systeme auf der einen Seite und für neuronale Netze auf der anderen Seite. Die Anwendungspotentiale der klassischen, symbolverarbeitenden künstlichen Intelligenz müssen anhand der skizzierten Grenzen formalistischer Sprache als grundverschieden zu menschlichem sprachlichem Handeln eingeordnet werden. Als beschränkt auf einen mathematisch-logischen Formalismus ist Sprachverstehen und -wiedergabe in KI-Systemen auf formalisierbare Aspekte beschränkt.125 KI-Anwendungen bedienen sich einer Architektur, welche sich in Grundmechanismen instrumenteller Zweckrationalität unter Rückgriff auf mathematische Reduktion und Abstraktion konkret messbarer Aspekte von Wirklichkeit erschöpfen muss. Sie werden der Offenheit und Unverfügbarkeit menschlicher Sprache nicht gerecht, rekurrieren auch nicht auf personale Ebd., S. 1181. Zu einer Analyse von Sprachfähigkeit von Computern anhand des „Sprachspiels“ bei Wittgenstein vgl. Selzer, Edgar: Denn der Mensch ist mehr als sein Computer. Warum die Turing-Maschine das WITTGENSTEIN’sche Sprachspiel nicht bewältigen kann, Wien 2011. Selzer belegt anhand von verschiedenen Beispielen mit Wittgensteins Sprachanalysen die Unmöglichkeit, natürliche Wortsprache „vollformal“ auszudrücken.
124 125
427
4 Exkurse
Dimensionen von Intentionalität oder leiblichen In-der-Welt-Seins. Vielschichtigkeit, Multidimensionalität, Polysemantik und die Offenheit menschlicher Sprachkontexte kann mathematisch nur mithilfe von probabilistischen Rechenoperationen kompensiert werden, die im Sinne einer statistischen Logik einen objektiv messbaren funktionalen Erfolg auch in offenen und vagen Kontexten anzielen. Menschliches Sprachverstehen ist jedoch nicht dadurch charakterisiert, dass jede Aussage zunächst in eine mathematische formallogische Sprache transformiert und dann in eine alltagssprachliche Aussage rückübersetzt wird. Für Anwendungen mit neuronalen Netzwerken gilt in besonderem Maße, dass sie der Offenheit menschlicher Sprachpraxis in Abgrenzung zu einem Versuch der Formalisierung der Welt durch eine Anpassungsfähigkeit, Lernfähigkeit und Umstrukturierungsmöglichkeit begegnen sollen. Lernfähig sind neuronale Netzwerke jedoch nur unter den Vorgaben einer konkreten Zielfunktion. Damit entsprechen sie zwar dem Anspruch intentionalen Handelns personaler Sprechakte, die gelingen oder misslingen können, aber die Offenheit von neuronalen Netzwerken beschränkt sich auf die Fähigkeit zur Umstrukturierung der mathematischen Wichtung, mit welcher die Messungen der Input-Ebene weiterverarbeitet werden, um eine Output-Funktion zu optimieren. Trotz ihrer Parallele zu Strukturen des menschlichen Gehirns kann eine Analogie mit der Offenheit menschlicher Existenz, welche sich in leiblichen Vollzügen ereignet und in welcher auch letzte Antworten immer wieder hinterfragt werden können, nicht gerechtfertigt begründet werden. Menschliche Personen interagieren mit ihrer Umwelt geprägt von Ebenen des Unbewussten, des Vortheoretischen, des Lebensweltlichen, ohne ihre jeweiligen sprachlichen Sinnpotentiale je einholen zu können. Dennoch birgt die Fähigkeit zur Reflexion und Selbstbesinnung des Menschen einen Zugang der immer tiefergehenden Auseinandersetzungen mit prinzipiell unverfügbaren Sinndimensionen menschlicher Praxis. Diese entziehen sich jedoch grundsätzlich einer Überführung in eine mathematische Formallogik, ohne welche künstlich intelligente Agenten nicht operieren können. Den Einsichten der Wissenschaftsphilosophie und -theorie des 20. und 21. Jahrhunderts folgend muss hinsichtlich der Möglichkeit einer vollständigen Formalisierbarkeit der Welt mithilfe einer mathematisch-formallogischen Sprache festgehalten werden, dass in dieser nur Teilaspekte dessen wiedergegeben werden können, was die Totalität personaler Wissensstrukturen des Menschen ausmacht. Sowohl hinsichtlich der Erkenntnisbedingungen als auch in Bezug auf die Möglichkeitsbedingungen wissenschaftlicher Praxis erweist sich eine mechanistische Auffassung der Welt als inadäquat, um das erkenntnistheoretische Verhältnis von Mensch und Welt zu beschreiben. Menschliche Denk- und Wissensprozesse sind grundverschieden zur Art und Weise von Rechenprozessen in Technologien der künstlichen Intelligenz. Während der Mensch zwar in der Lage ist, über die Reflexion und das Einüben in formallogischen Urteilen einen Teil der Aspekte seines alltagssprachlichen in-der-Welt-Seins 428
4.4 Kann eine Maschine denken?
in Form von mathematischen Logiksätzen wiederzugeben, gelingt dies nur unter der Ausklammerung von Komplexität, Vieldeutigkeit und verschiedenartigen Vorbedingungen. Ein Großteil dessen, was menschliches Denken und auch wissenschaftliche Erkenntnisprozesse mit bedingt, entzieht sich einer strengen Formalisierbarkeit. Jegliche Computerintelligenz ist angewiesen auf die Strukturen formallogischer Sprache. Was in diesen nicht aufgeht und nicht in diese überführt werden kann, entzieht sich der operativen Handhabbarkeit mit intelligenten Informatiksystemen. Unter den Dimensionen menschlicher Lebenspraxis und der Fülle menschlicher Intelligenzperspektiven erweist sich Rationalität und noch stärker eine formallogische Repräsentation kognitiver Prozesse als ein lediglich kleiner Teilbereich der Intelligenz des Menschen. Dieser wiederum wird in Systemen mit künstlicher Intelligenz in einer potenzierten Form abgebildet, sodass die Bearbeitungsgeschwindigkeit von Aufgaben und Problemen, die mit dieser Form von Intelligenz sinnvoll gelöst werden können, in künstlich intelligenten Systemen weitaus schneller ist als beim Menschen. In diesem Sinn können Computer als „intelligent“ bezeichnet werden – denn mit ihnen können Aufgaben gelöst werden, für die Menschen ansonsten ihre Intelligenz einsetzen müssen. Und mit ihnen können Aufgaben gelöst werden, die ohne ihre Hilfe für Menschen unlösbar wären, weil dafür eine so große Datenmenge verarbeitet werden muss, dass Menschen durch ihre konstitutionellen Grenzen und durch die Vielschichtigkeit ihrer Intelligenz mit ihren lebensweltlichen, sozialen und fragenden Bezügen gar nicht ohne technische Hilfe dahin gelangen würden, diese Probleme zu lösen. Es ist aus diesem Grunde plausibel, künstliche Intelligenz als verlängerten Arm der menschlichen Intelligenz zu betrachten, ähnlich wie andere Technik auch, jedoch durchaus mit der spezifischen Besonderheit, dass in dieser Technik einige Teilbereiche der menschlichen Intelligenz simuliert werden können. Dennoch kann der Intelligenzbegriff, welcher für Maschinen zur Anwendung gebracht wird, nicht für eine vollständige Analogie zur menschlichen Intelligenz in Ansatz gebracht werden, ohne dabei die erkenntnistheoretischen Bedingungen jedes Erkenntnisprozesses auszuklammern. Eine Gleichsetzung von Maschinenintelligenz mit menschlicher Intelligenz ist darum zurückzuweisen, weil ihre konstitutiven Grundstrukturen sich fundamental unterscheiden. Statt einer restlosen Gleichsetzung von Mensch und Maschine ist bei einer Ausweitung des Intelligenzbegriffs auf maschinelle Systeme hingegen zu prüfen, inwieweit ein solcher Intelligenzbegriff auch auf Pflanzen und Tiere übertragen werden kann. Es ist inkonsequent, wenn Marvin Minsky zwar annimmt, dass Computer Bewusstsein und Geist haben können, weil diese Eigenschaften sich aus mechanischen Einzelstrukturen heraus entwickeln, aber ablehnt, den Intelligenzbegriff auf das Verhalten von Tieren anzuwenden, weil diese ja nur ihren Instinkten und den Bedingungen einer mechanistischen Kausalität folgen würden.126 Vgl. Minsky, Marvin: Mentopolis, Stuttgart 1990, S. 71.
126
429
4 Exkurse
Ein Intelligenzbegriff, der nicht die Vollständigkeit und grundsätzliche Gleichheit menschlicher Intelligenz voraussetzt, kann vielleicht auch für das Verhalten von Pflanzen und Tieren angewendet werden, wenn deren Interaktion mit ihrer Umwelt sich im Sinne von Umgebungswahrnehmung, Mustererkennung und Problemlösung charakterisieren lässt. Eine Ablehnung der Zuschreibung von Intelligenz an Tiere und Pflanzen wäre zurückgebunden an eine dualistische Gegenüberstellung von Körperwelt und Geist, wobei dem logischen Geist eine höhere Wertung als der körperlichen, affektiven, triebhaften Seite organischen Lebens zugeschrieben würde. Der Vergleich zwischen künstlicher und menschlicher Intelligenz zeigt, dass Funktionalität und Logik vielleicht weniger zu den genuinen Stärken des Menschen gehören als das, was dem Menschen an Grenzen gegeben ist. Damit birgt die Reflexion auf die Unterschiede zwischen menschlicher und maschineller Intelligenz auch ein Potential für die philosophische Anthropologie und für einen neuen Diskurs um das Wesen des Menschen jenseits von rationalistischen oder funktionalistischen Vereinseitigungen. Eine klare Differenzierung über die Unterschiede zwischen menschlicher und maschineller Intelligenz ist wichtig für jede normative Einschätzung aus einer Perspektive der Technikethik. Auch eine Bestimmung des Verhältnisses von künstlicher Intelligenz und Anthropologie muss die Unterschiede zwischen Mensch und Maschine reflektieren. Künstliche Intelligenz bildet insgesamt nur einen kleinen Ausschnitt der Rationalität des Menschen ab, Teilaspekte seiner Intelligenz, diese aber mit hoher Leistungsfähigkeit, Zuverlässigkeit und Präzision. Maschinelle Intelligenz gründet auf formallogischen Strukturen, auf Algorithmen und mathematischen Architekturen, mithilfe derer Problemlösungsaufgaben bearbeitet werden können. Was sich in formallogischen und mathematischen Strukturen abbilden lässt, kann mithilfe von Technologien mit künstlicher Intelligenz in extrem hoher Leistungsfähigkeit verarbeitet werden. Daher sind Technologien mit künstlicher Intelligenz in bestimmten Teilbereichen der Problembearbeitung und Informationsverarbeitung weitaus leistungsfähiger als Menschen, wenn diese mit denselben Aufgaben betreut würden. Auch manche Aufgaben, die der Mensch nicht nach formallogischen Prinzipien bearbeitet, können durch formallogische Strukturen simuliert werden, um bestimmte kognitive Leistungen des Menschen nachzubilden. Die Intelligenz des Menschen ist im Gegensatz zu künstlicher Intelligenz nicht primär formallogisch konstituiert. Als Apriori jeder Wahrnehmung und Erkenntnis ist sie in Leiblichkeit eingebettet. Der Mensch erfährt als Leib die Welt und handelt in ihr. Formallogische Abstraktionen und Beschreibungen gehen seiner Leiblichkeit nicht voraus, sondern werden erst aus einer leiblichen Perspektive her entwickelt. Damit ist die Rationalität des Menschen nicht formallogisch losgelöst von seiner leiblichen Existenz zu betrachten, die auch mit einer emotionalen Ebene zusammenverwoben ist. Eine „reine Vernunft“, die von jeder emotionalen, affektiven, leiblichen Färbung frei wäre, ist dem Menschen unverfügbar. Obwohl für emotionale 430
4.4 Kann eine Maschine denken?
Strukturen funktionaler Sinn rekonstruiert werden kann, erweist sich die Emotionalität des Menschen nicht primär als funktional, sondern entzieht sich oftmals gerade einer instrumentellen Verfügbarmachung. Das Wesen der Emotionalität geht in ihrer funktionalen Bestimmung nicht auf. Die Rationalität des Menschen ist neben ihrer Verwobenheit mit der Leiblichkeit des Menschen und mit einer Ebene des emotionalen Lebens auch von ihrer Sozialität vorbedingt. Erst in der Interaktion mit anderen bilden sich die Strukturen von Rationalität im Menschen. Eine formallogische Abstraktion von Intelligenz muss daher große Teile von elementarer Bedeutung für die Herausbildung der menschlichen Intelligenz ausblenden. Moralphilosophisch ist die Rationalität des Menschen als Offenheit normativer Sinnorientierung von einem Hinterfragen und einem Sichverhalten gegenüber Aspekten von Negativität der menschlichen Existenz gekennzeichnet. In quantitativen und formalistischen Bestimmungen gehen diese Aspekte nicht auf. Die Einsicht in die konstitutive Bedeutung von Leiblichkeit für die Herausbildung personaler Intelligenz beim Menschen, auf welche zuerst die Brüder Dreyfus verwiesen hatten, wurde in der KI-Forschung und in der Entwicklung von Robotik als Inspiration für die technische Weiterentwicklung aufgegriffen, als „Embodiment“ von künstlicher Intelligenz. Intelligenz braucht einen Körper: „Unter dem Embodiment-Programm werden Robotik, Vision und andere Sensoren zu zentralen Elementen und nicht zu peripheren.“127 Doch inwieweit entspricht ein Embodiment-Programm tatsächlich der leiblichen Konstitution menschlicher Intelligenz? Künstliche Intelligenz kann in einen „Körper“, in ein robotisches System integriert werden. Sensorik ermöglicht dabei, dass ein KI-System aus einer körperlichen Perspektive mit seiner Umgebung interagieren kann. Die „Wahrnehmung“, der Input der verschiedenen Sensoren wirkt somit auf das Verhalten des Roboters zurück. Künstliche Intelligenz kann also in einen Körper implementiert werden. Sie bleibt dennoch nicht prinzipiell leiblich bestimmt, denn die formallogischen Strukturen, in denen sie operiert, können zunächst auch losgelöst von einem „Leib“ ablaufen. Der Intelligenzbegriff ist bei Kurzweil nicht mehr abhängig von einem Körper. Stattdessen kann künstliche Intelligenz beliebig in körperliche Formen eingebettet werden: „Wenn wir – mit der Version 3.0 unseres Körpers – beliebige Formen annehmen können und unsere überwiegend nichtbiologischen Gehirne nicht mehr an biologische Grenzen gebunden sind, wird man sich mit der Frage beschäftigen, was eigentlich menschlich ist.“128 Es ist vermessen von Kurzweil zu behaupten, dass die Menschheit auf irgendeinen Zeitpunkt x warten würde, bevor sie sich mit der Frage nach dem Wesen des Menschen beschäftigt; die Frage nach dem Wesen des Menschen gehört zu den ältesten Fragen des menschlichen Geistesgeschichte. Vgl. Russell und Norvig: Künstliche Intelligenz. Ein moderner Ansatz, 3. Auflage, a. a. O., S. 1182. Kurzweil: Menschheit 2.0, a. a. O., S. 347.
127
128
431
4 Exkurse
Zum Wesen der menschlichen Intelligenz gehört, dass seine Intelligenz unhintergehbar von Leiblichkeit bestimmt ist. Gerade darin, dass die menschliche Intelligenz eben nicht „beliebig“ in verschiedene Systeme übertragen werden kann, erweist sie sich als nicht losgelöst von einem Körper, sondern mit diesem wesenhaft verbunden. Und genau darin unterscheidet sich die menschliche Intelligenz von jedem KI-System. Wenn KI in verschiedenen „Körpern“, in materiellen robotischen Systemen implementiert werden kann, dann bleibt sie dennoch nicht wesenhaft mit diesen verbunden, als aus einem Leib erst hervorgehend. Nietzsche wies auf die unhintergehbare Verwobenheit von personaler Intelligenz und dem Leib des Menschen hin: „Der Leib ist eine große Vernunft, eine Vielheit mit einem Sinne, ein Krieg und ein Frieden, eine Herde und ein Hirt. Werkzeug deines Leibes ist auch deine kleine Vernunft, mein Bruder, die du ‚Geist‘ nennst, ein kleines Werk- und Spielzeug deiner großen Vernunft. ‚Ich‘ sagst du und bist stolz auf dies Wort. Aber das Größere ist, woran du nicht glauben willst – dein Leib und seine große Vernunft: die sagt nicht Ich, aber tut Ich.“129 Künstliche Intelligenz braucht keinen Leib, sondern einen Programmierer. Künstliche Intelligenz bildet sich nicht existentiell in einem individuellen Körper heraus, sondern wird unabhängig von diesem unter instrumentellen Zielstellungen konstruiert und kann anschließend in ein materielles, z. B. robotisches System, implementiert werden. Die „Inkarnation“130 einer künstlichen Intelligenz erfolgt nachträglich. Dadurch ist es auch möglich, auf die Informationen zuzugreifen, diese zu vernetzen, weiterzuentwickeln und in andere Systeme ebenso zu implementieren. Damit erweist sich künstliche Intelligenz als nicht genuin leiblich konstituiert. Der Geist des Menschen ist inkarniert, bevor sich seine Intelligenz entfaltet. Der Mensch entwickelt seine Intelligenz als Leib, in seinem Leib, immer begleitet und geprägt von Empfindungen und Wahrnehmungen, immer als erlebendes, empfindendes Subjekt, immer als vergängliches Wesen, immer als fragendes Wesen, immer als zerbrechliches und leidensfähiges Wesen, immer als suchendes Wesen. Der Mensch ist all das in seinem Leib, als Leib, niemals losgelöst von ihm. Daher erfährt der Mensch auch seine Welt, er erlebt sie – als Organismus, als Leib. Er ist darauf existentiell angewiesen und seine Intelligenz kann losgelöst von dieser Dimension des Erlebens nicht existieren. Nun als Zusammenfassung der Versuch einer philosophischen Antwort auf die Frage von Alan Turing: Kann eine Maschine denken? Nein. Die Rechenprozesse von Maschinen bilden nicht das ab, was die Ebene des Denkens beim Menschen bezeichnet. Maschinelle Rechenprozesse sind nicht eingebettet in eine Perspektive der Leiblichkeit, Maschinen können nicht existentiell fragen, können nicht auf eine Dimension von Sinn rekurrieren als einer Ebene dessen, worauf die Sprache verweist, was Nietzsche: Also sprach Zarathustra, a. a. O., S. 300 (Von den Verächtern des Leibes). Russell und Norvig: Künstliche Intelligenz, 3. Auflage, a. a. O., S. 1182.
129
130
432
4.4 Kann eine Maschine denken?
jedoch nicht als quantifizierbare Information in einer sprachlichen Aussage, einem Satz vorliegt. Maschinelle Rechenprozesse sind nicht vorgeprägt von vortheoretischen, lebensweltlichen Erfahrungen, sind nicht verwoben mit emotionalem Erleben. Sie bilden sich nicht unter der Bestimmung sozialer interexistentieller Lebenspraxis heraus. Sie stehen im Gegensatz zum Menschen unter instrumentellen Zielsetzungen, kennen nicht die existentielle Grunderfahrung der Fragilität und Fehlbarkeit, kennen weder Sinn noch Sinnlosigkeit. Sie können nicht fragen, abgesehen von einer grammatischen Struktur. Sie können nicht auf das Verständnis einer Ebene zielen, die jenseits von der Mathematik liegt. Ihre Ergebnisse können deterministisch sein oder zufällig, jedoch niemals frei. Nachtrag: Können Menschen denken? Antwort: Ja, leider. Es wäre für uns vielleicht leichter, wenn wir nicht denken könnten, wie wir denken; wenn wir eine künstliche Intelligenz wären, die nicht leiden, nicht fragen kann und muss; wenn wir alles, was wir wüssten, mit der Exaktheit der Mathematik wüssten und nicht nach dem fragen könnten, was darüber hinausgeht; wenn wir unser vorgegebenes Ziel kennen würden und unser Verhalten danach ausrichten könnten; wenn wir nicht hinterfragen müssten, was wir tun; wenn wir nicht immer die Ahnung hätten, dass vielleicht alles, was geschieht, auch anders geschehen könnte; wenn wir nicht immer abwägen und entscheiden müssten; wenn wir nicht empfindsam und leidensfähig wären; wenn wir nicht von den Abgründen unserer Psyche überwältigt werden könnten; wenn wir nicht loslassen, trauern müssten; wenn wir nicht frei wären und oft überfordert von dieser Freiheit; wenn wir nicht einander zum Fallstrick würden, weil wir unsere Freiheit so oft missbrauchen; wenn wir keine Narzissten wären, die sich mit einem Großteil ihrer Intelligenz um ihr Ego drehen; wenn unser Verhalten nicht ambivalent und widersprüchlich wäre; wenn wir nicht verantwortlich wären für die Welt, die wir zur Hölle machen; wenn wir wenigstens darüber nicht reflektieren würden und uns über all das bewusst werden könnten; wenn wir nicht erschrecken könnten über uns selbst. Wir leiden an unserer eigenen Komplexität und Widersprüchlichkeit, an unserer Größe und unserer Niedrigkeit. Doch nur deshalb können wir überhaupt träumen, nur deshalb können wir um Sinn ringen. „Die Größe des Menschen zeigt sich darin eben groß, dass er sich seines Elends bewusst ist.“131
Pascal, Blaise: Pensées, in: Geist und Herz, Berlin 1964, S. 168.
131
433
Literaturverzeichnis Monographien und Aufsätze in Sammelbänden Die Bibel. Nach der Übersetzung Martin Luthers mit Apokryphen, rev. Fassung 1984, Stuttgart 1999. Adorno, Theodor W. und Horkheimer, Max: Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt am Main 1990. Adorno, Theodor W.: Vorlesung über Negative Dialektik, Frankfurt am Main 2007. Adorno, Theodor W.: Negative Dialektik, Frankfurt am Main 2013. Alesso, H. Peter und Smith, Craig F.: Thinking on the Web. Berners-Lee, Gödel, and Turing, Hoboken 2009. Arendt, Hannah: Vita activa oder Vom tätigen Leben, München 1989. Arendt, Hannah: Eichmann in Jerusalem. Ein Bericht von der Banalität des Bösen, München 2013. Aristoteles: Politik, übers. v. E. Rolfes, Leipzig 1922. Aristoteles: Tierkunde, hg. und übertragen von Paul Gohlke, Paderborn 1957. Aristoteles: Πολιτικων / Politica in: Opera omnia. Graece et Latine, vol. I, Zürich 1998, S. 482–634. Aristoteles: Περι τα ζῳα ἱστοριων / De Animalibus Historiae, in: Opera omnia. Graece et Latine, vol. III, Zürich 1998, S. 1–217. Aristoteles: Metaphysik, Stuttgart 2010. Asimov, Isaac: Ich, der Robot. Science-Fiction-Erzählungen, Berlin 1982. Asimov, Isaac: Die Grundregeln der Robotik, in: Bilsky, Emily D. und Lüdicke, Martina (Hg.): Golem, Berlin 2016. Äsop: Fabeln, gr./dt., übersetzt von Thomas Voskuhl, Stuttgart 2005. Aust, Stefan und Amman, Thomas: Digitale Diktatur. Totalüberwachung, Datenmissbrauch, Cyberkrieg, Berlin 2014. Austin, John Langshaw: Zur Theorie der Sprechakte (How to do things with Words), Stuttgart 1979. Bacon, Francis: Über die Würde und den Fortgang der Wissenschaften, Darmstadt 1966. Bacon, Francis: Das neue Organon (Novum Organon), Berlin 1982. Becker, Karin: Philosophische Diskussion der künstlichen Intelligenz und des künstlichen Bewusstseins. Denkmaschinen, Frankfurt am Main 2004. Becker, Philipp von: Der neue Glaube an die Unsterblichkeit. Transhumanismus, Biotechnik und digitaler Kapitalismus, Wien 2015.
435
Literaturverzeichnis Beckermann, Ansgar: Descartes’ metaphysischer Beweis für den Dualismus, Freiburg / München 1986. Bennett, Charles H.: The Fables of Aesop and Others. Translated into Human Nature, London 1857, Nachdruck der Franklin Classics Trade Press 2018. Bevilacqua, Vitoantonio u. a.: 3D Virtual Colonoscopy for Polyps Detection by Supervised Artificial Neural Networks, in: Huang, De-Shuang, Gan, Yong, Prashan, Premaratne und Han, Kyungsook (Hg.): Bio-Inspired Computing and Applications. 7th International Conference on Intelligent Computing, ICIC 2011, Zhengzhou, China, August 11–14, 2011, Revised Selected Papers, Heidelberg u. a. 2012, S. 596–603. Bilsky, Emily D. und Lüdicke, Martina (Hg.): Golem, Berlin 2016. Birbaumer, Niels und Schmidt, Robert F.: Biologische Psychologie, Heidelberg 2010. Böhr, Christoph und Gerl-Falkovitz, Hanna-Barbara (Hg.): Gott denken. Zur Philosophie von Religion, Wiesbaden 2019. Bostrom, Nick: Superintelligence. Paths, Dangers, Strategies, Oxford 2014. Bostrom, Nick: Superintelligenz. Szenarien einer kommenden Revolution, Berlin 2020. Brand, Lukas: Künstliche Tugend. Roboter als moralische Akteure, Regensburg 2018. Bruderer, Herbert: Meilensteine der Rechentechnik. Zur Geschichte der Mathematik und der Informatik, Berlin / Boston 2015. Buber, Martin: Ich und Du, Stuttgart 2009. Carrier, Martin und Mittelstraß, Jürgen: Geist, Gehirn, Verhalten. Das Leib-Seele-Problem und die Philosophie der Psychologie, Berlin 1989. Cheok, Adrian David und Levy, David (Hg.): Love and Sex with Robots, Cham 2018. Crockett, Larry L.: The Turing Test and the Frame Problem. AI’s Mistaken Understanding of Intelligence, New Jersey 1994. Darwin, Charles: Die Entstehung der Arten durch natürliche Zuchtwahl, Leipzig 1980. De La Mettrie, Julien Offray: L’homme machine. Die Maschine Mensch, französisch-deutsch, hg. v. Claudia Becker, Hamburg 1990. Denton, Michael: Organism and Machine: The Flawed Analogy, in: Richards, Jay W. u. a.: Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong A. I., Seattle / Washington 2002, S. 78–97. Descartes, René: Über den Menschen, Heidelberg 1969. Descartes, René: Meditationes de Prima Philosophia / Meditationen über die Erste Philosophie, lat./dt., Stuttgart 2005. Descartes, René: Discours de la Méthode pour bien conduire sa raison et chercher la vérité dans les sciences / Bericht über die Methode, die Vernunft richtig zu führen und die Wahrheit in den Wissenschaften zu erforschen, frz./dt., Stuttgart 2012. Dibbelt, Susanne und Kuhl, Julius: Volitional processes in decision making: Personality and situational determinants, in: Kuhl, Julius und Beckmann, Jürgen (Hg.): Volition and Personality. Action Versus State Orientation, Göttingen 1995, S. 177–194. Dijksterhuis, E. J.: Die Mechanisierung des Weltbildes, Heidelberg 1956.
436
Monographien und Aufsätze in Sammelbänden Dreyfus, Hubert L.: Die Grenzen künstlicher Intelligenz. Was Computer nicht können, Königstein im Taunus 1985. Dreyfus, Hubert L. und Dreyfus, Stuart E.: Mind over Machine. The Power of Human Intuition and Expertise in the Era of the Computer, New York 1988. Dreyfus, Hubert L.: Was Computer nicht können. Die Grenzen künstlicher Intelligenz, Frankfurt am Main 1989. Dreyfus Hubert L. und Dreyfus, Stuart E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition, Leck 1991. Dreyfus, Hubert L. und Dreyfus, Stuart E.: Einen Geist bauen gegen ein Gehirn modellieren: Künstliche Intelligenz wieder an der Abzweigung, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 15–44. Dreyfus, Hubert L.: On the Internet, London / New York 2001. Dreyfus, Hubert und Taylor, Charles: Die Wiedergewinnung des Realismus, Berlin 2016. Ebbinghaus, Heinz-Dieter, Mainzer, Klaus u. a. (Hg.): Zahlen, Berlin / Heidelberg 1992. Eccles, John C.: Wie das Selbst sein Gehirn steuert, Heidelberg 1994. Meister Eckehart: Vom Wunder der Seele. Eine Auswahl an den Traktaten und Predigten, Stuttgart 1979. Eggers, Dave: The Circle, New York 2014. Ertel, Wolfgang: Grundkurs Künstliche Intelligenz. Eine praxisorientierte Einführung, Wiesbaden 2009. Ewald, Günter: Gehirn, Seele und Computer. Der Mensch im Quantenzeitalter, Darmstadt 2006. Falkenburg, Brigitte: Mythos Determinismus. Wieviel erklärt uns die Hirnforschung?, Berlin / Heidelberg 2012. Fleck, Ludwik: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv, Frankfurt am Main 1980. Foerster, Heinz von: Kausalität, Unordnung, Selbstorganisation, in: Kratky, Karl W. und Wallner, Friedrich (Hg.): Grundprinzipien der Selbstorganisation, Darmstadt 1990, S. 77–95. Foucault, Michel: Die Hauptwerke, Frankfurt am Main 2013. Foucault, Michel: Überwachen und Strafen. Die Geburt des Gefängnisses, aus dem Französischen von Walter Seitter, in: Ders: Die Hauptwerke, Frankfurt am Main 2013, S. 701–1019. Foucault, Michel: Die Sorge um sich. Sexualität und Wahrheit, dritter Band, aus dem Französischen übersetzt von Ulrich Raulff und Walter Seitter, in: Ders.: Die Hauptwerke, Frankfurt am Main 2013, S. 1371–1582. Freud, Sigmund: Einige Bemerkungen über den Begriff des Unbewussten in der Psychoanalyse (1912), in: Sigmund Freud – Studienausgabe, Bd. III, Psychologie des Unbewussten, Frankfurt am Main 1975, S. 25–36. Freud, Sigmund: Das Unbewusste (1915), in: Sigmund Freud – Studienausgabe, Bd. III, Psychologie des Unbewussten, Frankfurt am Main 1975, S. 119–173.
437
Literaturverzeichnis Freud, Sigmund: Eine Schwierigkeit der Psychoanalyse, in: Imago. Zeitschrift für Anwendung der Psychoanalyse auf die Geisteswissenschaften V (1917), S. 1–7. Friebe, Cord u. a. (Hg.): Philosophie der Quantenphysik. Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen, Berlin / Heidelberg 2015. Friebe, Cord: Messproblem, Minimal– und Kollapsinterpretation, in: Friebe, Cord u. a. (Hg.): Philosophie der Quantenphysik. Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen, Berlin / Heidelberg 2015, S. 43–78. Gabriel, Markus: Ich ist nicht Gehirn. Philosophie des Geistes für das 21. Jahrhundert, Berlin 2015. Gabriel, Markus: Warum es die Welt nicht gibt, Berlin 2016. Gebser, Jean: Ursprung und Gegenwart, erster Teil: Das Fundament der aperspektivischen Welt. Beitrag zu einer Geschichte der Bewußtwerdung, Gesamtausgabe, Bd. II, Stuttgart 1978. Geiß, Robin: Autonome Waffensysteme – ethische und völkerrechtliche Problemstellungen, in: Werkner, Ines-Jacqueline und Hofheinz, Marco (Hg.): Unbemannte Waffen und ihre ethische Legitimierung. Fragen zur Gewalt, Bd. 5, Wiesbaden 2019, S. 41–62. Gemoll, Wilhelm: Griechisch-Deutsches Schul- und Handwörterbuch, 9. Auflage, Wien 1997. Georges, Karl Ernst: Ausführliches Lateinisch-Deutsches Handwörterbuch, 2 Bände, Darmstadt 2003. Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991. Gerl, Hanna-Barbara: Einführung in die Philosophie der Renaissance, Darmstadt 1989. Giebel, Marion: Das Orakel von Delphi. Geschichte und Texte, Gr. / Lat. / Dt., Stuttgart 2015. Gómez Dávila, Nicolás: Es genügt, dass die Schönheit unseren Überdruss streift … Aphorismen. Ausgewählt und hg. v. Michael Klovonsky, Stuttgart 2007. Goodman-Thau, Eveline: Golem, Adam oder Antichrist, in: Goodman-Thau, Eveline, Mattenklott, Gert und Schulte, Christoph: Kabbala und die Literatur der Romantik, Tübingen 1999, S. 81–134. Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996. Grimm, Jacob und Wilhelm: Deutsches Wörterbuch, Vierter Band, I. Abteilung, 2.-5. Teil, Leipzig 1897-1958. Güntsch, Fritz-Rudolph: Konrad Zuse und das Konzept des Universalrechners, in: Hellige, Hans-Dieter (Hg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Berlin / Heidelberg 2004, S. 43–59. Guttmann, Gieselher: Biologische Psychologie, in: Kastner-Koller, Ursula und Deimann, Pia (Hg.): Psychologie als Wissenschaft, Wien 2006, S. 109–122. Hansen, Frank-Peter: Geschichte der Logik des 19. Jahrhunderts. Eine kritische Einführung in die Anfänge der Erkenntnis- und Wissenschaftstheorie, Würzburg 2000. Harari, Yuval Noah: Homo Deus. Eine Geschichte von Morgen, München 2017. Hegel, Georg Wilhelm Friedrich: Phänomenologie des Geistes, Köln 2000.
438
Monographien und Aufsätze in Sammelbänden Heidegger, Martin: Vom Wesen des Grundes, Frankfurt am Main 1965. Heidegger, Martin: Was heißt Denken?, in: Ders.: Vorträge und Aufsätze, Stuttgart 2004, S. 123–138. Heidegger, Martin: Was heißt Denken? Vorlesung Wintersemester 1951/52, Stuttgart 2010. Heller, Ágnes: Von der Utopie zur Dystopie. Was können wir uns wünschen?, Wien 2016. Hellige, Hans-Dieter (Hg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Berlin / Heidelberg 2004. Heschel, Abraham Joschua: Das prophetische Bewußtsein, Warschau 1935. Heschel, Abraham Joschua: Gott sucht den Menschen. Eine Philosophie des Judentums, Neukirchen – Vluyn 1980. Heschel, Abraham Joschua: Die ungesicherte Freiheit. Essays zur menschlichen Existenz, Neukirchen – Vluyn 1985. Heschel, Abraham Joschua: Der Mensch fragt nach Gott. Untersuchungen zum Gebet und zur Symbolik, Neukirchen-Vluyn 1989. Hey, Tony und Pápay, Gyuri: The Computing Universe. A Journey through a Revolution, New York 2015. Hindrichs, Gunnar (Hg.): Klassiker Auslegen, Bd. 63: Max Horkheimer / Theodor W. Adorno – Dialektik der Aufklärung, Berlin / Boston 2017. Hinze, Thomas und Sturm, Monika: Rechnen mit DNA. Eine Einführung in Theorie und Praxis, München / Berlin 2009. Hodges, Andrew: Alan Turing, Enigma, Wien 1994. Höffe, Otfried (Hg.): Der Mensch – ein politisches Tier? Essays zur politischen Anthropologie, Stuttgart 1992. Hoffmann, E. T. A.: Die Automate, in: Ders.: Poetische Werke, Dritter Band, Berlin 1958, S. 411–444. Hoffmann, E. T. A.: Der Sandmann (1816), Frankfurt am Main 1986. Hofstadter, Douglas R.: Gödel, Escher, Bach. Ein Endloses Geflochtenes Band, Stuttgart 1985. Horgan, John: An den Grenzen des Wissens. Siegeszug und Dilemma der Naturwissenschaften, Frankfurt am Main 2000. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie, hg. v. Walter Biemel, Haag 1976. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie (ursprüngliche Abhandlung von 1936), hg. v. Elisabeth Ströker, Hamburg 1982. Huxley, Aldous: Schöne neue Welt, Leipzig 1988. Idel, Moshe: Der Golem. Jüdische magische und mystische Traditionen des künstlichen Anthropoiden, Frankfurt am Main 2007. Irrgang, Bernhard: Künstliche Intelligenz und menschlicher Geist, Stuttgart 2005. Irrgang, Bernhard: Einführung in die Bioethik, München 2005. Irrgang, Bernhard: Posthumanes Menschsein? Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und Designer-Menschen. Anthropologie des künstlichen Menschen im 21. Jahrhundert, Stuttgart 2005.
439
Literaturverzeichnis Irrgang, Bernhard: Gehirn und leiblicher Geist. Phänomenologisch-hermeneutische Philosophie des Geistes, Stuttgart 2007. Irrgang, Bernhard: Der Leib des Menschen. Grundriss einer phänomenologisch-hermeneutischen Anthropologie, Stuttgart 2009. Irrgang, Bernhard: Homo Faber. Arbeit, technische Lebensform und menschlicher Leib, Würzburg 2010. Irrgang, Bernhard: Handling technical Power. Philosophy of Technology, Stuttgart 2014. Irrgang, Bernhard: Der Leib des Homo Faber, in: Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015, S. 125–150. Irrgang, Bernhard: Menschlicher Leib, personales Wissen, Praxis. Zur Kritik der Leibkonzeption der Neuen Phänomenologie, in: Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015, S. 75–104. Irrgang, Bernhard: Technologische Entwicklungspfade: Innovation und Folgelasten. Macht und Ohnmacht angewandter Ethik bei der Einbettung nutzerfreundlicher Technologie, Würzburg 2016. Israel, Joachim: Der Begriff Entfremdung. Makrosoziologische Untersuchung von Marx bis zur Soziologie der Gegenwart, Reinbek bei Hamburg 1972. Janich, Peter, Kambartel, Friedrich und Mittelstraß, Jürgen: Wissenschaftstheorie als Wissenschaftskritik, Frankfurt am Main 1974. Janich, Peter: Die Galileische Geometrie, in: Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991, S. 164–179. Janich, Peter: Grenzen der Naturwissenschaft. Erkennen als Handeln, München 1992. Janich, Peter: Kultur und Methode. Philosophie in einer wissenschaftlich geprägten Welt, Frankfurt am Main 2006. Janich, Peter: Das Bild des Menschen in den Wissenschaften, Paderborn 2007. Jansen, Markus: Digitale Herrschaft. Über das Zeitalter der globalen Kontrolle und wie Transhumanismus und Synthetische Biologie das Leben neu definieren, Budapest 2015. Kant, Immanuel: Prolegomena zu einer jeden künftigen Metaphysik, Leipzig 1979. Kant, Immanuel: Metaphysik der Sitten, in: Ders.: Schriften zur Ethik und Religionsphilosophie. Zweiter Teil, Darmstadt 1983, S. 309–634. Kant, Immanuel: Kritik der praktischen Vernunft, Stuttgart 1992. Kant, Immanuel: Die Religion innerhalb der Grenzen der bloßen Vernunft, Stuttgart 2007. Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, Stuttgart 2008. Kant, Immanuel: Kritik der reinen Vernunft, Stuttgart 2009. Kastner-Koller, Ursula und Deimann, Pia (Hg.): Psychologie als Wissenschaft, Wien 2006. Kaufmann, Hans: Die Ahnen des Computers. Von der phönizischen Schrift zur Datenverarbeitung, Wien 1974.
440
Monographien und Aufsätze in Sammelbänden Kewenig, Viktor: Intentionality but Not Consciousness. Reconsidering Robot Love, in: Zhou, Yuefang und Fischer, Martin H. (Hg.): AI Love You. Developments in Human-Robot Intimate Relationships, Cham 2019, S. 21–40. Kierkegaard, Sören: Die Wiederholung. Ein Versuch in der experimentellen Psychologie von Constantin Constantius (Kopenhagen 1843), Leck 1961. Kierkegaard, Sören: Philosophische Brocken (Kopenhagen 1844), Leck 1964. Kierkegaard, Sören: Paulus, in: Der Einzelne und sein Gott, Freiburg im Breisgau 1961. Kierkegaard, Sören: Entweder – Oder, München 2009. Kinnebrock, Werner: Bedeutende Theorien des 20. Jahrhunderts. Relativitätstheorie, Kosmologie, Quantenmechanik und Chaostheorie, München 2013. Klix, Friedhart: Information und Verhalten. Kybernetische Aspekte der organischen Informationsverarbeitung. Einführung in die naturwissenschaftlichen Grundlagen der Allgemeinen Psychologie, Berlin 1973. Knorr-Cetina, Karin: Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Frankfurt am Main 1991. Koch, Bernhard: Die ethische Debatte um den Einsatz von ferngesteuerten und autonomen Waffensystemen, in: Werkner, Ines-Jacqueline und Hofheinz, Marco (Hg.): Unbemannte Waffen und ihre ethische Legitimierung. Fragen zur Gewalt, Bd. 5, Wiesbaden 2019, S. 13–40. Köhler, Dietmar und Pöggeler, Otto (Hg.): Klassiker Auslegen, Bd. 16: G. W. F. Hegel: Phänomenologie des Geistes, Berlin 2006. Köhler, Dietmar: Hegels Gewissensdialektik, in: Köhler, Dietmar und Pöggeler, Otto (Hg.): Klassiker Auslegen, Bd. 16: G. W. F. Hegel: Phänomenologie des Geistes, Berlin 2006, S. 211–228. Kratky, Karl W. und Wallner, Friedrich (Hg.): Grundprinzipien der Selbstorganisation, Darmstadt 1990. Kratky, Karl W.: Der Paradigmenwechsel von der Fremd- zur Selbstorganisation, in: Kratky, Karl W. und Wallner, Friedrich (Hg.): Grundprinzipien der Selbstorganisation, Darmstadt 1990, S. 3–17. Krüger, Oliver: Virtualität und Unsterblichkeit. Die Visionen des Posthumanismus, Freiburg im Breisgau 2004. Kucklick, Christoph: Die granulare Gesellschaft. Wie das Digitale unsere Wirklichkeit auflöst, Berlin 2014. Kuhl, Julius und Beckmann, Jürgen (Hg.): Volition and Personality. Action Versus State Orientation, Göttingen 1995. Kuhl, Julius und Heckhausen, Heinz (Hg.): Enzyklopädie der Psychologie. Themenbereich C, Serie IV, Band 4: Motivation, Volition und Handlung, Göttingen 1996. Kuhl, Julius: Wille und Freiheitserleben: Formen der Selbststeuerung, in: Kuhl, Julius und Heckhausen, Heinz (Hg.): Enzyklopädie der Psychologie. Themenbereich C, Serie IV, Band 4: Motivation, Volition und Handlung, Göttingen 1996, S. 665–765. Kuhn, Thomas S.: Die Struktur wissenschaftlicher Revolutionen, Frankfurt am Main 1967. Künzel, Werner und Bexte, Peter: Maschinendenken / Denkmaschinen. An den Schaltstellen zweier Kulturen, Frankfurt am Main 1996. Kurzweil, Ray: Transcend. Nine Steps to Living Well Forever, New York 2009. Kurzweil, Ray: Menschheit 2.0, übers. von Martin Rötzschke, Berlin 2014.
441
Literaturverzeichnis Kurzweil, Ray: How to Create a Mind. The Secret of Human Thought Revealed, London 2012. Kurzweil, Ray: Das Geheimnis des menschlichen Denkens. Einblicke in das Reverse Engineering des Gehirns, übersetzt von Jens Ole Beckers und Jan Schenkenberger, Berlin 2014. Kurzweil, Ray: Die Intelligenz der Evolution. Wenn Mensch und Computer verschmelzen, Köln 2016. Lämmel, Uwe und Cleve, Jürgen: Künstliche Intelligenz, München 2012. Laozi: Daodejing. Das Buch vom Weg und seiner Wirkung. Chinesisch / Deutsch, übersetzt und hg. von Rainald Simon, Stuttgart 2009. de Laplace, Pierre Simon: Philosophischer Versuch über die Wahrscheinlichkeit (1814), Leipzig 1932. Leavitt, David: The Man Who Knew Too Much. Alan Turing and the Invention of the Computer, London 2007. Lee, Kai-Fu: AI Superpowers. China, Silicon Valley und die neue Weltordnung, Frankfurt am Main 2019. Leibniz, Gottfried Wilhelm: Neues System der Natur und der Verbindung der Substanzen sowie der Vereinigung zwischen Seele und Körper, in: Fünf Schriften zur Logik und Metaphysik, Stuttgart 1995, S. 21–34. Lenzen, Manuela: Natürliche und künstliche Intelligenz. Einführung in die Kognitionswissenschaft, Frankfurt am Main 2002. Lenzen, Manuela: Künstliche Intelligenz. Was sie kann und was uns erwartet, München 2019. Lévinas, Emmanuel: Humanismus des anderen Menschen, Hamburg 1989. Lévinas, Emmanuel: Die Spur des Anderen. Untersuchungen zur Phänomenologie und Sozialphilosophie, Freiburg / München 1992. Lévinas, Emmanuel: Zwischen uns. Versuche über das Denken an den Anderen, München / Wien 1995. Lewis, David: Die Reduktion des Geistes, in: Ders.: Materialismus und Bewusstsein, Frankfurt am Main 2007, S. 11–51. Liberati, Nicola: Being „Riajuu“. A Phenomenological Analysis of Sentimental Relationships with “Digital Others”, in: Cheok, Adrian David und Levy, David (Hg.): Love and Sex with Robots, Cham 2018, S. 12–25. Loh, Janina: Trans- und Posthumanismus. Zur Einführung, Hamburg 2018. Loistl, Otto und Betz, Iro: Chaostheorie. Zur Theorie nichtlinearer dynamischer Systeme, München 1994. Maderthaner, Rainer: Einführung in die Psychologie, in: Kastner-Koller, Ursula und Deimann, Pia (Hg.): Psychologie als Wissenschaft, Wien 2006, S. 13–34. Mainzer, Klaus: Geschichte der Geometrie, Zürich 1980. Mainzer, Klaus: Grundlagenprobleme in der Geschichte der exakten Wissenschaften, Konstanz 1981. Mainzer, Klaus: Philosophie und Physik der Raum-Zeit, Zürich 1988. Mainzer, Klaus (Hg.): Quanten, Chaos und Dämonen. Erkenntnistheoretische Aspekte der modernen Physik, Mannheim 1994.
442
Monographien und Aufsätze in Sammelbänden Mainzer, Klaus: Computer – Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin 1994. Mainzer, Klaus: Quanten, Chaos und Selbstorganisation, in: Ders. (Hg.): Quanten, Chaos und Dämonen. Erkenntnistheoretische Aspekte der modernen Physik, Mannheim 1994, S. 21–72. Mainzer, Klaus: Gehirn, Computer, Komplexität, Heidelberg 1997. Mainzer, Klaus: Computerphilosophie zur Einführung, Hamburg 2003. Mainzer, Klaus: Komplexität, Paderborn 2008. Mainzer, Klaus: Leben als Maschine? Von der Systembiologie zur Robotik und Künstlichen Intelligenz, Paderborn 2010. Mainzer, Klaus: Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014. Mansfeld, Jaap u. Primavesi, Oliver (Hg.): Die Vorsokratiker, Stuttgart 2012. Mayer, Sigrid: Golem. Die literarische Rezeption eines Stoffes, Frankfurt am Main 1975. McCarthy, John: Können einer Maschine geistige Eigenschaften zugeschrieben werden?, in: Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 2002, S. 184–231. Merleau-Ponty, Maurice: Phänomenologie der Wahrnehmung, Berlin 1966. Merleau-Ponty, Maurice: Das Primat der Wahrnehmung, Frankfurt am Main 2003. Merleau-Ponty: Das Primat der Wahrnehmung und seine philosophischen Konsequenzen (1946), in: Ders.: Das Primat der Wahrnehmung, Frankfurt am Main 2003, S. 26–84. Michelson, Walter, Serfözö, Sascha und Vogel, Fritz Franz (Hg.): Der künstliche Mensch. Artificial Life vom Golem zum Cyborg, Wädenswil 1999. Michelson, Walter: Wesen und Schöpfer. Ein kleiner Katalog, in: Walter Michelson, Sascha Serfözö, Fritz Franz Vogel (Hg.): Der künstliche Mensch. Artificial Life vom Golem zum Cyborg, Wädenswil 1999, S. 13–35. Minsky, Marvin (Hg.): Maschinen wie Menschen. Maschinen, die lesen, lernen und sprechen, die spielen, planen und steuern, Maschinen mit Kraft, mit Armen, mit Persönlichkeit und Intelligenz; die perfekte Maschine, München 1968. Minsky, Marvin: Maschinen sind mehr als sie scheinen, in: Ders. (Hg.): Maschinen wie Menschen, München 1968, S. 9–14. Minsky, Marvin: Berechnung. Endliche und unendliche Maschinen, Stuttgart 1971. Minsky, Marvin: Mentopolis, Stuttgart 1990. Misselhorn, Catrin: Grundfragen der Maschinenethik, Stuttgart 2018. Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Stuttgart 2021. Mittelstraß, Jürgen: Das lebensweltliche Apriori, in: Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991, S. 114–142. Mittelstraß, Jürgen und Carrier, Martin: Enzyklopädie Philosophie und Wissenschaftstheorie, Bd. 2: C-F, Weimar 2005.
443
Literaturverzeichnis Monod, Jaques: Zufall und Notwendigkeit. Philosophische Fragen der modernen Biologie, München 1975. Moravec, Hans: Mind Children, Hamburg 1990. Moravec, Hans: Computer übernehmen die Macht: Vom Siegeszug der künstlichen Intelligenz, Hamburg 1999. Moravec, Hans: Robot. Mere Machine to Transcend Mind, Oxford 2000. Müller, Oliver: Zwischen Mensch und Maschine. Vom Glück und Unglück des Homo faber, Berlin 2010. Nagel, Thomas: Der Blick von nirgendwo, Frankfurt am Main 2012. Nagel, Thomas: Geist und Kosmos. Warum die materielle neodarwinistische Konzeption der Natur so gut wie sicher falsch ist, Berlin 2013. Nagel, Thomas: What Is It Like to Be a Bat? / Wie ist es, eine Fledermaus zu sein, engl./dt., Stuttgart 2016. Naumann, Friedrich: Vom Abakus zum Internet. Die Geschichte der Informatik, Darmstadt 2001. Nestle, D. Erwin (Hg.): Novum testamentum graece, Stuttgart 1950. von Neumann, John: Die Rechenmaschine und das Gehirn, München 1991. Nida-Rümelin, Julian und Weidenfeld, Nathalie: Digitaler Humanismus, München 2018. Nietzsche, Friedrich: Die fröhliche Wissenschaft, in: Ders.: Werke in sechs Bänden. Dritter Band, München–Wien 1980, S. 7–274. Nietzsche, Friedrich: Also sprach Zarathustra, in: Ders.: Werke in sechs Bänden. Dritter Band, München / Wien 1980, S. 275–561. O’Meara, Dominic: Der Mensch als politisches Lebewesen. Zum Verhältnis zwischen Platon und Aristoteles, in: Höffe, Otfried (Hg.): Der Mensch – ein politisches Tier? Essays zur politischen Anthropologie, Stuttgart 1992, S. 14–25. Oppolzer, Alfred A.: Entfremdung und Industriearbeit: Die Kategorie der Entfremdung bei Karl Marx, Köln 1974. Orwell, George: 1984, Berlin 2006. Osterhage, Wolfgang W.: Eine Rundreise durch die Physik. Ein kompakter Überblick von der Kinematik zum Quantencomputer, Berlin / Heidelberg 2018. Papert, Seymour: Verstehen von Differenzen, in: Graubard, Stephen R. (Hg.): Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, Wien 1996, S. 1–14. Passon, Oliver: Nicht-Kollaps-Interpretationen der Quantentheorie, in: Friebe, Cord u. a. (Hg.): Philosophie der Quantenphysik. Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen, Berlin / Heidelberg 2015, S. 177–224. Penrose, Roger: Computerdenken. Die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik, Heidelberg 1991. Penrose, Roger: Schatten des Geistes. Wege zu einer neuen Physik des Bewusstseins, Heidelberg / Oxford / Berlin 1995. Perler, Dominik: Repräsentation bei Descartes, Frankfurt am Main 1996.
444
Monographien und Aufsätze in Sammelbänden Peschl, Markus F. (Hg.): Die Rolle der Seele in der Kognitions- und Neurowissenschaft. Auf der Suche nach dem Substrat der Seele, Würzburg 2005. Platon: Des Sokrates Verteidigung, in: Werke in Acht Bänden, Gr./Dt., übers. v. Friedrich Schleiermacher, hg. v. D. Kurz, 2. Band, Darmstadt 2011, S. 1–70. Platon: Laches, in: Werke in Acht Bänden, Gr./Dt., übers. v. F. Schleiermacher, hg. v. D. Kurz, 1. Band, Darmstadt 2011, S. 219–286. Platon: Phaidon. Gr./ Dt. Übers. u. hg. v. B. Zehnpfennig, Hamburg 2007. Platon: Phaidon, in: Werke in Acht Bänden, 3. Band, Darmstadt 2011, S. 1–208. Platon: Phaidros, in: Werke in Acht Bänden, 5. Band, Darmstadt 2011, S. 1–194. Platon: Symposion, in: Werke in Acht Bänden, 3. Band, Darmstadt 2011, S. 209–394. Platon: Theaitetos, in: Werke in Acht Bänden, 6. Band, Darmstadt 2011, S. 1–217. Platon: Timaios, in: Werke in Acht Bänden, 7. Band, Darmstadt 2011, S. 1–209. Polanyi, Michael: Implizites Wissen, Frankfurt am Main 2016. Popper, Karl R.: The Open Society and its Enemies, Vol 1: The Spell of Plato, London 1966. Popper, Karl R.: The Open Society and its Enemies, Vol 2: The High Tide of Prophecy: Hegel, Marx, and the Aftermath, London 1966. Popper, Karl R.: The Open Universe. An Argument for Indeterminism, Cambridge 1992. Popper, Karl R.: Das offene Universum. Aus dem Postskript zur Logik der Forschung, Tübingen 2001. Popper, Karl R.: Die offene Gesellschaft und ihre Feinde, Bd. I: Der Zauber Platons, Tübingen 2003. Popper, Karl R.: Die offene Gesellschaft und ihre Feinde, Bd. II: Falsche Propheten: Hegel, Marx und die Folgen, Tübingen 2003. Popper, Karl R.: Logik der Forschung, Tübingen 2005. Prechtl, Peter: Descartes zur Einführung, Hamburg 2000. Putnam, Hilary: Geist und Maschine, in: Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 2002, S.146–183. Quine, William van Orman: Grundzüge der Logik, Frankfurt am Main 1990. Ray, Thomas: Kurzweils Turing Fallacy, in: Richards, Jay W. u. a.: Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong A. I., Seattle / Washington 2002, S. 116–127. Reichhardt, Anna Katharina und Kubli, Eric (Hg.): Menschenbilder, Bern 1999. Remarque, Erich Maria: Im Westen nichts Neues (1929), Köln 2007. Rentsch, Thomas: Heidegger und Wittgenstein. Existential- und Sprachanalysen zu den Grundlagen philosophischer Anthropologie, Stuttgart 1985. Rentsch, Thomas: Die Konstitution der Moralität. Transzendentale Anthropologie und praktische Philosophie, Frankfurt am Main 1999. Rentsch, Thomas: Negativität und praktische Vernunft, Frankfurt am Main 2000.
445
Literaturverzeichnis Rentsch, Thomas: Gott, Berlin 2005. Rentsch, Thomas: Philosophie des 20. Jahrhunderts. Von Husserl bis Derrida, München 2014. Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015. Rentsch, Thomas: Leibapriori und Praxis, in: Rentsch, Thomas und Irrgang, Bernhard (Hg.): „Leib“ in der neueren deutschen Philosophie, Würzburg 2015, S. 105–124. Richards, Jay W. u. a.: Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong A. I., Seattle / Washington 2002. Ritter, Joachim und Gründer, Karlfried (Hg.): Historisches Wörterbuch der Philosophie, Bd. 2-9, Basel 1984-1995. Rolf, Eckard: Der andere Austin. Zur Rekonstruktion / Dekonstruktion performativer Äußerungen – von Searle über Derrida zu Cavell und darüber hinaus, Bielefeld 2009. Röttges, Heinz: Nietzsche und die Dialektik der Aufklärung, Berlin 1972. Russell, Stuart und Norvig, Peter: Künstliche Intelligenz. Ein moderner Ansatz, 2. Auflage, München 2004. Russell, Stuart und Norvig, Peter: Künstliche Intelligenz. Ein moderner Ansatz, 3. Auflage, München 2012. Sachsse, Hans: Kausalität, Gesetzlichkeit, Wahrscheinlichkeit, Darmstadt 1987. Sandkaulen, Birgit: Begriff der Aufklärung, in: Hindrichs, Gunnar (Hg.): Klassiker Auslegen, Bd. 63: Max Horkheimer / Theodor W. Adorno – Dialektik der Aufklärung, Berlin / Boston 2017, S. 23–72. Sauer, Lieselotte: Marionetten, Maschinen, Automaten. Der künstliche Mensch in der deutschen und englischen Romantik, Bonn 1983. Schaeffler, Richard: Das Gebet und das Argument – Zwei Weisen des Sprechens von Gott. Eine Einführung in die Theorie der religiösen Sprache, Düsseldorf 1989. Schaeffler, Richard: Begriffe vom Unaussprechlichen, in: Christoph Böhr und Hanna-Barbara Gerl-Falkovitz (Hg.): Gott denken. Zur Philosophie von Religion, Wiesbaden 2019, S. 105–121. Schäfer, Erich: Grenzen der künstlichen Intelligenz. John R. Searles Philosophie des Geistes, Stuttgart 1994. Schäfer, Peter: Der Golem in Berlin, in: Bilsky, Emily D. und Lüdicke, Martina (Hg.): Golem, Berlin 2016, S. 4–7. Schandry, Rainer: Biologische Psychologie, Basel 2016. Scheler, Max: Die Stellung des Menschen im Kosmos, Bonn 2005. Schirren, Thomas und Zinsmaier, Thomas (Hg. u. Üs.): Die Sophisten, gr./dt., Stuttgart 2003. Schneider, Martin: Das mechanistische Denken in der Kontroverse. Descartes’ Beitrag zum Geist-Maschine-Problem, Stuttgart 1993. Schmidt, Alfred: Geschichte des Materialismus, Leipzig 2017. Schmidt, Jochen: Die Tragödie der Selbstverfallenheit, in: Hoffmann, E. T. A.: Der Sandmann (1816), Frankfurt am Main 1986, S. 63–84. Schweitzer, Albert: Die Lehre von der Ehrfurcht vor dem Leben, Berlin 1963.
446
Monographien und Aufsätze in Sammelbänden Searle, John R.: Ausdruck und Bedeutung. Untersuchungen zur Sprechakttheorie, Frankfurt am Main 1982. Searle, John R.: Geist, Hirn und Wissenschaft. Die Reith Lectures 1984, Frankfurt am Main 1986. Searle, John R.: Sprechakte. Ein sprachphilosophischer Essay, Frankfurt am Main 1994. Searle, John R.: Minds, Brains, and Programs, in: Shieber, Stuart M. (Hg.): The Turing Test. Verbal Behaviour as the Hallmark of Intelligence, Cambridge / London 2004, S. 201–224. Sejnowski, Terrence J.: The Deep Learning Revolution, Glasgow 2018. Selzer, Edgar: Denn der Mensch ist mehr als sein Computer. Warum die Turing-Maschine das WITTGENSTEIN’sche Sprachspiel nicht bewältigen kann, Wien 2011. Shelley, Mary: Frankenstein, or The Modern Prometheus (1818), hg. v. M. K. Joseph, Oxford 1969. Shelley, Mary: Frankenstein oder Der moderne Prometheus. Die Urfassung, übers. und hg. v. Alexander Pechmann, München 2009. Shieber, Stuart M. (Hg.): The Turing Test. Verbal Behaviour as the Hallmark of Intelligence, Cambridge / London 2004. Shieber, Stuart M.: The Spark of Richness of Information Processing, in: Ders. (Hg.): The Turing Test. Verbal Behaviour as the Hallmark of Intelligence, Cambridge / London 2004, S. 225–227. Simon, Herbert A. und Newell, Allen: Informationsverarbeitung in Computer und Mensch, in: Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 2002, S. 112–145. Singer, Isaac Bashevis: Der Golem. Eine Legende (1982), Düsseldorf 2001. Stange, Manfred (Hg.): Die Edda. Götterlieder, Heldenlieder und Spruchweisheiten der Germanen. Vollständige Neuausgabe in der Übersetzung von Karl Simrock, Wiesbaden 2011. Stein, Edith: Der Aufbau der menschlichen Person, Freiburg im Breisgau 1994. Stein, Edith: Potenz und Akt. Studien zu einer Philosophie des Seins, Freiburg im Breisgau 1998. Stephan, Achim: Emergenz. Von der Unvorhersagbarkeit zur Selbstorganisation, Paderborn 2005. Störig, Hans-Joachim: Kleine Weltgeschichte der Philosophie, Frankfurt am Main 2006. Suárez, Francisco: De legibus / Über die Gesetze, zweites Buch: De lege aeterna et naturali, ac iure gentium / Das ewige Gesetz, das natürliche Gesetz und das Völkerrecht, Stuttgart–Bad Cannstatt 2016. Tapp, Christian: An den Grenzen des Endlichen. Das Hilbertprogramm im Kontext von Formalismus und Finitismus, Heidelberg 2013. Teichert, Dieter: Einführung in die Philosophie des Geistes, Darmstadt 2006. Tetens, Holm: Geist, Gehirn, Maschine. Philosophische Versuche über ihren Zusammenhang, Stuttgart 2013. Thomas, Harry und Leiber, Theodor: Determinismus und Chaos in der Physik, in: Mainzer, Klaus (Hg.): Quanten, Chaos und Dämonen. Erkenntnistheoretische Aspekte der modernen Physik, Mannheim 1994, S. 147–207. Toulmin, Stephen und Goodfield, June: Modelle des Kosmos, München 1970.
447
Literaturverzeichnis Tsvasman, Leon und Schild, Florian: AI-Thinking. Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz, Baden-Baden 2019. Tuck, Jay: Evolution ohne uns, Kulmbach 2016. Turing, Alan M.: Kann eine Maschine denken?, in: Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 1994, S. 39–78. Turing, Sara: Alan M. Turing, Cambridge 2012. Urchs, Max: Das Menschenbild der künstlichen Intelligenz, in: Reichhardt, Anna Katharina und Kubli, Eric (Hg.): Menschenbilder, Bern 1999, S. 117–152. Urchs, Max: Maschine, Körper, Geist. Eine Einführung in die Kognitionswissenschaft, Frankfurt am Main 2002. Vogt, Markus: Sozialdarwinismus. Wissenschaftstheorie, politische und theologisch-ethische Aspekte der Evolutionstheorie, Freiburg im Breisgau 1997. Voigt, Albrecht: Wirkliche Göttlichkeit oder göttliche Wirklichkeit? Die Herausforderungen der Gegensatzproblematik in Romano Guardinis latentem Gespräch mit Friedrich Nietzsche, Dresden 2017. Wahrig, Gerhard: Deutsches Wörterbuch, Wiesbaden 1983. Webel, Roderich von: Der Spiegel des Hermes Trismegistos. Leib-Seele-Dualismus und Künstliche Intelligenz, Frankfurt am Main 2004. Weischedel, Wilhelm: Der Gott der Philosophen. Grundlegung einer philosophischen Theologie im Zeitalter des Nihilismus, Darmstadt 1983. Welter, Rüdiger: Der Begriff der Lebenswelt. Theorien vortheoretischer Erfahrungswelt, München 1986. Welter, Rüdiger: Die Lebenswelt als „Anfang“ des methodischen Denkens in Phänomenologie und Wissenschaftstheorie, in: Gethmann, Carl Friedrich (Hg.): Lebenswelt und Wissenschaft. Studien zum Verhältnis von Phänomenologie und Wissenschaftstheorie, Bonn 1991, S. 143–163. Werkner, Ines-Jacqueline und Hofheinz, Marco (Hg.): Unbemannte Waffen und ihre ethische Legitimierung. Fragen zur Gewalt, Bd. 5, Wiesbaden 2019. Wiener, Norbert: Mensch und Menschmaschine. Kybernetik und Gesellschaft, Frankfurt am Main 1966. Wiener, Norbert: Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf 1963. Wiener, Norbert: Gott & Golem Inc., Düsseldorf / Wien 1965. Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung, Frankfurt am Main 2003. Wittgenstein, Ludwig: Philosophische Untersuchungen, Frankfurt am Main 2013. Wittig, Frank: Maschinenmenschen. Zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik, Würzburg 1997.
448
Zeitschriften und Artikel Zhou, Yuefang und Fischer, Martin H. (Hg.): AI Love You. Developments in Human-Robot Intimate Relationships, Cham 2019. Zimmerli, Walther Ch. und Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme, Stuttgart 2002. Zuse, Konrad: Frühe Gedanken zur Auswirkung des Computers auf die Gesellschaft, in: Hellige, HansDieter (Hg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Berlin / Heidelberg 2004, S. 31–41.
Zeitschriften und Artikel Adleman, Leonard M.: Molecular Computation of Solutions to Combinatorial Problems, in: Science, Vol. 266 (1994), S. 1021–1024. Bennett, Charles H. und Landauer, Rolf: The Fundamental Physical Limits of Computation, in: Scientific American, Vol. 253, No. 1 (July 1985), S. 48–57. Bull, Hans-Peter: Über die rechtliche Einbindung der Technik, in: Der Staat, Ausgabe 58, S. 57–100, Berlin 2018. Fumy, Walter: Quantencomputer und die Zukunft der Kryptographie, in: Datenschutz und Datensicherheit (DuD) 41 (2017), S. 13–16. Holley, Peter: The Silicon Valley elite’s last status symbol: Chickens, in: The Washington Post, 3. März 2018, abgerufen am 10. März 2020, 10:13 unter: https://www.washingtonpost.com/news/business/wp/2018/03/02/feature/the-silicon-valleyelites-latest-status-symbol-chickens/. Kline, Ronald R.: Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence, in: IEEE Annals of the History of Computing, October-December 2011, S. 5–16. Koch, Bernhard: Ethische und anthropologische Herausforderungen durch KI-basierte militärische Kampfroboter, in: Una Sancta. Zeitschrift für ökumenische Begegnung, 3/2019: Ethische Fragen im ökumenischen Dialog, S. 228–238. Moravec, Hans: „When Will Computer Hardware Match the Human Brain?“, Journal of Evolution and Technology 1 (1998). Metzinger, Thomas: Interview, in: Terra Mater, 03/2017, S. 134–138. Misselhorn, Catrin: Roboterethik, in: Analysen und Argumente Digitale Gesellschaft, Nr. 340 / Februar 2019, Konrad-Adenauer-Stiftung e. V., Berlin 2019. Novak, Erich: Was können Quantencomputer?, in: Mathematische Semesterberichte 54 (2007), S. 31–38. Oganesian, Cristian und Heermann, Thorsten: China – Der durchleuchtete Mensch. Das chinesische Social-Credit-System, in: Zeitschrift für Datenschutz, 8/2018. Ohlberg, Mareike, Ahmed, Shazeda und Lang, Bertram: Central planning, local experiments. The complex implementation of China’s Social Credit System, in: MERICS, 12/2017, Berlin, S. 1–15. Patel, Vimla L. u. a.: The coming of age of artificial intelligence in medicine, in: Artificial intelligence in medicine, 46 (2009), S. 5–17.
449
Literaturverzeichnis Rennie, John: The Immortal Ambitions of Ray Kurzweil: A Review of Transcendent Man; in: Scientific American; February 15, 2011. Sparrow, Robert: Killer robots, in: Journal of Applied Philosophy, Nr. 24, Wiley-Blackwell 2007, S. 62–77.
Sonstige Bundesministerium der Verteidigung: Zentrale Dienstvorschrift Innere Führung. Selbstverständnis und Führungskultur, A-2600/1. Jonze, Spike (Regisseur): Her. A Spike Jonze lovestory, Spielfilm, Hamburg 2014. „Moral Machine“, Online-Pattform des MIT, unter http://moralmachine.mit.edu, abgerufen am 24.02.2020, 17:45 Uhr. Projekt Gutenberg: Sammlung von Äsops Fabeln, zit. nach https://www.projekt-gutenberg.org/aesop/ fabeln/chap060.html, abgerufen am 15.5.2020, 13:50 Uhr.
450
Namenregister A
Foucault, Michel 6, 49, 199, 276f, 282, 293f, 311, 353
Adorno, Theodor W. 15, 20, 28, 48f, 118, 195, 197–199, 211, 214–217, 244, 264, 268, 270, 273, 274–276, 290–294, 302, 304, 311, 314, 327, 337, 418, 426 Arendt, Hannah 58, 380 Aristoteles 34, 99, 101, 137, 170f, 174, 176, 191, 319f, 323, 419
Freud, Sigmund 167, 193f, 198, 254
G Gabriel, Markus 226, 229f Galilei, Galileo 44, 161f, 170f, 183f Gebser, Jean 292, 303–305 Gödel, Kurt 93, 232f
Asimov, Isaac 168 Äsop 419
H
Austin, John L. 224
Harari, Yuval Noah 146
B
Hegel, Georg W. F. 198, 214f, 254, 301, 423 Heidegger, Martin 36, 47, 87, 95, 152, 196, 211, 217, 223f, 243, 291, 295, 300, 319, 333, 417, 425
Bacon, Francis 21, 48 Bostrom, Nick 64, 84, 111–113, 119, 150, 346
Heisenberg, Werner 240
Buber, Martin 31, 259f, 297
Heller, Ágnes 285 Heschel, Abraham J. 30, 291, 295, 306
D
Hilbert, David 92, 232–234
Descartes, René 44, 62, 158, 162, 170, 179, 180–183, 186, 188, 237, 245, 253, 324, 365, 389, 392, 399 Dreyfus, Hubert L. u. Stuart E. 35f, 46f, 84f, 88–91, 238, 317, 425f, 431
Horkheimer. Siehe Adorno Husserl, Edmund 46, 87, 91, 111, 170f, 183f, 198, 242–245, 253, 392, 426 Huxley, Aldous 278–285, 339
E Eckhart, Meister 296 Eggers, Dave 278, 282–284, 286, 312, 339
I Irrgang, Bernhard 45, 85, 91f, 131, 226, 231, 236, 245f, 252, 342, 347
F
J
Falkenburg, Brigitte 236, 239, 241, 247f, 252, 367
Janich, Peter 226
Fleck, Ludwik 231, 237
Jansen, Markus 277, 343f
451
Namenregister
K
N
Kant, Immanuel 52, 100, 195, 210–214, 248, 253, 258, 263, 274, 286, 290, 301, 308, 310, 312, 327, 328, 364, 368–370, 379, 390, 417 Kierkegaard, Sören 198, 220, 251–257, 298, 313, 320, 373, 410, 441 Knorr-Cetina, Karin 231, 237
Nagel, Thomas 226–228, 324, 395, 397 Neumann, John von 34, 67, 75f, 125 Nida-Rümelin 342, 401 Nietzsche, Friedrich 14, 20, 195, 257, 270, 287, 290, 409, 432 Norvig, Peter 17, 33, 42, 89, 119, 346, 426, 431f
Kuhn, Thomas S. 232 Kurzweil, Ray 5, 11, 13–19, 22, 33, 59, 65, 67, 79, 82–84, 111, 114, 117, 119f, 124–161, 164, 183, 203, 217, 287, 303–312, 320, 322, 338–343, 348f, 387– 389, 392–397, 400, 405, 407f, 412, 431
O Orwell, George 278, 281–284, 286, 339
P
L La Mettrie, Julian O. de 21, 30, 44, 54, 92, 170, 173, 185–187, 237, 316
Pascal, Blaise 403, 433
Laotse, Laozi 291f
Platon 62, 102, 152, 158, 165, 171, 177–179, 188, 211, 287, 319, 321
Laplace, Pierre S. de 31, 92, 161f, 170, 187f, 227, 235, 242, 246, 316, 365 Leibniz, Gottfried W. 34, 92, 161f, 170–172, 185f, 237, 246, 365 Lenzen, Manuela 84, 96–98
Penrose, Roger 39, 85–87, 233
Polanyi, Michael 236–238, 426 Popper, Karl. R. 30, 226f, 247 Pythagoras 161, 171, 175f
Lévinas, Emmanuel 255, 260
R
Loh, Janina 79, 84, 115–117, 119, 124f, 150, 160
Remarque, Erich M. 360, 387
M Marx, Karl 198, 356
Rentsch, Thomas 9, 29, 47, 49, 110, 196–198, 202, 206, 214–217, 220, 222–227, 246, 251, 253, 255, 258–261, 286, 290, 292, 294, 299–301, 310, 330, 347, 367, 425
McCarthy, John 33, 67, 79f, 368, 416
Russell, Stuart. Siehe Norvig
Mainzer, Klaus 85, 92–96, 185, 188, 234, 236, 389f
Merleau-Ponty, Maurice 46, 111, 245, 249, 253, 368 Minsky, Marvin 67, 79–81, 83, 114, 119, 136, 192, 392, 429 Misselhorn, Catrin 25, 54, 60, 85, 103–111, 168, 360, 364–372, 376, 382f, 385, 405 Moravec, Hans 5, 17, 19, 67, 82, 84, 117, 119–122, 125, 134, 139–144, 149, 152–161, 183, 217, 287, 309f, 320–322, 340, 348f, 388
S Scheler, Max 246, 254 Searle, John R. 35, 77–79, 224, 368, 389, 393–397, 403, 416 Sokrates 91, 177f, 195f, 209–211, 287, 387 Stein, Edith 91, 245, 253
452
Namenregister
T
Wiener, Norbert 67–74, 305, 355, 358, 381–383
Turing, Alan 34f, 39, 41, 45, 76–78, 86, 93, 95, 99f, 135, 192, 232–234, 406, 417, 419, 427, 432
W Weischedel, Wilhelm 301
Wittgenstein, Ludwig 31, 36, 47, 87, 196, 199, 219– 224, 234, 238, 294, 300, 419, 424–427
Z Zuse, Konrad 34
Welter, Rüdiger 46, 87, 224, 226, 243, 426
453
Sachregister A Abbildtheorie der Welt 24–26, 28, 66, 205, 212f, 220, 230, 239, 426 Ablasshandel 295, 314f Abstraktion 88, 153, 155f, 177, 192, 243, 267, 275, 322, 324, 356f, 427, 431 Adaequatio 423f Allmacht 19, 49, 147, 151, 265, 288, 298, 313f Allwissenheit 19, 25, 49, 144–148, 243, 265, 288, 298, 303, 307, 312–314, 339 Androidenmotiv (Literatur) 28, 161, 163–165, 168 Anthropologie 27, 29f, 32, 41, 44f, 65, 98, 107, 131, 155, 197, 205, 209, 213f, 223f, 231, 253, 260, 300, 315–335 Apparate-Anbeter 74, 305 Aufklärung 15–20, 25–29, 41–44, 62, 64, 67, 118f, 148, 162, 169f, 188, 216, 238, 258, 263–275, 290, 302–304, 314, 320, 323, 327, 337–341
Bewusstsein 11, 13, 17, 19f, 41f, 62f, 66, 78–80, 85– 87, 94f, 99, 103, 105, 109f, 114f, 122f, 132–134, 139, 145–156, 179, 188, 192, 207, 229f, 238–240, 248f, 254, 306, 314–317, 387–409, 429 Beziehung 31, 53, 102, 105, 110, 167, 249, 260f, 297, 317, 329f, 354, 410 Biochemie 17, 127f, 157–159, 189f, 203, 237, 246, 398, 401, 405–407 Biologie, biologischer Mensch 14–25, 38–40, 68, 78, 81, 83, 92–94, 105, 109, 116, 119–150, 154– 161, 164, 181, 192f, 202f, 207, 226, 236–238, 246, 288f, 307, 310–315, 320, 322, 327, 337, 342–346, 388, 390, 393–398, 402f, 406f, 410, 431
C Chaos 83, 86, 93, 95, 234–236, 240f Chinesisches Zimmer 78, 103, 389 Computermetapher des Geistes 24, 54, 67, 75f, 97f, 106, 153f, 158, 209, 315f
Automatisierte Waffen 50, 61, 370, 377–386
D
Automatisiertes Fahren 50, 362, 374–386 Automatisierung 69, 74, 100, 305, 346, 355–357
Darwinismus 24, 139–142
Autonomie 13, 18, 52, 62, 64, 98–104, 107, 131, 152, 209, 288f, 302f, 313f, 328, 347, 360, 363–372, 385, 408f, 415
Demokratie 27, 31, 50, 56, 110, 142, 259, 338, 340, 351
B Begriff 214–217 Beobachterperspektive 155, 192, 225–231, 239, 241, 245, 276, 288, 401 Berechenbarkeit 48, 77, 82, 91, 94f, 177, 185–188, 202, 226, 232, 234f, 240, 254, 259, 266, 272, 288, 371, 400, 411
Denken 14, 22, 30–34, 42, 45, 65, 73, 76–82, 85–87, 91, 98f, 101, 120, 133f, 145, 150, 161, 174, 178– 186, 189, 192, 208, 211, 213, 215–218, 223, 225, 230, 266–275, 282, 289, 319–323, 326, 329–335, 350f, 381, 385, 391, 398, 402, 405, 407–433 Denkkollektiv 231 Determinismus 21, 28 78, 173, 187f, 226f, 236–241, 247f, 400 Dialog 29f, 196, 198, 203, 206, 209–212, 218, 223f, 238, 255, 259f, 297–299, 327f, 330, 374
455
Sachregister Digitalisierung 12, 49, 55f, 58, 85, 130, 284, 338, 343f, 350 Ding an sich 21, 113, 212f, 333, 390 Diskurs 48f, 61f, 107, 113, 142, 175, 224, 231, 249, 255, 259, 284, 313, 318, 335, 338, 340–343, 348– 354, 363, 374, 389, 391, 403, 430 Dualismus 62, 91, 101, 153, 158, 183, 240, 244, 248, 253, 321, 324, 330, 392f Dystopie 29, 50, 56–58, 148, 168f, 208, 250, 277– 286, 312, 337, 339, 346
E Emergenz 83, 93, 95, 137, 236f Emotion 14, 22, 30, 32, 45, 47, 63, 66, 91, 94f, 97, 99, 102–110, 115, 132f, 151, 153, 156, 160, 172, 189, 192, 201, 223, 246, 316f, 321–326, 330f, 337, 360, 363, 380, 386, 400–413, 416, 419, 421f, 430–433
F Fabeln 35, 88f, 419–422 Formalisierung, Formalisierbarkeit 15, 19–22, 26–30, 35–37, 44–67, 79, 88, 113, 126, 136, 138, 148, 155f, 161, 169–175, 192, 195, 197, 205, 207, 209, 220, 224–226, 233f, 237, 239, 243, 258, 262– 269, 273, 302, 306, 308, 311, 313, 316, 325, 338f, 346–348, 368–374, 379, 392, 397, 416–418, 421, 424–429 Fragilität (Verletzlichkeit) 29, 31, 52–55, 107, 110, 145, 198, 209, 217, 250f, 259–263, 285, 289, 293, 302, 311, 313, 328–331, 340, 345, 352f, 360, 369, 382, 415, 419, 433 Freiheit 27, 29f, 48, 60, 64, 71, 91, 105, 168, 180– 182, 196, 199, 205, 208f, 213, 248, 251–256, 259, 261, 263, 265, 276, 278, 280–286, 302f, 313f, 326– 328, 330, 340, 344f, 350, 354, 360, 364, 370–374, 384, 400, 408, 414, 433
Empirismus 138, 220–222, 275 Entfremdung 199, 208, 267f, 273–276, 281, 285f, 289, 295, 302, 338–340, 343, 356f Entlastungsphantasie 145, 230, 297, 359, 385 Entzogenheit 30, 199–201, 204, 208, 210–212, 215, 217, 224, 234, 250, 255, 262, 265, 290, 293–295, 298–300, 303, 313, 316f, 329, 331–334, 372 Epigenetik 235 Erleben (subjektives) 22, 52, 63, 189–191, 228, 242, 316, 324f, 332, 364, 389f, 397–408, 411f, 414, 422, 432f Eros 211 Erschrecken 53, 359f, 386f, 433 Evolution 14f, 18, 20, 27, 73f, 81, 84, 93, 95, 114, 120–122, 125, 134, 138–146, 150f, 153, 159, 161, 274, 307, 315, 346, 364, 378 Ewigkeit 65, 141, 203, 271, 309, 315 Existenz 16f, 20, 23, 47, 52, 102, 107, 110, 114f, 127, 133–135, 144–146, 149, 160, 177, 195f, 198, 200, 208, 251f, 256f, 260f, 281, 288, 310, 326, 331, 353, 382, 410f, 418, 425, 428, 430f
G Gehirn 11–18, 22f, 36, 41–47, 59, 64, 67–72, 75f, 81, 83, 86, 91|–98, 111–115, 122f, 126, 128, 132–137, 145f, 149, 153–161, 173, 186, 189–193, 217, 219, 229f, 309f, 314, 388–394, 398f, 405f, 425–428, 431 Gehirn-Upload, s. Mind Uploading Geist 12–19, 22–26, 30f, 34–36, 39–41, 62f, 66–70, 79–83, 85–87, 90–98, 104, 106, 112, 119f, 122f, 129, 133–137, 144–161, 172f, 179–183, 186–194, 205, 215, 217, 228–230, 238–240, 245–249, 253f, 263f, 266, 270–272, 288, 299, 303, 308f, 311, 314– 317, 320–324, 329–332, 337, 341, 353, 388f, 392f, 396, 399f, 408f, 413, 418, 421, 429–432 Genetik 126–129, 147, 189–191 Gesellschaft 13, 19, 27–31, 43–46, 49–60, 68–73, 84f, 95, 98, 110, 113, 121, 124, 139–145, 148, 150, 168, 196–199, 207f, 223f, 227, 231, 250, 259, 263, 270, 277–286, 295f, 313, 318f, 327, 330, 337–360, 376, 382, 416, 421–424 Gewalt 54, 74, 216, 256, 270, 277, 359, 377–382, 387, 414f
456
Sachregister Gewissen 145, 148, 344, 380f, 384, 413 Glück 27, 101f, 113, 258, 278–281, 285, 326, 362, 373, 410, 414, 416, 420–423
Katharsis 177f
Gott 17, 19–21, 29f, 30, 52, 64, 73, 145, 148–151, 164f, 177–183, 213, 252, 257f, 271f, 279f, 286–314, 411
Komplexität 16, 30, 39, 60, 62, 64, 71, 83, 92–95, 105, 135, 137, 145, 154, 156, 163, 201, 203, 214, 223, 234, 236, 254, 275f, 290, 366, 372, 374, 409, 421, 429, 433
H Herrschaft 12, 15–21, 26, 48, 71, 118f, 127, 163, 195, 215f, 244, 264f, 268–277, 286, 288f, 302–305, 311–314, 343–346, 380 Hirnforschung 93, 188, 190, 392
Kausalität 38, 70, 95, 188, 234–236, 242, 247, 252, 429
Körper 16f, 21f, 59, 62f, 66, 101, 108, 110, 123, 125, 128f, 133–135, 140, 149, 152, 155–161, 176–187, 190f, 203, 211, 238f, 244–249, 277, 280, 314, 320–324, 330f, 334, 338f, 392–398, 406, 416, 426, 430–432
Holismus 172, 205–208, 213, 246, 249, 254, 309, 317, 324, 329–332, 401f, 425
Kränkung 45, 65, 73, 193f
I
Kritische Theorie 48f, 250
Identität 11–13, 55, 65, 114f, 147, 158, 190, 208, 215–217, 249, 255, 260, 288, 290, 304, 311, 329– 331, 338, 353f
Krieg 12, 28, 52, 76, 104, 133, 264, 279, 345, 358– 360, 363, 378–386, 413f Kultur 16–19, 48, 50, 54, 56, 90, 207, 225–227, 231f, 237, 240, 253–255, 259, 263f, 302–304, 313, 337f, 340, 343, 414, 416, 421, 425
Implizites Wissen 237f, 255, 371, 416, 426f
L
Indeterminismus 227, 252, 254, 322, 326f, 400 Individualität 22, 70, 96, 137, 140, 147, 153, 265, 272f, 289, 307, 311, 314, 317, 322, 397, 421
Leben 124, 137, 159, 165f, 180, 235–237, 259, 262, 279f, 288, 298, 307, 319f, 328, 333, 368, 401, 424
Informatik 22, 24, 26, 33–36, 46, 63f, 76, 83f, 114, 125–127, 162, 173f, 185, 188, 192f, 429
Lebenspraxis 27, 29, 31, 52, 54, 57, 60f, 102, 105, 112, 148, 196–198, 203–205, 247–251, 257, 286, 288, 291, 296, 300–303, 310, 314, 317, 325–330, 339f, 368, 410, 412, 421f, 429, 433
Inkommensurabilität 87, 204, 215, 227, 239, 242, 253, 258, 261–263, 289, 296–300, 317, 319, 322, 327, 329, 333, 373, 392–397, 401, 411, 419, 424 Instrumentalisierung 265, 276, 289, 295f, 302, 456 Instrumentelle Rationalität 17, 22, 25f, 30–32, 50f, 55, 67, 72–74, 79, 110, 118, 136, 138, 147, 151, 201–205, 209, 213–217, 223f, 255, 258–276, 286– 289, 292–298, 303–309, 312–215, 318f, 322f, 328, 331, 333, 339, 343f, 352f, 356, 366, 370–374, 378, 412, 416, 418, 432f Internet 12, 17, 20, 174, 282, 349–351
Lebenswelt 12, 16, 46, 48, 55–58, 87f, 91, 130, 174, 184, 192, 225f, 242f, 251–253, 267, 282–284, 313f, 316, 324, 326, 329, 332, 340, 351–356, 375f, 386, 401, 423, 426 Leib, Leiblichkeit 18, 23, 46, 62f, 90f, 106, 140, 146, 161, 181, 191f, 238, 245–249, 253, 288, 317, 321–325, 330f, 334, 395, 398, 403, 408, 430–432 Leib-Seele–Problem 62, 66, 97, 188–194, 238, 247f, 330, 394 Leib-Apriori der Erkenntnis 46, 245f, 249, 330
K
Leid, Leiden 15, 92, 132, 139, 144f, 147, 211, 251, 259, 280, 285, 337, 340, 346, 363, 385, 433
Kapital, Kapitalismus 51, 56, 141f, 264f, 268, 315, 338, 343f, 356
Liebe 12, 31, 48, 108–110, 130, 145, 151, 177f, 203, 211, 303, 313f, 317, 326, 369, 373, 390, 404f, 410, 414
457
Sachregister Logik 14, 34f, 37, 44–47, 68f, 75f, 100, 162, 170–175, 181f, 185, 197, 201, 221, 223, 225, 234, 240, 261f, 266, 272, 319–323, 368f, 373, 386, 402, 409–411, 418f, 423f, 428–430
Naturgesetz 62, 120, 142, 170f, 180–182, 213, 238f, 248, 252f, 272, 348f, 364f, 390 Nervensystem 67f, 70, 75, 86, 123, 126, 132, 134, 190f, 230
M
Neuronale Netze 13, 36–38, 44f, 83, 89f, 94, 101, 124, 129, 328, 355, 371f, 381, 401, 416, 426–428
Macht 11, 15, 17, 21, 56, 137f, 186, 195, 201f, 215, 263–271, 275, 277, 282, 284, 293f, 302, 304f, 308, 311, 337, 343f, 413, 415
O
Magie 29, 74, 164, 166, 303–306 Marktökonomie 51, 58, 142, 201, 315, 318, 344, 356 Materialismus 17, 78, 158, 173, 175, 186, 230 Mathematik 35, 44, 49, 68, 75f, 85–87, 93, 136, 138, 156, 161f, 169, 173, 175, 179, 185, 226, 232– 234, 240, 243, 266f, 270, 371, 373, 418, 423f, 433, 436 Mathematisierung der Welt 26, 44, 66f, 92–94, 138, 161–194, 232–234, 243, 425 Mechanik, Mechanistisches Weltbild 13, 41, 83, 85, 159, 171, 173, 180f, 187f, 226, 235–237, 248, 304, 367, 389 Menschenwürde 29, 32, 50, 52, 58, 65, 96, 263, 301, 314, 338, 341, 343, 345, 362, 370, 376f, 384, 414f Metaphysik 17, 21, 44, 61–64, 79f, 188f, 197, 221, 224, 239, 242, 254, 265, 409 Militär 35, 61, 90, 98, 102, 377–387 Mind Uploading 16, 18, 59, 115f, 122, 134, 137, 146, 149, 153, 309, 312, 314, 388 Monokausalität 236, 252 Moralphilosophie 29, 44, 49–55, 61, 107, 251, 262, 301, 328, 358, 368, 370f, 377, 409 Musik 124, 176, 203, 219f, 289, 401 Mythologie 20, 162, 164f, 168, 264, 271f, 289, 292f, 299, 302, 304
N Nanotechnik 18, 115, 126–129, 134f, 147, 149, 151
Objektivität 63, 66, 74, 188, 190f, 207, 226–228, 240, 244, 271, 304, 317, 324, 381, 392f, 396f, 401 Offenheit 29, 32, 48, 53, 196–199, 202–215, 218, 225–227, 246, 248–263, 288f, 293, 301–303, 307, 313f, 317, 322, 326–331, 333, 344–348, 352f, 363, 371–373, 382, 411–413, 417f, 422f, 427f, 431 Öffentlichkeit, öffentlicher Diskurs 58, 108, 223, 282, 340, 347, 351f, 391 Optimierung 14, 16, 18, 22–26, 29, 55, 67, 114ff, 164, 193, 281–288, 307, 313, 315, 331, 337–340, 344, 350, 357, 371, 412, 426f Organismus 41, 43, 51, 53, 70, 97, 113, 115, 128, 157, 235, 246, 307, 310, 320, 402, 405–407, 425f, 432
P Panoptikum 49, 108, 276, 276f Personalität 13, 16f, 21–27, 41, 62, 96, 99f, 112, 124, 133, 137, 149, 152, 155, 177, 161, 172, 179, 181, 188f, 194, 203, 205f, 217, 230, 245, 247, 252, 259–265, 272f, 275, 308–312, 315–317, 322, 324, 326, 329–333, 335, 337, 353, 372, 374, 388, 391, 397, 401, 403f, 408f, 411, 413 Phänomenologie 85, 91f, 106, 111, 171, 183f, 198, 225, 227, 242–255, 260, 293, 304, 322f, 327, 329f, 386, 393 Positivismus 20f, 26, 28, 116, 138, 164, 170, 188, 209, 217f, 221f, 275, 302, 339, 372 Posthumanismus 115–119
Narzissmus 166f, 193
Privates, Privatsphäre 22, 55, 57f, 62, 108, 148, 223, 277, 282–286, 308, 338–340, 343, 347, 351f, 403
Naturbeherrschung 48, 215, 265, 269f, 304, 308
Probabilismus 44, 95, 129, 373, 426, 428
458
Sachregister Psyche 63, 188, 191, 374, 433
Sinnkonstitution 27f, 197–207, 218, 222, 227, 256, 259, 262, 275, 293, 297, 300, 307, 317, 325, 329, 331, 337, 339, 361
Psychologie 22, 62f, 69, 82, 98, 188–193, 244, 401
Sozialdarwinismus 24, 67, 139, 142, 263, 378
Q
Sozialität 30, 32, 50, 56, 108, 205, 207f, 251, 255, 259–262, 270, 313f, 319, 325, 330f, 351, 360, 419, 431
Quantencomputer 38–40, 45 Quantenphysik 39, 83, 86, 240f, 400, 418
Subjektivität 26, 66, 91f, 110, 137, 191, 230, 239, 243f, 253, 261, 317, 324, 330, 332f, 392–406
R Reduktionismus 20, 63, 82, 153, 188, 191, 204, 207, 213, 215, 226, 228, 240, 243, 252, 275, 324 Religion 20, 30f, 64f, 74, 144, 170, 195–198, 205, 257, 265, 270, 286–315, 328, 410 Religionsphilosophie 27–31, 64f, 74, 197f, 205, 286, 289–291, 298, 302f, 308, 328 Religiosität 20, 31, 144, 264, 275, 287, 295f, 309, 361, 416 Reproduzierbarkeit (des Menschen) 25, 65, 75, 141, 155, 164, 307, 310f, 337 Reue 255–258, 370, 373, 382, 386
Superintelligenz 64, 111–116, 145, 150, 288, 313, 349 symbolverarbeitende KI 36f, 85, 89f, 129, 371, 426f
T Tier 14, 42, 65f, 91, 186, 188, 305, 319–323, 329, 366, 404 Tod 16, 18, 20, 27, 59f, 65, 92, 115, 125, 139, 144– 148, 157, 160, 178f, 195, 200, 202f, 251, 261, 284, 307, 310f, 321, 337, 340, 367, 383–386, 389, 410, 413
Robotik 50, 61, 85, 92, 107, 119f, 126–129, 147, 151, 164, 167f, 236, 358, 431
Totalitarismus 28, 31, 53, 56, 64, 169, 208, 264f, 268f, 271, 281–286, 308, 314, 337, 344, 346, 360, 379–381
S
Transformation 16, 59, 61, 85, 98, 117–119, 130, 209, 250, 278, 283f, 295, 314, 344–358, 424
Schmerz 53, 108–110, 145, 178, 246, 259, 262, 279– 281, 285, 314, 323, 340, 395, 402–407, 411
Turing–Test 35, 76–78, 100, 406, 417
Schuld 29, 52, 98, 198, 200, 203, 215f, 251, 256, 261f, 310, 347f, 353, 363, 367, 382–386 Seele 11–14, 17, 19, 21–23, 62–66, 81, 97, 101, 122, 137, 144, 146, 149, 152f, 176–194, 238, 247f, 253, 288, 303, 310, 321, 330–332, 394, 408f Selbstorganisation 83, 93, 95, 209, 236f, 322
U Überwachung 49, 56f, 148, 276f, 28–284, 312, 338 Unableitbarkeit unserer Handlungen 107, 197, 202, 204, 235, 254, 261, 263, 327, 330, 366, 372–374
Sexualität 12, 105, 109, 130, 353f, 407
Unendlichkeit 113, 145, 201, 234, 300
Singularität 15, 83f, 116, 125, 129, 140, 144, 147, 151
Universum 15, 24, 38, 41, 66, 85, 92–95, 112f, 129, 134, 138, 143, 151, 170, 187f, 193, 205, 207, 227, 233–235, 238–240, 246–248, 253, 288, 294, 299, 309, 316f, 331, 346
Sinn (existentiell) 12, 170, 196, 202, 210, 251, 258, 271, 290, 310, 407, 409f, 416, 419, 423, 432f Sinn von Sprache 29, 35, 53, 221, 223, 231, 248, 260, 390, 414, 420–422
Unsagbarkeit 30, 222, 238, 291–294, 306, 353 Unschärferelation 240f
459
Sachregister Unsterblichkeit 17–19, 23, 25, 64f, 115–117, 127, 134, 140, 144–149, 157, 160f, 176, 188, 213, 288f, 303, 308–314, 388
Verdinglichung 27, 30f, 137, 147, 153, 155, 189–192, 199f, 205, 207, 209, 217, 223f, 229f, 236, 239, 253, 259, 270, 276, 287, 289, 292–299, 302f, 313, 331f
Unterbewusstsein 22, 66, 204, 208, 231, 249, 252– 255, 326f, 391, 395, 416, 428
Vergegenständlichung 188f, 269, 294, 296, 298
Unverfügbarkeit 22, 29f, 48, 64, 92, 110, 142, 197– 201, 204, 206, 208, 211f, 217, 226, 228, 235, 237, 249f, 254–265, 285, 288, 291, 294, 298, 300f, 304, 308, 313, 317, 326–334, 353f, 372, 427
Vertrauen 29f, 48, 53, 57, 64, 196, 202, 205, 209, 261, 313, 317, 328, 330, 351, 368, 374, 413f Verweigerung 21, 344, 379–381, 397 Verzweiflung 255–257
Unvollständigkeit, Unvollständigkeitstheorem 86, 93, 95, 207, 228, 232f, 242, 294, 391 Utilitarismus 104, 106, 281 Utopie 19f, 26–31, 50, 55–57, 65, 98, 114, 124, 127, 144, 147, 152, 159, 169, 205, 208, 225, 228, 233, 250, 263, 277f, 285f, 337–344, 352, 364
W Würde 13, 29, 52f, 60, 205, 207, 209, 254, 259, 262f, 288f, 301, 303, 313, 317f, 331, 335, 337, 353, 374, 408f
Z
V
Zahl 38, 57, 78, 156, 199, 217, 233, 266, 271f, 275, 342, 356, 368, 386
Vages Wissen 37, 44, 47, 373, 428 Verantwortung 52, 59f, 71–75, 120, 142f, 200, 230, 254–256, 262, 302, 347f, 353, 357, 360, 370, 380–386
Zauberei, Zauberer 74, 303–306, 367
460
Gabriel Franke
Gabriel Franke studierte Philosophie, Romanistik und Musik in Dresden. Seit 2021 ist er Internatsmentor am Sächsischen Landesgymnasium für Hochbegabung St. Afra. Seine Dissertation in Philosophie wurde 2022 mit dem Immanuel-Kant-Preis ausgezeichnet und hier publiziert.
Künstliche Intelligenz, Transhumanismus und menschliche Personalität
Ist der Mensch nur eine komplexe Maschine? Wenn ja, werden dann Maschinen die besseren Menschen, wenn unsere Technologien ausgereift genug sind? Können wir den Menschen optimieren und durch Computertechnologien unsere biologischen Grenzen überwinden? Kann ein Computer denken, moralisch handeln und Bewusstsein entwickeln? Dieses Buch beantwortet diese Fragen systematisch und ausführlich, ausgehend von Einsichten des 20. und 21. Jahrhunderts aus Philosophie und Naturwissenschaft.
www.wbg-wissenverbindet.de ISBN 978-3-534-40674-6
Gabriel Franke
Künstliche Intelligenz, Transhumanismus und menschliche Personalität