134 96 3MB
German Pages [233] Year 2023
Grenzfragen
| 45
Hoffmann | Korber [Hrsg.]
Fortschritt
https://doi.org/10.5771/9783495998847 .
https://doi.org/10.5771/9783495998847 .
Grenzfragen Veröffentlichungen des Instituts für Interdisziplinäre Forschung der Görres-Gesellschaft zur Pflege der Wissenschaft (Naturwissenschaft – Philosophie – Theologie) Herausgegeben von Gregor Maria Hoff Band 45
https://doi.org/10.5771/9783495998847 .
Karl Heinz Hoffmann | Nikolaus Korber [Hrsg.]
Fortschritt
https://doi.org/10.5771/9783495998847 .
Onlineversion Nomos eLibrary
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. ISBN 978-3-495-99883-0 (Print) ISBN 978-3-495-99884-7 (ePDF)
1. Auflage 2023 © Verlag Karl Alber – ein Verlag in der Nomos Verlagsgesellschaft mbH & Co. KG, Baden-Baden 2023. Gesamtverantwortung für Druck und Herstellung bei der Nomos Verlagsgesellschaft mbH & Co. KG. Alle Rechte, auch die des Nachdrucks von Auszügen, der fotomechanischen Wiedergabe und der Übersetzung, vorbehalten. Gedruckt auf alterungsbeständigem Papier (säurefrei). Printed on acid-free paper. Besuchen Sie uns im Internet verlag-alber.de https://doi.org/10.5771/9783495998847 .
Karl Heinz Hoffmann, Nikolaus Korber
Vorwort
»Fortschritt« – ein Begriff, der im öffentlichen und wirtschaftlichen, aber auch im privaten Leben immer wieder gebraucht wird, um eine Veränderung zum Besseren zu charakterisieren. Man ist hoffnungs froh, dass »demnächst Fortschritte erzielt werden«, »der Umbau des Hauses sei schon weit fortgeschritten« und »fortgeschrittene Metho den der Medizin werden uns ein langes Leben sichern«. Die histo rische Analyse von Entwicklungen wird unter dem Gesichtspunkt von Fortschritt zur »gerechteren Gesellschaft« behandelt, politische Kräfte wollen das Progressive, den Fortschritt und nicht den Stillstand oder den Rückschritt. »Fortschritt« wird also positiv bewertet. Aber auch die gegenteilige Weltsicht existiert. Es gibt das Kon servative, das Bewahrende und auch den Weg »zurück ins Paradies«. Dies ist Ausdruck einer eher kulturpessimistischen Haltung, wie sie etwa als »tödlicher Fortschritt« (Eugen Drewermann) oder »gespalte ner Fortschritt« (Thomas von Freiberg) auftritt. Ein genauerer Blick zeigt, dass Fortschritt zumeist nicht nur als gänzlich positiv oder gänzlich negativ gesehen wird, sondern mit Fragezeichen versehen als etwas Ambivalentes auftritt. Johannes Rau hat in seiner Amtszeit als Bundespräsident eine Rede mit dem Titel »Wird alles gut? Für einen Fortschritt nach menschlichem Maß« gehalten. Es ist also offensichtlich, dass der Fortschritt sowohl posi tive als auch negative Konnotationen besitzt. Dass die Debatte zum Fortschritt aktuell ist wie eh und je, wird auch deutlich im Titel des Koalitionsvertrags der Ampelregierung: »Mehr Fortschritt wagen«. Fortschritt ist notwendig, aber eben auch risikobehaftet. Im gesellschaftlichen und dann auch politischen Ringen darum, ob ein Wandel positiv oder negativ ist, kommt es dann auf die jeweiligen Werte an, die die Akteure für wichtig erachten, und so ist es nicht verwunderlich, dass die jeweils in einer Gesellschaft dominierenden Vorstellungen auch zukünftige Entwicklungen – und damit auch den Fortschritt selbst – prägen.
5 https://doi.org/10.5771/9783495998847 .
Karl Heinz Hoffmann, Nikolaus Korber
Solch unterschiedliche Vorstellungen von Fortschritt unterschei den nicht nur Kulturen voneinander, sondern es gibt auch in den ver schiedenen Wissenschaftszweigen unterschiedliche Vorstellungen, die mit dem Begriff Fortschritt verbunden werden. Während im Bereich der Geschichtswissenschaften einerseits Geschichte als fortschreitend optimistisch interpretiert und zum Teil auch mit teleologischen Aspekten versehen wird, so wird andererseits auch die Vorstellung vom Rückschritt in historischen Vorgängen entwickelt. Dies ist schon anders in den Naturwissenschaften und ganz besonders im Bereich der Technikwissenschaften. Dort ist Fort schritt üblicherweise positiv konnotiert und es steht außer Frage, dass der wissenschaftliche Fortschritt vorangebracht werden muss. In den Wirtschaftswissenschaften ist der »technische Fortschritt« ein essenzielles Element der Beschreibung von Wohlstandsmehrung, doch es werden auch die sozialen und ökonomischen Folgen des Fortschritts in den Blick genommen. Dies gilt ebenso im Bereich der Politikwissenschaften, wo durchaus auch die negativen Einflüsse des technischen Fortschritts, etwa für den Arbeitsmarkt oder den Umweltschutz, diskutiert werden. Als Ergebnis solcher Diskurse ist zum Beispiel beim Deutschen Bundestag ein Büro für Technikfolgen-Abschätzung eingerichtet worden und die Ambivalenz des Fortschrittes wird etwa deutlich im Namen des Bundestagsausschusses für »Bildung, Forschung und Technikfolgen-Abschätzung«. Die oben genannten Aspekte sind im Rahmen einer Tagung des Instituts der Görres-Gesellschaft für Interdisziplinäre Forschung in einer Reihe von Vorträgen entfaltet worden. Dabei soll »Fortschritt« nicht nur Fortschritt in der Wissenschaft sein, sondern auch die durch die Fortentwicklung der Wissenschaft entstehenden Veränderungen in der Gesellschaft umfassen. In einem ersten Block sollen der »Fortschritt« sowie seine Wahr nehmung und Bewertung in den verschiedenen Wissenschaftszwei gen in den Blick genommen werden: Ist Fortschritt positiv? Wie kommt er im eigenen Fach und wie im Allgemeinen zustande? Welche Bedingungen fördern ihn? Und was spricht gegen ihn? Diese Fragen sollen in den folgenden Kapiteln aus der Sicht verschiedener Wissen schaftszweige behandelt werden. Drei Beiträge aus dem Bereich der empirischen Wissenschaf ten und der Mathematik bilden die Basis für den Gang durch die Wissenschaftszweige, wobei die jeweiligen Spezifika der Naturwis
6 https://doi.org/10.5771/9783495998847 .
Vorwort
senschaften, der Mathematik und der Ökonomie dargestellt und wissenschaftstheoretische und -philosophische Grundüberlegungen präsentiert werden: Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften Manfred Stöckler, Prof. em. für Theoretische Philosophie und Philo sophie der Naturwissenschaften, Universität Bremen Revolutionen in der Mathematik? Gregor Nickel, Prof. für Philosophie der Mathematik, Universität Sie gen Fortschritt in der Ökonomie Wim Kösters, ehem. Vorstandsmitglied des RWI – Leibniz-Institut für Wirtschaftsforschung, Prof. em. für Volkswirtschaftslehre, RuhrUniversität Bochum Die beiden darauffolgenden Beiträge zeigen auf, dass mit dem Fort schritt in Naturwissenschaft und Medizin auch ethische und weltan schauliche Fragen berührt werden. Dies wird besonders deutlich im Beitrag aus der Medizin, der durch Fortschritte in der Gentechnik möglich werdende Therapieansätze und die dabei entstehenden ethi schen Fragen aufzeigt, und in dem dann folgenden Beitrag, der die aus naturwissenschaftlichen Fortschritten entstehenden Fortentwick lungen im Bereich der Theologie behandelt: Fortschritte in der Genomeditierung beim Menschen als norma tive Herausforderung Thomas Heinemann, Prof. für Ethik, Theorie und Geschichte der Medizin, Philosophisch-Theologische Hochschule / Vinzenz Palotti University, Vallendar Zwischen Trient und Vaticanum II. – Die Naturwissenschaft als Schritt macher theologischer Lernprozesse? Ulrich Lüke, Prof. em. für Systematische Theologie der RWTH Aachen Die letztere Thematik wird dann fortgeführt in zwei Beiträgen, die zum einen fundamentaltheologische Überlegungen zum Fortschritt in katholischer Theologie und Kirche präsentieren und zum anderen
7 https://doi.org/10.5771/9783495998847 .
Karl Heinz Hoffmann, Nikolaus Korber
in einer Zeit zunehmender Säkularisierung diese als Fort- oder Rück schritt diskutieren: Fortschritt – in katholischer Theologie und Kirche? Gregor Maria Hoff, Prof. für Fundamentaltheologie und Ökumene, Universität Salzburg Fortschritt und Säkularisierung Thomas Schmidt, Prof. für Religionsphilosophie, Universität Frank furt Die beiden abschließenden Beiträge beleuchten dann zwei für den Fortschritt in den Wissenschaften notwendige Bereiche, die aber selber auch einer Fortentwicklung unterliegen. Das ist einerseits der Bereich der Wissenschaftskommunikation, der oftmals Fortschritts erzählungen bereitstellt, und andererseits der Bereich der Wissen schaftsförderung, der erst die Rahmenbedingungen schafft, unter denen dann ein Fach – hier die Informatik – wissenschaftlich entste hen und fortschreiten kann. Wissenschaftskommunikation im Wandel Eva-Maria Streier, ehem. Direktorin der DFG für Presse- und Öffent lichkeitsarbeit Künstliche Intelligenz – die Entwicklung der Disziplin in Deutschland Jörg Siekmann, ehem. Direktor am DFKI, Seniorprofessor der Infor matik und Künstlichen Intelligenz, Universität des Saarlandes Insgesamt wird – wenn auch zum Teil nur exemplarisch – die Vielfalt des Fortschrittskonzepts in den Wissenschaften deutlich und es wird Material bereitgestellt, anhand dessen die am Beginn des Vorworts aufgeworfenen Fragen bedacht werden können. Dass auch der Blick auf den Fortschritt einer Fortentwicklung unterworfen ist, kann der interessierte Leser dieses Bandes der Grenzfragen durch Vergleich mit Band 25 der Grenzfragen mit dem Titel »Zukunft nach dem Ende des Fortschrittsglaubens« unschwer feststellen.
8 https://doi.org/10.5771/9783495998847 .
Inhaltsverzeichnis
Manfred Stöckler Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften Philosophische Anmerkungen . . . . . . . . . . . . . . . . . .
11
Gregor Nickel Revolutionen in der Mathematikgeschichte? . . . . . . . .
41
Wim Kösters Fortschritt in der Ökonomie – einige Anmerkungen . . . . .
105
Thomas Heinemann Fortschritte in der Genomeditierung beim Menschen als normative Herausforderung . . . . . . . . . . . . . . . . .
123
Ulrich Lüke Zwischen Tridentinum und Vatikanum II Die Naturwissenschaft als Schrittmacher theologischer Lernprozesse?
145
Gregor Maria Hoff Fortschritt – in katholischer Theologie und Kirche? Fundamentaltheologische Überlegungen im Horizont des 2. Vatikanischen Konzils . . . . . . . . . . . . . . . . . . . . . .
169
Thomas M. Schmidt Säkularisierung – Fortschritt oder Rückschritt? . . . . . . .
185
Eva-Maria Streier Wissenschaftskommunikation im Wandel . . . . . . . . .
203
9 https://doi.org/10.5771/9783495998847 .
Inhaltsverzeichnis
Jörg Siekmann Künstliche Intelligenz
Die Entwicklung der Disziplin in Deutschland . . . . . . . . . . .
217
Kurzbiografien . . . . . . . . . . . . . . . . . . . . . . . .
231
10 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften Philosophische Anmerkungen
1. Einleitung Über den Fortschritt gibt es viel zu sagen. In diesem Beitrag soll es vor allem um Fortschritte durch die Wissenschaften und um den Fortschritt in den empirischen Wissenschaften selbst gehen. Die Rede vom Fortschritt ist in der Regel mit Erwartungen verbunden. Diese Erwartungen variieren stark mit der Situation, auf die man gerade schaut. Entsprechend vielfältig sind die Kriterien für Fortschritt. Das kann zum Problem werden, wenn in der Förderung und Bewertung von wissenschaftlichen Aktivitäten Fortschrittserwartun gen eine zentrale Rolle spielen, die im Einzelfall unpassend, unerfüll bar oder sogar irreführend sein können. Die folgenden Überlegungen sollen durch Fallbeispiele und begriffliche Klärungen dazu beitragen, angemessene Maßstäbe zur Bewertung von Fortschritten in der Wis senschaft zu explizieren. Danach kann dann vielleicht auch der rechte Platz für die Fortschrittsrhetorik in Drittmittelanträgen (»originell!«, »innovativ!«) und in den hochglanzbebilderten Selbstdarstellungen von Universitäten und anderen Forschungsstätten gefunden werden. Im folgenden Abschnitt werden allgemein der Begriff des Fort schritts sowie die Fortschrittserwartungen thematisiert, die häufig mit der Entwicklung der Naturwissenschaften verbunden waren und sind. Ist der Fortschritt der Wissenschaft von sich aus ein Fortschritt für unser Leben? Der dritte Abschnitt führt uns zu den Debatten, die in der neueren Wissenschaftsphilosophie über die Entwicklung der Wissenschaften geführt wurden und in denen auch in Frage gestellt wurde, ob überhaupt von einem Fortschritt der Wissenschaften die Rede sein kann. Im vierten Abschnitt stellen Fallbeispiele weiteres Anschauungsmaterial bereit, das die Vielfalt der Arten von Fortschrit
11 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
ten in unterschiedlichen Wissenschaften demonstriert. Im fünften Abschnitt werden Folgerungen für eine Gestaltung des Fortschritts gezogen: Es gibt keine allgemeine Theorie des Fortschritts schlecht hin, man muss immer im Einzelnen schauen, im Hinblick auf welche Ziele und Maßstäbe etwas besser werden soll und wie das in der jeweiligen Situation realisiert werden kann.
2. Allgemeine Vorbemerkungen zum Fortschritt Fortschritt ist eine durch Menschen herbeigeführte Veränderung eines Zustands, die eine Verbesserung gemessen an einem Wert oder einem Ziel darstellt. Otto Neumaier hat diese erste grobe Kennzeichnung im Begriffsumfeld von Veränderung, Entwicklung und Neuerung umsichtig und lehrreich ausgearbeitet.1 Fortschritt ist auch ein »Grundbegriff der neuzeitlichen Geschichtsphilosophie und des Geschichtsbewusstseins der bürgerlichen Gesellschaft. Systematisch eine zweckbestimmte Veränderung durch menschliches Handeln, insofern dessen Maßstab im Detail das Bessermachen ist. Fortschritte unterscheiden sich daher auch von Entwicklungen im allgemeinen durch das Kriterium zunehmend besser realisierter Zwecke, was nicht ausschließt, dass einige Entwicklungen im Sinne dieses Kriteriums selbst als Fortschritte darstellbar sind.«2 So definiert Jürgen Mittel straß in einem prägnanten Lexikonartikel. Auch in der Antike und im Mittelalter gibt es Fortschrittsgedanken. Zu einem großen Thema in Gesellschaft und Philosophie wird der Fortschritt aber erst in der Neuzeit, in der auch die empirischen Naturwissenschaften, wie wir sie heute kennen, entstanden sind.3 1 Otto Neumaier, Gibt es Fortschritt in der Kunst? Versuch einer Klärung im Anschluß an Popper, in: Was wir Karl R. Popper und seiner Philosophie verdanken, hg. v. E. Morscher, Sankt Augustin 2002, 433–464. Ein bloßer Zuwachs ist z. B. noch kein Fortschritt, wenn er nicht nach einem normativen Kriterium als wertvoll bewertet wird (vgl. 441). Man könnte hier z. B. an Publikationsverzeichnisse denken. 2 Jürgen Mittelstraß, Art. »Fortschritt«, in: Enzyklopädie Philosophie und Wissen schaftstheorie, hg. v. J. Mittelstraß, Bd. 1, Stuttgart 1995, 664–666. 3 Eine reiche Quelle ist der Artikel »Fortschritt« von Joachim Ritter, in: Historisches Wörterbuch der Philosophie, hg. v. J. Ritter, Bd. 2, Basel/Stuttgart 1972, Sp. 1032– 1059. Siehe auch Reinhart Koselleck, Art. »Fortschritt«, in: Geschichtliche Grundbe griffe, hg. v. O. Brunner / W. Conze / R. Koselleck, Bd. 2, Stuttgart 1973, 351–423. Eine pointierte Darstellung findet man in Charles Frankel, Art. »Progress, The Idea
12 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Fortschritt ist zunächst vor allem ein Thema in Gesellschaft und Politik. Er wird aber auch häufig mit der Korrektur von Wissen und mit dem Hinzukommen neuer Erkenntnisse verknüpft. Ein frühes Zeugnis ist ein Fragment von Xenophanes (etwa 570–475 v. Chr.): »Die Götter haben den Menschen durchaus nicht gleich am Anfang alles enthüllt, sondern im Lauf der Zeit suchen und finden sie Besseres hinzu.«4 In diesem Fragment gibt es eine sprachliche Zweideutigkeit, die der Aufklärer Karl Popper zugunsten der menschlichen Aktivitä ten auflöst: »Nicht von Beginn an enthüllten die Götter den Sterbli chen alles; aber im Laufe der Zeit finden wir suchend das Bess‘re.«5 Nach dieser Übersetzung sind es die Menschen, die suchen und das Bessere finden, während der griechische Text auch die Deutung zulässt, dass die Götter das Bessere suchen und finden und so den Fortschritt tragen.6 Sichtbar wird hier eine Auffassung, dass unser Wissen über die Welt schrittweise verbessert werden kann. Diese Einstellung führt z. B. Aristoteles dazu, in seinen Schriften die häufig einander widersprechenden Meinungen der Vorsokratiker darzustellen und seine eigene überlegene Position daraus zu entwickeln. Das Ideal, das Wissen zu verbessern, enthält aber nur einen schwachen Fortschritts begriff. Im Detail wäre zwischen verschiedenen Verlaufsformen der Wissenszunahme zu unterscheiden: Hat der Prozess ein Ziel, kommt er zu einem vorbestimmten Ende? Ist er kumulativ? Gibt es Evoluti onsgesetze? Wodurch kommt es zu einem Wissensgewinn? Und kann es nicht auch Rückschritte geben? Gibt es Bereiche des Wissens, die vom Fortschritt ausgeschlossen sind? Die Idee eines Fortschritts des Wissens ist nicht selbstverständ lich. Ein Gegenmodell wäre die Verteidigung eines überlieferten Wissens, das auf göttliche Quellen oder auf die Autorität der Weisheit alter Kulturen zurückgeht. Die Bedeutung von Tradition und neuen Erfahrungen wurde im 17. und 18. Jahrhundert in der Querelle des Anciens et des Modernes am Beispiel der Frage erörtert, ob die Antike noch Vorbild für die zeitgenössische Literatur und Kunst sein könne. of«, in: The Encyclopedia of Philosophy, hg. v. P. Edwards, New York / London 1967, 483–486. 4 DK 21 B 18, hier in der Übersetzung aus Jaap Mansfeld / Oliver Primavesi (Übersetzung u. Kommentar), Die Vorsokratiker, Stuttgart 2012, 229. 5 Karl R. Popper, Logik der Forschung, Tübingen 41971, XXVI. 6 Mansfeld / Primavesi, Vorsokratiker, 208.
13 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Dabei spielte die Analogie der Lerngeschichte eines Individuums zur Menschheitsgeschichte eine Rolle. Sind unsere Vorfahren in diesem Vergleich älter (haben zusammen mehr Wissen gesammelt) und deshalb weiser? Oder wurde in der neueren Zeit durch neuartige Erfahrungen mehr gelernt? So lässt Bernard de Fontenelle in einer seiner Schriften Sokrates sagen, dass wir unsere Alten und Vorgänger höher schätzen, als sie es verdienen, und dass unsere Nachfahren uns höher schätzen werden, als wir es verdienen.7 Mit der Neuzeit beginnt die Autorität des Alten zu schwinden, man beruft sich auf Vernunft gebrauch und zunehmend auch auf Sinneserfahrung und Experiment. Erfolge wie die Entdeckung eines neuen Kontinents, Umwälzungen im astronomischen Weltbild oder die Entwicklung in den mechani schen Wissenschaften sind Ausdruck der Bereitschaft, auch revolutio näre Neuerungen anzuerkennen und nach ihnen zu suchen. In der Renaissance gibt es ein neues theoretisches Interesse an der Natur, das sich schon im Mittelalter langsam entwickelt hat. Für die spezifische Fortschrittskonzeption der Neuzeit ist insbesondere die neue Rolle wichtig, die man dem Wissen über die Natur jetzt zuschreibt: Die Erkenntnisse über die Kräfte der Natur sollen die Lebenssituation der Menschen verbessern. Theologie, Ethik und Staatswissenschaften hatten schon davor diese Aufgabe. Jetzt wird es attraktiv, auch die Natur zum Gegenstand einer Wissenschaft zu machen, die über die Kenntnisse von Ärzten und Handwerkern hinausgeht und gezielt zur Verbesserung der Lebensbedingungen genutzt werden kann. Programmatisch formuliert das Francis Bacon (1561–1626): Wissen ist Macht über die Natur. Eine systematische Förderung der Wissenschaft und eine neue Methodologie, die insbesondere auch Erfahrung und Beobachtung einbezieht, soll durch technische Neuerungen die Wohlfahrt der Menschen garantieren. Am Ende des Novum Organum Scientiarum, eines Werkes, dass sich im Titel auf Aristoteles bezieht und sich insbesondere von der Denkweise der Scholastik absetzt, schreibt Bacon: »Dann endlich werden wir als treuer Fürsorger durch Einsetzung der Vernunft in ihre gebührenden höheren Rechte den Menschen an die Hand geben, was sie wahrhaft beglückt, woraus notwendig eine Verbesserung des menschlichen Zustandes und eine erhöhte Macht über die Natur erfolgen muss. Denn der Mensch ist durch den Sündenfall um seine Unschuld und 7
Ritter, Fortschritt, in: Historisches Wörterbuch, Sp. 1038.
14 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
um seine Herrschaft über die Natur gekommen; beides kann aber im Leben gewissermaßen wiedergewonnen werden; das erste durch religiösen Glauben, das letzte durch Kunst und Wissenschaft.«8 Die Parallelisierung von Seelenheil und Macht über die Natur gibt dem Fortschrittsgedanken ein besonderes Gewicht. Der Einsatz der Wissenschaft zur Erleichterung der Lebensfüh rung schließt Grundlagenforschung nicht aus. Dies wird auch am Bild des Baumes der Wissenschaft deutlich, mit dem René Descar tes (1596–1650) die gegenüber dem Mittelalter neue, zusätzliche Funktion des Wissens illustriert: Die Metaphysik ist die Wurzel, die Physik der Stamm, die angewandten Wissenschaften (u. a. Medizin und Ethik) sind die Zweige. Alle Teile des Baumes sind wichtig, damit seine Früchte geerntet werden können. Und diese Früchte sind der hauptsächliche Nutzen der Philosophie (der Wissenschaft).9 Die Fortschritte der Mechanik und der Medizin sollen das Leben der Menschen erleichtern. Die philosophische Grundlegung in seinen Prinzipien führe dazu, »dass man durch ihr Studium eine große Anzahl von Wahrheiten, die ich nicht dargelegt habe, entdecken wird, und, indem man so nach und nach von ihnen zu anderen fortschreitet, zur vollkommenen Kenntnis der ganzen Philosophie und mit der Zeit zu der höchsten Stufe der Weisheit wird gelangen können.«10 Descartes schlägt eine Brücke zwischen der Aufgabe, die Bacon der Wissenschaft zuweist, und einem ganz anderen Motiv, das sich auf das Verstehen der Natur richtet, durchaus auch als Nachdenken des Schöpfungsplans Gottes. Dieses Motiv der theoretischen Erfassung der Natur ist auch in einem der letzten Briefe Keplers sichtbar, in dem er die Bedeutung seiner Beschäftigung mit dem Planetensystem und den Gesetzen der Bewegung der Planeten so formuliert: »Wenn der Sturm rast und der Staat von Untergang bedroht ist, können wir nichts Würdigeres tun, als den Anker unserer friedlichen Studien in den Grund der Ewigkeit senken.«11 Die beiden Motive für die Beschäftigung mit der Wissenschaft, der praktische Nutzen und das Streben nach theoretischem Erkennt 8 Francis Bacon, Neues Organ der Wissenschaften, hg. v. A. T. Brück, Darmstadt 1990 (Leipzig 1830), 236. 9 Vorrede zur französischen Ausgabe der Prinzipien (1647). René Descartes, Die Prinzipien der Philosophie, Hamburg 1992, XLII (AT IX-2, 14). 10 Ebd., XLV. 11 Brief vom 6. November 1629, s. Arthur Koestler, Die Nachtwandler, Wiesbaden 1959, 424.
15 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
nisgewinn, haben beide eine Fortschrittsperspektive und bleiben nebeneinander stehen, wie man bei Galilei sehen kann. Dabei ist zu konstatieren, dass der unmittelbare Nutzen der neuen Kenntnisse zunächst noch eingeschränkt und in den meisten Bereichen mehr Programm als Realität ist. Die Entwicklung des naturwissenschaftlichen Wissens scheint auf den ersten Blick kumulativ zu sein, weil immer neue Erkenntnisse dazukommen. Allerdings kann Wissen auch verloren gehen, z. B. weil Schriften verloren gehen oder Bibliotheken abbrennen oder weil eine bestimmte Art von Erkenntnissen nicht mehr geschätzt wird. Bei spiele dafür kann man am Ausgang der Antike finden, wenn auch die alten Schriften spätestens im Übergang zur Neuzeit auch in der christ lich geprägten Gelehrsamkeit des Westens wieder die gebührende Beachtung fanden. Eine in der heutigen Wissenschaftsphilosophie diskutierte Kritik an einem kumulativen Wissensfortschritt wird uns in einem späteren Abschnitt beschäftigen. Leichter als im Bereich des Wissens kann Fortschritt (im Sinne einer Verbesserung) im gesellschaftlichen Leben geleugnet werden, etwa in Theorien eines Kulturzerfalls, nach denen ein goldenes Zeit alter verloren gegangen ist und nicht wieder erreicht werden kann. Fortschritt kann »lokal«, z. B. vorübergehend, gedacht werden, etwa in Kreislauftheorien, in denen die Geschichte sich in Weltentstehung und Weltuntergang wiederholt.12 Weiterentwicklung muss also nicht als stetiger Aufstieg gedacht werden. Fortschritt wird heute allerdings meist in Anlehnung an ein linea res Geschichtsverständnis13 als immer weiter gehender Fortschritt gedacht. Als geschichtsphilosophische Konzeption tritt diese Idee an die Stelle einer christlich geprägten Vorstellung über den Verlauf und das Ende der Geschichte: »Ob als Säkularisierung einer ursprünglich christlich-jüdischen Heilserwartung oder als Folge der Entstehung der neuzeitlichen Naturwissenschaften und der durch sie bewirkten fortschreitenden Naturbeherrschung, Fortschritt ist der Begriff, unter dem die Neuzeit ihre Vorstellung von Zukunftserwartung formu liert.«14 12 Vgl. Wolfgang Neuser, Art. »Fortschritt«, in: Neues Handbuch philosophischer Grundbegriffe, hg. v. P. Kolmer / A. G. Wildfeuer, Bd. 1, Freiburg/München 2011, 791. 13 Mittelstraß, Fortschritt, in: Enzyklopädie Philosophie und Wissenschaftstheo rie, 665. 14 Ebd.
16 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Der Fortschritt in den Wissenschaften und der Fortschritt im gesellschaftlichen Leben können in unterschiedlicher Weise mitein ander gekoppelt sein. Nach Jürgen Mittelstraß liegt dem Fortschritts begriff der Aufklärung die Annahme zugrunde, dass die Entfaltung der Vernunft und die Steigerung insbesondere des naturwissenschaft lichen Wissens von sich aus zu einer Humanisierung der Gesellschaft führen.15 Die Wissenschaften werden als wichtiger Faktor in der nun anstehenden historischen Entwicklung angesehen, die aus tra ditionellen Beschränkungen, aus Aberglauben und Fanatismus in eine in jeder Hinsicht bessere Zukunft führt, die den Menschen mehr Wohlstand, bessere staatliche Institutionen und Glück auch im Diesseits ermöglicht. Eine ganz andere Ansicht vertritt Jean-Jacques Rousseau (1712– 1778) in seiner Abhandlung über die von der Akademie zu Dijon gestellte Frage, ob die Wiederherstellung der Wissenschaften und Künste zur Läuterung der Sitten beigetragen habe (1750).16 Er beantwortet die Frage mit einem klaren Nein und wendet sich damit gegen den Fortschrittsoptimismus der Aufklärung: Wissenschaft, Literatur und Künste vertragen sich nicht. Schon in der Antike könne man an mehreren Beispielen sehen, dass der Aufschwung der Wissenschaften zu einem Verfall der Sitten führt. Rousseau hat wohl weniger die Naturwissenschaften im Blick, seine Kultur- und Zivilisationskritik richtet sich eher gegen das Verhalten von Gelehrten (inklusive der Philosophen) und gegen die Zwänge, die die Natur des Menschen nicht zur Entfaltung kommen lassen. Auch Immanuel Kant greift im Kontext seiner Geschichtsphilo sophie die zeitgenössischen Fortschrittskonzeptionen auf. Einerseits geht er von einer Naturanlage der menschlichen Gattung zu einem kontinuierlichen Fortschreiten in ihrer Vervollkommnung aus. Ande rerseits betont er, dass dieser Fortschritt sich im Laufe der Geschichte nicht von alleine einstellt, sondern die Aufgabe und das Ziel ist, auf das wir unsere Bestrebungen zu richten haben. Der Fortschritt besteht vor allem auch in der Verbesserung der kulturellen und
15 Ebd., Mittelstraß verweist dabei insbesondere auch auf A. Marquis de Condorcet (Esquisse d'un tableau historique des progrès de l'esprit humain, 1794); zu Condorcet siehe auch Ritter, Fortschritt, in: Historisches Wörterbuch, Sp. 1045. 16 In Jean-Jacques Rousseau, Sozialphilosophische und politische Schriften, Düssel dorf/Zürich 21996, 9–35.
17 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
rechtlichen Rahmenbedingungen des Handelns bis hin zu einer voll kommenen Staatsverfassung.17 Im 19. Jahrhundert gibt es viele verschiedene Vorstellungen über den Zusammenhang von Naturwissenschaft und gesellschaftlichem Fortschritt, die von unterschiedlichen Konzeptionen von Entwicklung und Zielgerichtetheit in der Natur und von diversen Konzeptionen von Formen und gegebenenfalls Gesetzlichkeiten gesellschaftlicher Veränderungen abhängen.18 Nach Jürgen Mittelstraß geht die Bedeu tung des praktisch-philosophischen Aspekts im Sinne einer Weiter entwicklung der Gattung Mensch im 19. Jahrhundert insgesamt zurück und dafür treten die unbegrenzt scheinenden Möglichkeiten der Naturbeherrschung in den Vordergrund. Fortschritt bedeutet dann häufig nur die Zunahme der technischen Fähigkeiten und das Wachs tum des materiellen Lebensstandards, ohne Blick auf moralische oder gesellschaftliche Verbesserungen. Dadurch verliert der Fortschritt seine uneingeschränkt positive Konnotation. Ein Beispiel für Bedenken angesichts neuer technischer Mög lichkeiten ist die These, dass die Unterjochung der Natur auf die Gesellschaft »zurückschlägt«19. Eine bestimmte Form von Rationa lität (»technische Rationalität«20), die nur Mittel zur Erreichung vorgegebener Ziele, aber nicht diese Ziele selbst zum Gegenstand macht, führe zu dem Zwangscharakter der Gesellschaft, zu einer neuen Beherrschung des Menschen, die die Freiheit und das Glück der Individuen einschränkt. Dies sei in der Art, wie Wissenschaft, auch Naturwissenschaft, traditionell verstanden wird, schon angelegt.21 Man kann über diese Diagnose aus der Kritischen Theorie streiten, etwa über die Einschätzung des Ausmaßes der Instrumentalisierung der Wissenschaften oder die Beurteilung der Methoden des Logi schen Empirismus. Das herkömmliche Vertrauen in den Fortschritt ist jedenfalls erschüttert. 17 Siehe Michael Pauen, Art. »Fortschritt«, in: Kant-Lexikon, Bd. 1, hg. von M. Willaschek et al., Berlin 2015, 623–626, und Ritter, Fortschritt, in: Historisches Wörterbuch, Sp. 1048–1049. 18 Ritter, Fortschritt, in: Historisches Wörterbuch, Sp. 1049–1056. 19 Max Horkheimer / Theodor W. Adorno, Dialektik der Aufklärung [1947], Frank furt/M. 1969, 46. 20 Ebd., 129. 21 Vergleichbar sieht später Georg Picht im Naturbild der modernen Naturwissen schaften eine Ursache für die konstatierten Zerstörungen in der Natur durch Technik und Wissenschaft, vgl. Georg Picht, Zum Begriff der Natur und seiner Geschichte, Stuttgart 1989.
18 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Mit weniger Theorieaufwand stellt die Wahrnehmung der Nebenfolgen der gewaltig vergrößerten technischen Möglichkeiten den Nutzen des Fortschritts in Frage. Diese Fortschrittskritik verweist auf die Folgen der Waffentechnik (z. B. Giftgas im Kriegseinsatz, besonders auch die Wirkungen der Atombombe), auf Umweltge fährdungen (prominent beginnend mit Rachel Carson, Der stumme Frühling, 1962), Ressourcenausbeutung (Die Grenzen des Wachstums, Club of Rome 1972) und neuerdings auf dramatische globale Klima veränderungen. Anfang der 80er Jahre zeigten zwei Bücher mit den Titeln Der tödliche Fortschritt und Die Macht des Fortschritts (übrigens beide von Theologen geschrieben) die Ambivalenz des technischen Fort schritts.22 Ein uneingeschränkter Glaube an die Macht des Fortschritts und an die garantiert heilende Wirkung des Fortschritts ist nicht mehr möglich, eine undifferenzierte Fortschrittskritik ist aber auch nicht hilfreich. Die bisherige Karriere des Fortschrittsbegriffs, die damit verbun denen Motive, Erwartungen und Theorien zeigen, dass zur Klärung des Begriffs eine Reihe von Unterscheidungen zu treffen und eine Reihe von Extremen zu vermeiden sind. Geschichtsphilosophische Theorien helfen wenig bei der Lösung konkreter Probleme, der Fort schritt stellt sich nicht von alleine und ohne unser Zutun ein. Auch das Wachstum der Wissenschaft muss nicht zwangsläufig zur Verbes serung der Lebensbedingungen des Menschen, zu Glück und gutem Leben führen. Weder kann man unter Verweis auf den Fortschritt des Wissens alle Gefahren zur Seite schieben, noch kann man unter Verweis auf Schäden, die dadurch eingetreten sind und noch drohen, das wissenschaftliche Vorgehen selbst ablehnen. Der Fortschritt in den Wissenschaften und die Verbesserung der Lebensbedingungen und der gesellschaftlichen Ordnung folgen unterschiedlichen Mus tern. Aber beides ist eine Gestaltungsaufgabe, Fortschritt ist ein normativer Begriff.
22 Eugen Drewermann, Der tödliche Fortschritt, Regensburg 1981 (»In einem beängs tigendem Tempo stürzt die Welt derzeit auf einen Abgrund zu«, 7); Wolfgang Büchel, Die Macht des Fortschritts. Plädoyer für Technik und Wissenschaft, München 1981.
19 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
3. Thomas S. Kuhn und die Wissenschaftsphilosophie über den Fortschritt in den Wissenschaften Im letzten Abschnitt standen die Wechselwirkungen von Fortschritten in den Wissenschaften und in der Gesellschaft im Mittelpunkt. Jetzt soll es um die Entwicklung der Wissenschaften selbst gehen. In den bisherigen Überlegungen war der Fortschritt der Wissenschaften im Sinne einer permanenten Zunahme des Wissens vorausgesetzt worden. Diese Voraussetzung ist in der Neuzeit weitgehend akzeptiert und scheint insbesondere durch die Entwicklung der Physik belegt. Der folgende Abschnitt befasst sich mit der Legitimität dieser Vor aussetzung. Im Mittelpunkt stehen dabei Überlegungen, die Thomas S. Kuhn im Umkreis seiner Theorie der wissenschaftlichen Revolu tionen entwickelt hat. Kuhns Theorie wurde vielfach als Ende der Fortschrittsvorstellungen in der Geschichte der Wissenschaft angese hen.
3.1 Die klassische moderne Wissenschaftsphilosophie Kuhns Theorie kann als Kritik an zentralen Elementen des Logischen Empirismus verstanden werden, der die gegenwärtige Wissenschafts philosophie wesentlich geprägt hat.23 Die Geschichte des Logischen Empirismus beginnt 1922 mit der Berufung des Physikers und Philo sophen Moritz Schlick auf die in Wien für Ernst Mach eingerichtete Professur Philosophie der induktiven Wissenschaften. Zentrale Ele mente der Lehre in der Tradition des Empirismus sind die Betonung der Sinneswahrnehmung als Fundament des Wissens (verbunden mit einer radikalen Metaphysikkritik) und die Übernahme der gerade entwickelten neuen Logik24 als wichtigem methodischem Werkzeug. Herausgehoben wird der sprachliche Charakter der Wissenschaft, eine wichtige Aufgabe ist deshalb die Analyse der Sprache der Wissen schaften. Auch wenn sich der Logische Empirismus als Erneuerungs bewegung (vor allem innerhalb der Philosophie) versteht, gibt es keine expliziten Vorstellungen zur Entwicklung und zum Fortschritt Vgl. dazu Martin Carrier, Wege der Wissenschaftstheorie im 20. Jahrhundert, in: Wissenschaftstheorie. Ein Studienbuch, hg. v. A. Bartels / M. Stöckler, Paderborn 2007, 15–44. 24 Wie sie insbesondere von G. Frege und B. Russell entwickelt und propagiert wurde.
23
20 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
der Wissenschaft. Man beschränkt sich auf strukturelle Aspekte und Probleme der Rechtfertigung wissenschaftlicher Theorien. Man ist allerdings überzeugt, dass der allgegenwärtige Streit in der traditionellen Philosophie durch die neuen Methoden der Begriffsklärungen und der logischen Analyse überwunden werden können: »In dieser modernisierten und weltanschaulich desinfizierten Philosophie kann es keine sachlichen Meinungsunterschiede mehr geben, sondern nur noch Missverständnisse. Die logische Analyse der Sprache weist den Weg zum ewigen Frieden in der Philosophie.«25 Viele Mitglieder des Wiener Kreises, der Urzelle des Logischen Empirismus, verbanden ihre Wissenschaftskonzeption aber auch mit einem gesellschaftlichen Projekt. Sie sahen sich als Teil einer Modernisierungs- und Bildungsbewegung und wollten im Geiste der Wissenschaften mit dem Vertrauen auf Rationalität, Argumentation und Kontrolle durch die Erfahrung gesellschaftliche Reformen herbei führen. Am Ende des »Manifests« des Wiener Kreises, einer Schrift mit dem Titel Wissenschaftliche Weltauffassung, kann man lesen: »Wir erleben, wie der Geist wissenschaftlicher Weltauffassung in stei gendem Maße die Formen persönlichen und öffentlichen Lebens, des Unterrichts, der Erziehung, der Baukunst durchdringt, die Gestaltung des wirtschaftlichen und sozialen Lebens nach rationalen Grundsät zen leiten hilft. Die wissenschaftliche Weltauffassung dient dem Leben und das Leben nimmt sie auf.«26 Die Arbeiten zur Analyse der Naturwissenschaften konzentrie ren sich vor allem auf die Theoretische Physik. Im Mittelpunkt des Interesses steht die Struktur von Theorien. Man unterscheidet die Terme in einer Theorie, die Aussagen über Beobachtungen wie dergeben, von anderen erfahrungsferneren »theoretischen« Termen. Man untersucht, wie Hypothesen empirisch gestützt werden und wie umfassende Theorien durch einzelne Beobachtungen gerechtfertigt werden können. In der Tradition des Antipsychologismus der dama ligen Logik sucht man nach objektiven Kriterien der Rechtfertigung und verweist alle heuristischen Fragen in die Psychologie, d. h. sie werden nicht als Gegenstand der Philosophie angesehen. Carrier, Wege der Wissenschaftsphilosophie, 25. Wissenschaftliche Weltauffassung. Der Wiener Kreis, hg. vom Verein Ernst Mach [1929], in: Der Wiener Kreis. Ausgewählte Texte, hg. von Christian Damböck, Stuttgart 2013, 7–32. Man vergleiche damit das Ende von Bacons Novum Organum Scientiarum (Fußnote 8). 25
26
21 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Von diesem Geist ist z. B. auch das sogenannte deduktiv-nomo logische Modell der wissenschaftlichen Erklärung geprägt, das in den 1940er Jahren vor allem von C. G. Hempel entwickelt wurde und als typisches Beispiel für die Wissenschaftstheorie des logischen Empirismus angesehen werden kann. Durch eine Erklärung wird das zu erklärende Ereignis unter ein allgemeines Gesetz subsumiert. Erklärungen sind danach etwas Sprachliches und Objektives, sie sind Argumente, durch die das Eintreten des zu erklärenden Ereignisses als notwendig erwiesen wird, indem man zeigt, dass die Beschreibung des zu erklärenden Ereignisses mit logischer Notwendigkeit aus entsprechenden Prämissen folgt. Der Fortschritt der Wissenschaften kam durch Karl R. Popper wieder in das Blickfeld der Wissenschaftsphilosophie. Popper teilt viele Ideen des Logischen Empirismus, war aber skeptisch im Hinblick auf dem Möglichkeit, Theorien durch Beobachtungen zu verifizieren. Popper bestreitet, dass Naturgesetze empirisch verifizierbar sind, und er bestreitet die Möglichkeit, mit induktiven Methoden Hypothesen als mehr oder weniger wahrscheinlich zu bewerten. Bei Popper tritt stattdessen die Möglichkeit der Falsifikation in den Vordergrund. Wissenschaftliche Theorien sind dadurch gekennzeichnet, dass sie an der Erfahrung scheitern können.27 In erster Näherung besteht der Fortschritt darin, falsifizierte Hypothesen aufzugeben zugunsten von Hypothesen, die durch diese Erfahrung nicht widerlegt werden. In der Wissenschaftsgeschichte wurden immer wieder auch umfassendere Theorien aufgegeben, wie die Planetentheorie des Ptolemäus, die Phlogistontheorie oder die Annahme des Äthers als Ausbreitungsme dium des Lichts. Allerdings ist auch die Falsifikation einer Theorie nicht zwingend, man kann gefährdete Theorien durch Zusatzannah men retten (»immunisieren«). Die Widerlegung einer Theorie auf grund empirischer Schwierigkeiten ist deshalb logisch nicht zwingend und so ist die Abfolge von Hypothesen und ihren Widerlegungen – und damit der Motor des Fortschritts in den Wissenschaften – auch von Entscheidungen geprägt, die konventionalistische Elemente haben. Generell ist eine Theorie nach Popper umso besser, je mehr ernsthaften Falsifikationsversuchen sie standgehalten hat.28 Der Fort schritt in den Wissenschaften vollzieht sich durch die Aufstellung von Vgl. auch hierzu Carrier, Wege der Wissenschaftsphilosophie, 28–30. Vgl. zu Poppers Falsifikationstheorie Wolfgang Stegmüller, Hauptströmungen der Gegenwartsphilosophie, Bd. 1, Stuttgart 71989, 397–402. 27
28
22 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Hypothesen, Widerlegungsversuchen und gegebenenfalls durch die Aufgabe widerlegter Annahmen, also durch Irrtumsbeseitigung. Der Fortschritt ist nicht induktiv, aber doch rational.
3.2 Thomas S. Kuhn über wissenschaftliche Revolutionen In der Frühphase des Logischen Empirismus ging es vor allem um die Art und Weise, wie Hypothesen durch Beobachtungsaussa gen gerechtfertigt werden können. Damit ist das klassische Induk tionsproblem verbunden. Spätestens seit Hume zeichnete sich ab, dass durch einzelne Beobachtungen keine allgemeinen Theorien mit Sicherheit gerechtfertigt werden können. Diese skeptische Feststel lung ist aber eher prinzipieller Art, sie ändert nichts an den offen sichtlichen Erfolgen induktiver Verfahren. Weder Humes Zweifel noch Poppers logische Einwände haben die verbreitete Vorstellung von einem linearen, kumulativen Fortschritt in den Wissenschaften ernsthaft erschüttert. Dieser Fortschritt wurde sowohl in der Breite (Wissensakkumulation durch neue Beobachtungen, z. T. mit Hilfe neuartiger präziser Messinstrumente) als auch in der Tiefe des Wis sens gesehen, die sich in der internen Verknüpfung einzelner Aussa gen und in ihrer Einbettung in umfassende Theorien manifestiert.29 Auch der Theorienwandel im Laufe der Wissenschaftsgeschichte, der mit Karl Popper wieder in das Blickfeld gekommen war, konnte hier untergebracht werden. Alte Theorien wie die Newtonsche Gravitati onstheorie werden nicht gänzlich falsch, wenn eine neue Theorie wie Einsteins Relativitätstheorie bessere Vorhersagen macht und mehr erklären kann. Die alte Theorie, so schienen es die Revolutionen in der Physik des frühen 20. Jahrhunderts nahezulegen, bleibt näherungs weise und als Grenzfall der neuen Theorie von Bedeutung. Das Vertrauen in einen solchen immer noch kumulativen Fort schritt wurde durch das Buch The Structure of Scientific Revolutions von Thomas S. Kuhn (Chicago 1962)30 ganz grundsätzlich in Frage gestellt. Kuhns Buch fand eine ungeheure Resonanz. Die Rezeption bezog sich auf verschiedene Aspekte seines Werks und sie hat Kuhns 29 Vgl. Wolfgang Stegmüller, Hauptströmungen der Gegenwartsphilosophie, Bd. 3, Stuttgart 81987, 280–289. 30 Deutsche Übersetzung: Die Struktur wissenschaftlicher Revolutionen, Frank furt/M. 1967.
23 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Anliegen auch nicht immer richtig verstanden. Kuhns Arbeit kann als fundamentale Kritik an Kernthesen des Logischen Empirismus, insbesondere an dessen Verständnis einer wissenschaftlichen Theorie angesehen werden.31 Thomas S. Kuhn hatte eine Doktorarbeit in der Theoretischen Festkörperphysik geschrieben, kannte sich also in Theorie und Praxis des Wissenschaftsbetriebs gut aus. Danach beschäftigte er sich mit der Geschichte der Physik und der Technik im 17. und 19. Jahrhundert. Dadurch wurde er mit einem Typ von Wissenschaftsgeschichtsschreibung vertraut, die nicht als Geschichte der Sieger die Entwicklung nur aus gegenwärtiger Sicht beurteilt,32 sondern in einem gewissen Sinn historistisch den Eigenwert der kognitiven Situation der jeweiligen Epoche in den Mittelpunkt stellt.33 Nach Kuhn treffen die WissenschaftlerInnen ihre Entscheidungen, z. B. bei der Wahl einer Theorie, nicht nach allgemeinen logischen und überzeitlichen methodologischen Regeln, sondern lassen sich dabei von den kognitiven Werten der jeweiligen Gemeinschaft lei ten.34 So werden psychologische und soziologische Elemente bei der Analyse der Wissenschaftsentwicklung wichtig. Wenn im Laufe der Entwicklung sogar auch grundlegende Bewertungskriterien verändert werden, scheint einem linearen Fortschritt des Wissens der Boden entzogen zu sein. Und so wurde Kuhn zuweilen dahingehend inter pretiert, dass er die Rationalität der Wissenschaft und damit auch ihre Fortschrittsfähigkeit in Frage stelle. Bevor wir aber so weitgehende Folgerungen akzeptieren, sollten wir uns Kuhns Thesen etwas genauer anschauen.35 Ein zentraler Begriff in Kuhns Konzeption der Wissenschaft und ihrer Entwick lung ist das Paradigma. Dadurch wird die Rolle der Theorien als zentrale Bestandteile der Wissenschaft relativiert und der Blick auf die 31 Etwa zur gleichen Zeit wie Kuhns Buch sind auch andere Arbeiten erschienen, die das Bild, das der Logische Empirismus von der Entwicklung der Wissenschaften gezeichnet hatte, fundamental kritisieren (u. a. von Paul Feyerabend, Norwood R. Hanson und Stephen Toulmin), vgl. Paul Hoyningen-Huene: Thomas S. Kuhn. Die Struktur wissenschaftlicher Revolutionen, 315, in: Interpretationen. Hauptwerke der Philosophie. 20. Jahrhundert, Stuttgart 1992, 314–331. 32 Wie es in Vorträgen und Büchern zu finden ist, in denen Nobelpreisträger und andere verdiente Physiker auf die Geschichte ihres Faches zurückblicken. 33 Einen guten ersten Überblick gibt Hoyningen-Huene, Kuhn (1992). 34 Hoyningen-Huene, Kuhn (1992), 327. Vgl. auch Paul Hoyningen-Huene, Die Wis senschaftsphilosophie Thomas S. Kuhns, Braunschweig/Wiesbaden 1989, 29–38. 35 Vgl. dazu die ausführliche Darstellung in Hoyningen-Huene, Kuhns Wissen schaftsphilosophie (1989), und Stegmüller, Hauptströmungen, Bd. 3, 289–330.
24 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Aktivitäten der WissenschaftlerInnen erweitert. Paradigmen umfas sen mehr als die grundlegenden Gesetze einer Theorie, sie beschrei ben jeweils die gesamten Grundlagen der Forschungstätigkeit eines Fachgebiets. Dazu gehören metaphysische Thesen (wie z. B. das Kau salprinzip), formale Operationen (etwa Computersimulationen oder andere Arten von Mathematisierung), methodologische Festsetzungen (Testverfahren) sowie Forschungsstrategien und Lösungsmuster (die Studierenden der Naturwissenschaften in den ersten Semestern in Übungsgruppen und in Praktika beigebracht werden). Beispiele für Paradigmen sind die ptolemäische Theorie des Planentensystems, die Newtonsche Mechanik oder die behavioristische Psychologie. Para digmen konkretisieren also auch einen speziellen »Blick auf die Welt«. Für unsere Frage nach dem Fortschritt wird Kuhns Modell wich tig, weil er die Entwicklung der Wissenschaft als eine Abfolge von wissenschaftlichem Arbeiten in einem Paradigma (»normale Wis senschaft«) und revolutionären Umbrüchen (Paradigmenwechseln) kennzeichnet. In der Phase der normalen Wissenschaft wird mit dem Paradigma gearbeitet. Fortschritte gibt es durch »Rätsellösen« im vorgegebenen Rahmen (etwa Bestimmung der Mondbahn mit Hilfe des Gravitationsgesetzes oder die Berechnung von Atomspektren mit den Mitteln der Quantenmechanik). Paradigma, Theorie und Weltsicht werden dabei nicht in Frage gestellt. Dafür wird daran gearbeitet, möglichst viele Phänomene im Rahmen des Paradigmas zu erklären und sie so »einzuverleiben«. Ein Beispiel dafür ist die Erklärung der chemischen Bindung durch die Quantenmechanik. Paradigmen zeigen aber immer auch Anomalien, d. h. Ergebnisse, die sich in das Paradigma nicht einfügen wollen. Beispiele sind der Radius des Elektrons in der klassischen Elektrodynamik oder die Präzession des Perihels des Merkur, also eine Besonderheit seiner Bahnbewegung, in der Newtonschen Mechanik. Anomalien sind nor male Begleiterscheinungen der normalen Wissenschaft, sie werden in einem gewissen Umfang toleriert und führen zunächst nicht zur Aufgabe des Paradigmas. Wenn es neue Phänomene gibt, die nicht in das Paradigma pas sen, und wenn Anomalien hartnäckig bestehen bleiben und ihre Zahl zunimmt, beginnt man an dem Paradigma zu zweifeln. Es beginnt eine Krise, eine Phase der außerordentlichen Wissenschaft. Alternativen zum Paradigma werden in Erwägung gezogen, bisherige Reglemen tierungen aufgehoben (z. B. wurde in der frühen Quantentheorie sogar der Energiesatz aufgegeben). So kann es zu einer Revolution
25 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
kommen, die zu einer Neuordnung der Disziplin führt. Ein neues Paradigma bildet sich heraus, neue Bewertungen in Methode und Relevanzfragen werden akzeptiert. Besonders viele Kontroversen hat Kuhns Inkommensurabilitätsthese ausgelöst, nach der zwei solche Phasen der Wissenschaftsentwicklung inkommensurabel sind.36 Die beiden Paradigmen sind in einem gewissen Sinn unvergleichbar, weil Probleme und Lösungsstandards neu bewertet werden und sich auch die Bedeutung zentraler Begriffe verändert, so dass die beiden Paradigmen sich zumindest auf den ersten Blick auf unterschiedliche Gegenstandsbereiche beziehen. Damit ist gemeint, dass mit einer wissenschaftlichen Revolution sich auch die Auffassungen darüber ändern, was die wichtigsten Probleme der Disziplin sind, was erklärt werden muss und welche Methoden dafür adäquat sind. Da sich oft auch die Bedeutung von Begriffen ändert (etwa die konstante Masse in der klassischen Mechanik gegenüber der geschwindigkeitsabhängi gen Masse in der Relativitätstheorie), scheint zunächst eine neutrale Sprache zu fehlen, in der sich Anhänger verschiedener Paradigmen verständigen könnten. Bei einem Paradigmenwechsel ändert sich die Sicht auf die Welt und in diesem Sinne die Erscheinungswelt.37 Fortschritte gibt es natürlich beim »Rätsellösen« im festen Rahmen eines Paradigmas. Wenn jedoch Paradigmen wegen der auftretenden Inkommensurabilitäten gar nicht mehr vergleichbar sind, fallen beim Paradigmenwechsel die Fortschrittskriterien weg. Es scheint, dass es keine konstanten, die Paradigmen übergreifenden Beurteilungskriterien geben kann. Eine radikale Interpretation der Kuhnschen Überlegungen ist, dass ein Paradigmenwechsel nicht mehr kognitiv begründet, sondern nur noch psychologisch und soziologisch analysiert werden kann. Damit wäre dem Fortschritt in den Wissen schaften und der Rationalität der Wissenschaft der Boden entzogen. Gegen solche Interpretationen hat sich aber Kuhn in späteren Schrif ten explizit gewehrt. Wir müssen uns hier nicht auf Details der z. T. heftigen Dis kussionen um den Inkommensurabilitätsbegriff einlassen. Es reicht, wenn wir einen Blick auf die Prinzipien der Theoriewahl und insbe 36 Zu dem umstrittenen Begriff der Inkommensurabilität bei Kuhn vgl. insbes. Hoyningen-Huene, Kuhn (1992), 328–331, und Hoyningen-Huene, Kuhns Wissen schaftsphilosophie (1989), 207 und 211. Kuhn selbst hat in späteren Schriften einige Missverständnisse ausgeräumt und Aussagen präzisiert. 37 Hoyningen-Huene, Kuhn (1992), 329.
26 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
sondere der Entscheidung für einen Paradigmenwechsel werfen. Kuhn hat damit recht, dass der Konflikt zwischen verschiedenen Paradig men nicht durch Logik und Experiment allein entschieden werden kann (was vielleicht der empiristische Traum war). Kuhn hat auch damit recht, dass epistemische Qualitätskriterien für eine Theorie wie Übereinstimmung mit Messungen, Genauigkeit und Differenziert heit, Größe des Anwendungsbereichs oder Einfachheit zueinander in Konkurrenz treten können, so dass WissenschaftlerInnen in Theo riewahlsituationen zu unterschiedlichen Entscheidungen kommen können38 und die in der entsprechenden Gemeinschaft verbreiteten Werte dabei ein Rolle spielen. Der Fortschritt der Wissenschaften ist nicht unbedingt stetig und kumulativ. Die revolutionären Umbrüche stellen die Vorstellung, dass Theorien in ihrer Abfolge immer mehr konvergieren, sich die Wissenschaft in ihrem Gang immer mehr der Wahrheit annähert, zumindest in Frage, u. a. weil sich die ontologi schen Vorstellungen, also die Annahmen dazu, worüber die Theorien reden, zu unterschiedlich sind.39 Kuhn wehrt sich aber explizit dagegen, dass die Verfechter inkommensurabler Theorien nicht in der Lage seien, sich untereinan der zu verständigen, dass es keine guten Gründe für die Wahl von Theorien gebe und dass Entscheidungen für Theorien letztlich aus nicht objektivierbaren Gründen getroffen würden.40 Unter den Werten, die bei der Theoriewahl eine Rolle spielen, ist nämlich die Problemlösungskapazität entscheidend. Die neue Theorie muss, wie Kuhn im Postskript schreibt, anstehende Probleme (z. B. die Erklärung von Planetenbahnen oder die Voraussage neuer Elementar teilchen) besser lösen als die alte Theorie: »Spätere wissenschaftliche Theorien sind besser als frühere geeignet, Probleme in den oft ganz unterschiedlichen Umwelten, auf die sie angewendet werden, zu lösen. Dies ist keine relativistische Position, und in diesem Sinne bin ich fest überzeugt vom wissenschaftlichen Fortschritt.«41 Die Problemlösungskapazität müsste natürlich noch ausbuchsta biert werden. Neben der Übereinstimmung mit Beobachtung und Vgl. Carrier, Wege der Wissenschaftsphilosophie, 33. Vgl. dazu und allgemein zum Problem des Fortschritts durch Revolutionen Hoy ningen-Huene, Kuhns Wissenschaftsphilosophie (1989), 251–256. 40 Im Postskriptum von 1969, das der 2. Auflage der Struktur wissenschaftlicher Revolutionen hinzugefügt wurde, deutsch in: Thomas S. Kuhn, Die Struktur wissen schaftlicher Revolutionen, Frankfurt/M. 21976, 187–220. hier 210. 41 Kuhn, Postskriptum von 1969, 217. 38
39
27 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Experiment (die z. B. bei der Kopernikanischen Revolution keine Rolle spielte!) kann man dabei an eine Steigerung der Spezialisierung und Präzision oder an die theoretische Integrationskraft einer Theorie denken.
3.3 Folgerungen im Hinblick auf den Fortschritt in den Wissenschaften Ein wichtiger Kritiker von Thomas S. Kuhn war Imre Lakatos. Seine Methodologie wissenschaftlicher Forschungsprogramme42 kann man als Versuch sehen, den Kritischen Rationalismus Poppers zu verbes sern und dabei Kuhns Einsichten zu behalten. Die Grundidee ist, dass der Theorienwandel (bzw. Paradigmenwandel) durch theorie übergreifende methodologische Kriterien zu einem rationalen Unter nehmen wird.43 Forschungsprogramme ähneln den Kuhnschen Paradigmen, wobei Lakatos weitere hilfreiche Unterscheidungen macht und das Konzept der Paradigmen weiter differenziert.44 Dadurch steht nicht mehr die Rechtfertigung einer einzelnen Theorie, sondern die Bewer tung einer Abfolge von Theorien im Mittelpunkt. Eine Abfolge von Theorien bildet z. B. dann ein »progressives Forschungsprogramm«, wenn die jeweils neue Theorie die Leistungen der Vorgängertheorie reproduziert und dazu noch einen empirischen Gehaltsüberschuss hat, also z. B. erfolgreich eine neue unerwartete Beobachtung vorher sagt. Lakatos erarbeitet Kriterien, die den Übergang zu einer neuen Version eines Forschungsprogramms und den Übergang zwischen Imre Lakatos, Falsifikation und die Methodologie wissenschaftlicher Forschungs programme, in: Kritik und Erkenntnisfortschritt, hg. v. I. Lakatos / A. Musgrave, Braunschweig 1974, 89–189. In diesem Sammelband findet man weitere Auseinan dersetzungen mit Kuhns Theorie und Kuhns Reaktionen darauf. 43 Die wissenschaftsphilosophische Fachdiskussion um den Fortschritt in den Wis senschaften beschränkt sich natürlich nicht auf Popper, Kuhn und Lakatos. Für einen Überblick über weitere Ansätze, in dem auch einige grundlegende erkenntnistheo retische Unterscheidungen erläutert werden, vgl. Ilkka Niiniluoto, Art. »Scientific Progress«, in: The Stanford Encyclopedia of Philosophy, , letzter Zugriff am 23. 6. 2021. 44 Vgl. zu der Konzeption von Lakatos: Carrier, Wege der Wissenschaftsphilosophie, 33–37, und Bernhard Lauth / Jamel Sareiter: Wissenschaftliche Erkenntnis, Pader born 2002, 129–141. 42
28 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
verschiedenen Forschungsprogrammen als rational und als Fortschritt rechtfertigen sollen. Offensichtlich gibt es aus der Wissenschaftsphilosophie keine abschließende und kanonische Stellungnahme zum Fortschritt in der Wissenschaft. Immerhin hat sie im Zusammenwirken von logischen und anderen formalen Analysen und der intensiven Auseinander setzung mit der Wissenschaftspraxis einen differenzierten Blick auf die Entwicklung der Wissenschaften ermöglicht. Man muss verschie dene Aspekte unterscheiden, unter denen man von Fortschritt spre chen kann, darunter den instrumentellen Erfolg, die Erklärungskraft und die Systematisierungsleistung von Theorien. Es gibt offensicht lich keine perfekt funktionierenden Kriterien für die Erzeugung von fortschrittlichen Theorien. Die Diskussionen um soziale und generell externe Einflüsse auf Paradigmen und wissenschaftliche Revolutionen haben in jedem Fall eine neue Sensibilität für Werte und Normen in den Wissenschaf ten hervorgebracht.45 Daraus folgt aber nicht, dass soziale Prozesse und rationale Kriterien bei der Wissenschaftsentwicklung zueinander im Gegensatz stehen müssen, dass Wissenschaftsgeschichte und Wissenschaftssoziologie eine normative Wissenschaftsphilosophie ablösen sollten.46 Ein reizvolles Problem ist, ob der Fortschritt der Wissenschaft auch seine Grenzen hat und – jedenfalls in Teilbereichen – zu einem Ende kommen kann.47 Bekannt ist die Geschichte, dass der Physiker Philipp von Jolly dem jungen Max Planck 1875 die Physik als eine hochentwickelte Disziplin schilderte, die wohl bald ihre endgültige stabile Form annehmen werde.48 Max Planck hat viel dazu beige tragen, dass die Lehrbücher der Physik danach doch noch einmal umgeschrieben werden mussten. Die zukünftige Entwicklung der Naturwissenschaft ist schwer vorherzusagen. Beschränkt man sich aber auf eine bestimmte Version von Fortschritt, auf die Naturbe herrschung, kann man Nicholas Rescher gut folgen: »Der letzte Schiedsrichter über wissenschaftlichen Fortschritt ist die Praxis – und 45 Die Beiträge in dem Band Gerhard Schurz / Martin Carrier (Hg.), Werte in den Wissenschaften, Berlin 2013, zeigen ein differenziertes Bild der kontroversen Diskus sionen über die unterschiedlichen Werte, die in der Wissenschaft eine Rolle spielen. 46 Vgl. Carrier, Wege der Wissenschaftsphilosophie, 16–20, 38–40. 47 Vgl. dazu Nicholas Rescher, Die Grenzen der Wissenschaft, Stuttgart 1985. 48 Ebd., 104.
29 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
zwar eine Praxis auf der Ebene, wo Leistungsfähigkeit aus der grob körnigen und derben Position des Alltagslebens erkennbar ist. Auf diese Weise macht die Wissenschaft, ungeachtet ihrer Instabilitäten und Veränderlichkeiten auf der Ebene der theoretischen Aussagen, in der Tat Fortschritte – freilich nicht, indem sie sich ›der letzten Wahrheit nähert‹, sondern indem sie uns mit einem zunehmend leistungsstärkeren Instrumentarium der Vorhersage und Kontrolle versieht.«49 Aber auch solche Fortschritte können, wie wir wissen, uns in neue Schwierigkeiten bringen.
4. Fortschritte – eine Beispielsammlung Können wissenschaftsphilosophische Untersuchungen, wie wir sie im letzten Kapitel kennengelernt haben, zu einem besseren Umgang mit den Erwartungen führen, die an »den Fortschritt« oder allgemeiner an Fortschritte gebunden sind? Kann die Frage, was ein Fortschritt ist, einheitlich für alle Wissenschaften beantwortet werden oder wird man vielleicht sogar schon innerhalb einer Disziplin wie der Philosophie verschiedene Arten von Fortschritt unterscheiden müssen? Wird dann eine Explikation von Fortschritt zu wenig konkret ausfallen müssen, um noch von praktischem Wert zu sein? Um einen Einblick in dieses Problemfeld zu erhalten, sollen jetzt Beispiele für Fortschritte aus verschiedenen Wissenschaften untersucht werden. Der Blick soll dabei auf Voraussetzungen und Ursachen des jeweiligen Fortschritts gerichtet sein, und insbesondere darauf, im Hinblick auf welche Werte eine neue Entwicklung als Fortschritt betrachtet wird. Gibt es dabei systematische Unterschiede zwischen empirischen und nicht-empirischen Wissenschaften?
4.1 Zwei Arten von Fortschritt in den Naturwissenschaften Klassische Beispiele für Fortschritte sind die Kopernikanische Wende, die aufgrund von methodologischen Überlegungen innerhalb der Astronomie zu einem neuen Weltbild führte, oder die Erfindung der mechanischen Uhr, die z. B. die Positionsbestimmung auf hoher See erleichterte. Differenzierte Experimente mit Elektrizität und 49
Ebd., 174.
30 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Magnetismus und die Entwicklung einer ausgereiften Theorie der Elektrodynamik im 19. Jahrhundert und die sich auf dieser Grundlage entwickelnde Elektro- und Nachrichtentechnik zeigen, wie Grundla genforschung zur Veränderung des Alltagslebens führen kann. Ähnli ches gilt für Erfolge der Medizin bei der Bekämpfung von Krankheiten (Hygiene, Impfung, Antibiotika, Herzschrittmacher). Bleiben wir kurz bei der Physik, die lange als Wissenschaft galt, die immer neue Fortschritte hervorbringt. Dabei kann man verschiedene Typen von Fortschritten unterscheiden. Auf der Ebene der fundamentalen Theorien arbeitet man an einer Vereinigung der Allgemeinen Relativitätstheorie (als Theorie der Raumzeit) mit der Quantentheorie (als Theorie der Materie). Eine allgemein über zeugende Version einer Quantengravitation als einer vereinigten Theorie wäre ein Fortschritt, der vielleicht mit Newtons Leistung vergleichbar ist. Auf der Seite der angewandten Physik kann man etwa an die Entwicklung leistungsfähiger Batterien bzw. Akkumula toren denken, die z. B. für die Speicherung von Windkraftenergie von höchster praktischer Bedeutung sind. Im ersten Fall geht es um ein verbessertes Verständnis grundlegender Strukturen unserer Welt (u. a. der physikalischen Zeit), im zweiten Fall um eine Erweiterung von Handlungsmöglichkeiten. Ein weiteres Wirkungsfeld von Fort schritten liegt in den Wissenschaften selbst. So haben verbesserte Beobachtungs- und Experimentiermöglichkeiten die Entwicklung der Quantentheorie um die Wende zum 20. Jahrhundert angetrieben. Zu dieser Kategorie gehört auch der Einsatz schneller Computer, der u. a. die Analyse großer Datenmengen in den Sozialwissenschaften und die Entwicklung komplexer Klimamodelle und ihre Variation durch Computersimulationen ermöglicht. Fortschritte in den empirischen Wissenschaften können also im Hinblick auf verschiedene Werte gemessen werden, etwa im Hinblick auf die Erklärungskraft und den Beitrag zum Weltbild oder im Hin blick auf den technischen Nutzen, im Idealfall zur Verbesserung der Lebensbedingungen der Menschen. Beispiele dafür kann man auch in der Biologie finden. Ein Beispiel für das erstgenannte Ziel liefert die Evolutionstheorie, die das Wissen der Biologie vereinheitlicht und eine metaphysisch sparsame Erklärung der Entstehung von »nützlichen« (zweckmäßigen) Merkmalen ermöglicht, indem diese als Adaptationen in einem Selektionsprozess aufgefasst werden. Die Evolutionstheorie hat auch Debatten über die Anwendung von evo lutionären Erklärungen von biologischen Grundlagen menschlichen
31 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Verhaltens ausgelöst (Soziobiologie, evolutionäre Psychologie).50 Nebenbei sei bemerkt, dass der Prozess der Entstehung und Entwick lung der Arten nicht (oder nur in einem sehr übertragenen Sinn) als Fortschritt klassifiziert werden kann. Die Mechanismen der Evolution sind nicht auf eine »Höherentwicklung« oder gar auf die Hervorbrin gung einer »Krone der Schöpfung« ausgerichtet. Während die Evolutionstheorie eine auch weltbildrelevante theoretische Revolution darstellt, ist die Entwicklung der soge nannten Gen-Schere CRISPR-Cas9 neben dem damit verbundenen neuen Wissen über viele molekularbiologische Details auch eine große Erweiterung der menschlichen Handlungsmöglichkeiten. Das CRISPR-Cas9-System erlaubt es, in der DNA mit hoher Effektivität und geringen Kosten Genbausteine gezielt zu schneiden und damit zu entfernen oder auszutauschen. Das eröffnet ganz neue Perspektiven und Eingriffsmöglichkeiten z. B. in der Pflanzenzucht und in der Gentherapie, wirft aber auch neuartige ethische Fragestellungen auf.51 Zur Bewertung von Fortschritten kommen also nicht nur inner wissenschaftliche, sondern auch gesellschaftliche oder explizit ethi sche Maßstäbe ins Spiel. Eine Entwicklung kann ein Fortschritt an Wissen, ihre Anwendung aber gesellschaftlich unerwünscht oder sogar moralisch bedenklich sein. In den Technikwissenschaften zeich net sich eine Entwicklung ab, dass Fragen der gesellschaftlichen Verträglichkeit und der ethischen Akzeptierbarkeit einer Produktent wicklung schon in den ingenieurswissenschaftlichen Departments bearbeitet werden.
4.2 Viele Arten des Fortschritts in den Geisteswissenschaften und in der Kunst Offensichtlich hängen die Kriterien, nach denen beurteilt wird, ob eine Entwicklung als Fortschritt beurteilt wird, von den Zielen einer Dis ziplin ab. In der Physik kann man problemlos sagen, dass die gegen wärtige Theorie der Planetenbewegung ein Fortschritt gegenüber der Berechnung der Planetenbahnen in der Tradition der Ptolemäischen Zur wissenschaftsphilosophischen Charakterisierung der Evolutionstheorie vgl. Marcel Weber, Philosophie der Evolutionstheorie, in: Wissenschaftstheorie, hg. v. A. Bartels / M. Stöckler, Paderborn 2007, 265–285. 51 Vgl. den Beitrag von Thomas Heinemann in diesem Band. 50
32 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Astronomie darstellt, z. B. weil sie die Planetenbahnen nicht nur beschreiben, sondern auch dynamisch mit großer Kohärenz erklä ren kann.52 In den Geistes- und Kulturwissenschaften ist die Frage nach den Kriterien schwieriger zu beantworten. Zunächst werden die VertreterInnen einer Disziplin selbst solche Kriterien entwickeln, vielleicht nicht immer explizit und vielleicht auch nicht mit einem Ergebnis, auf das sich alle einigen können. Hier kommt dann wieder die Philosophie ins Spiel, die mithilft, solche Kriterien zu reflektieren, zu vergleichen und Ansätze zu ihrer Begründung zu liefern. Wenn es, wie etwa in den Literaturwissenschaften, unterschiedliche Paradig men nebeneinander gibt und sich sogar die Vorstellungen zu den Zielen literaturwissenschaftlicher Interpretation53 ändern, wird von Fortschritt tendenziell weniger im Hinblick auf das gesamte Fach die Rede sein. Dagegen kann es in Teilbereichen, innerhalb eines bestimmten methodologischen Zugangs oder bei Fragen wie der Textüberlieferung oder von Autorenbiografien, durchaus allgemein anerkannte Fortschritte geben.54 Das Hinzukommen neuer Perspek tiven der Interpretation (z. B. Psychoanalyse, feministische Theorie) kann man als Fortschritt betrachten, ohne dass dabei der Anspruch erhoben wird, jetzt sei eine bessere Interpretation gefunden. Es lohnt sich, an dieser Stelle einen Blick auf Vorstellungen von einem Fortschritt in der Kunst zu werfen. »Auch im theoretischen und praktischen Umgang mit der Kunst spielt der Begriff des Fortschritts eine große Rolle, und zwar nicht nur insofern, als Entwicklungen und andere Veränderungen, die in der Kunst zweifelsohne zu beobachten sind, als Fortschritt eingeschätzt bzw. erklärt werden, sondern auch in der Form, dass Fortschrittlichkeit mitunter auch als Kriterium zur Bewertung von Kunst herangezogen wird.«55 Dies setzt in der Analyse von Otto Neumaier voraus, dass es ein Ziel gibt, dessen 52 Neben dem Vergleich der Fortschrittsprobleme in den empirischen Naturwissen schaften und in den Geisteswissenschaften kann man die Frage stellen, was Fortschritt in einer Formalwissenschaft wie der Mathematik bedeutet. Vgl. dazu den Beitrag von Gregor Nickel in diesem Band. 53 Vgl. Tilmann Köppe / Tobias Klauk, Philosophie der Literaturwissenschaft, in: Grundriss Wissenschaftsphilosophie. Die Philosophien der Einzelwissenschaften, hg. v. S. Lohse / T. Reydon, Hamburg 2017, 105–130. 54 Vgl. für einen ersten Eindruck Tom Kindt: Gibt es einen Fortschritt der literatur wissenschaftlichen Interpretation? , publiziert November 2016, letzter Zugriff am 22. 2. 2021. 55 Neumaier, Fortschritt in der Kunst (s. Fußnote 1), 443–444.
33 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Erreichen als wertvoll gilt, und dass Kriterien angegeben werden, die ein Urteil erlauben, ob ein Zustand diesem Ziel näher ist als ein früherer Zustand. Eine solche Vorstellung kann man bei Hegel finden,56 wobei allerdings die Kunst ihre Aufgabe im Hinblick auf ihre »höchste Bestimmung« für die Menschen an die Philosophie abgege ben habe, die weiter fortgeschritten sei. Neumaier skizziert eine Reihe von alternativen Auffassungen (vor allem im Hinblick auf das Ziel von Kunst) und kritischen Gegenpositionen, die danach bis in die Gegenwart entwickelt wurden. Auch bei Adorno sieht Neumaier die Tendenz, die Qualität von Kunst aufgrund ihrer Fortschrittlichkeit (im Sinne einer Emanzipation des Individuums und der Mündigkeit des Subjekts) zu beurteilen. Hier kommt die Frage ins Spiel, ob die künst lerische Qualität eines Werkes auch in Bezug auf außerästhetische Kriterien beurteilt werden kann und soll.57 Karl Popper, der Anlass zu Neumaiers Aufsatz ist, lehnt vehement die Vorstellung ab, dass die menschliche Geschichte oder Teilbereiche wie Gesellschaft oder Kunst notwendig auf ein bestimmtes Ziel hinführen. Damit ist auch die Idee eines universellen Fortschritts der Kunst ausgeschlossen. Popper hält Fortschritte in der Kunst aber insofern für möglich, dass neue Möglichkeiten und Probleme entdeckt werden (als eine solche Erfindung nennt Popper den Kontrapunkt).58 Popper hält also – in Analogie zu seiner Wissenschaftsphilosophie – Fortschritte auf der Grundlage von Problemen und Versuchen zu ihrer Lösung für mög lich. Diese Problemlösungen dienen aber nicht einem gemeinsamen allgemeinen Ziel. Anders als in der Wissenschaft führe das nicht zu einem allgemeinen Fortschritt. Fortschrittliche Entwicklungen sind demnach in der Kunst zwar in einem bestimmten Rahmen möglich, die Problemlösungsversuche dienen hier aber nicht einem allgemei nen Ziel, wie dies nach Popper in der Wissenschaft gegeben ist.59 Das ist der entscheidende Unterschied zur Wissenschaft: Künstlerinnen und Künstler verfolgen jeweils Ziele, aber sie verfolgen nicht alle das gleiche Ziel, es gibt kein allgemeines und konstantes Ziel der Kunst. Veränderungen, Neuerungen oder Entwicklungen in der Kunst sind nicht notwendigerweise wertvoll in sich selbst noch sind sie ein
56 57 58 59
Ebd., 444. Ebd., 449. Vgl. ebd., 452. Ebd., 455.
34 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
Fortschritt im Hinblick auf ein einziges vorgegebenes Ziel, so das Fazit von Neumaier.60 Im Hinblick auf einen begrenzten Rahmen kann man jedoch von Fortschritten sprechen, etwa bei der Entwicklung der mehrstimmigen Musik im Mittelalter, die als neues Paradigma im Sinne von Kuhn aufgefasst werden kann. Dabei muss man auch den folgenden Hin weis von Neumaier beachten: Die Einführung der Zentralperspektive in die bildende Kunst wird häufig als Fortschritt betrachtet. Lange Zeit perfektionierten Künstler diese Perspektive, bis sie im 20. Jahr hundert unter veränderten Bedingungen jedoch wieder aufgegeben wurde.61 Ein Fortschritt kann also seinen Wert verlieren. Insgesamt hält Otto Neumaier Fortschrittsvorstellungen zum Verständnis und zur Bewertung von Kunst für wenig hilfreich.
4.3 Fortschritte in der Philosophie Zum Abschluss möchte ich noch einen kurzen Blick auf meine eigene Disziplin, die Philosophie, werfen. Im Hinblick auf die Rolle von Fort schritten scheint die Philosophie zwischen den Naturwissenschaften und der Kunst zu liegen. Sicher gibt es Fortschritte: Die moderne Logik ist in ihrem Bereich mächtiger als die aristotelische Syllogistik (die als Teil der Prädikatenlogik angesehen werden kann). Ist aber Kants Pflichtethik ein Fortschritt gegenüber der Tugendethik des Aristoteles? Und in jedem Fall würden Kantianer bestreiten, dass der später aufkommende Utilitarismus ein Fortschritt gegenüber Kants Konzeption darstellt. Nach David Chalmers ist der Hauptgrund dafür, dass man in der Philosophie weniger von Fortschritt sprechen kann als in den Naturwissenschaften, die fehlende Einigkeit über die Antworten auf die »großen Fragen« der Disziplin.62 Bei den großen Fragen geht es z. B. um die Quellen der Erkenntnis und der Normen, um die Beziehung zwischen Körper und Geist, um die Willensfreiheit oder den Status von Naturgesetzen. Und in diesen Fragen gibt es keine Einigkeit. Unterschiedliche Auffassungen dieser Qualität gibt Ebd., 457. Allerdings kann der Kunstmarkt u. U. schon allein Neuartigkeit hoch bewerten. 61 Ebd., 460. Die Aufgabe der Perspektive ist mit einer Änderung der Ziele der Malerei verknüpft, die mit der Entwicklung der Fotografie zusammenhängt. 62 David Chalmers, Why isn't there more progress in philosophy?, in: Philosophy 90 (2015), 3–31. 60
35 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
es manchmal auch in der Physik, dort aber nur auf Zeit und an der Front der Forschung, etwa bei der Suche nach einer Theorie der Quantengravitation. In der Philosophie ist das der Normalzustand. Verschiedene Schulen starten mit unterschiedlichen Intuitionen und es gibt meist keine Selektionskriterien wie mathematische Beweise oder Experi mente, die vertretene Positionen aus dem Spiel nehmen können. Allerdings gibt es Fortschritte in negativen Ergebnissen. Die Diskus sionen im Laufe der Philosophiegeschichte haben gezeigt, welche Beweise für die Existenz Gottes nicht haltbar sind, dass es nicht mög lich ist, aufgrund von einzelnen Beobachtungen allgemeine Theorien zu beweisen, und auf welche Begründungsprobleme der Cartesia nische Leib-Seele-Dualismus stößt. Auch wenn es nicht zu einer allgemeinen Zustimmung zu einem Korpus von grundlegenden Lehr meinungen wie in der Physik kommt, so ist doch klar, dass bestimmte Auffassungen nicht mehr gehalten werden können.63 Aber auch wenn sich kein Konsens einstellt, werden die divergierenden Auffassungen durch die gegenseitige Kritik differenzierter. Dazu tragen auch die Aufnahme neuer Methoden (Sprachanalyse), zunehmendes Hinter grundwissen (neurobiologische Erkenntnisse über Sinnesorganen für die Wahrnehmungstheorie) und die Herausforderungen durch neue Fragestellungen (Medizinethik) bei.
4.4 Grenzen philosophischer Fortschrittsanalysen Der kurze Rundblick zeigt, dass verschiedene Wissenschaften ver schiedene Ziele haben. Aus der Vielfalt dieser Ziele folgt eine Vielfalt von Bewertungsmaßstäben für Fortschritte. Da es große und kleine Ziele gibt, gibt es auch große und kleine Fortschritte. Worin diese Fortschritte im Einzelnen bestehen, hängt vom Kontext ab. Dazu kann die Philosophie im Rahmen einer Explikation des Begriffs Fortschritt wenig sagen, auch nicht dazu, welche Ziele besonders wichtig sind und für welche Fortschritte man sich besonders anstrengen sollte. Die Philosophie kann Begriffe klären, Formen des Wissens vergleichen, 63 Dennoch werden die entsprechenden Texte mit guten Gründen weiter gelesen und gelehrt. Die Philosophie ist eine Disziplin, in der man, anders als in den Naturwissenschaften, überwiegend Lehrmeinungen unterrichtet, die man für falsch hält. Das geschieht natürlich nicht, um die Jugend zu verführen, sondern als Anstoß für kritische Auseinandersetzung, u. a. auch mit gegenwärtigen Selbstverständlichkeiten.
36 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
gute von schlechten Begründungen unterscheiden und bei Zielkon flikten normative Debatten moderieren. Das mag bescheiden klingen, man muss ihr aber auch schon dabei mehr Erfolg und Außenwirkung wünschen, als sie gewöhnlich hat.
5. Abschließende Überlegungen Zum Abschluss möchte ich noch einmal auf das Thema der ersten Abschnitte zurückkommen. Wir haben gesehen, dass man zwischen dem »großen Fortschritt« als historischem Prozess und als gesell schaftliche Entwicklung und den großen und kleinen Fortschritten in den Wissenschaften unterscheiden muss. Im Geiste des »großen Fortschritts« wurde 1900 in Bremen einem neu gegründeten Klein gartenverein der Name »Fortschritt« gegeben, und in diesem Sinn kann man sagen, dass die SPD »mal als Partei des Fortschritts galt«.64 Damit ist die Idee verbunden, dass sich die Lebensbedingungen der Menschen in der Geschichte verbessert haben und weiter verbes sert werden (oder zumindest verbessern sollten). Der Glaube an die sen »großen Fortschritt« begann im 18. und blühte im 19. Jahrhundert. Heute, nach zwei Weltkriegen, dem Holocaust, angesichts atomarer und sonstiger Waffenarsenale und der Schäden, die korrupte Regie rungen anrichten, sowie der Schwierigkeiten, wirksame Maßnahmen zur Vermeidung einer Klimakatastrophe einzuleiten, sind die Zweifel an der Macht des Fortschritts sehr verständlich.65 Aber auch wenn man an den »großen Fortschritt« nicht glauben mag (jedenfalls nicht an seine Notwendigkeit), lohnt es sich vielleicht doch, die Motive dafür und die dabei klassischerweise verfolgten Ziele im Auge zu behalten: das gute Leben der Individuen, die Verbesserung der Lebensbedingungen aller Menschen, Freiheit und Gerechtigkeit und der Beitrag der Wissenschaften zu den Verbesserungen.66 So z. B. in der Süddeutschen Zeitung, 15./16. September 2018, S. 26. In einem ähnlich unspezifischen Sinn wie in solchen allgemeinen Konzeption von Fortschritt lichkeit, aber mit entgegengesetzter Konnotation wird gegenwärtig gerne davon gesprochen, etwas sei »unzeitgemäß«. 65 Margaret Meek Lange, »Progress«, in: The Stanford Encyclopedia of Philosophy, , letzter Zugriff am 23. 5. 2021. 66 Vgl. ebd., am Ende des Artikels. 64
37 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler
Der Abschied vom »großen Fortschritt« muss nicht dazu führen, gesellschaftliche Fortschritte nicht mehr anzustreben. »[…] the idea of progress in its most important aspect is itself a regulative moral idea, not simply a belief about history. It represents a directing principle of intellectual and social action, instructing men to regard all social arrangements with a critical eye and to reject any claim that any human problem has been finally solved or must be left finally unsolved.«67 Das Verhältnis von Fortschritt im Wissen und von gesellschaftli chem und moralischem Fortschritt ist komplex. Grenzen des Wachs tums wird es eher in der Gesellschaft als im Wissen geben. So wie Wissenschaft organisiert ist, wird es immer neue Ergebnisse und Veränderungen des Wissens geben. Fortschritt muss aber nicht teleologisch – auf ein vorgegebenes Ende hin – gedacht werden. Am ehesten kann man sich vorstellen, dass die fundamentalen Theorien der Physik konvergieren und so ihrem Ziel der Beschreibung der Natur näher kommen. Eine andere Frage ist, ob das wissenschaftlich Neue immer relevant und ein ernsthafter Fortschritt ist. Neuartigkeit ist kein Wert an sich, auch nicht bei Projektanträgen. Ihr Wert muss an den Zielen geprüft werden, die die jeweilige Disziplin verfolgt. Nicht alles, was sich im Einzelnen als Fortschritt ausgibt, ist gut. Die Wissenschaf ten und die Anwendung ihrer Ergebnisse können auch von einer ethischen Bewertung nicht ausgenommen werden. Bei aller Differen zierung darf man jedoch nicht vergessen, dass die Wissenschaften in vielfältiger Weise unser Leben erleichtern und in gewisser Hinsicht überhaupt erst ermöglichen.68 Dieser Fortschritt hat aber auch seine Kosten, und man sollte versuchen, sie zu minimieren.69 Ein Fortschritt in den Wissenschaften führt nicht zwangsläufig zu einem Fortschritt im Alltag und in der sozialen Welt. Aber die Werte, die dem wissenschaftlichen Vorgehen zugrunde liegen (rationale Argumentation, Beachtung von Fakten und gesichertem Wissen, Sys tematisierung, gemeinschaftliche Verfahren der Qualitätsprüfung), Frankel, Progress (s. Fußnote 3), 487. Dafür plädiert kämpferisch und materialreich Steven Pinker, Aufklärung jetzt. Für Vernunft, Wissenschaft, Humanismus und Fortschritt. Eine Verteidigung, Frank furt/M. 32018. Seine These: Aufklärung und die modernen Naturwissenschaften haben dazu geführt, dass wir heute länger, gesünder, wohlhabender und glücklicher leben denn je (und nicht nur in der westlichen Welt). 69 Frankel, Progress (s. Fußnote 3), 486. 67
68
38 https://doi.org/10.5771/9783495998847 .
Fortschritte im Wissen und Fortschritt durch empirische Wissenschaften
können auch in der Politik helfen, zu guten Entscheidungen zu kom men.70 Es gibt keine allgemeine Theorie des Fortschritts schlechthin, man muss immer im Einzelnen schauen, im Hinblick auf welche Ziele und Maßstäbe etwas besser werden soll und wie das in der jeweiligen Situation realisiert werden kann. Fortschritte, wie wir sie uns wünschen, stellen sich nicht von alleine ein.71
70 Wobei das, entgegen der Erwartung der Verteidiger der Wissenschaftlichen Welt anschauung (vgl. Anm. 26), noch allzu sehr ein Ideal ist, das im politischen Alltag immer wieder stark gefährdet ist. 71 Ich danke Svantje Guinebert, Dieter Kupferschmidt, Gregor Nickel, Anne Thaeder und dem Philosophischen Atelier des Instituts für Philosophie der Universität Bremen für konstruktive Kritik und hilfreiche Verbesserungsvorschläge.
39 https://doi.org/10.5771/9783495998847 .
https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Revolutionen in der Mathematikgeschichte?
»Die Mathematik giebt das glänzendste Beispiel einer sich ohne Beihülfe der Erfahrung von selbst glücklich erweiternden reinen Ver nunft.« Immanuel Kant: Kritik der reinen Vernunft A 713.
Prolog1 Mit Immanuel Kants (1724–1804) lobenden Worten zum Auftakt der Transzendentalen Methodenlehre seiner ersten Kritik ist der Rahmen des vorliegenden Aufsatzes ziemlich gut umschrieben und zugleich kommt darin eine bis heute weithin geteilte Position zum Ausdruck: Die Geschichte der Mathematik zeichnet sich demnach in exemplarischer Weise durch einen unproblematischen, kumulativen Fortschritt2 aus. Im Folgenden wollen wir – soweit das möglich ist – passend zu Kants Charakterisierung ausschließlich die interne his torische Entwicklung der Mathematik betrachten, die »ohne Beihülfe der Erfahrung« im weitesten Sinne vonstattengeht. Wir werden also wichtige ›Außenbeziehungen‹ der Mathematik ausblenden, bei denen natürlich auch nach dem Charakter des Fortschritts gefragt werden kann. Wir werden demnach erstens die wissenschaftlichen Revolutio nen durch eine Mathematisierung der Theorie der Naturwissenschaf ten übergehen, die wiederum Kant als eine einzufordernde Norm genau auf den Punkt bringt, wenn er behauptet,3
Für hilfreiche Kritik danke ich ganz herzlich Andreas Kirchartz, Daniel Koenig, Rainer Nagel, Shafie Shokrani und Susanne Spies. 2 Eine grundsätzliche Analyse des Fortschrittsbegriffs findet sich in den Überlegun gen von Manfred Stöckler in diesem Band. 3 Immanuel Kant: Metaphysische Anfangsgründe der Naturwissenschaft. AA IV 471. 1
41 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
»daß in jeder besonderen Naturlehre nur so viel eigentliche Wis senschaft angetroffen werden könne, als darin Mathematik anzutref fen ist.«
Dass sich fast jede »besondere Naturlehre« weitgehend nach dieser Norm richtet, ist historisch betrachtet erst seit relativ kurzer Zeit der Fall. Und gerade für wichtige Bereiche der Sozialwissenschaften, insbesondere die Ökonomie, wird die berechtigte Frage nach den Aus wirkungen und nach der Legitimität einer solchen Mathematisierung nach wie vor kontrovers diskutiert4. Weiten wir zweitens in Bezug auf Anwendungen der Mathematik den Blick über den Horizont der Wissenschaften hinaus, so lässt sich konstatieren, dass die Sozialform moderner Gesellschaften in noch immer dramatisch wachsendem Ausmaß auf Mathematik basiert, indirekt durch die Anwendung von Naturwissenschaft und Technik, aber auch direkt durch mathematisch kodifizierte, soziale Regeln – ökonomische Beziehungen sind hier nur ein besonders augenfälliges Beispiel5. Mit dieser Entwicklung gehen allerdings auch Ambivalenzen einher, Fortschritt ist hier nicht automatisch ein Fortschreiten zum Besseren. Robert Musil (1880– 1942) beschreibt diese Ambivalenz ungefähr 1930 aus der Perspektive derjenigen, die »von der Seele etwas verstehen müssen, weil sie als Geistliche, Historiker, Künstler gute Einkünfte daraus beziehen«6: »[E]s ist den meisten Menschen heute ohnehin klar, daß die Mathema tik wie ein Dämon in alle Anwendungen unseres Lebens gefahren ist (…) und daß die Mathematik die Quelle eines bösen Verstandes bilde, der den Menschen zwar zum Herrn der Erde, aber zum Sklaven der Maschine macht. Die innere Dürre, die ungeheuerliche Mischung von Schärfe im Einzelnen und Gleichgültigkeit im Ganzen, das ungeheure Verlassensein des Menschen in einer Wüste von Einzelheiten (…) wie Vgl. für Aspekte einer Mathematisierung der Einzelwissenschaften Gregor Nickel: Mathematik und Mathematisierung der Wissenschaften – Ethische Erwägungen, in: Jochen Berendes (Hrsg.): Autonomie durch Verantwortung, Paderborn 2007, 319–346. 5 Vgl. hierzu Gregor Nickel: Ethik und Mathematik – Randbemerkungen zu einem pre kären Verhältnis, in: Neue Zeitschrift für Systematische Theologie und Religionsphi losophie 47 (2006), 412–429; Gregor Nickel: Mathematik – die (un)heimliche Macht des Unverstandenen, in: M. Helmerich et al. (Hrsgg.): Mathematik verstehen. Philo sophische und didaktische Perspektiven, Wiesbaden 2011, 47–58; Gregor Nickel: Finanzmathematik – Prinzipien und Grundlagen? Nachruf auf einen Zwischenruf, in: Siegener Beiträge zur Geschichte und Philosophie der Mathematik 4 (2014), 97–105; Oliver Schlaudt: »Politische Zahlen«, Frankfurt am Main 2018. 6 Robert Musil: »Der Mann ohne Eigenschaften«, Hamburg 1952, 40. 4
42 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
sie unsre Zeit kennzeichnen, sollen nach diesen Berichten einzig und allein die Folge der Verluste sein, die ein logisch scharfes Denken der Seele zufügt!«
Musils Bezug auf die Seele könnte schließlich drittens daran erinnern, dass Mathematik nicht unabhängig von außermathematischer Moti vation, von extern vermittelter Sinngebung, auch von philosophi schen Überzeugungen entsteht – sowohl auf der individuellen wie auf einer kollektiven Ebene. Die verschiedenen Spielarten einer Wechsel wirkung mit der Metaphysik gehören sicherlich zu dem historischen Phänomen Mathematik, sie sind allerdings oftmals schwierig zu rekonstruieren, da sich die publizierten Zeugnisse häufig genug auf den ›rein mathematischen Gehalt‹ beschränken. Wir wenden uns im Folgenden von der Seele ab und der Mathematik zu; es geht uns nur noch um die interne Geschichte der Mathematik, wobei allerdings eine präzise Abgrenzung dieses internen Bereichs von seiner ›Umgebung‹ – sei dies die Anwendung der Mathematik auf die Gegenstände der Empirie bzw. der positiven Wissenschaften, sei dies ihre metaphysische ›Grundierung‹ – kaum präzis und ohne Grauzonen gelingen dürfte. Bei unserem Blick auf die Mathematikgeschichte soll es vor allem darum gehen, inwiefern die bei Kant zum Ausdruck gekom mene und prima facie durchaus plausible Auffassung eines kontinu ierlichen Fortschritts ohne Brüche oder Verluste zutrifft. Verläuft der Gang der Mathematik stets geradeaus oder gibt es Wendungen, Abzweigungen, vielleicht sogar Brüche oder Kehrtwenden? Für die Naturwissenschaften benennt Thomas Kuhn mit seinem Konzept der wissenschaftlichen Revolution7 solche Umbruch-Momente, die längere Phasen eines ruhigen Fortschreitens im stabilen Rahmen von gut etablierten und nur teilweise explizierten methodischen und inhaltlichen Grundüberzeugungen unterbrechen und in denen das bis dahin geltende Paradigma durch ein neues, mit dem alten inkommensurables ersetzt wird. Unsere Leitfrage wird demnach sein, ob bzw. inwiefern sich das Kuhnsche Konzept auch für die Entwicklung der Mathematik sinnvoll anwenden lässt. In einem ersten Abschnitt werden wir jedoch zunächst die Plausibilität des Bildes von einem ungestörten, kontinuierlichen Fortschreiten der Mathematik unterstreichen. Erst der zweite Abschnitt wird dann die Frage nach wissenschaftlichen Revolutionen in der Geschichte der 7
Vgl. für Details den Beitrag von Manfred Stöckler in diesem Band.
43 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Mathematik aufgreifen und anhand einzelner Kandidaten aus einer Zeitspanne von mehreren Tausend Jahren verdeutlichen. Schließlich wird im dritten Abschnitt ein systematischer Blick auf das historische Material geworfen, um das Fortschreiten der Mathematik in einem eigentümlichen Spannungsfeld von größter Kontinuität und deutli chen Umbrüchen zu charakterisieren.
1. Die Geschichte der Mathematik, eine Geschichte kontinuierlich kumulativen Fortschritts? 1.1 Hermann Hankels Bild vom planmäßig wachsenden, unendlichen Bau Hermann Hankel (1839–1873), Mathematiker, Astronom und einer der frühen Mathematikhistoriker, nimmt Kants Motiv in seiner Antrittsvorlesung vor dem Akademischen Senat der Universität Tübingen auf8. Ganz in Kants Sinne entwickeln sich nach Hankel die Probleme der Mathematik »ausschließlich aus ihr selbst« und auch seine Bestimmung des mathematischen Gegenstandes folgt getreu lich Kants Auffassung9: »[I]hr Material ist die reine Anschauung des Raumes, der Zeit, und der abstrakte Begriff der Größe«. Dieser Stoff scheine dem »einfachen Verstande so kalt und leer, die ganze Mathe matik als eine nichtssagende Trivialität«, und dies sei leider auch der Grund für das häufige Desinteresse an der Mathematik, selbst unter »Männern wissenschaftlicher Bildung«, die sich sogar rühmten, »dass sie niemals auch nur ein Jota von Mathematik verstanden haben, gleichsam, als ob sie sich dadurch den Adelsbrief für Esprit und Geist ausstellen wollten!« Ursache für diese fatale Einstellung sei jedoch nicht die Wissenschaft selbst, sondern ihre schulische Vermittlung, denn der Mathematik-Unterricht sei10 »unglaublich trocken – fast so trocken als die Declinationen der lateinischen Grammatik.« Hankel Hermann Hankel: Die Entwicklung der Mathematik in den letzten Jahrhunderten. Ein Vortrag beim Eintritt in den Akademischen Senat der Universität Tübingen. Tübin gen 1869. 9 A.a.O., 3. 10 A.a.O., 4. Solche Klagen aus der mathematischen Wissenschaft über die man gelnde Hochachtung des Publikums und ähnliche – mehr oder minder pauschale – Schuldzuweisung an die Schulen gibt es allerdings bis heute. 8
44 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
möchte nun die Gelegenheit nutzen, um für seine Wissenschaft zu werben, und es ist bemerkenswert und charakteristisch für seine Zeit, dass er – im Kontrast zu heutigen Werbestrategien, die vor allem den (technischen) Nutzen der Mathematik betonen – auf die Geschichte der reinen Mathematik abhebt11: »Bei einer so conservativen Wissenschaft, als die Mathematik, welche die Arbeiten früherer Perioden nie zerstört, (…) ist es begreiflich, dass man eine Zeit nicht ohne Beziehung zur Vergangenheit betrachten kann (…)«
Und so entfaltet Hankel einen weitgespannten historischen Bogen von Thales und Pythagoras über Descartes, Leibniz und Newton bis zu einem ausführlicheren Stilvergleich von Lagrange und Euler. Er betont dabei die »innere Nothwendigkeit« der Entwicklung, die zwar teilweise durch externe Probleme aus der Physik oder Astro nomie angetrieben sei, jedoch in »ihren Hauptzügen frei aus sich heraus« erfolge12: »Die Mathematik folgt frei ihren eigenen Bahnen; zwar nicht in der zügellosen Freiheit, die keinen Gesetzen unterliegt, sondern mit der Freiheit, die sich aus ihrer Natur heraus und mit ihr in Uebereinstim mung selbst determinirt.«
Im Gegensatz zur Entwicklung der Philosophie, in der man sich stets aufs Neue vergeblich um die endgültige Klärung zentraler Fragen bemühe, seien die Mathematiker pragmatischer verfahren und hätten jeweils nur das gerade Lösbare angegriffen. Die zentralen Probleme – sein Beispiel hierfür ist die Frage nach der präzisen Verteilung der Primzahlen – habe man so zwar nicht frontal und vollständig bewältigen können, aber dafür Stück für Stück – von Euklid bis Gauß und Riemann – einer immer weitergehenden Klärung zuführen können. Dabei sei rund um den elementaren, aber extrem schwierig in seiner Tiefe zu verstehenden Begriff der Teilbarkeit »eine ganze Reihe zusammengesetzter wissenschaftlicher Begriffe« ausgebildet worden, die eine immer vollständigere Erfassung des Ausgangsbe griffs ermöglichen. Entscheidend sei dabei allerdings, die fruchtbaren Begriffsbildungen zu erkennen und die Kräfte nicht auf »wissenschaft 11 A.a.O., 6. Es ist bemerkenswert, dass die Vermittlung der Mathematik in Schule und Hochschule demgegenüber weitgehend frei von historischen Bezügen erfolgt, was in dieser Radikalität für kaum ein anderes Fach gilt. 12 A.a.O., 20.
45 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
lich werthlose Probleme und abstruse Gebiete zu wenden«, wie dies allerdings auch in der Mathematikgeschichte vorkomme. Die großen Mathematiker leite hier ein wissenschaftlicher »Tact, der dem ästhe tischen sehr nahe verwandt« sei und der weder lehr- noch lernbar sei13. Lässt man die wenig produktiven Irrwege außer Acht, die ja nur zeitweilig und auch nur akademisch-regional begangen würden, so kommt Hankel schließlich zu folgendem Fazit14: »[I]n den meisten Wissenschaften pflegt eine Generation das niederzu reissen, was die andere gebaut, und was jene gesetzt, hebt diese auf. In der Mathematik allein setzt jede Generation ein neues Stockwerk auf den alten Unterbau. So ist denn der schöne gewaltige Bau entstanden, dessen Anblick den Mathematiker mit Stolz erfüllt; denn fest gegrün det, auf unerschütterlichen Fundamenten steigt er planmäßig, durch jenen wissenschaftlich-ästhetischen Tact geleitet, gewaltig empor.«
In der Tat spricht auch nach einer mehrfachen Sichtung der Mathema tikgeschichte vieles für das Bild, das Hankel von ihrer Entwicklung zeichnet. Auch gilt bis heute, was er – ein verbreitetes Vorurteil, ›es wäre inzwischen alles ausgerechnet‹, konterkarierend – für die aktuelle Entwicklung der Mathematik betont15: »So sind fast alle Theile unserer Wissenschaft in erfreulicher, reger Entwickelung begriffen, ohne dass ein Ende dieses Fortschreitens vorauszusehen wäre. Denn die Mathematik hat vielleicht mehr als jede andere Wissenschaft die Tendenz, nach allen Richtungen hin in’s Unendliche zu wachsen.«
Wir wollen noch ein wenig bei dieser Sicht verweilen, und – vor einer kontrastierenden Gegenlese im Abschnitt 2 – ganz im Sinne Hankels auf Aspekte der Kontinuität und eines klar erkennbaren Fortschritts zum Besseren hinweisen, die die Mathematik wie kaum eine andere wissenschaftliche Disziplin auszeichnen.
13 14 15
A.a.O., 28. A.a.O., 34. A.a.O., 33.
46 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
1.2 Kontinuität in der Mathematikgeschichte – eine erste Bestandsaufnahme Es ist in der Tat erstaunlich, mit welcher Beharrlichkeit die Mathema tik über Jahrtausende ihren Stoff bearbeitet, völlig unberührt – so scheint es – von den extremen Wechselfällen der äußeren Gegeben heiten. Fast alle anderen wissenschaftlichen Disziplinen verschieben im Laufe ihrer Geschichte in teils dramatischer Weise ihr Interesse und ihre Methoden, kehren sich in teilweise deutlicher Kritik vom Vorgehen der Vorgänger ab; im Extremfalle verschwinden Wissen schaften ganz (wie die Astrologie oder die Phrenologie) und es bilden sich – den Bedürfnissen und Interessen der jeweiligen Zeit folgend – neue Disziplinen überhaupt erst heraus. Die Mathematik scheint solchen wechselnden ›Moden‹ nicht zu unterliegen, die Konzepte ›der Alten‹ bleiben im Wesentlichen bestehen – Fehlerkorrekturen und Ergänzungen sind dabei eher eine Bestätigung als eine fundamentale Kritik. Wir wollen dies anhand einiger Beispiele für drei verschie dene Aspekte des mathematischen Interesses erläutern: Objekte, Probleme, und Theorie-Gebäude.
1.2.1 Objekte. Artefakte, die ›unschwer‹ als Zahlen erkannt werden können, gehören zu den ältesten Kulturzeugnissen überhaupt16. Bekannt sind ein 18 cm langer Wolfsknochen17, der in der gut untersuchten Mammutjäger siedlung Dolni Vestonice (Tschechien) gefunden wurde, mit einem Alter von 25- bis 30.000 Jahren, und eine erst kürzlich auf der Schwä bischen Alb gefundene Mammutrippe, deren Alter sogar auf etwa 30bis 35.000 Jahre geschätzt wird und die heute im Urgeschichtlichen Museum in Blaubeuren zu bewundern ist. Besonders berühmt ist der sog. Ishango-Knochen, ein steinzeitliches Artefakt mit einem Alter von etwa 20- bis 25.000 Jahren, das 1950 in der heutigen Demokratischen Republik Kongo entdeckt wurde. Es handelt sich um einen ca. 10 cm langen versteinerten Knochen, auf dem in drei 16 Zur mathematischen Vor- und Frühgeschichte vgl. Hans Wussing: »6000 Jahre Mathematik: Eine kulturgeschichtliche Zeitreise, Bd. I«, Berlin 2008. 17 Vgl. Gabriele Wickel: Der Wolfsknochen – Ein Exponat zur Geschichte der Mathe matik im »Mathematikum«, in: A. Odefey (Hrsg.): Zur Historie der Mathematischen Wissenschaften, Diepholz 2009, 17–30.
47 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Spalten mehrere Gruppen von Kerben angeordnet sind. Sinn und Zweck der Einkerbungen sind nach wie vor unklar, sie werden jedoch weitgehend einhellig als Zahl-Zeichen interpretiert. Die Zahlen als Gegenstand begleiten nicht nur die menschliche Kulturgeschichte seit prähistorischer Zeit, sondern auch die Mathematikgeschichte im engeren Sinne bis heute. Dabei wandelt und erweitert sich der ZahlBegriff allerdings im Laufe der Jahrtausende18, zugleich aber können die Marken auf den eiszeitlichen Knochen mit Recht als Zeichen für genau die elementaren Zahlen gelesen werden, mit denen wir spätestens in der Grundschule Bekanntschaft machen und die nach wie vor Gegenstand der mathematischen Zahlentheorie sind. Selbst wenn man die Interpretation der prähistorischen Artefakte durchaus auch in Zweifel ziehen kann, so sind jedenfalls die Dokumente sys tematischer Zahldarstellungen auf 4000 Jahre alten babylonischen Keilschrift-Tafeln oder ägyptischen Papyri und die entsprechenden Kulturzeugnisse aus China, Indien oder Südamerika zweifelsfrei als Zahlen zu lesen. Und schließlich kann die mehr als zweitausend Jahre alte Zahlentheorie eines Euklid als genau dies mit modernen Augen gelesen werden: als Zahlentheorie19.
1.2.2 Probleme. Das prominenteste Beispiel für die große Kontinuität, mit der ein mal gestellte mathematische Probleme über Jahrhunderte weiterbe arbeitet werden, sind die sogenannten klassischen Konstruktionspro 18 Für eine gut lesbare, teilweise auch kurze historische Exkurse integrierende Über sicht zu modernen Zahl-Begriffen vgl. Ebbinghaus et al.: »Zahlen«, Berlin ³1992. 19 Es sei bereits an dieser Stelle darauf hingewiesen, dass diese Art der Hermeneutik nicht ganz unproblematisch ist. In einem fulminanten Aufsatz weist Sabetai Unguru zu Recht darauf hin, dass ein simpler ›übersetzender‹ Zugang die historische Quelle grob verfälscht und für einen historisch sachgemäßen Umgang keinesfalls akzeptabel ist, obwohl ein großer Teil der mathematikhistorischen Literatur zu seiner Zeit genauso verfahre; vgl. Sabetai Unguru: On the Need to Rewrite the History of Greek Mathematics, Archive for History of Exact Sciences 15 (1975), 67–114. Gerade weil es so verführerisch ist, in den Quellen vergangener Zeiten die eigenen Konzepte zu entdecken, und vor allem weil dies für die Mathematik in so erstaunlich weitreichender Weise erfolgreich ist, muss man sich immer wieder vor Augen führen, dass etwa Euklid ganz etwas anderes im Sinne hatte, als die (algebraischen) Konzepte zu entwickeln und die Aufgaben zu lösen, für die wir uns heute zufällig interessieren. Erst eine genaue Analyse der Quelle und ihres historischen Umfeldes erlaubt es, genauer sagen zu können, was seine Interessen, Probleme, Lösungen auszeichnet.
48 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
bleme. Im Rahmen der Euklidischen Geometrie geht es dabei darum, ausschließlich mit Hilfe eines idealisierten Zirkels und eines (unmar kierten) Lineals die folgenden Konstruktionen zu bewerkstelligen: 1.
2.
3.
4.
Die Quadratur des Kreises; man soll demnach zu einem gegebe nen Kreis ein flächengleiches Quadrat konstruieren. Anspielun gen auf das Problem findet man sogar in einem literarischen Text wie den Vögeln (414 v. Chr.) des griechischen Dramatikers Aristophanes. Eng verwandt mit der geometrischen Konstruk tion ist die Aufgabe, die Kreiszahl π, also das Verhältnis von Kreisfläche und Quadrat über seinem Radius, (möglichst) präzis zu bestimmen. Bereits im Papyrus Rhind, einer der wichtigsten Quellen für die ägyptische Mathematik (ca. 1800 v. Chr.) wird die Näherung π ≈ (16/9)2 vermerkt. Erst mit dem Beweis von Carl Louis Ferdinand Lindemann (1852–1939), der zeigt, dass π transzendent ist, wird die Aufgabe endgültig als unlösbar nach gewiesen. Die Verdopplung des Würfels; zur gegebenen Kante eines Wür fels soll die Kante eines Würfels mit doppeltem Volumen kon struiert werden. Die Würfelverdopplung, das sog. Delische Prob lem, geht auf die folgende Sage zurück: Die Bewohner der Insel Delos befragten während einer Pestepidemie im Jahr 430 v. Chr. ihr Orakel um Rat. Dieses forderte sie auf, den würfelförmigen Altar im Tempel des Apollon dem Volumen nach zu verdoppeln. Trisektion eines beliebigen Winkels; anders als bei einer gege benen Strecke, deren Aufteilung in beliebig viele gleichgroße Teilstrecken mittels Strahlensatz leicht zu bewerkstelligen ist, ist bei einem Winkel zwar die Halbierung einfach zu konstruieren, aber bereits die genaue Drittelung nur in wenigen Spezialfällen einfach möglich. Konstruktion eines jeden regelmäßigen n-Ecks; hier sind z. B. relativ leichte Konstruktionen für ein gleichseitiges Dreieck, Viereck (Quadrat) und Sechseck schon lange wohlbekannt. Frag lich ist aber, ob bzw. auf welche Weise andere regelmäßige Polygone mit Zirkel und Lineal konstruiert werden können.
Die Problemstellungen findet man etwa schon bei Anaxagoras von Klazomenai (499–428 v. Chr.), Lösungsversuche und Varian ten werden über 2000 Jahre diskutiert. Erst im 19. Jahrhundert gelingt schließlich eine endgültige Lösung aller klassischen Probleme
49 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
durch den Nachweis ihrer (teilweisen) Unlösbarkeit20. Dabei werden die geometrischen Probleme zunächst in äquivalente Probleme im Bereich der Algebra ›übersetzt‹: Eine Konstruktion ist prinzipiell durchführbar, wenn eine zugeordnete algebraische Gleichung in einer bestimmten Weise aufgelöst werden kann. Und in diesem Bereich kann man schließlich für die ersten beiden Probleme die Unlösbarkeit zeigen und für die beiden anderen genau charakterisieren, welche Winkel gedrittelt und welche Polygone konstruiert werden können21.
1.2.3 Aufgaben für die Theoriebildung. Ein für mehr als zwei Jahrtausende virulentes Thema der Mathematik (wie auch der Philosophie) ist die Frage, wie ›das‹ Kontinuum – beispielsweise die eindimensional kontinuierliche Ausdehnung einer Gerade oder Strecke bzw. die im schulischen Unterricht eingeführte ›Zahlengerade‹ – ›mathematisch sauber‹ zu beschreiben ist22. Für die pythagoreische Mathematik war die Entdeckung inkommensura bler Größenverhältnisse, also etwa von geometrischen Strecken (bei spielsweise von Diagonale und Seite eines Quadrates oder regelmä ßigen Pentagons), die sich nicht wie zwei ganze Zahlen zueinander verhalten, zunächst problematisch. Sie zeigt, dass Zahlen und Zahlen verhältnisse nicht ausreichen, um alle geometrischen Gegebenheiten präzise fassen zu können. Zenon von Elea (ca. 490–430 v. Chr.) zeigt in seinen Paradoxien, dass eine Zusammensetzung des Kontinuums aus ›unendlich vielen atomaren Bestandteilen‹ nicht sinnvoll gedacht werden kann. Durch Eudoxos von Knidos (ca. 390–345 v. Chr.) wird die Thematik im Rahmen der Geometrie virtuos bearbeitet (s. u., Abschnitt 2.2.4), und Aristoteles (384–322 v. Chr.) liefert schließlich eine befriedigende begriffliche Grundlage. Allerdings insistiert wie derum Gottfried Wilhelm Leibniz (1646–1716), dass das Phänomen 20 Dass solche Unmöglichkeitstheoreme keineswegs als Niederlagen oder Tiefpunkte der Entwicklung zu beschreiben sind, sondern vielmehr als eine reflektierte Form des Könnens, wird diskutiert in Gregor Nickel: Belehrtes Nicht-Können als virtuoses Können in der Mathematik, in: T. Borsche / H. Schwaetzer (Hrsgg.): Können – Spielen – Loben, Münster 2016, 153–176. 21 Sehr schön wird dieser Zugang auf einem anspruchsvollen, aber elementaren Niveau präsentiert in Richard Courant / Herbert Robbins: »Was ist Mathematik?« Berlin 1962. Kapitel III. 22 Vgl. etwa die ausführlichen u. a. historischen Überlegungen zum Kontinuum in Thomas Bedürftig / Roman Murawski: »Philosophie der Mathematik«, Berlin ⁴2019.
50 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
des Kontinuums und eine dazu passende Theorie eines der beiden großen Labyrinthe sei, in denen sich der menschliche Verstand oft und fast rettungslos verirre. Im Gegensatz zum zweiten Labyrinth, der Frage nach Freiheit und Determinismus, das alle Menschen angehe, betreffe die Frage nach dem Kontinuum nur die mathematischen Spe zialisten, und er selbst stellt mit der Infinitesimalrechnung eine neue Methode zur mathematischen Bearbeitung des antiken Konzepts zur Verfügung (s. u., Abschnitt 2.2.5). Es ist schließlich Georg Cantor (1845–1918), dessen Mengentheorie aus konkreten, das Kontinuum betreffenden Problemstellungen erwächst, der erneut eine ›atomare Theorie‹ des Kontinuums vorschlägt (s. u., Abschnitt 2.2.7). Nötig ist dazu eine Differenzierung im mathematischen Unendlichkeits begriff: Das Kontinuum kann als überabzählbar unendliche Menge (im Unterschied etwa zur abzählbar unendlichen Menge der natürlichen Zahlen) von Punkten aufgefasst werden. Damit ist die Frage jedoch nicht endgültig geklärt, auch wenn Cantors Mengentheorie den Rah men für den größten Teil der modernen Mathematik liefert. Noch im 20. Jahrhundert widmet Hermann Weyl (1885–1955) einer (alter nativen) Theorie des Kontinuums eine eigene Monografie23, und mit den Ergebnissen der u. a. auf Abraham Robinson (1918–1974) zurückgehenden Non-Standard-Analysis reichen neuere Beiträge bis in die unmittelbare Gegenwart. Es sind inzwischen zumindest vier verschiedene mathematische Subdisziplinen, die zur aktuellen Theorie des Kontinuums beitragen: Neben der Mengentheorie sind dies Analysis (und ihre Non-Standard-Variante), Maßtheorie und Topologie. Auch wenn sich hierbei die Auffassung von Grundlagen, Stil und Intention der Mathematik gegenüber der griechischen Antike deutlich gewandelt hat, so ist es doch ohne größere Verbiegung möglich festzustellen, dass die heutige mathematische Behandlung des Kontinuums einen theoretischen Rahmen zur Verfügung stellt, in dem die Anfragen der Antike beantwortet werden.
23 Hermann Weyl: »Das Kontinuum«, Leipzig 1918. Dieser Ansatz von Weyl und die von weiteren Mathematikern wie Brouwer und Heyting, die eine deutlich andere Theorie des Kontinuums favorisieren, die (restriktivere) logische Grundregeln befolgt, wird nach wie vor weiterentwickelt und hat sich inzwischen zu einer durchaus interessanten und anerkannten ›intuitionistischen‹ bzw. ›konstruktivistischen‹ Ana lysis fortentwickelt.
51 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
1.3 Klare Kriterien für wissenschaftlichen Fortschritt Die Möglichkeit, praktisch unwidersprochen eine Entwicklung zum Besseren zu beschreiben, wie dies Hankel exemplarisch vorführt, liegt auch an der Klarheit der Kriterien, mit denen ein wissenschaftlicher Fortschritt innerhalb der Mathematik charakterisiert werden kann. Auf der basalen Ebene ist der schlichte Übergang einer ›falschen‹ Rechnung zu einer ›korrekten‹ ein simpler Fortschritt zum Besseren. Und hier gelingt es der Mathematik in der Tat, den Diskurs in einer Weise zu regulieren, dass eine Einigung darüber vergleichsweise häufig und schnell gelingt. Natürlich werden gerade auch im wissen schaftlichen Betrieb sehr häufig Fehler gemacht, diese können aber im Kollektiv in der Regel sehr schnell detektiert und eliminiert werden24. Ebenso kann meistens relativ leicht beurteilt werden, ob ein gestelltes Problem ›gelöst‹ oder zumindest ›teilweise gelöst‹ ist25. Auch wenn die Lösung im Einzelfall extrem schwierig sein mag, so besteht doch selten Diskussionsbedarf über den Charakter des Problems bzw. die Kriterien, nach denen es als gelöst zu betrachten ist. Ähnliches gilt für einen ›lückenhaften Beweis‹, der also zumindest eine überzeugende ›Beweis-Idee‹ und einige akzeptable Beweis-Schritte enthält, zudem aber nicht begründete Sprünge in der Argumentation. Seine Vervoll ständigung zu einem ›lückenlosen Beweis‹ stellt sicherlich einen Fortschritt dar26. Auch die Quantität kann als klares Fortschritts-Kri terium dienen: Viele Resultate in einem Bereich sind ein Fortschritt gegenüber nur wenigen Resultaten, ein spezieller Satz wird durch einen allgemeineren Satz übertroffen. Und schließlich kann auch die 24 Im Einzelfall kann die ›Fehlersuche‹ freilich ausgesprochen mühsam und langwie rig sein, entscheidend ist jedoch, dass innerhalb der Disziplin eine weitestgehende und konsensuelle Orientierung daran erreicht wird, ›richtig‹ zu rechnen, und dass alle in etwa die gleichen Kriterien dafür anwenden. Vgl. hierzu auch Gregor Nickel: Zwingende Beweise – zur subversiven Despotie der Mathematik, in: J. Dietrich / U. Müller-Koch (Hrsgg.): Ethik und Ästhetik der Gewalt, Paderborn 2006, 261–282. 25 So stellt etwa David Hilbert, der tonangebende Mathematiker des 20. Jahrhun derts, in seiner Eröffnungsrede zum Internationalen Mathematiker-Kongress des Jahres 1900 in Paris eine Liste von 23 zentralen Problemen vor, die die mathematische Forschung der kommenden Dekaden wesentlich bestimmt hat. Von diesen Problemen sind mittlerweile 11 vollständig gelöst, 8 bislang noch ungelöst oder nur teilweise gelöst, von zwei Problemen konnte die Unlösbarkeit bewiesen werden, und nur zwei Fragen waren so offen gestellt, dass man schlecht über ihre korrekte Beantwortung befinden kann. 26 Eine sehr gut lesbare Darstellung eines besonders prominenten Prozesses dieser Art ist Simon Singh: »Fermats letzter Satz«, München 1999.
52 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
Qualität der Theorie-Architektur als Kriterium in Anschlag gebracht werden: Eine allgemeine, zusammenfassende Theorie stellt einen deutlichen Fortschritt gegenüber einer disparaten Sammlung einzel ner Resultate dar. Gegen das bislang vorgestellte Bild eines unproblematisch zu beurteilenden, kumulativen Fortschreitens spricht natürlich nicht, dass es zeitweilige oder gar länger anhaltende Phasen des Verfalls gibt27. Gerade die skizzierten klaren Kriterien erlauben es, nahezu unstrittig Zeiten und Regionen bzw. Bereiche des Rückschritts zu detektieren. So wurde etwa das Niveau der Mathematik eines Euklid im christlichen Mittelalter nicht annähernd erreicht, bereits die SpätAntike rezipiert allenfalls die ersten sechs eher elementaren Bücher seiner Elemente28. Und natürlich gibt es in der Geschichte auch das Verschwinden ganzer mathematischer Zweige, wobei dies wiederum nur für diese Bereiche selbst als Verfall, für die Gesamt-Disziplin sogar als positiver Fortschritt gesehen werden könnte, wenn etwa ›überholte Rechentechniken‹ (z. B. das Rechnen mit dem Rechen schieber oder mit Logarithmen) nicht mehr benötigt werden. Als vorläufiges Fazit können wir der Perspektive Hankels in der Tat vieles abgewinnen. Die Entwicklungsgeschichte der Mathematik als wissenschaftliche Disziplin ist länger als die aller anderen Wis senschaften – vergleichbar allenfalls mit derjenigen der Philosophie. Probleme und Bearbeitung können anscheinend über Jahrhunderte, teilweise über Jahrtausende hinweg nahezu ›zeit- und verlustlos‹ erkannt und verglichen werden. Die grundlegenden Standards der Formulierung von Problemstellungen scheinen unverändert lesbar bzw. problemlos übersetzbar zu sein. Wenn es die jeweilige Phase der Geschichte, die politischen und kulturellen Rahmenbedingungen gut mit der Mathematik meinen, so folgt ihre Entwicklung einem einfachen, kumulativen quantitativen wie qualitativen Fortschritt.
27 Weiten wir wiederum den Horizont über die wissenschaftliche Disziplin hinaus, so könnte man etwa ein wenig dramatisierend die letzten Jahrzehnte als Verfallszeit des allgemeinen mathematischen Bildungsniveaus betrachten; vgl. hierzu Gregor Nickel: Mathematische Bildung – 20 Thesen zur gegenwärtigen Situation, in Stephan Schaede (Hrsg.): Mathematik in den MINT-Studiengängen im norddeutschen Raum, Loccum 2016, 283–292. 28 Wir müssen uns an dieser Stelle mit dieser arg pauschalen Bemerkung begnügen, eine gut lesbare Einführung in die Mathematik des europäischen Mittelalters gibt Wolfgang Hein: »Die Mathematik im Mittelalter«, Darmstadt 22012.
53 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Ist die Geschichte der Mathematik tatsächlich so unproblema tisch verlaufen bzw. so unproblematisch zu lesen und zu beschreiben? Nachdem Wissenschaftsgeschichte, -soziologie und -philosophie im 20. Jahrhundert den Blick für die Kontingenzen, Komplikationen und Ambivalenzen in der Entwicklung der positiven Wissenschaften geschärft haben, wäre es in der Tat bemerkenswert oder vielmehr merkwürdig, wenn die Mathematik als einzige Bastion verblieben wäre, die sich diesem veränderten historischen Bewusstsein vollstän dig versperrt hätte29. Wir werden im folgenden Abschnitt diese Frage insofern präzisieren, dass wir diskutieren, ob bzw. inwiefern und in welchen Momenten es in der Entwicklung der Mathematik zu wis senschaftlichen Revolutionen kommt. Unsere Aufmerksamkeit gibt damit dem (möglicherweise existierenden) Spektakulären gegenüber dem (sicherlich häufig vorliegenden) ›Normalfall‹ den Vorzug. Damit soll allerdings nicht suggeriert werden, dass eine genaue Charakterisierung der Dynamik bei unstrittigem, kontinuierlichem Fortschritt wenig ergiebig wäre. Allerdings ist hierbei vermutlich eine technische Detail-Analyse exemplarischer Fälle unumgänglich, wie dies in einer Fülle von Studien der akademischen Mathematikgeschichte in der Tat vorliegt.
2. Kuhnsche Revolutionen in der Mathematikgeschichte? Michael Crowe, einer der prominenten angelsächsischen Mathema tikhistoriker der zweiten Hälfte des 20. Jahrhunderts nimmt die Diskussion um Thomas Kuhn und sein Konzept der wissenschaft lichen Revolution als einer der Ersten in seinem Gebiet auf. Im Jahr 1975 erscheint in Historia Mathematica der kurze und pointierte Aufsatz Ten ›laws‹ concerning patterns of change in the history of mathematics30. Nachdem Crowe darin unter anderem mit Bezug auf Thomas Kuhn den weitreichenden Wandel in der Geschichtsschrei bung der Naturwissenschaften angesprochen hat, konstatiert er eine größtenteils sehr zurückhaltende Rezeption solcher Konzepte inner 29 Eine elementare, gleichwohl gehaltvolle und geistreiche Einführung in die Proble matik einer Historizität der Mathematik gibt Ralf Krömer: Die Geschichte der Mathe matik aus philosophischer Sicht, Der Mathematikunterricht 61–6 (2015), 38–43. 30 Michael Crowe: Ten ›laws‹ concerning patterns of change in the history of mathemat ics, Historia Mathematica 2 (1975), 161–166.
54 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
halb der Historiografie der Mathematik. Tatsächlich unterscheide sich deren Vorgehen heute wenig von dem eines Pioniers wie Moritz Cantor (1829–1920), abgesehen vielleicht nur von der ›technischen‹ Qualität. Erste Schritte zu einem Wandel sieht er allerdings bei Imre Lakatos und Raymond Wilder, und auch mit seinem eigenen Beitrag möchte er eine grundsätzliche Diskussion über die Historiografie der Mathematik stimulieren. Es folgen dann die im Titel erwähn ten zehn Gesetze, wobei jedes schlagwortartig mit Beispielen aus der Mathematikgeschichte illustriert wird. Die ersten neun Gesetze zeigen dann in der Tat ein schrofferes Bild als die bislang beschrie bene glatte Fortschrittsgeschichte. So seien wichtige Neuerungen der Mathematik durchaus auch auf große Widerstände gestoßen – sei es bei ihren Urhebern selbst (Gesetz 1), sei es im Kreis der Kollegen (Gesetz 2). Für die Akzeptanz sei die innermathematische Fruchtbarkeit deutlich wichtiger als eine strenge logische Konsistenz (Gesetz 3), außerdem helfe ein bereits vorab existierendes Renommee des Entdeckers (Gesetz 6). Erst eine spätere Transformation u. a. in Lehrbüchern liefere die logische Rigorosität nach, teilweise sogar gegen die Intention der Entdecker (Gesetz 4). Diese hätten ande rerseits häufig deutlich mehr intendiert, als späteren Generationen tatsächlich brauchbar erscheine (Gesetz 7). Mathematisches Wissen sei vielschichtig und umfasse auch eine in der Regel implizit bleibende Metaphysik (Gesetz 5); Aufgabe der Historiker sei es, diese zu explizieren. Echte Krisen könnten in der Mathematik durch verschie dene Strategien sehr erfolgreich vermieden werden (Gesetz 9), wie etwa das von Lakatos als ›Monster-Sperre‹ bezeichnete Verfahren, Gegenbeispiele zu bereits ›bewiesenen‹ Theoremen als irrelevant oder unwesentlich auszugrenzen. Damit ist dann aber bereits der Boden für das letzte Gesetz vorbereitet31: »10. Revolutions never occur in mathematics.«
Denn »a necessary characteristic of a revolution is that some previ ously existing entity (…) must be overthrown and irrevocably dis carded.« Hierbei beruft sich Crowe auf einen zeitlich weit gespannten Kreis von Zeugen, angefangen bei Fourier (1822) über Hankel (1869) bis zu Clifford Truesdell (1968). Diese bekräftigten seine These, dass die Mathematik jedes einmal erreichte Prinzip bewahre und keines auf Dauer verworfen hätte. Bahnbrechende Entwicklungen 31
A.a.O., 166.
55 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
in der Mathematik hätten in der Tat neues Terrain erobert, aber die Errungenschaften der Vorgänger nie verworfen. Im Umfeld der Mathematik könne es dagegen durchaus Revolutionen geben, etwa in Bezug auf die Standards der Rigorosität, den Symbolismus, die Meta physik der Mathematik und vielleicht auch ihre Historiografie. Crowes Aufsatz löste eine lebhafte Diskussion aus, die sich auf die Frage zuspitzen lässt, ob es tatsächlich keine wissenschaftlichen Revolutionen in der Mathematik gibt. Der Kern dieser Frage gibt schließlich einem Sammelband den Titel32, der einen Querschnitt durch die Diskussion präsentiert und hier wiederum als ein Anker punkt der Überlegungen diente.
2.1 Eine Anmerkung zum Begriff der Revolution Die schlichte Frage ›Gibt es Revolutionen in der Mathematik?‹ ist sicherlich viel zu simpel formuliert, um informative Antworten zu ermöglichen. So ist in jedem Falle genauer zu klären, was überhaupt unter ›Revolution‹ verstanden werden soll. Ein Teil der Beiträge des erwähnten Bandes diskutiert genau diesen Punkt. Instruktiv ist u. a. ein Vorschlag des Herausgebers Donald Gillies, der in einer Analogie zur politischen Geschichte »Französisch-Britische« von »Russischen Revolutionen« unterscheiden möchte33. Die radikalere Variante, der russische Typ, sei durch Crowes Kriterium charakterisiert, eine wich tige Entität – das Zarentum – werde durch die Revolution unwider ruflich beseitigt. Beim franko-britischen Typ könne diese Entität – ggf. in deutlich transformierter Gestalt, etwa als konstitutionelle Monarchie oder als napoleonisches Kaiserreich – nach der Revolution weiterexistieren. Das historische Beispiel scheint mir allerdings auch insofern instruktiv zu sein, als es zeigt, dass die Einschätzung des revolutionären Charakters entscheidend von den Entitäten abhängt, auf denen das Augenmerk liegt. So könnte man mit gutem Grunde 32 Donald Gillies (Ed.): »Revolutions in Mathematics,” Oxford 1992. Einen ausge sprochen inspirierenden Blick auf die Mathematikgeschichte wirft – die Thematik des Bandes aufnehmend – Ladislav Kvasz, wenn er deren innere Dynamik durch Muster bzw. Typen eines linguistischen Wandels charakterisiert. Hier fehlt der Raum zu einer angemessenen Darstellung seiner Überlegungen; vgl. Ladislav Kvasz: »Pat terns of Change. Linguistic Innovations in the Development of Classical Mathemat ics.« Basel 2008. 33 Vgl. Ders.: Introduction. Are there revolutions in mathematics? A.a.O., 1–14.
56 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
die russische Revolution des Jahres 1917 als ›konservativ‹ bezeichnen, insofern sich hier nur die eine Diktatur (des Zaren) in die andere (der Bolschewiki) transformiert, die politische Grundstruktur auto ritärer Herrschaft jedoch unverändert fortbesteht. In dieser Sicht wären die Vorgänge in England und Frankreich zumindest auf längere Sicht deutlich ›revolutionärer‹, insofern sich hier über die Jahre Rechtsstaatlichkeit und das Staatsvolk als Souverän herausbilden, während etwa die ›Monarchen‹ in Großbritannien zum bloß noch schmückenden Beiwerk werden34. Hier geht es natürlich nicht um die historischen Details der politischen Geschichte, wichtig war mir an dieser Stelle lediglich zu betonen, dass die systematischen Vorgaben – u. a. also die Festlegung der Entitäten, ›auf die es ankommt‹ – einen prägenden Einfluss auf das historische Bild haben. Für unsere Sichtung der Mathematikgeschichte nehmen wir nun zunächst Crowes Gedanken auf: Können wir historisch möglichst gut abgrenzbare Weichenstellungen finden, bei denen zuvor (im alten Paradigma) Undenkbares hernach (im neuen Paradigma) denk- und analysierbar bzw. lösbar wird, zugleich aber mit dem alten Paradigma eine mit dem neuen inkommensurable Sicht zurückgelassen wird, die etwas sehen konnte, das im neuen Paradigma nicht mehr sichtbar ist oder nicht mehr sichtbar sein soll? Ein Kriterium für solche Phäno mene wäre ein (längerer) Streit rivalisierender Schulen. Zugleich soll aber auch die Fragestellung ein wenig verschoben werden: Weniger soll im Folgenden gefragt werden, ob es wissenschaftliche Revolutio nen in der Mathematik ›gibt‹. Wesentlich fruchtbarer scheint es mir zu fragen, inwiefern sich die Dynamik der Mathematik(geschichte) mit dem Konzept revolutionärer Phasen besser verstehen lässt.
2.2 Kandidaten für Revolutionen in der Mathematik Wir werden in diesem Abschnitt einen – angesichts historischer Kriterien bezüglich Detailtreue und Hermeneutik eigentlich unver antwortlichen – ›Überflug‹ der Mathematikgeschichte auf der Suche nach etwaigen Revolutionen vornehmen. Die folgende Liste erhebt dabei nicht den Anspruch auf Originalität und keinesfalls auf Voll ständigkeit. Anhand möglicher Kandidaten soll gefragt werden, was 34 In ähnlicher Weise argumentiert Jeremy Gray: The nineteenth-century revolution in mathematical ontology, in: Donald Gillies (Ed.), a.a.O., 227.
57 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
›wissenschaftlich revolutionär‹ in der Mathematik heißen könnte. Dabei soll ›revolutionär‹ nicht in erster Linie als Merkmal herausra gender Qualität verwendet werden; ein Teil der Debatte, die sich in dem erwähnten Sammelband abbildet, scheint m. E. zu sehr davon geprägt zu sein, dass einzelne Autoren ihre jeweiligen Helden vor dem ›Vorwurf‹ verteidigen müssen, sie hätten möglicherweise nicht Revo lutionäres geleistet. Hier geht es also explizit nicht um HeldenGeschichten, sondern um die Frage, wie sich das Fortschreiten der mathematischen Wissenschaften genauer charakterisieren lässt.
2.2.1 Vom mathematischen Verhalten zum mathematischen Denken – ein Präludium der kulturellen Revolutionsgeschichte. ›Irgendwann‹ im Verlauf des Übergangs von der Natur- zur KulturGeschichte könnte man auch einen Übergang von ›mathematischem Verhalten‹ zu ›mathematischem Denken‹ konstatieren. Heutige ver haltensbiologische Untersuchungen zeigen nämlich einen durchaus kompetenten Umgang mit (kleinen) Zahlen u. a. bei Vögeln, Ratten und natürlich auch bei Primaten35. Gegenüber einer solchen Fähigkeit bedeutet es allerdings einen durchaus als revolutionär zu bezeichnen den Schritt hin zu einer symbolischen Repräsentanz von Zahlen, wie sie auf den eingangs beschriebenen Artefakten zu erkennen ist36. Allerdings müsste hierbei wohl eher von einer Revolution der Beschreibungsperspektive gesprochen werden, wobei wir drei deutlich voneinander abgegrenzte Stufen unterscheiden könnten. Auf einer ersten Stufe könnte man zunächst vom ›mathematischen Funktionieren‹ biologischer Systeme sprechen. Hier beschreiben wir beispielsweise die Dynamik von Tier-Populationen mittels Mathema tik, stellen fest, dass für die Phyllotaxis spezielle Zahlen-Folgen, etwa die Fibonacci-Zahlen von Bedeutung sind, oder erkennen in Bienen waben nahezu perfekte regelmäßige Sechsecke. Hier versucht die Biologie ganz im Sinne Kants als besondere Naturlehre ihre Wissen schaftlichkeit durch Mathematisierung des theoretischen Rahmens zu sichern. Auf der zweiten Stufe untersuchen wir ›mathematisches Verhalten‹, d. h. wir versuchen verhaltens- bzw. neurobiologisch 35 Eine leicht zugängliche Übersicht dieses Feldes findet sich in Stanislas Deheane: »The Number Sense,“ Oxford 1997. 36 Eine erste Orientierung zur prähistorischen Mathematik gibt Hans Wussing: »6000 Jahre Mathematik«, Berlin 2008, 6ff.
58 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
oder kognitionswissenschaftlich bei verschiedenen (in der Regel tie rischen) Organismen eine wie auch immer geartete Repräsentanz von und einen kognitiven Umgang mit ›mathematischen Gegenständen‹ festzustellen und genauer zu analysieren. Hier nehmen wir wie auch auf der ersten Stufe eine naturwissenschaftliche Perspektive ein, allerdings wird Mathematisches – bzw. dessen ›neuronales Korrelat‹ – auch zum Gegenstand dieses (natur)wissenschaftlichen Interesses. Ein Wechsel zu einer weitestgehend inkommensurablen Perspektive erfolgt, wenn wir im Rahmen der historischen Anthropologie bzw. Frühgeschichte danach fragen, was früheste menschliche Kulturen mit Zahlmarkierungen – sofern diese Interpretation tatsächlich zutrifft – im Sinn hatten37. Hier wird Mathematik zum kulturellen Phänomen, das es zu verstehen gilt: Der Gegenstand ist mathematisch im engeren Sinne (Zahlen zum Beispiel), er ist dem Interpreten aus eigener Erfah rung bekannt, die Methode dagegen ist keineswegs mathematisch, sondern im Wesentlichen hermeneutisch. Es ist hier allerdings nicht der Ort für eine eingehende Diskussion der Inkompatibilität des (von dieser in der Regel nicht diskutierten) Naturbegriffs der Naturwis senschaften und des Freiheitsbegriffs der Geisteswissenschaften38.
2.2.2 Mathematik als Tragwerk von Hochkulturen. Von ersten, als Zählmarken zu interpretierenden Artefakten bis hin zu einer expliziten und leistungsfähigen Symbolik für Zahlen und einem ausgebildeten Kalkül ist sicherlich nochmals ein gewaltiger Entwicklungssprung zu konstatieren. Gleiches gilt für einen Über gang vom ersten – vermutlich vorwiegend künstlerischen bzw. sakra len – Umgehen mit geometrischen Formen und Körpern hin zu einer Selbstverständlich diktiert der Gegenstand nicht die Perspektive. Es ist also nicht ausgeschlossen, Mathematiker bei ihrer Beweisführung mittels Computertomografie oder ähnlicher Verfahren zu beobachten. Im Bereich der Fachdidaktik gibt es sogar einen gewissen Trend, das Lernen der Mathematik zu ›naturalisieren‹ und aus einer solchen Perspektive heraus ›optimieren‹ zu wollen. Und natürlich kann die Optik in umgekehrter Richtung übertragen werden, ›die Natur‹ also unter einer hermeneu tischen Perspektive betrachtet werden. Eine solche wird durchgehend versucht seit den großartigen kosmologischen Entwürfen im (Neu-)Platonismus und noch in der Renaissance-Philosophie (etwa bei Ficino oder Cusanus) bis hin zu Leibniz. Später trennt sie sich explizit als naturphilosophische von der naturwissenschaftlichen Sicht. 38 Nach wie vor ein Schlüsseltext zu dieser Thematik ist Georg Picht: »Der Begriff der Natur und seine Geschichte«, Stuttgart ⁴1998. 37
59 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Entdeckung und Anwendung von Regeln etwa zur Bestimmung der Fläche von geometrischen Figuren oder zum Volumen von Körpern. Für die europäische Mathematikgeschichte sind dabei die Hochkul turen des Zweistromlandes und des Alten Ägypten von größter Bedeutung. Sehr früh können wir eine enge Verbindung feststellen von der Mathematik zu religiösem Kult und zur Ökonomie. Einerseits werden etwa heilige Stätten geometrisch gestaltet, astronomische und jahreszeitliche Zyklen gezählt und durch Kalender strukturiert, die natürlich auch religiös bedeutsam sind, und andererseits werden etwa Flächen vermessen, um gleichmäßig Steuern eintreiben zu können, und spätestens mit der Einführung von Geld als symbolisches Tausch mittel basiert ein Grundelement der Ökonomie auf Zahlen39.
2.2.3 Pythagoreische Befreiung – Selbstbindung an Beweise. Im klassischen Griechenland findet dann jedoch eine zweifache Emanzipation statt, und dies nahezu im selben Zeitraum und getrie ben von denselben Personen bzw. Gruppen von Personen40. Zum einen löst sich die denkende Reflexion vom Mythos und von der Religion, wird zur mehr oder minder autonomen Philosophie, und dies teilweise verbunden mit einer expliziten und scharfen ReligionsKritik. Zum anderen löst sich die Mathematik von der Indienstnahme durch die ökonomischen Anwendungen und ebenfalls von der Reli gion. Erstmals werden Themen, Probleme, Theoreme einer ›reinen Mathematik‹ formuliert und diskutiert. Auch wenn die griechische Mathematik sehr viel aus Babylon und Ägypten lernt, einen großen Teil der Rechen- und Konstruktionstechnik von dort übernimmt, so bringt sie doch eine entscheidende Komponente neu ins Spiel: den Beweis. Viele Interpreten würden daher in der Tat den Ursprung der Mathematik als wissenschaftliche Disziplin erst im antiken Griechen land verorten. Proklos (412–485) fasst das Resultat dieser Loslösung von den Anwendungen knapp und treffend zusammen: 39 Für eine ausführlichere Einführung in die Mathematik der alten Hochkulturen vgl. H. Wussing, a.a.O. oder Helmut Gericke: »Mathematik in Antike und Orient«, Berlin 1984. Zur Verbindung von Mathematik und religiösem Kult vgl. etwa Abraham Seidenberg: The Ritual Origin of Counting. Archive for History of Exact Sciences 2 (1962), 1–40. 40 Allerdings gelingt diese Emanzipation offenbar nie dauerhaft und vollständig.
60 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
»Pythagoras [hat] der geometrischen Wissenschaft eine neue Form gegeben, und zwar jene einer freien Disziplin.« (DK 58 B1)
Inwiefern hier tatsächlich der historische – in vielerlei Hinsicht mythische – Pythagoras von Samos (ca. 570–530 v. Chr.) verant wortlich ist, können wir dahingestellt sein lassen. Die ersten Sätze und Beweise der reinen Mathematik wären vermutlich eher Thales von Milet (ca. 624–546 v. Chr.) zuzuschreiben. In jedem Falle treten seit der griechischen Antike völlig neue Gegenstände auf die mathemati sche Bühne, für deren Eigenschaften, ja für deren schiere Existenz ein babylonischer oder ägyptischer Schreiber sicherlich keinerlei Inter esse oder Verständnis aufgebracht hätte. Die mathematischen Objekte machen sich selbständig gegenüber den sinnlichen: Aus den gezähl ten Schafen oder Kornsäcken werden reine Zahlen, aus aufgeteilten Broten werden Zahlenverhältnisse, aus einem rechteckigen Feld wird ein Rechteck, aus einem quaderförmig ausgeschachteten Kanal wird ein Quader. Mit dem Absehen von konkreten Sachkontexten wird jedoch die Pythagoreische Mathematik zugleich mit einer geradezu universellen Bedeutung aufgeladen. Insbesondere die Zahlen erhal ten eine tragende Funktion für den gesamten Kosmos. Aristoteles fasst im historischen Überblick des ersten Buches seiner Metaphy sik diese Weltanschauung der Pythagoreer mit deutlich kritischem Unterton zusammen41: »Sie waren die ersten, welche diesen Studien [der Mathematik] einen bedeutenden Platz einräumten; und (…) sie waren davon überzeugt, daß die konstitutiven Prinzipien des Mathematischen auch die kon stitutiven Prinzipien der seienden Dinge seien. Da nun im Mathema tischen die Zahlen der Natur nach das Erste sind und sie, statt in Feuer, Erde, Wasser, eben in den Zahlen viele Übereinstimmungen mit den seienden und werdenden Dingen zu erkennen glaubten — eine bestimmte Eigenschaft von Zahlen sei ›Gerechtigkeit‹, eine andere ›Seele‹ (…) Da nun die gesamte Natur ihnen in allen übrigen Hinsich ten den Zahlen nachgebildet zu sein schien und die Zahlen das Erste seien in der gesamten Natur, nahmen sie an, die Elemente der Zahlen seien die Elemente aller seienden Dinge, und die ganze Welt sei (…) Harmonie und Zahl. Was sie nun in den Zahlen und Harmonien als übereinstimmend mit den Eigenschaften und Teilen der Welt und der ganzen Weltordnung nachweisen konnten, das sammelten sie und setzten es damit in Einklang. Wenn dabei irgendwo eine offene Stelle 41
Metaphysik 985b24.
61 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
blieb, so bastelten sie gerne noch etwas hinzu, damit ihre Theorie kon sistent wurde.«
In doppelter Weise wird hier also das Selbstbewusstsein der Mathe matik fundamental gesteigert. Sie wird »von ihrer praktischen Anwendung durch die Geschäftsleute befreit« (DK 58B2), wird eine Disziplin eigenen Rechts, wandelt sich von der nützlichen zur freien Mathematik. Und zugleich erhalten die Zahlen im Rahmen der Pythagoreischen Philosophie eine universale Bedeutung. Den grund legenden Wandel zu einer beweisenden Disziplin, der sich in den vermutlich auf Thales zurückgehenden Argumenten bereits andeutet und sich auch in der pythagoreischen Mathematik weiter ausprägt, werden wir erst im nächsten Abschnitt genauer thematisieren.
2.2.4 Die Krise der Pythagoreischen Mathematik und ihre Euklidische Auflösung42. Die Überzeugung der Pythagoreer, ›alles‹ lasse sich durch Zahlen und Verhältnisse von Zahlen ausdrücken, gerät bereits im Rahmen der elementaren Geometrie in Schwierigkeiten. Bekannte Beispiele sind Seite und Diagonale eines Quadrates oder eines regelmäßigen Fünfecks. Auf wen die Entdeckung dieses Phänomens zurückgeführt werden kann (vielleicht Hippasos von Metapont im späten 6. und frühen 5. Jahrhundert v. Chr.), ist heute nicht mehr zuverlässig zu rekonstruieren. Jedenfalls ranken sich um diese Entdeckung unter schiedliche Legenden, die von der Aufregung im Kreis der Pythago reer zeugen. So berichtet etwa Iamblichos (ca. 245–325): »Man sagt, sie hätten jenen, der als erster die Natur des Kommen surablen und des Inkommensurablen (…) ausgeplaudert habe, als einen so widerlichen Menschen betrachtet, daß sie ihn nicht nur vom Zusammenleben in ihrem gemeinsamen Kreis ausschlossen, sondern sogar einen Grabstein für ihn errichteten, als wäre der Freund von einst aus dem Leben der Menschen überhaupt ausgeschieden.« (DK 18.4)
Vgl. zu diesem Abschnitt auch Joseph Dauben: Conceptual revolutions and the history of mathematics: two studies in the growth of knowledge, in: Donald Gillies (Ed.), Revolutions in Mathematics, 49–71.
42
62 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
Dass Helmut Hasse und Heinrich Scholz in ihrer einflussreichen Untersuchung43 hierbei von einer »Grundlagenkrisis« sprechen, hat sicherlich auch mit der Situation ihrer eigenen Zeit und ihrer Posi tion im sog. Grundlagenstreit der 1920er Jahre zu tun. Gleichwohl dürfte ihre Bezeichnung zumindest insofern passen, als für die antike Fachwelt ein fundamentales Problem vorgelegen hat, das u. a. die Universalität der Arithmetik nachhaltig in Frage stellt. In jedem Falle gab die Entdeckung Anlass, eine genaue und schließlich beeindru ckend virtuose mathematische Theorie auszuarbeiten. Für uns ist es wichtig zu bemerken, dass schon der Nachweis der ›Existenz‹ von inkommensurablen Größen (beispielsweise Strecken) voraussetzt, dass man genauer misst als jede endliche, empirische Genauigkeit. Inkommensurabilität reicht über den Bereich dessen hinaus, was den Sinnen zugänglich ist. Bei Platon (Nomoi 819D-820C) und Aristoteles (Metaphysik 983a15) ist von der Skandalisierung, von der Iamblichos berichtet, bereits nicht mehr viel zu merken, die Existenz inkommensurabler Größen wird als wohlbekanntes und gut verstandenes mathematisches Phänomen behandelt. Einen Beweis dafür, dass Diagonale und Seite eines Quadrates nicht im Verhältnis von zwei (natürlichen) Zahlen stehen, führt man bereits in der Antike sowohl arithmetisch wie geometrisch44. Das Resultat dieser Bemühungen findet sich schließlich in einem Buch, das die Mathematikgeschichte wie kein zweites bis heute prägt. Die Lebensdaten des Autors sind umstritten, weitere Schriften sind nicht erhalten und zuweilen wurde sogar in Frage gestellt, ob es die historische Person überhaupt gegeben hat. Und dennoch sind die Elemente, Στοιχεῖα, des Euklid von Alexandria (ca. 325–265 v. Chr.) das sicherlich einflussreichste mathematische Werk der Geschichte. Die älteste noch erhaltene griechische Handschrift der Elemente stammt aus dem Byzanz des Jahres 888 n. Chr. (Oxford MS. D ́Orville 301). Ein 1897 in Oxyrhynchus gefundenes Papyrusfragment (Papyrus Oxy. I 29) stammt wahrscheinlich aus der Zeit von 75 bis 125 n. Chr., enthält aber nur die Proposition 5 aus Buch 2. Bis weit ins 18., teilweise sogar bis ins 19. Jahrhundert wurden die Elemente nachgedruckt und bildeten vielfach die Grundlage für alle höhere mathematische Bildung. Besonders hübsch und von didakti 43 Helmut Hasse / Heinrich Scholz: Die Grundlagenkrisis der griechischen Mathema tik, Kant-Studien 33, (1928), 4–34. 44 Vgl. etwa Wussing, a.a.O., 182ff.
63 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
schem Geschick ist eine farbig ausgeführte Ausgabe der ersten sechs Bücher von Oliver Byrne45. Vor allem aber stellen die Elemente für die folgenden Jahrhunderte ein methodisches Ideal von wissen schaftlicher Klarheit und ›lückenloser Deduktion‹ dar. In ziemlich enger Verwandtschaft mit Platons philosophischer Konzeption von Wissen versucht Euklid mathematisches Wissen darzustellen und abzusichern. Dabei kommt es ihm weniger darauf an, viele neue und besonders schwierige Resultate zu präsentieren; es kommt vielmehr auf einen möglichst lückenlosen Aufbau einer hierarchisch geordne ten Theorie an, bei der aus wenigen Grundlagen, den Elementen, alle Sätze, die mathematische Erkenntnisse formulieren, ›abgeleitet‹ werden können. Die meisten Theoreme in den Elementen können anderen Autoren zugeordnet werden; bereits vorhandenes Wissen wird von Euklid also kompiliert und in systematischer Form angeord net. Dabei drängt er um der Strenge der Deduktion willen einen Bezug auf Anschauliches weitestgehend zurück; so fällt etwa die graphische Anschaulichkeit der Pythagoreischen Theorie der figurierten Zahlen (Psephoi-Arithmetik) heraus. Und natürlich fällt kein Wort mehr in Bezug auf irgendeine nicht-mathematische Bedeutung von Zahlen oder Figuren. Der Aufbau aller Bücher ist ähnlich, die Gliederung wird durch drei Typen von Voraussetzungen und zwei Typen von Lehrge genständen sowie der dazu passenden Argumentationen bestimmt: 1.
2.
Definitionen geben die Gegenstände der mathematischen Theo rie bekannt. Einige der Definitionen bei Euklid beanspruchen sicherlich mehr zu sein als eine bloße Namensfestlegung (Nomi naldefinition); zusammen mit Hinweisen auf eine residuale Form der Sinnlichkeit (der Augen), die man häufig Anschauung nennen mag, und unter Verwendung nicht definierter Termini werden Klassen von Gegenständen (Punkte, Dreiecke, Kreise, Zahlen etc.) als Objekte des Interesses festgelegt. In den Postulaten werden die zulässigen, geometrischen Kon struktionsverfahren angegeben; in den Postulaten 1 bis 3 erhal ten wir ein (beliebig langes) Lineal ohne Markierung und einen Zirkel. Das Postulat 4 ermöglicht die Messbarkeit von Winkeln; das fünfte Postulat spielt schließlich eine besondere Rolle, es legt
45 Oliver Byrne (Ed.): »The first six books of the elements of Euclid. In which coloured diagrams and symbols are used instead of letters for the greater ease of learners«, London 1847.
64 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
3.
4.
5.
in der Konsequenz eine ebene, d. i. eine »euklidische« Geometrie fest (siehe auch Abschnitt 2.2.6)46. Die Axiome werden als denk-notwendige Gesetze aufgefasst im Unterschied zu den Postulaten. Jeder Vernünftige soll ihrer Gültigkeit zustimmen. Die Struktur-Axiome der ›modernen Mathematik‹ haben diesen Charakter nicht mehr; sie lassen sich eher als Spielregeln verstehen, die ein bestimmtes Feld von Gegenständen abstecken, passen also eher zu den Definitionen bzw. den Postulaten des Euklid. Eine gewisse Parallele besteht allerdings zu den auch für die heutige Mathematik nötigen, aber häufig nur implizit in Anspruch genommenen Fundamen tal-Axiomen, etwa die Regeln des Gebrauchs von =. In der Tat betreffen die ersten drei Axiome den Umgang mit der Gleichheit sowie dem Hinzufügen und Wegnehmen von Größen. Nach diesem Vorspiel formulieren die Theoreme das als gültig behauptete Wissen. Ihre Beweise geben eine ›logisch schlüs sige‹ Rückführung auf früher bereits bewiesene Theoreme bzw. Axiome, Postulate und Definitionen. Etwas verschieden davon sind die (Konstruktions-)Probleme, die allerdings leicht in ein Theorem umformulierbar wären. Die Lösung der Aufgabe wird jeweils vorgeführt und anschließend folgt stets noch ein Beweis dafür, dass die angegebene Konstruk tionsvorschrift tatsächlich das gestellte Problem löst.
Im Folgenden wollen wir nochmals ausdrücklich auf das tiefliegende Rätsel hinweisen, das mit dem Aufkommen des (mathematischen) Beweises verbunden ist47. Der mathematische Beweis – ob in der 46 Dass die Formulierung relativ umständlich ist und Euklid über längere Passagen die Verwendung des Postulates vermeidet, löste eine lange Geschichte von Versuchen aus, dieses Postulat aus den übrigen Postulaten und Axiomen zu beweisen. Es stellt sich schließlich heraus, dass diese Versuche insofern alle zum Scheitern verurteilt waren, als das Postulat unabhängig von den übrigen Sätzen ist, also aus diesen weder bewiesen noch widerlegt werden kann. Neuere Überlegungen zeigen gar, dass bereits Aristoteles diese Auffassung vertrat; vgl. Imre Tóth: Fragmente und Spuren nichteukli discher Geometrie bei Aristoteles, Beiträge zur Altertumskunde 280, Berlin 2010. Die Terminologie ist ein wenig verwirrend, insofern es in einigen Euklid-Ausgaben als 11. Axiom aufgeführt wird, in anderen als 5. Postulat. Die saubere Trennung zwischen Axiomen und Postulaten verwischt sich ohnehin im Laufe der Zeit und im modernen Kontext verschwindet der Terminus ›Postulat‹ fast vollständig. 47 Vgl. hierzu Gregor Nickel: Vorausgesetzt, ein Beweis überzeugt – Aspekte mathe matischen Denkens, in: Ulrich Lüke / Georg Souvignier (Hrsgg.): Wie objektiv ist Wissenschaft? Darmstadt 2017, 124–139; Gregor Nickel: Aspects of Freedom in
65 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Gestalt, die wir in Euklids Elementen vorfinden, ob in späteren mehr oder minder formaleren Gestalten – bleibt allemal ein rätselhaftes Phänomen: Man zeigt, dass ein Sachverhalt ›objektiv‹ gilt; man zeigt dies für alle ›vernünftigen‹ Gesprächsteilnehmer bzw. vielleicht sogar unabhängig davon, ob es überhaupt jemand glaubt. Man zeigt zuweilen sogar unendlich viele Sachverhalte gleichzeitig. Man zeigt, dass etwas notwendigerweise gilt, also gar nicht anders sein kann. Gerade im Kontrast zur Mathematik der Alten Hochkulturen fällt auf, dass das Beweisen keineswegs konstitutiv für das Betreiben von Mathematik ist. Ägyptische oder babylonische Mathematik ›funktio niert‹ durchaus, die dort verwendeten und überlieferten ›Rezepte‹ führen – so jedenfalls die Jahrhunderte alte Erfahrung – zuverlässig ans Rechen-Ziel, und ›verstehen‹ kann man die mathematischen Sachverhalte auch nicht unbedingt besser durch Beweise; der Bezug auf eine gut geschulte Anschauung ist hier u. U. deutlich erfolgrei cher. Möglicherweise spielen die folgenden Gründe eine gewisse Rolle dafür, dass der griechische Geist beginnt, mathematische Sätze zu beweisen48: 1. 2.
3.
Es gibt Differenzen in der Überlieferung, wenn es etwa um Näherungen des Verhältnisses von Kreisradius und Kreisumfang geht. Vor solche Diskrepanzen gestellt, fragt man genauer nach. Die Problematik der Inkommensurabilität motiviert sicherlich ein ›Tieferlegen‹ der Grundlagen. Allerdings muss man bereits genauer hinsehen als jede endliche Genauigkeit, um das Prob lem überhaupt zu entdecken. Verschiedene Ansätze zur Lösung könnten dann eine Debatte um zulässige ArgumentationsRegeln motiviert haben49. Das politische System der griechischen Klein- bzw. Stadtstaaten war – gerade im Vergleich zu den eher monolithischen Monar chien Ägyptens oder Babylons – ausgesprochen vielgestaltig und in vielen Fällen und für einige Zeit auch mehr oder min der demokratisch verfasst. Wer sich hier durchsetzen möchte,
Mathematical Proof, ZDM – The International Journal on Mathematics Education 51–5 (2019), 845–856. 48 Vgl. hierzu etwa Wolfgang Hein: »Die Mathematik im Altertum«, Darmstadt, 2012, 133ff. 49 Helmut Hasse und Heinrich Scholz spekulieren etwa, es habe Ansätze gegeben, durch die Vorstellung einer infiniten Teilung von Seite und Diagonale daran festhalten zu können, sie stünden im Verhältnis von (infiniten) Zahlen, vgl. Dies.: »Die Grund lagenkrisis der Griechischen Mathematik«, Berlin 1928.
66 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
4.
muss argumentieren können, ein bloßer Befehl genügt jedenfalls nicht mehr. Sehr schnell kommt dann auch ein Streit darüber auf, nach welchen Regeln dieser demokratische Diskurs geführt werden soll. Es gibt schließlich überaus erfolgreiche Strategien (evtl. nur kurzfristig) zu überreden, ohne dass dabei jedoch für eine ›gut begründete‹ Überzeugung argumentiert wird. Die Auseinandersetzung mit Demagogen nimmt denn auch einen wichtigen Stellenwert in den philosophischen Werken dieser Zeit ein. Und auch der Stil der Mathematik ist offenbar nicht unbeeinflusst davon. Schließlich gibt es Vertreter einer radikalen Sprach- und Argu mentationskritik. Von der Philosophie des Parmenides von Elea (ca. 515–455 v. Chr.) und seiner Schule geht ein eindringlicher und wirksamer Appell aus, sich im Gespräch und im Denken in strengster Weise auf (eine bestimmte Form der) Logik zu bezie hen.
Die Erfindung und das nähere Ausgestalten und Normieren des Beweisens im antiken Griechenland – ›pythagoreische Befreiung‹ und ›Grundlagenkrise‹ wirken hier als überschwänglicher Beginn und kühlere Fortsetzung – könnte man als revolutionären Beginn der Mathematik als Wissenschaft ansehen. Dabei wird das zugleich prag matische wie durchaus virtuose Verfahren der Alten Hochkulturen delegitimiert. Dass solche Faustregeln u. U. in fröhlicher Pluralität zu divergierenden, alternativen Ergebnissen kommen, ist nun für die Mathematik nicht mehr akzeptabel, selbst wenn sie sich für den jeweiligen (ab jetzt: außermathematischen) Zweck bewährt hatten. Die Autorität der Tradition wird durch die Autorität der Argumenta tion abgelöst. Und damit beginnt auch eine Geschichte des Argumen tierens darüber, was jeweils als gültige Argumentation angesehen werden soll. Das Ergebnis der Euklidischen Revolution gegenüber der vorauslaufenden Pythagoreischen Mathematik ist ebenfalls viel gestaltig. Auch wenn die Platonische Philosophie sicherlich einen Ein fluss auf Stil und Struktur der Elemente hat, so erfolgt gerade hier eine extrem klare Abgrenzung von etwaigen metaphysischen Anmutun gen. Die Aufladung der Pythagoreischen Mathematik, deren Ergeb nisse jeweils auch metaphysisch interpretierbar waren, verschwindet völlig. Ebenso entfallen vielerlei Techniken und Resultate aus diesem Umfeld. Von der Prävalenz der Arithmetik – wie sie sicherlich für die Pythagoreische Mathematik konstatiert werden darf – schwingt das
67 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Pendel zur Geometrie, die auch der Euklidischen Zahlentheorie, die durchaus anspruchsvolle Resultate enthält, ihre äußere Gestalt gibt.
2.2.5 Analysis des Unendlichen — Metaphysik statt Euklidische Strenge. Der ständige Sekretär der Französischen Akademie der Wissenschaf ten Bernard le Bovier de Fontenelle (1657–1757) ist vermutlich einer der ersten, der eine wissenschaftliche Neuentwicklung als Revolution bezeichnet50, und dabei bezieht er sich auf die Infinitesimalrechnung des 17. Jahrhunderts51. In seinem Nachruf auf den Mathematiker Michel Rolle (1652–1719) charakterisiert er sie durch ihre überra schende Universalität, die elegante Kürze ihrer Beweise sowie ihre Schnelligkeit bei der Lösung schwierigster Probleme und bezeichnet sie schließlich als eine »révolution bien marquée« für die mathema tische Welt52. Auch moderne Interpreten stimmen der Diagnose zu, dass die Einführung der Analysis als revolutionäre Wende der Mathematikgeschichte zu interpretieren ist53. So zeichnet etwa Emily Grosholz dies bei Gottfried Wilhelm Leibniz (1646–1716) nach: 50 In einem neutralen, technischen Sinne war der Terminus bereits von Nicolaus Copernicus für die Umläufe bzw. Umdrehungen der Planeten verwendet worden. 51 Der zeitliche Sprung von ca. 2000 Jahren, den wir nun vornehmen, soll keineswegs besagen, dass die Mathematikgeschichte in der Zwischenzeit keine entscheidenden Weichenstellungen durchlaufen hätte. So nehmen wir im Rahmen dieses Aufsatzes – abgesehen von dieser Fußnote – innerhalb der antiken Mathematik insbesondere Archimedes und Diophant sowie die Mathematikgeschichte des Mittelalters im islamischen Kulturraum – und damit die Entwicklung der Algebra – nicht weiter zur Kenntnis. Auch wäre es durchaus lohnend zu erwägen, welch gewaltigen Spielraum die aus Indien stammende Einführung eines Zeichens für die 0 eröffnet; vgl. hierzu Brian Rotman: »Signifying Nothing: The Semiotics of Zero«, Stanford 1993. Und wir über gehen auch Descartes’ Beitrag zur Mathematikgeschichte, dessen durch Koordinaten vermittelten Brückenschlag von der Geometrie zur Arithmetik bzw. Algebra durchaus revolutionär genannt werden könnte, vgl. Paolo Mancosu: Descartes’s Géométrie and revolutions in mathematics, in: Donald Gillies (Ed.): Revolutions in Mathematics, 83–116. 52 Bernard le Bovier de Fontenelle: Éloge de M. Rolle, in: Histoire de l’Académie Royale des Sciences, (1719), 94–100. Zitiert nach J. Bernard Cohen: »Revolution in Science«, London 1985, 214. 53 Vgl. etwa Emily Grosholz: Was Leibniz a mathematical revolutionary?, in: Donald Gillies (Ed.): Revolutions in Mathematics, 117–133, sowie Giulio Giorello: The ›fine structure‹ of mathematical revolutions: metaphysics, legitimacy, and rigour. The case of the calculus from Newton to Berkeley and MacLaurin, a.a.O., 134–168.
68 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
Dieser sei 1672 mit lediglich oberflächlicher Kenntnis der Elemente des Euklid nach Paris gekommen und er habe es bereits nach vier Jahren – angeregt durch Manuskripte Blaise Pascals (1623–1662) und Diskussionen mit Christiaan Huygens (1629–1695) – mit den Grundlinien der neuen Analysis in der Tasche verlassen. Grosholz betont seine Fähigkeit zur Synthese scheinbar weit entfernter, sogar inkompatibler mathematischer Gebiete wie Geometrie, Algebra und Zahlentheorie zur Bearbeitung klassischer Probleme der Quadratur (Flächenbestimmung) und inverser Tangenten (Lösung von Differen tialgleichungen)54: »Descartes had indicated how to regard the curve as both an object of geometry and an object of algebra. Now Leibniz shows how to associate it with a differential equation, and thereby to understand it as an extrapolation from a combinatory object, a polygon. (…) [P]roblems arising in geometry, but not soluble in purely geometric terms, and problems arising in number theory concerning infinite series, not resolvable in purely arithmetic terms, both find their solution in the novel middle ground established by Leibniz’s infinitesimal calculus.«
Wesentlich für diesen mathematischen Durchbruch ist sicherlich ein neuartiger Umgang mit dem Unendlichen. An die Stelle logischer Gegensätze treten dabei kontinuierliche Übergänge zum Grenzfall, gemäß Leibniz’ Gesetz der Kontinuität wird Ruhe als ›unendlich kleine Bewegung‹, Gleichheit55 als ›unendlich kleine Ungleichheit‹, eine Kurve als ›Polygon mit unendlich vielen, unendlich kleinen Seiten‹ aufgefasst, d. h. als »äquivalent einer Unterart ihres Gegenteils«56. Auf die hierbei in Kauf genommene Widersprüchlichkeit der Begriffe Emily Grosholz, a.a.O., 125. Einer der ersten, der im Rahmen der Bemühungen um die Quadratur des Kreises darauf hinweist, dass die prinzipielle Möglichkeit einer Lösung davon abhängt, wie der Gleichheitsbegriff aufgefasst wird, ist Nikolaus Cusanus (1401–1464); vgl. hierzu Gregor Nickel: Belehrtes Nicht-Können als virtuoses Können in der Mathematik, a.a.O. 56 Leibniz an Varignon am 2.2.1702: »(…) comme équivalent à une espèce de son contradictoire«; in Ders.: »Mathematische Schriften IV.« (Hg. von C.I. Gerhard) Hildesheim 1971, 93. In einer kurzen Note relativiert er diese Aussage allerdings ein wenig: Es sei nicht in aller Strenge gültig, dass etwa Ruhe eine Unterart der Bewegung sei oder der Kreis eine Art von Polygon, es seien vielmehr Grenzfälle, die durch stetige Veränderung des Gegenteils erreichbar seien (vgl. Ders.: Rechtfertigung der Infinitesimalrechnung durch den gewöhnlichen algebraischen Kalkül, a.a.O., 104 bzw. 106. Wiederum ist Nikolaus Cusanus als Vordenker zu erwähnen, wenn es darum geht, die strikten Grenzen logischer Gegensätze durch kontinuierliche Übergänge passierbar zu machen; siehe zu Cusanus auch Abschnitt 3.2. 54 55
69 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
weist Grosholz in ihrem Resümee ausdrücklich hin: Leibniz’ unend lich-seitiges Polygon sei ein widersprüchliches Gebilde57, »(…) at once continuous and discrete, geometric and combinatorial, infinitary and finite. Perhaps a well-defined, richly structured contra diction is a good place for invention to take root. Leibniz, of course, thought just the opposite.«
In der Tat sind es ein starker metaphysischer Rückhalt und natürlich auch die Erfolge bei der Anwendung des Kalküls, die es Leibniz erlau ben, solche Widersprüche auszuhalten bzw. zu invisibilisieren. In einer beeindruckend optimistischen Passage drückt er in seinem Schreiben an Pierre de Varignon (1654–1722) vom 2. Februar 1702 die Überzeugung aus, dass Unstimmigkeiten von vornherein – gewis sermaßen durch göttliche Fügung – ausgeschlossen sind58: »Ganz allgemein kann man sagen, daß die Kontinuität überhaupt etwas Ideales ist, und es in der Natur nichts gibt, das vollkommen gleichför mige Teile hat; dafür aber wird auch das Reelle vollkommen von dem Ideellen und Abstrakten beherrscht: Die Regeln des Endlichen behalten im Unendlichen Geltung, wie wenn es Atome, – d. h. Elemente der Natur von angebbar fester Größe – gäbe, obgleich dies wegen der unbeschränkten, wirklichen Teilung der Materie nicht der Fall ist, und umgekehrt gelten die Regeln des Unendlichen für das Endliche, wie wenn es metaphysische Unendlichkleine gäbe, obwohl man ihrer in Wahrheit nicht bedarf, und die Teilung der Materie niemals zu solchen unendlichkleinen Stückchen gelangt. Denn alles untersteht der Herrschaft der Vernunft, und es gäbe sonst weder Wissenschaft noch Gesetz, was der Natur des obersten Prinzips widerstreiten würde.«
Demnach findet sich zwar Kontinuität überhaupt nur im Bereich des Idealen, und insbesondere in der Mathematik (eine euklidische Gerade wäre das Paradebeispiel), da es genau Gleichförmiges in der Natur gar nicht gibt. Im nächsten Atemzug werden die Konsequenzen dieser eigentlich zur Skepsis Anlass gebenden Feststellung jedoch gleich wieder zurückgenommen. Selbst der Bereich des Realen kann – entgegen den tatsächlichen Verhältnissen – so betrachtet werden, als gäbe es gleichartige, unteilbare materielle Einheiten fester Größe
Emily Grosholz: Was Leibniz a mathematical revolutionary?, a.a.O., 133. G. W. Leibniz: »Hauptschriften zur Grundlegung der Philosophie. Bd. I« (Übers. A. Buchenau, Hrsg. E. Cassirer), Hamburg 1966, 100, bzw. Ders.: »Mathematische Schriften IV.« Hildesheim 1971, 93. 57
58
70 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
(Atome), aber auch so, als gäbe es reale Infinitesimalien, also unend lich kleine Teile. x
M
P
y
T Brennpunkt F Leitgerade
Abbildung 1: Parabel-Tangente
Mit einem elementarisierten Beispiel möchte ich die Vorgehensweise und das Neuartige des Kalküls illustrieren. Gesucht sei z. B. die genaue Lage der Tangente PT einer Parabel in einem Punkt P (Abb. 1). Das Problem kann mittels einer mehr oder weniger aufwendigen und speziellen geometrischen Konstruktion gelöst werden, wobei die Lage der Parabel zunächst durch Brennpunkt (focus) und Leitgerade (directrix) fixiert werden müsste. Wir können aber auch die in unserer Abbildung bereits eingezeichneten Koordinaten nutzen und zuerst feststellen, dass die Koordinaten (x,y) der Punkte der Parabel durch den Zusammenhang y=x² bestimmt sind. Wir berechnen nun den Zuwachs dy, wenn wir den Wert x auf x+dx verändern: y+dy=(x+dx)² = x² + 2xdx + (dx)². Nach Abziehen von y=x2 erhalten wir dy=(x+dx)² – y = x² + 2xdx + (dx)² – x² = 2xdx + (dx)². Die Neigung der Sekante durch die Punkte (x,y) und (y+dy, x+dx) ermitteln wir schließlich als
2xdx + dx dy = dx dx
2
= 2x + dx . 71
https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Bis hierhin kann mit endlichen, festen Größen dx gerechnet wer den, die allerdings nicht 0 sein dürfen, sonst wäre der Bruch sinnlos. Nun lassen wir ›dx gegen 0 gehen‹; dabei ›geht im geometrischen Bild die Sekante in die Tangente über‹, und wir erhalten den präzisen Wert ihrer Neigung als 2x+dx=2x, da dx ›beliebig klein‹ ist. Was hier am elementaren Beispiel demonstriert wurde, erweist sich allerdings als extrem leistungsfähig und zugleich einfach zu handhaben. So können wir sofort andere Beziehungen zwischen y und x, etwa yx = 1 für die Hyperbel, voraussetzen und die Tangente für eine Fülle von Kurven nach demselben Schema bestimmen. Und schließlich kann der Bezug auf eine vorgegebene, geometrische Kurve ganz entfallen. Die dem oben zitierten Brief vorausgehende Anfrage Varignons zielte nun primär darauf, die ›infinitesimalen Größen’, auf deren vir tuoser Handhabung Leibniz’ mathematisches Kalkül basiert, genauer zu verstehen. Hier weist Leibniz zwei Fehldeutungen ab: Auch wenn er gelegentlich selbst in populärer Weise das Infinitesimale durch das Unvergleichliche erläutert habe – er illustrierte etwa das Verhältnis einer festen Größe x und einer infinitesimalen Größe dx durch das Größen-Verhältnis von Erde und Sandkorn – so seien doch Infinitesi malien einerseits keine festen endlichen Größen. Andererseits seien sie aber auch nicht schlichtweg unendlich klein oder gar 0. Sein Kalkül verwende tatsächlich nur ›gewöhnliche‹, endliche Größen, und das dx signalisiere, dass hier keine feste, sondern eine variable, von 0 verschiedene Größe gemeint sei, die allerdings so klein gewählt werden dürfe, wie man nur möchte59. Wiederum spielt es nach Leibniz eigentlich keine Rolle, ob man in dieser vorsichtigen Weise argumentiert oder gleich mit unendlich kleinen Größen rechnet, da60 »das Unendliche und das Unendlichkleine so festgegründet ist, daß alle Ergebnisse in der Geometrie, ja selbst alle Ereignisse in der Natur sich so verhalten, als ob beides vollkommene Realitäten wären.«
Mit gewissem Recht verweist Leibniz darauf, dass diese argumentative Figur bereits in den antiken Exhaustions-Verfahren, besonders prominent bei Archimedes, auftaucht (vgl. Ders.: »Hauptschriften zur Grundlegung der Philosophie. Bd. I« a.a.O., 98 bzw. 92). Diese verbleiben allerdings im geometrischen Kontext (und führen hier jeweils einen doppelten Widerspruchsbeweis), es fehlt der – viel flexiblere und allge meinere – algebraische Zugang, der dem Kalkül erst seine Durchschlagskraft verleiht. Das hat dann allerdings zur Folge, dass Grenzübergänge expliziert werden müssen. 60 A.a.O., 100. 59
72 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
Der Status der von Leibniz mit so großer Überzeugungskraft propa gierten und virtuos verwendeten Infinitesimalien bleibt allerdings umstritten. Zielsicher greift diesen der irische Philosoph und Theo loge George Berkeley (1685–1753) an – allerdings hauptsächlich mit Bezug auf Isaac Newtons (1643–1727) mathematisch äquiva lente Theorie61: »I admit that Signs may be made to denote either any thing or nothing: And consequently that in the original Notation x + o, o might have signified either an Increment or nothing. But then, which of these soever you make it signify, you must argue consistently with such its signification, and not proceed upon a double meaning: which to do were a manifest sophism. Whether you argue in Symbols or in Words, the Rules of right Reason are still the same. (…) A point therefore is considered as a triangle, or a triangle is supposed to be formed in a point. Which to conceive seems quite impossible. (…) And what are these fluxions? (…) They are neither finite quantities, nor quantities infinitely small nor yet nothing. May we not call them the ghosts of departed quantities?«
Völlig zu Recht mahnt Berkeley an, dass die Zeichen im mathemati schen Diskurs mit einer festen Bedeutung zu versehen sind, Newtons o (bzw. Leibniz’ dx) darf nicht das eine Mal eine kleine positive Größe bedeuten, das andere Mal Null. Die eigentliche Intention Berkeleys, wie sie bereits im vollen Titel klar ausgedrückt ist, war es allerdings, Angriffe auf die Theologie und ihre Rationalitätsstandards zurückzu weisen, die vor allem seitens der erfolgreichen (mathematisierten) Naturwissenschaften geäußert wurden. Hier seien unzulässige dop pelte Standards am Werk, denn die Argumentationen der Mathematik seien selbst keineswegs frei von ungerechtfertigten Glaubenssätzen. Dass Berkeley dies dann ausgerechnet mit einem ›Doppel-Standard’ beim Zeichengebrauch der Infinitesimal-Rechnung illustriert, ist allemal eine hübsche Wendung. Berkeley greift dabei ausdrücklich nicht die Ergebnisse der neuen Analysis an, wohl aber die Qualität ihrer Begründung. Die Vielzahl der Reaktionen, vor allem aus der Newton-Schule, zeigt, dass er dabei einen empfindlichen Punkt trifft. Die Verteidigungs-Bemühungen sind jedoch häufig mathematisch George Berkeley: »The analyst: or a discourse addressed to an infidel mathemati cian, wherein it is examined whether the Object, Principles, and Inferences of the modern Analysis are more distinctly conceived, or more evidently deduced, than Religious Mysteries and Points of Faith.« London 1734, 24, 57–59. 61
73 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
kaum brauchbar, Berkeley wird lediglich wortreich, aber schlicht und ohne Argument vorgeworfen, er hätte den großen Meister Newton nicht verstanden. Giulio Giorello62 schreibt Colin Maclaurin (1698– 1746) in diesem Kontext allerdings einen substanzielleren Beitrag zu; dieser habe nämlich gezeigt, wie sich Resultate Newtons in eine strikte, den Standards antiker Geometrie genügende Argumentation übersetzen ließen (entsprechend Leibniz’ Verweis auf Archimedes). Maclaurin hätte so die zunächst nur durch ungedeckte, metaphysische Annahmen gestützte mathematische Umwälzung der neuen Analysis zu einer »glorious revolution« umgestaltet, die sowohl die neuen Resultate als auch die alten Rigorositätsstandards bewahre. Dies weitet er schließlich zu einer allgemeinen These zur Entwicklung der Mathematik aus63: »In mathematics (as opposed to the empirical sciences), no good (›glorious‹) revolution causes the loss of any significant part of the old body of knowledge. (…) revolutions carried out by expert mathemati cians are, in the long run (which has to be understood as necessarily open-ended), always ›glorious‹ in the sense that they respect the laws of sound logic (…). Nevertheless, mathematical revolutions do call for some ›loss‹, but this loss pertains not so much to the old rigour but to the metaphysical ideas developed during the ›bloody‹ revolution. These metaphysical ideas may not be too clear, but they are certainly useful in shortening the chains of reasoning and advancing new ideas.«
In der Tat ersetzen Leibniz und Newton die etablierte Sicherheit einer vergleichsweise strengen, axiomatisch verankerten geometrischen Konstruktion durch einen deutlich flexibleren und viel einfacher zu handhabenden algebraischen Infinitesimal-Kalkül, dessen Grundla gen aber zunächst umstritten sind. Genauer gesagt: Es ist umstritten, welche präzise Bedeutung einzelne Konzepte bzw. Zeichen des Kal küls haben (sollen). Dass Argumentationen der neuen Analysis auf Exhaustionsverfahren, die sich an der Euklidischen Strenge orientie ren, zurückführbar sind, erhöht natürlich das Zutrauen. Allerdings macht es gerade die Stärke der Analysis aus, dass mühsame geo metrische Konstruktionen vermieden werden können, und vor allem auch, dass ganz neue Objekte (etwa eine unübersehbare Fülle von transzendenten Funktionen y=f(x)) und Verfahren ins Spielfeld der 62 G. Giorello: The ›fine structure‹ of mathematical revolutions: metaphysics, legiti macy, and rigour. a.a.O., 153. 63 G. Giorello, a.a.O., 159.
74 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
Mathematik rücken. Der Infinitesimal-Kalkül ist dabei viel zu frucht bar, um seine Weiterentwicklung wegen (vorübergehender?) Schwie rigkeiten bei der Exaktheit auszusetzen. Für die Gründergeneration sind metaphysische Überzeugungen von zentraler Bedeutung, um die eventuell noch fehlenden innermathematischen Abstützungen zu kompensieren, späteren Generationen genügen die mathematischen Erfolge des Kalküls. Die Form der Analysis des 19. Jahrhunderts – hier sind vor allem Augustin-Louis Cauchy (1789–1857) und Karl Theodor Wilhelm Weierstraß (1815–1897) als Begründer zu nennen – kann die strittigen Infinitesimalien schließlich vermeiden, während sie in der sogenannten Non-Standard-Analysis im 20. Jahrhundert eine ganz neue, mathematisch präzisere und klarere Bedeutung erlan gen.
2.2.6 Nichteuklidische Geometrien. g
S
b h
Abbildung 2: Parallelen-Postulat
Mindestens so prägend für das Selbstverständnis der Mathematik wie die Entwicklung der Analysis im ausgehenden 17. und beginnenden 18. Jahrhundert ist die Er-findung von möglichen geometrischen Räumen, die den Euklidischen Rahmen sprengen, zu Beginn des 19. Jahrhunderts durch Carl Friedrich Gauß (1777–1855), Nikolai Iwano witsch Lobatschewski (1792–1856) und János Bolyai (1802–1860). Das Parallelenaxiom – zwei Geraden, die eine dritte so schneiden, dass die beiden innen liegenden Winkel zusammen weniger als zwei rechte sind, müssen sich ihrerseits auf dieser ›Innenseite‹ schneiden (Abb. 2) – in den Elementen des Euklid, das dieser übrigens auffällig spät in der Abfolge der Theoreme verwendet, hatte für Jahrhunderte Aufmerksamkeit erregt. Man war der Überzeugung, dieser ›anschau lich so klare‹ Sachverhalt müsste sich aus den übrigen Axiomen und Postulaten beweisen lassen. Erst nach mühevollen, aber vergeblichen
75 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Versuchen – der Briefwechsel zwischen Farkas Bolyai und seinem Sohn János gibt davon ein besonders sprechendes Zeugnis – gelingt die Lösung auf eine verblüffende Weise. Das Parallelenaxiom ist überhaupt nicht beweisbar, aber auch nicht widerlegbar, da es von den übrigen Voraussetzungen (Axiomen bzw. Postulaten) der Eukli dischen Geometrie unabhängig ist. Es sind also alternative, jeweils in sich konsistente, aber einander widersprechende Geometrien denk bar. So gilt dann etwa der Satz von der Winkelsumme im Dreieck gerade nur in der euklidischen Geometrie (mit Parallelenaxiom), während die Winkelsumme eines Dreiecks in der hyperbolischen kleiner als zwei rechte und in der sphärischen Geometrie – in diesen ›alternativen Geometrien‹ wird das Parallelenaxiom jeweils durch ein diesem widersprechendes Axiom ersetzt – größer als zwei rechte ist. Ein solcher Satz ist also nicht schlechthin gültig, sondern nur bezogen auf das vorausgesetzte geometrische Axiomen-System (Abb. 3).
Winkelsumme = 180°
Elliptische (Krümmung > 0)
Euklidische (Krümmung = 0)
Winkelsumme < 180° Hyperbolische (Krümmung < 0)
Winkelsumme > 180°
Winkelsumme = 180°
Winkelsumme < 180°
Winkelsumme > 180°
Abbildung 3: Alternative Geometrien Lässt man das Parallelenaxiom ersatzlos weg, erhält man die soge nannte ›absolute Geometrie‹, in der weniger Theoreme beweisbar sind (z. B. kein Satz über die Winkelsumme im Dreieck), die dann aber in allen Varianten – mit Parallelenaxiom oder einer Alternative – gelten. Dieses Phänomen erscheint wenig überraschend, wenn man die Axiome der Geometrie als willkürliche Voraussetzungen auffasst, es ist jedoch extrem irritierend, wenn man sie als explizierte DenkNotwendigkeiten versteht oder als formalen Ausdruck der Grundge gebenheiten des mathematisch zu beschreibenden, unabhängig von dieser Beschreibung existierenden Raums. Die Geometrie stellt sich im Gegensatz zur zweiten Sicht – jedenfalls für die Mathematik
76 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
– als verzweigtes System von Geometrien heraus und die Setzung der Prinzipien (der Axiome bzw. Postulate) kann in gewisser Weise nach freier Wahl erfolgen. Die Mathematik löst sich damit stärker als zuvor von der Physik; Geometrie ist nicht mehr als Theorie des einen ›wirk lichen Raumes‹ aufzufassen, sondern eher als Theorie ›möglicher Räume‹, wobei die Denkmöglichkeit nur innere Konsistenz bedeutet, d. h. dass die Prinzipien einander nicht widersprechen. Verschoben wird damit auch die Grenze zwischen einem mathematischen Bereich, in dem Erkenntnisse zwar a priori gelten, dessen Gegenstand ›mathe matischer Raum‹ jedoch einen fraglichen Status hat, und einem Bereich ›wirklicher Raum‹, über den nur noch durch Erfahrung etwas zu ermitteln ist. Dass die Überzeugung, der legitime Raum der Geo metrie sei dreidimensional und euklidisch, extrem fest verwurzelt war, zeigt die berühmte Bemerkung aus einem Brief von Carl Friedrich Gauß, in dem er – vermutlich zu Recht – auf das erwartbare Unver ständnis der Kollegen (der Böotier) hinweist: »Auch über ein anderes Thema, das bei mir schon fast 40 Jahre alt ist, habe ich zuweilen in einzelnen freien Stunden wieder nachgedacht; ich meine die ersten Gründe der Geometrie (…). Auch hier habe ich manches noch weiter consolidirt, und meine Ueberzeugung, dass wir die Geometrie nicht vollständig a priori begründen können, ist womög lich noch fester geworden. Inzwischen werde ich wohl noch lange nicht dazu kommen, meine sehr ausgedehnten Untersuchungen darüber zur öffentlichen Bekanntmachung auszuarbeiten, und vielleicht wird diess auch bei meinen Lebzeiten nie geschehen, da ich das Geschrei der Boeoter scheue, wenn ich meine Ansicht ganz aussprechen wollte.«
Der Mathematikhistoriker Herbert Mehrtens charakterisiert die dra matische Verschiebung der relevanten Begrifflichkeit treffend64: »Das alte ›Parallelen-Problem‹ ist nach dem Sprung zur nichteukli dischen Geometrie nicht mehr formulierbar. Die Frage ›Kann man das Parallelenaxiom der euklidischen Geometrie beweisen?‹ hat einen neuen Sinn, weil ›Geometrie‹ und ›Axiom‹ einen neuen Sinn haben. Beide Begriffe sind keine mathematischen Begriffe in dem Sinn wie es ›Kreis‹, ›Gerade‹, ›Rechteck‹, ›Fläche‹ sind. Sie enthalten epistemologi sche Perspektiven, solange sie nicht selbst mathematisiert sind.«
64
Herbert Mehrtens: »Moderne Sprache Mathematik«, Frankfurt 1990, 115.
77 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
2.2.7 Georg Cantors transfinite Mengentheorie. Georg Cantor (1845–1918) kann mit Recht als Begründer der »moder nen Mathematik« bezeichnet werden65. Mit seiner transfiniten Men genlehre beginnt ein dramatischer Themen- und Stilwechsel in der Mathematik, sicherlich ebenso prägend wie die Erfindung der Infi nitesimalrechnung durch Newton und Leibniz. Und bezeichnender weise handelt es sich auch hier um eine ›Mathematik des Unendli chen‹. Cantors entscheidende Er-findung war es, dass sich jenseits der endlichen Mengen eine (sogar unendliche) Hierarchie ›verschie den großer‹ unendlicher Mengen definieren lässt und dass diese in einer schlüssigen und fruchtbaren mathematischen Theorie behandelt werden können66. Seine ursprüngliche Motivation war allerdings nicht das anlasslose Streben nach einem abstrakten und universellen Grundbegriff, es sind vielmehr relativ handfeste Probleme der ange wandten Mathematik, die die ersten Schritte ins Transfinite nahele gen67 und an die sich erst später eine umwälzende Eigendynamik anschließt. Der Mengenbegriff – mehr oder weniger formal bzw. axiomatisch eingeführt – bildet bis heute das zentrale Rahmenkon zept für nahezu alle mathematischen Begriffe68. Unabhängig davon hat sich die Mengentheorie selbst als (relativ kleine und spezielle) Subdisziplin mit ihren eigenen Themen etabliert. Zeit seines Lebens musste Cantor jedoch – nicht zuletzt gegen Skepsis und offene Kritik vieler Fachkollegen69 – die Legitimität der neuen Konzeption rechtfertigen, und das heißt vor allem seinen Umgang mit dem Konzept der Unendlichkeit. Hierbei war es für 65 Zum Begriff einer »modernen Mathematik«, deren Ära er ungefähr bis in die 1990er Jahre reichen lässt, vgl. H. Mehrtens: »Moderne Sprache Mathematik«, insbesondere die Einleitung 7ff. 66 Für eine ausführlichere Darstellung der Mengentheorie und der metaphysischen Überlegungen Georg Cantors vgl. Gregor Nickel: Kurzschlüsse oder fruchtbare wech selseitige Irritationen – Begegnungen von Mathematik und Theologie bei Nikolaus von Kues und Georg Cantor, in: G. M. Hoff / N. Korber (Hrsgg.), Interdisziplinäre Forschung? Annäherungen an einen strapazierten Begriff, Freiburg 2017, 150–187. 67 Vergleiche hierzu etwa Walter Purkert / Hans Joachim Ilgauds: »Georg Cantor«, Basel 1987, 29. 68 Allgemeinere bzw. alternative Konzepte – wie etwa die Kategorientheorie – haben bislang (noch?) keine derartig dominierende Bedeutung für die mathematische Begriffsbildung erlangt. 69 Zur Kontroverse mit Leopold Kronecker, die hier als »Glaubenskampf« zwischen unvereinbaren Welten interpretiert wird, vgl. Herbert Mehrtens, a.a.O., 190.
78 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
ihn selbstverständlich, dass eine solche Rechtfertigung letztlich auf metaphysischem Terrain erfolgen muss. In einem ersten Schritt kann er allerdings noch relativ nah an der Mathematik argumentieren. Spätestens mit der Infinitesimal-Analysis hatte sich nämlich ein sou veräner Umgang mit dem Konzept eines potenziellen Unendlichen eingebürgert: Funktionswerte durften etwa ›beliebig‹ oder ›bis ins Unendliche‹ wachsen, wie z. B. die Werte einer Hyperbelfunktion an ihrer Polstelle, und auch die natürlichen Zahlen wurden als potenziell unendlich viele angesehen, die demnach ›beliebig‹ groß sein können. Nun argumentiert Cantor, dass jeder, der ein solches potenzielles Unendliches in der Mathematik für unverzichtbar hält, notwendiger weise auch ein aktual Unendliches akzeptieren bzw. voraussetzen muss. Denn andernfalls würde die »feste Unterlage« fehlen: eine Funktion mit potenziell unendlich großen Werten muss demnach einen aktual unendlichen Wertevorrat haben, aus dem die immer größeren Werte herausgenommen werden können. Ebenso könnten natürliche Zahlen nicht beliebig groß werden, wenn es nicht schon ›vorab‹ eine aktual unendlich große Menge von Zahlen ›gäbe‹70: »Unterliegt es nämlich keinem Zweifel, daß wir die veränderlichen Größen im Sinne des potentiellen Unendlichen nicht missen können, so läßt sich daraus auch die Notwendigkeit des Aktual-Unendlichen folgendermaßen beweisen: Damit eine solche veränderliche Größe in einer mathematischen Betrachtung verwertbar sei, muß strenggenom men das ›Gebiet‹ ihrer Veränderlichkeit durch eine Definition vorher bekannt sein; dieses ›Gebiet‹ kann aber nicht selbst wieder etwas Veränderliches sein, da sonst jede feste Unterlage der Betrachtung fehlen würde; also ist dieses ›Gebiet‹ eine bestimmte aktual-unendli che Wertemenge. So setzt jedes potentiale Unendliche, soll es streng mathematisch verwendbar sein, ein Aktual-Unendliches voraus.«
Cantor erschließt damit der mathematischen Analyse und Konstruk tion einen ganz neuen Bereich von Gegenständen: die transfiniten Mengen. Und relativ schnell erhält er paradox erscheinende Resultate. So gilt das Euklidische Axiom, dass das Ganze stets größer ist als sein Teil, nicht mehr: Die Menge der Quadratzahlen ist ›genauso groß‹ (gleichmächtig) wie die der natürlichen Zahlen; beide Men gen lassen sich Element für Element einander zuordnen, und auch 70 Georg Cantor: Mitteilungen zur Lehre vom Transfiniten. Zeitschrift für Philosophie und philosophische Kritik 91 (1887); vgl. Cantor: »Gesammelte Abhandlungen«, Hg. von E. Zermelo, Hildesheim 1962, 410ff.
79 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
die natürlichen Zahlen und die scheinbar viel größere Menge aller rationalen Zahlen, d. h. aller Brüche sind gleichmächtig (Cantors erstes Diagonalargument). Mengen, die gleichmächtig zur Menge der natürlichen Zahlen sind, lassen sich vermittels einer 1:1-Zuordnung ›abzählen‹, also Element für Element wie in einer durchnummerierten Liste aufführen. Es stellt sich nun heraus, dass nicht alle unendlichen Mengen in dieser Weise abzählbar sind: Cantor kann zeigen, dass etwa das Kontinuum der reellen Zahlen nicht abgezählt werden kann (Cantors zweites Diagonalargument71) und dass sich eine unendliche Hierarchie immer größerer, d. h. echt mächtigerer Mengen angeben lässt. Hier muss also – und damit verletzt Cantor scheinbar das ›meta physische Theorem‹ von der Einzigkeit des Unendlichen – innerhalb der unendlichen Mengen der Größe nach differenziert werden72: »Bei allen Philosophen fehlt jedoch das Prinzip des Unterschiedes im Transfinitum, welches zu verschiedenen transfiniten Zahlen und Mächtigkeiten führt. Die meisten verwechseln sogar das Transfinitum mit dem seiner Natur nach unterschiedslosen höchsten Einen, mit dem Absoluten, dem absoluten Maximum, welches natürlich keiner Determination zugänglich und daher der Mathematik nicht unterwor fen ist.«
Offenbar war es für die Zeitgenossen schwierig zu unterscheiden zwi schen einem ›unbestimmten‹, potenziellen Unendlichen und dem fest bestimmten, aktual Unendlichen Cantors, das aber dennoch kleiner oder größer als ein anderes aktual Unendliches und in diesem Sinne ›vermehrbar‹ sein kann. Wichtig ist für Cantor also, ein vielgestaltiges Aktual-Unendliches mathematisch behandeln zu können, ohne es mit dem Absoluten der Metaphysik zu identifizieren. Er unterscheidet dabei drei Stufen des Aktual-Unendlichen73, »(…) erstens, sofern es in der höchsten Vollkommenheit, im völlig unabhängigen außerweltlichen Sein, in Deo realisiert ist, wo ich es Absolut Unendliches oder kurzweg Absolutes nenne; zweitens, sofern es in der abhängigen, kreatürlichen Welt vertreten ist; drittens, sofern es als mathematische Größe, Zahl oder Ordnungstypus vom Denken in abstracto aufgefaßt werden kann. In den beiden letzten Beziehungen, wo es offenbar als beschränktes, noch weiterer Vermehrung fähiges 71 Eine elementar zugängliche Version gibt Herbert Mehrtens: »Moderne Sprache Mathematik«, a.a.O., 18. 72 Georg Cantor: »Gesammelte Abhandlungen«, A.a.O., pp. 391. 73 Georg Cantor: »Ges. Abhandlungen«, a.a.O., 378.
80 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
und insofern dem Endlichen verwandtes A.-U. sich darstellt, nenne ich es Transfinitum und setze es dem Absoluten strengstens entgegen.«
Wenn man Cantors durchaus plausible Argumentation für die Mathe matik akzeptiert und die Theoriebildung konsequent weiterverfolgt, so liegt es nahe, das gesamte Universum seiner Mengentheorie als ›Menge aller Mengen‹ auszuweisen, also die »feste Unterlage« der Mengentheorie selbst anzugeben und mathematisch zu untersuchen. Dabei stellt sich nun aber ziemlich schnell heraus, dass diese Begriffs bildung in sich widersprüchlich ist74. Als illustrative Analogie des Phänomens könnten wir N als die ›Anzahl aller (natürlichen) Zahlen‹ definieren und versuchen, dieses N als Zahl zu behandeln. Dann wäre N einerseits größer als jede andere Zahl, die durch N gezählt wäre, andererseits könnte man aber zu N noch 1 addieren, und es gölte dann N < N +1 (wie für eine jede Zahl). Mit N kann also nicht konsistent gerechnet werden, N kann nicht widerspruchsfrei als Zahl behandelt werden. Eine ›absolute Grundlegung‹ der Mengentheorie stößt somit auf tiefliegende Schwierigkeiten. Zugleich aber muss die hier auftauchende Frage nach der Konsistenz auf Cantors gesamte Theorie ausgeweitet werden: Ist es denkbar, dass implizit enthaltene Widersprüche nur noch nicht offenbar geworden sind? In einem Brief an seinen Freund und Kollegen Richard Dedekind (1831–1916) radikalisiert Cantor diese Frage noch: Selbst für endliche Zahlen und Mengen sei ungeklärt, ob sie widerspruchsfrei gedacht werden können. Seine Antwort in beiden Fällen ist dann ebenso einfach wie optimistisch: Die Konsistenz der endlichen Zahlbegriffe sei ein Axiom der klassischen Arithmetik, und von genau dem gleichen Status wie die Annahme der Konsistenz von Cantors transfiniten Mengen. Seine starke platonistische Überzeugung in Bezug auf die mathematischen Gegenstände – insbesondere seine transfiniten Mengen – ermöglicht es ihm, unbeeindruckt von den auftretenden Antinomien die Theorie weiterzuentwickeln. Im Gegensatz zu vielen Zeitgenossen – allen voran der Logiker Gottlob Frege (1848–1925) – war für Cantor das Auftreten der Widersprüche ein durchaus erwartetes, ein geradezu willkommen geheißenes Phänomen75. Anstatt an den Grundfesten 74 Um die Wende zum 20. Jahrhundert werden diverse Varianten dieser Antinomie diskutiert, die bekannteste geht auf Bertrand Russell (1872–1970) zurück. 75 Er kann diese sogar mathematisch fruchtbar machen, wenn er die ›Vollständigkeit‹ seiner transfiniten Kardinalzahlen-Reihe durch indirekten Beweis zeigt, vgl. Gregor Nickel: Kurzschlüsse oder fruchtbare wechselseitige Irritationen, a.a.O., 169ff.
81 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
der Mathematik zu zweifeln, hält er es für notwendig, dass die Mathe matik ›am Rande‹ auf einen widersprüchlichen Bereich verweist76: »Das Transfinite mit seiner Fülle von Gestaltungen und Gestalten weist mit Notwendigkeit auf ein Absolutes hin, auf das ›wahrhaft Unendliche‹, (…) welches als absolutes Maximum anzusehen ist. Letzteres übersteigt gewissermaßen die menschliche Fassungskraft und entzieht sich namentlich mathematischer Determination.«
Für die weitere Entwicklung der Mathematik sind die Überlegungen Cantors kaum hoch genug einzuschätzen. Zunächst begründet er mit seiner Theorie der transfiniten Ordinal- und Kardinalzahlen77 ein völlig neues, bis heute lebendiges, wenn auch eher kleines und ›exotisches‹ Forschungsgebiet. Was bei Cantor als Fortsetzung der Arithmetik ins Transfinite beginnt – er will zunächst nur ›mit trans finiten Zahlen rechnen‹ – erschließt einen ganz neuen Gegenstands bereich mit ganz eigener Methodik. Viel wichtiger ist allerdings, dass er damit für die meisten anderen klassischen und modernen mathematischen Subdisziplinen bis heute eine Rahmentheorie zur Verfügung stellt, die auf der basalen Grundrelation ›x ist Element von M‹ basiert. Bemerkenswerterweise macht er dabei eine uralte, (Neu-)Platonische Grund-Struktur für die Mathematik fruchtbar: Seiendes und Denkbares beruhen demnach stets darauf, dass eine Vielheit Einheit ist bzw. als Einheit aufgefasst werden kann78. Die Funktion der Mengentheorie für die anderen mathematischen Sub disziplinen besteht zunächst darin, dass diese ihre ›Gegenstände‹ als mehr oder minder kompliziert gebildete Mengen definieren kön nen. Dabei werden (in der Regel relativ elementare) mengentheoreti sche Konstruktionsprinzipien verwendet. Die Mengentheorie kommt insofern zu Beginn als Referenz- bzw. Ankerpunkt ins Spiel. Eher sel ten werden in der späteren Entfaltung spezielle mengentheoretische Resultate oder Argumentationsprinzipien verwendet, am ehesten
Georg Cantor: »Gesammelte Abhandlungen.« a.a.O., 405. Im transfiniten Bereich wird zudem deutlich, dass sich der ordinale und der kardinale Aspekt von ›Zahlen‹ wesentlich voneinander unterscheiden. 78 Vgl. Gregor Nickel: Kurzschlüsse oder fruchtbare wechselseitige Irritationen, a.a.O. sowie Gregor Nickel: Geist und Zahl (De mente c. 6), in: Isabelle Mandrella (Hrsg.): Nicolaus Cusanus: Der Laie über den Geist / Idiota de mente, Berlin/Boston 2021, 107–130. 76
77
82 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
wohl das Auswahlaxiom79 bzw. das dazu äquivalente Lemma von Zorn. Von der unendlichen Hierarchie transfiniter Kardinalzahlen werden eigentlich nur die ersten beiden Stufen verwendet; dabei ist allerdings der Unterschied zwischen abzählbarer und überabzählbarer Mächtigkeit von größter Bedeutung für Analysis und Maßtheorie. Die alte Frage nach einer adäquaten mathematischen Theorie des Kontinuums bzw. der reellen Zahlen80 kann schließlich mit Hilfe der mengentheoretischen Sicht ganz neu beantwortet werden, wobei auf ihrer Basis zumindest Topologie, (klassische, non-standard und konstruktive) Analysis, Maßtheorie und Algebra ihre eigene Perspek tive beitragen. Es zeigt sich eine überaus reichhaltige Struktur, die die Charakterisierung des Kontinuums als eines der beiden großen Labyrinthe für den menschlichen Geist durch Leibniz als durchaus passend erscheinen lässt81. Cantors Konzeption ist in gewisser Weise so erfolgreich, dass sie alternative Konzepte bzw. Vorläufer fast vollständig verdrängt82. Ins besondere werden die Überlegungen Bernard Bolzanos (1781–1848) zu einer mathematischen Theorie des Unendlichen nicht weiterge führt83. Und auch Karl Weierstraß’ (1815–1897) durchaus schlüssige und vielversprechende Theorie der reellen Zahlen gerät nahezu in Vergessenheit. Vor allem verschwindet der Begriff der Größe aus dem mathematischen Diskurs, der bis dahin gemeinsam mit dem Zahlbegriff die klassisch-antike Zweiteilung in Geometrie und Arith metik repräsentiert hatte84. Nachdem sich die Mengenlehre – in
79 Wiederum findet sich eine gut lesbare Elementarisierung in Herbert Mehrtens: »Moderne Sprache Mathematik«, a.a.O., 145. 80 Cantor selbst macht zur Konstruktion der reellen Zahlen aus ganzen Zahlen und Brüchen einen Vorschlag, der gemeinsam mit Richard Dedekinds alternativer und in gewissem Sinne äquivalenter Konstruktion bis heute zum Lehrbuchkanon gehört. 81 Einige Anmerkungen hierzu in Gregor Nickel: Vorausgesetzt, ein Beweis überzeugt – Aspekte mathematischen Denkens, in: Ulrich Lüke / Georg Souvignier (Hrsgg.): Wie objektiv ist Wissenschaft? Darmstadt 2017, 124–139. 82 Einen höchst interessanten Hinweis auf den späteren Versuch, eine alternative – ›ontologisch sparsamere‹ – Mengentheorie zu etablieren, diskutiert Herbert Breger: A restoration that failed: Paul Finsler’s theory of sets, in: Donald Gillies (Ed.), a.a.O., 265–305. 83 Vgl. Bernard Bolzano: »Paradoxien des Unendlichen«, Leipzig 1851. 84 Vgl. die Anmerkung in Herbert Mehrtens: »Moderne Sprache Mathematik«, a.a.O., 43: »In einer genaueren Geschichte der Mathematik des 19. Jahrhunderts müßte der langsame Bedeutungsverlust dieses Konzepts [der Größe G.N.] ein zentra les Thema sein.«
83 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
ihrer späteren, axiomatisierten Gestalt – durchgesetzt hatte, werden zudem Cantors metaphysische Überlegungen und Argumente zum Unendlichkeitsbegriff obsolet (jedenfalls für die Mathematik), die innermathematische Fruchtbarkeit der Konzeption genügt für die Akzeptanz. Für das Selbstverständnis der Mathematik wird allerdings die durch Cantor nachdrücklich geforderte Autonomie immer wich tiger85: »Die Mathematik ist in ihrer Entwickelung völlig frei und nur an die selbst-redende Rücksicht gebunden, daß ihre Begriffe sowohl in sich widerspruchslos sind, als auch in festen durch Definitionen geordne ten Beziehungen zu den vorher gebildeten, bereits vorhandenen und bewährten Begriffen stehen.«
Die von Cantor beanspruchte, durch die Konsistenz- und Traditions forderung gestaltete Freiheit der Mathematik entfaltet im 20. Jahr hundert ihr enormes kreatives Potenzial86. Anzumerken ist schließ lich, dass es noch immer Klärungsbedarf in Bezug auf die Konsistenz der Mengentheorie gibt. So hat Felix Hausdorffs (1868–1942) Bemer kung im Vorwort zum ersten Lehrbuch zur Mengentheorie bis heute kaum etwas von ihrer Aktualität eingebüßt87: »Die Mengenlehre ist das Fundament der gesamten Mathematik; (…) Analysis und Geometrie arbeiten in Wirklichkeit (…) beständig mit unendlichen Mengen. Über das Fundament dieses Fundaments, also über eine einwandfreie Grundlegung der Mengenlehre selbst ist eine vollkommene Einigung noch nicht erreicht worden.«
2.2.8 Die ›Grundlagenkrise‹ der Moderne – mathematische Existenz. In der Tat entzündet sich um die Wende zum 20. Jahrhundert u. a. an der Frage, in welcher Weise mit den unendlichen Mengen Can tors umzugehen ist, eine intensive Debatte, die hier allerdings auch nicht ansatzweise adäquat dargestellt werden kann. Wir werden nur wenige Aspekte akzentuieren. Dabei folgen wir in Teilen der überaus 85 Georg Cantor: Über unendliche lineare Punktmannigfaltigkeiten Nr. 5, Math. Anna len 21 (1883), 51–58. 86 Vorgedacht und begründet ist sie allerdings bereits im 15. Jahrhundert durch Nikolaus Cusanus, vgl. Gregor Nickel: Kurzschlüsse, a.a.O. 87 Felix Hausdorff: »Grundzüge der Mengenlehre«, Leipzig 1914.
84 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
instruktiven Darstellung von Herbert Mehrtens88, der die Debatte längs der Unterscheidung »Moderne« vs. »Gegenmoderne« in vielen Verästlungen und Verknüpfungen nachzeichnet. Das Leitmotiv ist dabei seine Charakterisierung der (modernen) Mathematik89: »Mathematik ist eine Sprache und die Arbeit an ihr, darum kann sich die Identität nicht an einem ›Gegenstand‹ herstellen, und darum auch bleiben die ›Grundlagen‹ so unklar und umstritten.«
Unter anderem aufgrund der Erfahrungen in zwei hier bereits darge stellten Gebieten wird die Frage nach dem ›Gegenstandsbezug‹ der Mathematik in der Tat drängend: nicht-euklidische Geometrien und transfinite Mengen. In beiden Bereichen konnte die Frage nach der Konsistenz – also der allgemein akzeptierten Mindestbedingung für ein ›mathematisches Bürgerrecht‹ – durch Axiomatisierung und eine verstärkte Formalisierung bearbeitet, wenn auch nicht abschließend geklärt werden. Das Paradigma hierzu erscheint 1899: David Hilberts Grundlagen der Geometrie. Darin gibt Hilbert (1862–1943), der ton angebende Mathematiker der ersten Hälfte des 20. Jahrhunderts, einen formalisierten axiomatischen Rahmen für die unterschiedlichen Varianten der Geometrie (diese zweigen von der absoluten Geometrie durch Hinzunahme der passenden Variante an der Stelle des Paral lelenaxioms ab). Die Frage nach der ›wahren Geltung‹ einer dieser Geometrien, die etwa für Frege so dringlich ist, stellt er nicht; dafür steht jedoch die Frage nach der Konsistenz des Axiomensystems im Raum, und diese kann Hilbert im Sinne einer relativen Konsistenz klären: Sofern die bereits 1889 durch Giuseppe Peano (1858–1932) axiomatisierte Arithmetik widerspruchsfrei ist, sind dies auch die Geometrien. Es liegt hier ein frühes Beispiel für einen später so bezeichneten »meta-mathematischen« Beweis vor: Aussagen über Mathematik – hier über die Konsistenz der Geometrien – werden in mathematische Aussagen übersetzt und mit mathematischer Metho dik bewiesen. Ein ähnliches Vorgehen schlägt Hilbert später für die Mengentheorie vor: zunächst eine strenger formale Fassung von Cantors Rahmen-Setzung, die die offenkundigen, widersprüchlichen Mengenbildungen von vornherein ausschließt90, und anschließend Herbert Mehrtens: »Moderne Sprache Mathematik«, a.a.O. A.a.O., 8. 90 Dies erledigen u. a. Hilberts Schüler Ernst Friedrich Ferdinand Zermelo (1871– 1953) zusammen mit Adolf Abraham Halevi Fraenkel (1891–1965) und in alternativer
88 89
85 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
einen Beweis der Konsistenz dieser Axiomatik. Dabei geht es Hil bert weniger um die Mengentheorie als solche als vielmehr um die reichhaltigen innermathematischen Anwendungsmöglichkeiten, die in immer mehr Subdisziplinen deutlich wurden91: »Aus dem Paradies, das Cantor uns geschaffen, soll uns niemand vertreiben können.«
Aus verschiedenen Motiven und mit unterschiedlichen Argumenta tionen erfährt dieses Programm eine teilweise vehemente Kritik. Leopold Kronecker (1823–1891) hatte bereits gegen Cantor ins Feld geführt, dass alle mathematischen Gegenstände möglichst konkret, letztlich am besten in der Form von natürlichen Zahlen berechenbar sein müssten. Damit seien dessen Erkundungen im Transfiniten Ausflüge in ein Utopia. Die Beziehung von Wahrheit und Wider spruchsfreiheit wird in einem Briefwechsel zwischen Frege und Hil bert thematisiert, wobei Frege insistiert, dass Wahrheit der Grund für Widerspruchsfreiheit sei. Ein Axiomensystem soll demnach wahre Aussagen über einen von diesem unabhängigen Gegenstand enthal ten, und daher muss es (zumindest!) widerspruchsfrei sein. Hilbert sieht dies »immer gerade umgekehrt«92: »Wenn sich die willkürlich gesetzten Axiome nicht einander widerspre chen mit sämtlichen Folgen, so sind sie wahr, so existieren die durch die Axiome definirten Dinge. Das ist für mich das Criterium der Wahrheit und Existenz.«
Die Verbindung zu einem prä-formalen Bereich ist nach Hilbert allen falls heuristischer Art; Axiome dürfen eigentlich in völliger Unabhän gigkeit von jeglichem von ihnen unabhängigen Gegenstand gesetzt werden, über den sie sprechen müssten. Solange ihre Konsistenz gesichert ist, schaffen sie damit einen legitimen Bereich existierender mathematischer Gegenstände. Wenn in seinen Grundlagen der Geo metrie von ›Punkten‹, ›Geraden‹, ›Ebenen‹ etc. die Rede ist, dann ist dies nur noch eine Referenz gegenüber der mathematischen Tradition, aber keinesfalls eine irgendwie geartete ontologische Vorfestlegung. Was immer dann den Axiomen genügt, für das gelten auch die Weise John von Neumann (1903–1957), Paul Bernays (1888–1977) und Kurt Friedrich Gödel (1906–1978). 91 David Hilbert: Über das Unendliche, Mathematische Annalen 95 (1925), 170. 92 Schreiben David Hilberts an Gottlob Frege vom 29.12. 1899 in Gottlob Frege: »Wissenschaftlicher Briefwechsel«, Hamburg 1976, 66.
86 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
aus den Axiomen abgeleiteten Theoreme. Radikalisiert man dieses Programm, so werden aus Zeichen, die auf wie-auch-immer-geartete Gegenstände verweisen, reine, leere Zeichen, und aus beweisbaren Sätzen über diese Gegenstände werden formale Regeln zur Ableitung von Zeichenketten. Es ist dann gar nicht mehr so einfach anzugeben, was ein ›Widerspruch‹ in einem solchen rein formalen System über haupt sein soll. In seiner axiomatischen Behandlung der Arithmetik führt Hilbert etwa als einen Stellvertreter die formale Zeichenkette 0 ≠ 0 ein. Gemäß dem meta-mathematischen Prinzip des ex falso quodlibet wird Widersprüchlichkeit mit der formalen Ableitbarkeit dieser Zeichenkette identifiziert. Mit dem meta-mathematischen Blick ›von außen‹ soll nun streng mathematisch gezeigt werden, dass in dem formalen System, das die Arithmetik kodifiziert, die obige Zeichenkette niemals abgeleitet werden kann. Der Vergleich mit einem Spiel wie Schach oder Mühle liegt hier nahe: Die Zeichenketten entsprechen Stellungen auf dem Spielbrett, und die Ableitungsregeln entsprechen den erlaubten Zügen des Spiels. Ein meta-mathemati scher Satz entspräche demnach beispielsweise einem Satz, der die Erreichbarkeit bestimmter Spiel-Stellungen durch gültige Spielzüge ausschließt. Zu einer solchen Ausdeutung der ›Hilbertschen Mathe matik‹ passt die Kritik des großen französischen Mathematikers Henri Poincaré (1854–1912)93: »Die mathematische Wissenschaft nimmt, indem sie streng wird, den Charakter des Künstlichen an, der alle Welt befremdet; sie vergißt ihren historischen Ursprung; man sieht, wie die Fragen gelöst werden können, man sieht nicht mehr, wie und warum sie gestellt wurden. Das beweist uns, daß die Logik nicht genügt, daß die demonstrative Wissenschaft nicht die ganze Wissenschaft ist, und daß die Intuition ihre Rolle als Ergänzung, ich möchte sagen als Gegengewicht oder als Gegengift, beibehalten muss. (…) Ohne sie wüßten sich die jungen Geister nicht in den Sinn der Mathematik zu finden, sie würden sie nicht lieben lernen und darin nichts sehen als ein leeres Wortgefecht.«
Mehrtens sieht bei Poincaré, der die Geltung der Resultate und den Erfolg der Methode Hilberts im Wesentlichen akzeptieren muss, kaum mehr als einen resignativen Einspruch, eine Mahnung, die Intuition als motivierendes Moment nicht gänzlich außer Acht zu lassen. Schärfer und schließlich auch bis hin zu mathematischen 93
Henri Poincaré: »Wissenschaft und Hypothese«, Leipzig 1904, 18.
87 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Konsequenzen systematischer ist die Kritik, die Luitzen Egbertus Jan Brouwer (1881–1966) artikuliert. In seiner Amsterdamer Antrittsvor lesung prägt er die Bezeichnungen für die unterschiedlichen Stand punkte und bringt deren Differenz auf die folgende Formel94: »Auf die Frage, wo die mathematische Exaktheit existiert, antworten beide Seiten unterschiedlich; der Intuitionist sagt, im menschlichen Intellekt, der Formalist sagt, auf dem Papier.«
Die papierene Sicherheit der »formalistischen« Mathematik ist dabei – Brouwer zufolge – gegenüber einer Verankerung im menschlichen Intellekt klarerweise defizitär. Explizit werden die Unterschiede etwa in Brouwers Theorie des Kontinuums, in der es nicht erlaubt ist, so zu tun, als läge dieses wie bei Cantor zeitlos und unabhängig in der Form überabzählbar vieler gesonderter Punkte vor. Da von der Theorie des Kontinuums die gesamte Analysis abhängt, berührt dies allerdings eine fundamentale Frage. Hermann Weyl, einer der begab testen Hilbert-Schüler, schließt sich später – zumindest zeitweilig – Brouwers Position an und prägt den Begriff der »Grundlagenkrise«95. Als logisches Zentrum der Differenz lässt sich schließlich die Frage identifizieren, ob es unbeschränkt zulässig ist, aufgrund des Tertium non datur in indirekten Beweisen zu schließen. Die intuitionistische Position hält dies für problematisch, denn es erlaubt, die ›Existenz‹ mathematischer Gegenstände zu beweisen, ohne eine entsprechende Konstruktion anzugeben. Solche nicht-konstruktiven Schlüsse sind allerdings für eine Mathematik im Sinne Hilberts von größter Wich tigkeit96: »Dieses Tertium non datur dem Mathematiker zu nehmen, wäre etwa, wie wenn man dem Astronomen das Fernrohr oder dem Boxer den Gebrauch der Fäuste untersagen wollte.«
Luitzen E. J. Brouwer: »Intuitionisme en Formalisme«, Amsterdam 1912: »Op de vraag, waar de wiskundige exactheid dan wel bestaat, antwoorden beide partijen verschillend; de intuitionist zegt: in het menschelijk intellect, de formalist: op het papier.« (Übers. G.N.) Englische Übersetzung in: Ders.: »Collected Works. Bd. 1«, Amsterdam 1975, 125. 95 Vgl. zu Weyls Position Gregor Nickel: Intentionalität und Unendlichkeit – Hermann Weyl und Edmund Husserl, in: Johannes Brachtendorf et al. (Hrsgg.): Unendlichkeit – Interdisziplinäre Perspektiven, Tübingen 2008, 199–216. 96 David Hilbert: Die Grundlagen der Mathematik, Abh. d. Math. Seminars Hamburg 6 (1928), 65–85. 94
88 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
Und entsprechend harsch verteidigt sich Hilbert gegen Brouwer und Weyl97: »Was Weyl und Brouwer tun, kommt im Prinzip darauf hinaus, (…) daß sie alles ihnen unbequem Erscheinende über Bord werfen und eine Verbotsdiktatur à la Kronecker errichten. Dies heißt aber, unsere Wissenschaft zerstückeln und verstümmeln (…); nein: Brouwer ist nicht, wie Weyl meint, die Revolution, sondern nur die Wiederholung eines Putschversuches mit alten Mitteln.«
Was für die Protagonisten auf dem Spiel steht, resümiert Mehrtens treffend, wenn er konstatiert, dass der wissenschaftliche Streit gar nicht so sehr um die Frage nach einer Sicherung der Grundlagen der Mathematik ging98, vielmehr drehte sich die Debatte um »die Erschütterung der Begriffe von Wahrheit, Sinn, Gegenstand, Existenz in der Mathematik. Diese Begriffe bezeichnen weniger epis temologische Grundfesten der Wissenschaft als die großen Orientie rungsmarken, an denen sich das Selbstverständnis einer Wissenschaft, ihre Identität bestimmt.«
Und dementsprechend war das Sicherungsprogramm Hilberts, also die Suche nach einem meta-mathematischen Beweis für die Konsis tenz der Arithmetik (und der axiomatisierten Mengentheorie) zwar ein interessanter Ansatz, der mit Beweis-Theorie und mathemati scher Grundlagenforschung neue und bis heute aktive Subdisziplinen hervorrief, aber keineswegs der Dreh- und Angelpunkt für die weitere Entwicklung der Mathematik. Diese verlief ungestört parallel, und zwar weitgehend im Stile der ›Hilbertschen Moderne‹. Und damit waren die Resultate Kurt Gödels, die in gewissem Sinne zeigen, dass Hilberts Ziel streng genommen nicht erreichbar ist, zwar interessant, aber kaum wirksam99: »Pragmatisch verlor das Programm bereits Ende der zwanziger Jahre an Bedeutung. Die Hilbertsche Moderne hatte sich durchgesetzt und brauchte ihre symbolische Versicherung nicht mehr. Als Kurt Gödel dann Anfang der dreißiger Jahre bewies, daß die Widerspruchsfreiheit der Arithmetik nicht beweisbar ist, änderte das an der Einstellung der Mathematiker nichts.«
97 98 99
David Hilbert, »Neubegründung der Mathematik«, 1922. Herbert Mehrtens: »Moderne Sprache Mathematik«, a.a.O., 8. Herbert Mehrtens, a.a.O., 129.
89 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Ähnlich wie bei der Entwicklung der Geometrie reagiert die Mathe matik durch Pluralisierung. So konnten in diesem Falle verschiedene Spielarten intuitionistischer bzw. konstruktivistischer Mathematik als spezielle Subdisziplinen der Mathematik bis heute weiterentwickelt werden. Die Schärfe des Konfliktes zwischen Hilbert und Brouwer bzw. Weyl ist einer friedlichen Koexistenz gewichen. Mit klassischer Methodik lassen sich viele Resultate leichter (manche überhaupt nur) und – je nach Geschmack und Vorbildung – durchsichtiger zeigen. Der konstruktivistische Ansatz hat dafür eine größere Nähe zu algo rithmischem Denken, und seine Resultate führen daher viel leichter zu Anwendungen in der Informatik. Was das Selbstbild der Mathematik und ihrer Entwicklung betrifft, ergibt sich aus der Wende zu einer formalistischen Auffas sung schließlich noch eine interessante Volte für unsere Thematik: Durch die meta-mathematische Transformation von Fragen über die Mathematik in Fragen innerhalb der Mathematik kann auch der eigene Fortschritt ›mathematisch thematisiert‹ werden100: »Die Möglichkeit der Mathematik, sich selbst zu thematisieren, von Hilbert mit der axiomatischen Methode und der Metamathematik ins Bewußtsein gehoben, erlaubt ihr auch, ihre Geschichte rekurrent zu rekonstruieren und als den einen großen Strom von Problemen und Lösungen darzustellen, der Diskontinuitäten und Sackgassen nicht kennt – als eine große Erfolgsgeschichte der mathematischen Ver nunft.«
2.3 Revolutionen in der Mathematik – Ein kurzer Rückblick Dass unser historischer Bogen an dieser Stelle endet, bedeutet keines falls, dass die letzten 100 Jahre Mathematikgeschichte bruchlos ver laufen wären101. Insbesondere wäre das Aufkommen elektronischer Rechenmaschinen zu diskutieren und ihre Integration als Werkzeug der mathematischen Forschung. Neben dem Prozess einer diszipli A.a.O., 149. So hätte man etwa auch den fundamentalen Wandel in der mathematischen Wahr scheinlichkeitstheorie diskutieren können, der durch die maßtheoretische Axiomati sierung des Wahrscheinlichkeitsbegriffs durch Andrei Nikolajewitsch Kolmogorow (1903–1987) erfolgte (vgl. Herbert Mehrtens, a.a.O., 135), oder auch die sogenannte Französische Revolution der Mathematik, angestoßen durch die legendäre Gruppe Bourbaki nach dem 2. Weltkrieg. 100 101
90 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
nären Grenzziehung und -verschiebung zwischen Mathematik und Informatik wäre zu beschreiben, welche Rolle das numerische Lösen von Problemen und computerassistierte oder gar -generierte Beweise für die Entwicklung der Mathematik spielen. Wir beenden jedoch unseren historischen Überflug mit der ›klassischen Moderne‹ und wollen im Rückblick nochmals Hermann Hankel zitieren102: »So ist denn dieser schöne gewaltige Bau entstanden, dessen Anblick den Mathematiker mit Stolz erfüllt; denn fest gegründet, auf uner schütterlichen Fundamenten steigt er planmässig, durch jenen wis senschaftlich-ästhetischen Tact geleitet, gewaltig empor, an seinen Aussenwerken durch zierliche Thürme geschmückt und scheinbar vollendet, während im Inneren Hunderte von eifrigen Arbeitern den unendlichen Bau weiter in’s Unendliche hinausführen. Möchte er vor den Schicksalen des Thurmes zu Babel bewahrt bleiben!«
Nimmt man die moderne Wendung zur ›Mathematik als Arbeit an einer Sprache ohne Gegenstand‹ ernst, so könnte man die Auf merksamkeit in Hankels Bild von dem Schicksal des festen, gegen ständlichen Bauwerks unveränderlicher Resultate, das in Babylon ins Wanken gerät, abwenden und nach der Entwicklung des kommu nikativen Mediums der Bauleute fragen. Und hier zeigt sich eine denkwürdige Ambivalenz: Einerseits folgen die zunehmende Forma lisierung und das Loslösen vom kaum kontrollierbaren, ›anschauli chen‹ Gegenstandsbezug dem Streben nach Eindeutigkeit und Klar heit der Sprache und dem Bemühen, Widersprüche auszuschließen. Andererseits resultiert aus der freigesetzten Kreativität der Moderne ein unübersehbares Geflecht der unterschiedlichsten mathematischen Subdisziplinen, deren Spezial-Sprache kaum noch außerhalb der Subdisziplin selbst verständlich ist. Insofern erleidet die Mathematik das babylonische Schicksal einer ausdifferenzierten Wissenschafts landschaft in besonders dramatischer Weise103. Was die Unerschüt terlichkeit der Fundamente betrifft, so zeigt jedenfalls die Grundla gendebatte zweierlei: Einerseits sind die Fundamente der Mathematik keineswegs von unveränderlicher und unstrittiger Natur, sie bedürfen stets neuer Klärung und Ergänzung. Andererseits kann die Mathema tik offenbar auch ohne in mathematisch-formalem Sinne endgültig Hermann Hankel, vgl. Fußnote 8. Vgl. hierzu Gregor Nickel: Mathematik – die (un)heimliche Macht des Unverstan denen, in: M. Helmerich et al. (Hrsgg.): Mathematik verstehen. Philosophische und didaktische Perspektiven. Wiesbaden 2011, 47–58.
102
103
91 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
geklärte Grundlagen unbekümmert produktiv werden. Insofern wird am Bau Hankels zumindest in zwei Richtungen gearbeitet: Einerseits werden kumulativ auf jeweils ›hinreichend‹ klarer Grundlage neue Ergebnisse zu alten Problemen erarbeitet, dabei auch neue Begriffe gebildet und neue Probleme formuliert. Andererseits werden ehema lige Grundbegriffe durch tiefer gelegte Fundamente neu gelesen und re-konstruiert, ohne dass es hierbei bislang zu einer ›endgültigen‹ Klärung gekommen wäre. Für den informierten Zeitgenossen passte die Diskussion um die logischen und begrifflichen Grundlagen der Mathematik offenbar ziemlich gut zur allgemeinen Stimmungslage kurz nach der Jahrhundertwende; hier das Echo Robert Musils in seinem Essay Der Mathematische Mensch104: »[D]ie Pioniere der Mathematik hatten sich von gewissen Grundlagen brauchbare Vorstellungen gemacht, aus denen sich Schlüsse, Rech nungsarten, Resultate ergaben, deren bemächtigten sich die Physiker, um neue Ergebnisse zu erhalten, und endlich kamen die Techniker, nahmen oft bloß die Resultate, setzten neue Rechnungen darauf und es entstanden die Maschinen. Und plötzlich, nachdem alles in schönste Existenz gebracht war, kamen die Mathematiker – jene, die ganz innen herumgrübeln – darauf, daß etwas in den Grundlagen der ganzen Sache absolut nicht in Ordnung zu bringen sei; tatsächlich, sie sahen zuunterst nach und fanden, daß das ganze Gebäude in der Luft stehe. Aber die Maschinen liefen! Man muß daraufhin annehmen, daß unser Dasein bleicher Spuk ist; wir leben es, aber eigentlich nur auf Grund eines Irrtums, ohne den es nicht entstanden wäre. Es gibt heute keine zweite Möglichkeit so phantastischen Gefühls wie die des Mathematikers. Diesen intellektuellen Skandal trägt der Mathematiker in vorbildlicher Weise, das heißt mit Zuversicht und Stolz auf die verteufelte Gefährlichkeit seines Verstandes.«
3. Revolutionen in der Mathematikgeschichte? – Versuch einer Bilanz Einige wenige Aspekte der oben skizzierten Kapitel aus der Mathe matikgeschichte sollen nun abschließend in systematischer Absicht hervorgehoben werden. 104 Robert Musil: Der Mathematische Mensch, in: Ders.: Gesammelte Werke, hg. v. Adolf Frisé, Reinbek bei Hamburg 1978, 1004–1008.
92 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
3.1 Krisen und ihre Bearbeitung Vermutlich ist der radikalste Umschwung der Mathematikgeschichte in der Antike zu verorten. Aus einer Pluralität von nützlichen Rechenund Konstruktions-Vorschriften, die teilweise sogar zu divergieren den, also – in heutiger Sicht – auch zu ›falschen‹ Ergebnissen führ ten, wird – getrieben von der griechischen Argumentationsfreude – eine Wissenschaft, deren Voraus-Setzungen möglichst transparent gemacht und genau benannt werden, und deren Resultate – für alle Vernünftigen nachvollziehbar – bewiesen werden, Resultate, die mit Notwendigkeit ›gelten‹ und somit eindeutig sind und keinerlei Plu ralität zulassen105. Eine zwischenzeitliche metaphysische Aufladung insbesondere der Zahlen durch die Pythagoreer kann relativ schnell abgelegt werden, es entsteht der Stil einer reinen, axiomatisch-deduk tiven Konstruktions- und Beweiskunst. Wenn man innerhalb dieser Wissenschaft von Krisen sprechen möchte, so fällt auf, dass in den Phasen der Unsicherheit über den Status neuer Ansätze deren erkennbare inner- und außermathema tische Fruchtbarkeit deutlich höher bewertet wird als die logische Strenge ihrer Absicherung. Vielfach hilft den Pionieren ihre (wie auch immer begründete) metaphysische Überzeugung (vgl. die Gesetze 3, 5 und 6 bei Crowe). Sofern sich der revolutionäre Ansatz als produktiv erweist, können spätere Generationen dafür sorgen, dass die zunächst fehlende Strenge der Grundlagen nachgeliefert wird; teilweise wird dabei die mathematische Gestalt der Pionier-Theorie wesentlich verändert (vergleiche etwa die Analysis bei Leibniz und bei Weierstraß). Außerdem erfolgen begriffliche und technische Elemen tarisierungen, die das Anwenden und Weiterentwickeln auch für die weniger genialen Epigonen möglich machen. Auf Schulstreitigkeiten kann in zweifacher Weise reagiert werden: Einerseits kann sich nach zeitweiliger Parallelführung die ›Äquivalenz‹ der unterschiedlichen Ansätze herausstellen (siehe wiederum Newton und Leibniz), so dass es bei gegenseitigem Anerkennen der Resultate letztlich auf eine harmlose Geschmacks- bzw. Traditionsfrage hinausläuft, welcher 105 Aktuelle Entwicklungen ›am Rande‹ der Mathematik könnte man durchaus als eine Neu-Auflage der vor-griechischen Mathematik ansehen: In vielen Bereichen überzeugen die – u. U. nur als bunte Grafik vorliegenden – Ergebnisse von ComputerSimulationen auch ohne Deduktion (des Resultats oder zumindest des unterliegenden Algorithmus), solange sie für den jeweiligen Anwendungsbereich eine brauchbare Orientierung ermöglichen. Ähnliches gilt für die Verwendung von Statistik-Software.
93 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
Ansatz gewählt wird. Sofern jedoch erkennbare Unterschiede bleiben, kann mit einer schlichten Subdisziplin-Spaltung reagiert werden; Analysis kann dann z. B. wahlweise als klassische Analysis oder als Non-Standard-Analysis mit infinitesimalen Größen betrieben werden oder gar als konstruktive Analysis, bei der auf indirekte Beweise weitgehend verzichtet wird. Bezogen auf die Spielmetapher aus dem Abschnitt zur Grundlagendebatte handelt es sich dabei um die wiederum harmlose Aufspaltung in unterschiedliche Spielregeln – etwa Doppelkopf mit oder ohne Neunen im Kartendeck. Insgesamt können Krisen auf diese Weise – sofern wir solche konstatieren wollen – in der Regel so erfolgreich bearbeitet werden, dass sie im Rückblick kaum noch wahrzunehmen sind. Die Suche nach dem, was in einer solchen Krise unwiederbring lich verloren geht, gestaltet sich gar nicht so einfach, denn in der Regel werden die meisten alten Resultate – u. U. nach einer gewissen Trans formation – in die neu gestaltete Mathematik integriert. Wenn man allerdings das Kriterium etwas abschwächt, so lassen sich im Laufe der Mathematikgeschichte durchaus Techniken bzw. Fertigkeiten und auch Interessen der Mathematiker aufzeigen, die durch neue Entwick lungen völlig in den Hintergrund gedrängt werden und schließlich ganz verschwinden; sie werden – vorübergehend oder endgültig – obsolet. Beispielsweise verschwindet mit dem Siegeszug des Infinite simalkalküls das Interesse an subtilen geometrischen Tangenten- und Flächenkonstruktionen. So hatte etwa Isaac Barrow (1630–1677), der Vorgänger Newtons auf dem Lucasischen Lehrstuhl, den Hauptsatz der Differentialrechnung – Tangentenproblem und Flächenproblem sind in gewissem Sinne wechselseitige Umkehrungen – bereits vor Newton formuliert und durch eine elegante, rein geometrische Argu mentation gezeigt. Mittels symbolisch-algebraischer Rechnung war ein solches Theorem nun viel einfacher zu zeigen und es wurde zugleich eine Fülle weiterer Probleme lösbar. Die geometrische Kurve bzw. Fläche wird dabei zunächst durch einen algebraischen Ausdruck symbolisiert und schließlich ersetzt. Ein zweites Beispiel ist das fast völlige Verschwinden eines ehedem wichtigen und lebendigen Teilgebietes im späten 19. Jahrhun dert106: »Die algebraische Invariantentheorie war damals sehr populär. Im Prinzip handelt es sich um Eigenschaften geometrischer Figuren, die 106
Herbert Mehrtens, a.a.O., 112.
94 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
unter Transformationen des Koordinatensystems (…) invariant blei ben. (…) Ziel der Theorie war es, Systeme von Invarianten möglichst vollständig zu bestimmen. Indem er sich sozusagen von den Invarian ten und ihrer konkreten Form und Bestimmung distanzierte, gelang es Hilbert zu beweisen, daß es immer ein Grundsystem gibt, aus dem sich alle Invarianten ableiten lassen.«
Die konkrete Bestimmung der Invarianten spielt für Hilberts Theo rem allerdings keine Rolle und lässt sich aus ihm auch in keiner Weise ableiten, der Existenzsatz bleibt abstrakt. Dennoch wurde diese Frage seither als erledigt angesehen; das konkrete Berechnen von Invari anten war für die mathematische Moderne uninteressant geworden und wurde allenfalls dem Anwender z. B. in der Physik überlassen. Bemerkenswert ist noch, dass der heute mögliche Computereinsatz die Invariantenberechnung über 100 Jahre nach Hilberts Theorem wieder zu einem aktuellen mathematischen Forschungsthema wer den lässt. Wenn wir die großen Umbrüche der Mathematikgeschichte als »Paradigmenwechsel« evtl. sogar im Sinne Kuhns ansprechen möchten, so fällt auf, dass sich ihr Verlauf in wichtigen Punkten von dem unterscheidet, was im Bereich der Naturwissenschaften als ein solcher bezeichnet wird. Ich möchte dies am ›Experiment einer ahistorischen Rückprojektion neuer Begriffe‹ erläutern107. Verwenden wir die modernen Begriffe von ›Körper‹, ›Ort‹, ›Bewegung‹, ›Energie‹ etc. beim Lesen der Physik vor Galilei, so werden wir viele Resultate schlicht als falsch oder als unzureichend deuten, ähnlich gilt dies aus der Warte der modernen Biologie nach Darwin bei den Begriffen von ›Gattung‹ und ›Art‹. Verwenden wir hingegen die modernen Begriffe von ›Zahl‹ oder ›Punkt‹, ›Linie‹, ›Dreieck‹ etc. bei der Interpretation der Schriften des Euklid, so bleiben diese lesbar und die Resultate im Wesentlichen gültig, verwenden wir den modernen Begriff von ›Integral‹ und ›Ableitung‹ beim Lesen von Barrows Traktat, so können wir hier – mit ungewohnt geometrischer Darstellung – Formulie rung und Beweis des Hauptsatzes wiedererkennen. Die Resultate der 107 In Fußnote 15 hatten wir bereits auf den vehementen Einspruch des Mathematik historikers Unguru gegen solche Formen eines weitverbreiteten ahistorischen Blickes hingewiesen. In der Tat weist er auf ein zentrales Problem der Mathematikgeschichte hin, selbst wenn man von dem weiteren historischen Kontext absieht: Welchen ›mathematischen Randbedingungen‹ fühlte sich ein Autor verpflichtet, die heute vielleicht nicht mehr beachtet werden, die irrelevant geworden sind, ohne die seine Argumentation allerdings nicht mehr zu verstehen ist?
95 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
überkommenen Thematik bzw. Methode bleiben auch nach der NeuGestaltung im Wesentlichen gültig und – ggf. nach Einarbeiten in ungewohnte Ausdrucksweisen – nachvollziehbar. Allerdings unter liegt die Überzeugungskraft der Beweise durchaus einem teilweise dramatischen Wandel des ›Mediums‹. So geht der Beweis more geo metrico in einen Beweis mittels formal geregelten Zeichengebrauchs über. Dies geschieht bereits in Ansätzen und programmatisch in der Leibnizschen Charakteristika, radikal und konsequent während der Wende zur Mathematischen Moderne im 19. und 20. Jahrhundert. Die Beweise und das methodische Vorgehen der Alten werden in der ahistorischen Rückschau dann als falsch oder lückenhaft, zumindest aber als präzisierungsbedürftig gelesen.
3.2 Revolutionen im Selbstverständnis der Mathematik Die Überlegungen Caroline Dunmores schließen hier an, wenn sie vorschlägt, bei der Diskussion möglicher Revolutionen einen »Objekt-Bereich« von einem »Meta-Bereich« zu unterscheiden. Dabei verlaufe die Mathematikgeschichte konservativ im ObjektBereich, revolutionär dagegen im Meta-Bereich108: »[M]athematics, unlike the natural sciences, appears to grow very largely by accumulation of results, with no radical overthrowing of theories by alternatives. But what do change in revolutionary ways are the implicit metamathematical views of the community that generate and guide their research programmes.«
Zum Objekt-Bereich zählt sie »concepts, terminology and notation, definitions, axioms, and theorems, methods of proof and problemsolutions, and problems and conjectures«, während darüber ein MetaBereich zu verorten sei; dieser umfasse »values of the community that define the telos and methods of the subject, and encapsulate general belief about its nature«. Mit der Erfindung der nichteuklidischen Geometrien beispielsweise wären die früheren Resultate der Euklidi schen Geometrie nicht beseitigt worden, in Bezug auf die Objekte sei nur ein kumulatives Hinzufügen der für die alternativen Geometrien geltenden Resultate erfolgt; wohl aber hätte man die Meta-Ansicht, Caroline Dunmore: Metalevel Revolutions in Mathematics, in: Donald Gillies (Ed.), a.a.O., 224.
108
96 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
dass es nur eine wahre Geometrie geben könne, in revolutionärer Weise verworfen. Entsprechend liest sie die antike Grundlagenkrise, aber auch die Erweiterung der Zahlbereiche bis hin zu den (nicht mehr geordneten) komplexen Zahlen und (den nicht mehr kommutativen) Quaternionen. Für die basalen Konzepte der ›Zahl‹ und der ›Linie‹ diskutiert – einer ähnlichen Perspektive folgend – Jeremy Gray eine oberflächliche Objekt-Gleichheit bei gleichzeitigem revolutionärem Wechsel in der Auffassung, worum es sich dabei eigentlich handelt und wie damit umzugehen ist109: »I have argued that there was a revolution in mathematics in the nineteenth century because, although the objects of study remained superficially the same, the way they were defined, analysed theoreti cally, and thought about intuitively was entirely transformed. This new framework was incompatible with older ones, and the transition to it was much greater than scientists are accustomed to. Such central features as number and line were left dramatically altered in status and meaning.«
Abschließend soll ein kurzer Blick auf eine solche Revolution im Selbstverständnis der Mathematik geworfen werden, die im 15. Jahr hundert stattfindet und deren innermathematische Auswirkungen sich eigentlich erst mit der mathematischen Moderne ganz entfalten: Es handelt sich um den Wechsel von der antiken Deutung der Mathe matik als Theorie ewiger und unabhängiger Formen hin zu ihrer Deutung als kreative Neu-Schöpfung durch den menschlichen Geist. Die dominierenden Entwürfe der Antike, die allerdings bis heute in Varianten ihren Einfluss behalten haben, werden durch Platon und Aristoteles vorgestellt. Nach Platon (428–348 v. Chr.) gibt es ein Reich ewiger mathematischer Gegenstände, die wir – auf geheimnis volle Weise – ein-sehen und kennen-lernen können. In expliziter Kritik daran behauptet Aristoteles (384–322 v. Chr.), dass es zunächst nur die sinnlich erfassbaren Gegenstände der ›realen Welt‹ um uns gibt; Mathematik ist demnach eine extreme Form, diese Gegenstände durch Abstraktion (und zwar nur bezüglich ihrer Quantität) aufzufas sen; hier sind die mathematischen ›Gegenstände‹ zwar nicht mehr so real wie bei Platon, aber dennoch ewig und unveränderlich. In beiden Fällen sind sie ganz unabhängig vom Menschen und seinem 109 Jeremy Gray: The nineteenth-century revolution in mathematical ontology, in: Donald Gillies (Ed.), a.a.O., 245.
97 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
geistigen Vermögen: Mathematik ist eine rein theoretische, d. i. betrachtende Wissenschaft vorgegebener Gegenstände110. Die dritte große Alternative lässt etliche Jahrhunderte auf sich warten. Erst auf der Schwelle zwischen ›Mittelalter‹ und ›Neuzeit‹ macht Nikolaus von Kues (1401–1464) den menschlichen Geist selbst zum Schöpfer der mathematischen Gegenstände. Inwiefern diese dann noch als ewig und unveränderlich zu betrachten sind, bleibt zu fragen. Der für eine solche Sicht essenzielle Schöpfungsgedanke ist der griechischen Philosophie weitgehend fremd, erst der Einfluss jüdisch-christlichen Denkens macht einen absoluten Neu-Anfang, eine Schöpfung aus dem Nichts überhaupt vorstellbar. Zwar nimmt Nikolaus immer wieder Bezug auf die »Alten«, in bewusster Abkehr von diesen fasst er jedoch die mathematischen Gegenstände als freie Schöpfungen des menschlichen Geistes auf, geht in gewisser Weise mit Aristoteles über Platon hinaus. Beide hätten nämlich den Leitsatz der vorsokratischen Philosophie »der Mensch ist ein zweiter Gott« übersehen; der Mensch kann also in schöpferischer Weise Formen (der Wissenschaften, des Handwerks und der Künste) und Begriffe hervorbringen und u. a. damit in freier Weise handeln. Und so gilt111, »daß unser Geist, der die mathematischen Gegenstände schafft, das, was er schaffen kann, wahrer und wirklicher in sich hat, als es außer ihm ist. (…) Und so ist es bei allem dergleichen, beim Kreis, bei der Linie, beim Dreieck, auch bei unserem Zahlbegriff, kurz bei allem, was seinen Ursprung aus dem menschlichen Geist nimmt und der Natur entbehrt.«
Dabei ist der menschliche Geist insbesondere mittels seiner ratio tätig, vermöge derer und seiner Einbildungskraft, imaginatio, er die mathe matischen Figuren und die Zahlen hervorbringt. Hierbei beachtet er strikt das Prinzip des auszuschließenden Widerspruchs; die mathe matischen Gegenstände sind insofern die rationalsten, und gerade deshalb auch am genauesten zu erkennen. Die außergewöhnliche Gewissheit und Klarheit der mathematischen Erkenntnis, im Gegen satz zur Erkenntnis der Gegenstände der sinnlich erfassbaren Natur, liegt gerade darin, dass wir die von uns geschaffenen Gegenstände
Vgl. hierzu die treffende Charakterisierung bei Fritz Nagel: »Nikolaus von Kues und die Entstehung der exakten Wissenschaften«, Münster 1984. 111 De berylo, c. 33, n. 55; die Werke des Cusanus werden hier nach der folgenden Aus gabe zitiert: Nikolaus von Kues: Philosophisch-Theologische Werke. Hamburg 2022. 110
98 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
viel genauer kennen können als die von uns lediglich durch die Sinne wahrgenommenen und daher nie vollständig durchschaubaren112: »Ein Mensch hat zum Beispiel die mechanische Kunst und hat die Gestalten der Kunst wahrer in seinem geistigen Begriff, als sie nach außen hin gestaltbar sind, wie ein Haus, das auf Grund der Kunst entsteht, eine wahrere Gestalt im Geiste als in den Hölzern hat.«
Um diese Revolution in der Inanspruchnahme der Möglichkeiten des menschlichen Geistes ins Werk zu setzen, ›bedient‹ sich Nikolaus zweier theologischer Figuren: Zum einen wird der Mensch als Eben bild Gottes, imago dei, aufgefasst, zum anderen aber ist der jüdischchristliche Gott dadurch ausgezeichnet, dass er als absoluter Ursprung ›etwas mit sich anfangen‹ kann, also aus dem Nichts heraus etwas ins Werk setzt (creatio ex nihilo). Und so kann Cusanus eine Analogie zwischen dem menschlichen und dem göttlichen Geist aufstellen, gemäß der sich der Mensch zur Mathematik genauso als Schöpfer erweist wie Gott zu den Dingen der sinnlich erfassbaren Welt. Die Mathematik wird mit Cusanus auf diese Weise erweiterungsfähig und erweiterungsbedürftig, sie wird zu einer unendlichen Aufgabe für den menschlichen Geist. Dabei gilt allerdings, dass die Mathematik kei neswegs im willkürlichen Belieben des Einzelnen steht; der menschli che Geist als Schöpfer der Mathematik ist hier allgemein gedacht und nicht individuell. Der Geist hält sich demnach – in freier Entscheidung – an die selbst aufgestellten Regeln, so dass alle (anderen) Indivi duen dieselben mathematischen Konstruktionen in präziser – ja in präzisestmöglicher – Weise nachvollziehen können. Cusanus selbst zeigt in einem seiner mathematischen Traktate, wie sich der hierbei eroberte Freiraum gestalten lässt113. In De circuli quadratura erwägt er vor aller geometrischen Konstruktion, ob die gesuchte Quadratur des Kreises überhaupt möglich sein könnte. Dabei werden zwei konträre Auffassungen zitiert. Auf der einen Seite stehe die Überzeugung der Optimisten114: »Wo man ein Größeres und Kleineres geben kann, kann man auch ein Gleiches geben.« Die Möglichkeit der Quadratur wird also aus einem ›Zwischenwertsatz‹ erschlossen: Ein kleineres Quadrat, etwa das dem Kreis eingeschriebene, und ein größeres, A.a.O., n. 56. Für Details vgl. Gregor Nickel: Belehrtes Nicht-Können als virtuoses Können in der Mathematik, a.a.O. 114 De circuli quadratura n. 4, 2. 112
113
99 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
etwa das umschriebene, sind konstruierbar, also »kann man auch ein Gleiches geben«. Dagegen stehe die Position der Pessimisten, die die Gültigkeit des Zwischenwertsatzes für verschiedenartige Größen ablehnten. Bemerkenswert ist nun, dass Cusanus sich zwischen den beiden aufgeführten Möglichkeiten gar nicht exklusiv entscheidet, sondern ihre Gültigkeit auf die kontingente Setzung des Gleichheits begriffs zurückführt115: »Wenn man den Begriff der Gleichheit so faßt [daß einem andern gleich ist, was um keinen rationalen ― auch nicht um den allerkleinsten ― Bruchteil übertroffen wird], dann glaube ich, kann man mit Recht sagen: Zu einem gegebenen Vieleckumfang kann man den gleichen Kreisumfang geben, und umgekehrt. Wenn man aber den Begriff der Gleichheit, soweit er sich auf eine Größe bezieht, absolut faßt ohne Berücksichtigung rationaler Bruchteile, dann ist die Aussage der Letzteren richtig: Zu einer kreisförmigen Größe läßt sich keine genau gleichgroße nicht-kreisförmige angeben.«
Es hängt also von dem (frei) gewählten Gleichheitsbegriff ab, welche Antwort auf die Frage nach der Quadratur zu geben ist. Die hier vorgeschlagene, die strikte Logik von ›entweder gleich oder ungleich‹ schmiegsamer gestaltende, beliebig genaue Gleichheit ist einer der Schlüssel für die Analysis des 17. Jahrhunderts. So weist Leibniz im Streit mit Nieuwentijt darauf hin, dass er Gleichheit so definiere, dass nicht etwa die Differenz zweier Größen schlicht 0 sei, sondern dass sie nur kleiner als jede endliche positive Größe sein müsse. Die grundsätzliche Befreiung der Mathematik von ihrer Rückbindung an vorgegebene, ewige Formen oder sinnliche Gegenstände und ihre Neugestaltung als freie Entfaltung des menschlichen Geistes geht allerdings weit über dieses Beispiel hinaus.
3.3 Kann man Revolutionen in der Mathematik sehen? Das hängt von der Philosophie ab… Für die Entwicklung der Mathematik ist die philosophische MetaEbene sicherlich von Bedeutung, auch wenn sie gerade in der Moderne schwer explizit nachzuweisen ist, da solche Überlegungen in der Regel aus den Publikationen herausgehalten werden. Dennoch ist auch der normalwissenschaftliche Betrieb eigentlich stets von einer 115
A.a.O. n. 11, 1.
100 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
›Arbeits-Philosophie‹ unterlegt: Zumindest implizit haben vermut lich alle, die aktiv Mathematik betreiben, eine (zumindest unausge sprochene) Vorstellung davon, was ›Mathematik‹ eigentlich ist: von welcher Art ihre Gegenstände sind, wie korrekte Beweise zu führen sind und auf welche Weise sie beweisen, inwiefern Mathematik auf Gegenstände außerhalb der Mathematik anwendbar ist. Diese Philo sophie muss allerdings nicht unbedingt schlüssig mit dem eigenen mathematischen Schaffen verbunden sein, und so finden sich auch innerhalb des relativ homogenen mathematischen Mainstreams die unterschiedlichsten Überzeugungen auf der Meta-Ebene. Die wissenschaftshistorische bzw. -philosophische Frage nach den Revolutionen in der Geschichte der Mathematik hängt dagegen durchaus davon ab, in welcher Weise die Mathematik selbst charakte risiert wird. Wir wollen dies abschließend in einer kurzen Übersicht illustrieren, wobei wir die unterschiedlichen philosophischen Posi tionen lediglich holzschnittartig und ohne weitere kritische Anfrage skizzieren. Aus der Perspektive eines an Platon orientierten (naiven) Realismus gehen wir davon aus, dass es vom menschlichen Geist und von der Sinnlichkeit unabhängige mathematische Gegenstände gibt und dass die Mathematik aus wahren Sätzen über diese Gegenstände besteht. Legt man diese Perspektive zugrunde, so können streng genommen im Laufe der Geschichte Neuentdeckungen zuvor noch unbekannter Gegenstände und allenfalls Fehler und deren Korrek turen vorkommen, aber keine Revolutionen. Diese philosophische Position unterstreicht die Berechtigung zu einer ahistorischen Sicht auf die Mathematikgeschichte (im engeren Sinne), denn die betrach teten Gegenstände sind einem historischen Wandel ohnehin nicht unterworfen. Eine historische Dimension bliebe für die Mathema tik rein äußerlich; sie betrifft allenfalls die (politischen, kulturellen etc.) Rahmenbedingungen. Ähnlich, aber auf andere Weise schwierig wird eine Beschrei bung der Mathematikgeschichte aus der Perspektive einer an Aris toteles angelehnten (naiven) Abstraktions-Theorie. Mathematik beschreibe demnach die (quantitativen) Eigenschaften von unabhän gigen Gegenständen der Sinne. Eine solche Ansicht hält Jeremy Gray für die dominierende zu Beginn des 19. Jahrhunderts116:
Jeremy Gray: The nineteenth-century revolution in mathematical ontology, in: Donald Gillies (Ed.), a.a.O., 228.
116
101 https://doi.org/10.5771/9783495998847 .
Gregor Nickel
»The most usual was what may be termed ›naïve abstractionism‹: the idea that mathematics deals with idealizations of familiar objects. Experience presents many objects that are nearly circular, and from them one abstracts the mathematical concept of a circle.«
Neu entdeckte sinnliche Gegenstände wären – wie bei einem plato nischen Bild – lediglich Anlass, das Spektrum der mathematischen Gegenstände kumulativ zu erweitern. Revolutionär könnte sich die Mathematik aus dieser Warte allenfalls dann entwickeln, wenn sich unsere Wahrnehmung der Gegenstände, von denen wir beim Abstra hieren ausgehen, dramatisch ändern würde. Ob dies die historische Entwicklung z. B. der Naturwissenschaften adäquat beschreibt, wol len wir an dieser Stelle offen lassen. Einigermaßen unverständlich wäre dagegen – und in diesem Sinne tatsächlich extrem revolutionär –, wenn aus innermathematischen Gründen neue Gegenstandsberei che erkundet werden: Bereits die Infinitesimalien wären ein Beispiel, umso mehr nicht-euklidische Geometrien und Cantors transfinite Mengen. Just die ›abstrakte Mathematik‹ entzieht sich dem Verständ nis der Abstraktions-Theorie. Prominentes Beispiel für Gray ist die schrittweise Erweiterung des Zahlbegriffs, was schließlich dazu führe, dass der »naive Abstraktionismus« in dramatischer Weise an Zustim mung unter Mathematikern verloren habe. Folgen wir einem Konstruktivismus Cusanischer Prägung, so ist Mathematik das Paradebeispiel für die schöpferische Selbstentfaltung des menschlichen Geistes. Dabei hält sich dieser strikt an das (durch genaue Begriffe überhaupt erst ermöglichte) Widerspruchsprinzip der ratio und entfaltet bzw. erzeugt ihre Begriffe unter Zuhilfenahme der Einbildungskraft (imaginatio)117. Mathematik hat in dieser Perspek tive darüber hinaus die Funktion, die Gegenstände der Sinne ›auszu messen‹, zunächst ganz handfest und handwerklich durch Zählen und Abmessen, aber natürlich auch in der verfeinerten Weise der Natur wissenschaften. Schließlich ermöglicht sie in reflexiver Rückwendung auch die Selbsterkenntnis des Geistes, das Erkunden einer ganz speziellen anthropologischen Dimension, nämlich die Fähigkeit zum Mathematisieren118. Revolutionär wären in dieser Lesart Entwicklun
Ein Vergleich mit Kants Beschreibung der mathematischen Gegenstände als Konstruktionen der entsprechenden Begriffe in der reinen Anschauung liegt hier nahe. 118 Ihre Rolle für die Theologie lassen wir hier außen vor; Näheres dazu in Gregor Nickel: Kurzschlüsse, a.a.O. 117
102 https://doi.org/10.5771/9783495998847 .
Revolutionen in der Mathematikgeschichte?
gen, in denen radikal neue Dimensionen der Gestaltungsfreiheit des menschlichen Geistes in doppeltem Sinne realisiert werden. Radikalisieren wir die Autonomie der Mathematik im Forma lismus, so wird Mathematik zu einer ohne Rücksicht auf Außenbe ziehungen entfalteten, reinen Sprache ohne Referenten. Bereits die Forderung der Widerspruchsfreiheit muss dann als meta-mathemati sche Forderung ›von außen‹ implementiert werden. Wenn wir dieses Minimum an Referenz zulassen, so erhalten wir immer noch eine extreme Pluralität von prima facie völlig gleichberechtigten Axioma tiken. Revolutionen sind in der weiteren Entwicklung eigentlich nicht mehr zu sehen (vgl. die Schlussbemerkung zu Abschnitt 2.2.8). Nehmen wir schließlich den ursprünglichen Realismus auf und verfeinern ihn zu einem kritischen Platonismus, könnten Revolu tionen wieder besser integriert werden. Wir würden demnach die ›Widerständigkeit‹ der mathematischen Gegenstände sehr ernst nehmen und daher erneut von unabhängigen Gegenständen der Mathematik ausgehen. Diese könnten wir aber nur durch mehr oder weniger genaue Sätze beschreiben. Revolutionen wären dann ganz neuartige Beschreibungs- und Analyse-Perspektiven, die diese unveränderlichen Gegenstände nun auf inkompatible Weise anders beschreiben könnten. Ziemlich unabhängig von der gewählten mathematikphilosophi schen Position gilt: Gerade die Inkommensurabilität der Perspektiven vor bzw. nach einem Paradigmenwechsel, der unwiederbringliche Verlust von legitimen Aspekten einer Thematik stellt für die Histo riografie der Mathematik eine kaum zu überwindende Herausforde rung dar. Insofern sich die Mathematik fast durchgehend auf die Konsistenz ihrer Begrifflichkeit verpflichtet und gerade weil sie – im modernen Verständnis – auf keinen Bereich der Lebenswelt oder der elementaren (sinnlichen) Beobachtung als vorzeigbare Referenz ver pflichtet ist, sich zudem aber auch nicht auf den wechselhaften Gang der Hermeneutik einer Kultur-, Human- oder Geisteswissenschaft einlässt, kann offenkundig das Selbstbild einer unproblematischen, kumulativen Genese ziemlich erfolgreich stabilisiert werden. »Se vogliamo che tutto rimanga come è, bisogna che tutto cambi.« Giuseppe Tomasi di Lampedusa
103 https://doi.org/10.5771/9783495998847 .
https://doi.org/10.5771/9783495998847 .
Wim Kösters
Fortschritt in der Ökonomie – einige Anmerkungen1
1. Vorbemerkungen Die Wirtschaftswissenschaft wird üblicherweise unterteilt in die Volkswirtschaftslehre und die Betriebswirtschaftslehre. Die folgen den Ausführungen beschränken sich auf die volkswirtschaftliche Per spektive. Die Volkswirtschaftslehre ist eine geisteswissenschaftliche Disziplin und als solche eine Realwissenschaft, die sich mit der Erfahrungswirklichkeit menschlichen Handelns im wirtschaftlichen Bereich befasst. Zentral ist die Untersuchung des Phänomens der Knappheit. Diese entsteht dadurch, dass zur Deckung von großen Bedürfnissen – vereinfachend und zugespitzt wird zumeist von uner sättlichen Bedürfnissen gesprochen – nur begrenzte Mittel (Güter) zu deren Befriedigung zur Verfügung stehen. Neben einer systema tischen Beschreibung und Analyse des Knappheitsphänomens in sei nen verschiedenen Ausprägungen und für unterschiedliche Bereiche des Wirtschaftslebens ist es auch Ziel der wissenschaftlichen Anstren gungen, Wege für einen rationelleren Umgang mit knappen Gütern zu finden, d. h. wie durch Wirtschaften die Knappheit gemildert werden kann. Angesichts einer immer noch zunehmenden Weltbe völkerung mit steigenden Ansprüchen der Menschen bei gleichzeitig erschöpfbaren natürlichen Ressourcen und gravierender werdender globaler Klimafrage ist das Knappheitsproblem in seinen vielen Facet ten gegenwärtig höchst aktuell und wird es nach allem, was wir heute wissen, auch in Zukunft bleiben. Fortschritt in der Ökonomie ist daher notwendig, um den Wohlstand der Menschen zu erhalten bzw. ihn sogar noch zu mehren. Im Folgenden soll zunächst erörtert werden, was in der Disziplin als Fortschritt der Wissenschaft betrachtet wird, 1 Für wertvolle Hinweise danke ich Thomas K. Bauer, Christoph M. Schmidt und Niklas Wallmeier.
105 https://doi.org/10.5771/9783495998847 .
Wim Kösters
und danach, was unter wirtschaftlichem Fortschritt, d. h. Erhöhung des Wohlstands, verstanden wird.
2. Fortschritt in der Disziplin Ganz allgemein wird in der Ökonomie, ähnlich wie in den ande ren Realwissenschaften auch, unter wissenschaftlichem Fortschritt ein Erkenntnisgewinn über die Zusammenhänge in der wirklichen Welt, hier also in der Wirtschaftswelt, verstanden. Konkreter geht es dabei u. a. – – – –
um ein besseres Verständnis der Verhaltensweisen der wirt schaftlich Handelnden (Wirtschaftssubjekte) angesichts von Knappheit und darum, was dieses Handeln bestimmt, um Entstehung, Bedeutung und Design von Institutionen sowie um technische und kulturelle Gegebenheiten etc. und um das Zusammenwirken dieser Elemente auf Märkten, in Hierarchien, Kooperationen etc. und schließlich um Konsequenzen für die wirtschaftspolitische Gestaltung.
Von den Forschungsansätzen und Methoden her wird in der Wirt schaftswissenschaft ein sehr breites Spektrum verwendet, das von ›angewandter Philosophie‹ bis zu ›angewandter Mathematik‹ reicht. Dies wird an einigen Beispielen deutlich, an denen im Folgenden illus triert werden soll, was in der Disziplin als Fortschritt der Wissenschaft angesehen wird. Einer der wichtigsten Begründer der modernen Nationalökono mie, der Moralphilosoph und Aufklärer Adam Smith, eröffnete mit seinem bahnbrechenden Werk Wohlstand der Nationen2 eine neue Sicht auf die Wirtschaft, die nicht durch die Perspektive des Staates (Herrschers) oder einzelner Interessen wie denen des Kaufmanns, des Bauern etc. geprägt war. Vielmehr ging es ihm um die Untersuchung des Wohlstands aller Bürger. Insbesondere interessierte ihn, eine allgemeine Lösung für das Armutsproblem zu finden. Er sah sie in einer besseren Organisation der Wirtschaft, durch die es Menschen ermöglicht werde, sich aus eigener Kraft aus der Armut zu befreien 2 Adam Smith, An Inquiry into the Nature and Causes of the Wealth of Nations. London 1776.
106 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
und nicht mehr – wie durch Jahrhunderte zuvor – allein auf freiwillig gegebene Almosen der Reichen angewiesen zu sein. Er arbeitete die Bedeutung der Arbeitsteilung heraus und legte dar, wie durch die rationale Verfolgung eigener Interessen bei funktionierendem Wett bewerb auf Märkten der wirtschaftliche Wohlstand erhöht werden kann. Berühmt geworden ist sein Stecknadelbeispiel im ersten Kapitel des Wohlstands der Nationen, mit dem er zeigt, dass ein einzelner ungeübter Arbeiter es kaum fertigbringen würde, wenige oder auch nur eine Stecknadel am Tag zu fertigen, wenn er alle Arbeitsschritte selber machen müsste. Zehn in einer dafür spezialisierten Manufak tur beschäftigte Arbeiter würden es dagegen auf täglich 48.000 Stecknadeln, also 4.800 pro Arbeiter, bringen. Bei funktionierendem Wettbewerb auf den Gütermärkten spiegele sich in den sich bildenden Preisen die Knappheit der Güter wider und werde die Macht der Anbieter wirksam kontrolliert. Sie würden das Gemeinwohl dadurch fördern, dass sie ihr Angebot an die Wünsche der Nachfrager anpassen müssten. A. Smith verwendet in diesem Zusammenhang das Bild von der unsichtbaren Hand, die die nach Gewinn strebenden Anbieter einem Zweck dienen lasse, den sie gar nicht beabsichtigt hatten.3 Das Werk von A. Smith stellt einen gewaltigen Fortschritt für die neue Disziplin Volkswirtschaftslehre dar.4 Denn die kritische Ausein andersetzung mit seinem armutsbekämpfenden und wohlfahrtsstei gernden freien Marktwirtschaftsmodell hat in der Folgezeit zu vielen neuen Erkenntnissen geführt. So hat z. B. David Ricardo gezeigt, dass nicht – wie A. Smith behauptete – die absoluten, sondern vielmehr die komparativen Kostenvorteile für das Zustandekommen des internationalen Handels entscheidend sind. Das Werk von A. Smith wurde in der Folgezeit rigorosen Überprüfungen in Form von mathematisch formulierten allgemei nen Gleichgewichtsmodellen unterzogen. Wichtige Arbeiten sind in diesem Zusammenhang die von Léon Walras5 und von Arrow und
3 Adam Smith, Über den Wohlstand der Nationen: Eine Untersuchung über seine Natur und seine Ursachen. Neuauflage München 1974, S. 371. 4 Das gilt aber auch für die Menschen, da der Wohlstandszuwachs in den letzten zwei Jahrhunderten ohne die wirtschaftspolitische Umsetzung dieses neuen Denkansatzes nicht möglich gewesen wäre. 5 Léon Walras, Éléments d’économie politique pure ou théorie de la richesse sociale. Lausanne 1874.
107 https://doi.org/10.5771/9783495998847 .
Wim Kösters
Debreu6, in denen die Existenz eines allgemeinen Gleichgewichts, seine Effizienz, seine Eindeutigkeit und Stabilität untersucht werden. Arrow und Debreu bekamen für ihre Forschungen den Nobelpreis. Eine empirische Anwendung der allgemeinen Gleichgewichtstheorie stellen ökonometrische Modelle vom Typ der dynamischen stochasti schen allgemeinen Gleichgewichtsmodelle (DSGE) dar.7 Sie gehören heute zum Standard bei makroökonomischen Untersuchungen. Bei der wirtschaftspolitischen Umsetzung der Ideen von A. Smith hat es neben Irrwegen, für die zumeist beispielhaft der Man chester-Kapitalismus genannt wird, aber auch weithin als Erfolgsmo delle angesehene Wirtschaftsordnungen gegeben. Zu Letzteren zählt das Konzept der Sozialen Marktwirtschaft. Es wurde von deutschen Ökonomen, die Ordoliberale oder Neoliberale genannt wurden,8 für die Zeit nach dem Zweiten Weltkrieg als Alternative zur nationalso zialistischen und kommunistischen Zwangswirtschaft, aber auch zum angelsächsischen Modell9 entwickelt. Im Unterschied zu A. Smith gingen sie davon aus, dass die ›natürliche‹ Wirtschaftsordnung nicht quasi von selbst entstehen werde, sondern vielmehr durch einen starken Staat gesetzte und in ihrer Einhaltung kontrollierte Regeln (Ordnung) geschaffen werden müsse. Kernelemente der Sozialen Marktwirtschaft sind eine Wettbe werbsordnung, die einen funktionierenden Wettbewerb sicherstellt 6 Kenneth J. Arrow, Frank Hahn, General Competitive Analysis. Amsterdam 1971; Gerard Debreu, Theory of Value. An Axiomatic Analysis of Economic Equilibrium. New Haven und London 1959. 7 Finn E. Kydland, Edward C. Prescott, Time to Build and Aggregate Fluctuations. Econometrica, Vol. 50 (1982), S. 1345–1370; Robert Lucas, Econometric Policy Evaluation: A Critique. In: K. Brunner, A. Meltzer (Hrsg.), The Phillips Curve and Labor Markets. Carnegie-Rochester Conference Series on Public Policy, Vol. 1. New York 1976, S. 19–46 Alle drei Autoren bekamen den Nobelpreis. 8 Wichtige Vertreter waren Walter Eucken, Franz Böhm, Alexander Rüstow und Wilhelm Röpke (Freiburger Schule). Die politische Durchsetzung des Konzepts ist vor allem Ludwig Erhard und Alfred Müller-Armack zuzuschreiben. Für eine Darstellung des Konzepts vgl. Walter Eucken, Grundsätze der Wirtschaftspolitik. Bern u. a. 1952. 9 In der unmittelbaren Nachkriegszeit waren bei einigen Ökonomen Varianten der Zentralverwaltungswirtschaft durchaus erwägenswerte Ordnungsmodelle, wie z. B. die Planification in Frankreich und das Ahlener Programm der CDU von 1947 zeigen. Im Wettbewerb der Systeme (siehe weiter unten) wurde jedoch die Unterlegenheit dieser Systeme, insbesondere auch das der Zentralverwaltungswirtschaft sowjetischen Typs, offenbar, was zu seiner Abschaffung in den 1990er Jahren auch in Ländern des vormaligen Ostblocks führte.
108 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
und Wettbewerbsbeschränkungen wie Kartelle und Monopole ver hindert, und eine Geldordnung, die für Preisniveaustabilität sorgt und Inflation sowie Deflation unterbindet. Hinzu kommt eine Sozi alordnung, durch die Kranke, Rentner und andere in ihrer ökono mischen Leistungsfähigkeit Eingeschränkte Unterstützung finden. Da in Demokratien bei Wahlen auch über die Wirtschaftsordnung abgestimmt wird, soll dadurch erreicht werden, dass auch die, die nicht unmittelbar von der Marktwirtschaft profitieren, marktwirtschafts freundliche Parteien ihre Stimme geben. Auf diese Weise würden zum Wohle aller Bürger Mehrheiten für effiziente, wohlfahrtssteigernde und armutsverringernde marktwirtschaftliche Ordnungen in Demo kratien gesichert. Eine wichtige Ergänzung erfuhr das marktwirtschaftliche Kon zept auch durch die Arbeiten von J. M. Keynes10. Er hatte auf der Grundlage der Erfahrungen mit der Weltwirtschaftskrise ab 1929, die über eine Reihe von Jahren Massenarbeitslosigkeit und Rückgang des Einkommens für viele mit sich brachte, die Notwendigkeit einer staatlichen Stabilitätspolitik nachgewiesen. Mit der Verabschiedung des Stabilitäts- und Wachstumsgesetzes 1967 gehört sie auch zum Standardrepertoire der Wirtschaftspolitik in Deutschland. Dass in einer keynesianischen Lage (Rezession bei allgemeinem Nachfrage mangel) der Staat stabilisierend eingreifen muss, ist in der Disziplin weithin anerkannt. Ganz ähnliche Überlegungen wie bei der Einführung der Sozia len Marktwirtschaft sind gegenwärtig angesichts der fortschreitenden Globalisierung anzustellen, durch die der Wohlstand für viele Men schen in der Welt erhöht worden ist, wie z. B. die Statistiken der Weltbank zeigen, durch die aber auch die Ausbreitung von Pandemien und Ungerechtigkeiten begünstigt werden kann. Um eine breite Akzeptanz für die Globalisierung zu erhalten, sind daher flankierende gesundheitspolitische und andere sozialpolitische Maßnahmen auf nationaler und internationaler Ebene notwendig. Dies zeigt, dass eine marktwirtschaftliche Wirtschaftsordnung nur dann auf Dauer funktionsfähig erhalten werden kann, wenn auf wirtschaftliche und gesellschaftliche Entwicklungen rechtzeitig durch eine Änderung der gesetzten Rahmenbedingungen reagiert wird. Dies gilt u. a. auch für die Klimapolitik. John Maynard Keynes, The General Theory of Employment, Interest and Money. London 1936.
10
109 https://doi.org/10.5771/9783495998847 .
Wim Kösters
Die Liberalisierung des Güter- und Kapitalverkehrs weltweit sowie der Niederlassungsfreiheit (hauptsächlich in der EU) hat die internationale Mobilität der Produktionsfaktoren Arbeit und Kapi tal sowie des Know-hows deutlich erhöht. Da sie mit Abwanderun gen drohen können oder diese gar tatsächlich vornehmen, hat sich der Systemwettbewerb11 erhöht. Nationalstaaten müssen daher ihre Jurisdiktionen und Regulierungssysteme so gestalten, dass mobile Produktionsfaktoren im Lande bleiben und am besten zusätzliche attrahiert werden, um den Wohlstand zu sichern bzw. zu erhöhen. Über Fragen der Gestaltung der Wirtschaftsordnung hinaus geht es in der Volkswirtschaftslehre um – – –
die systematische Beschreibung der Wirtschaftsentwicklung, die Erklärung und Prognose der Wirtschaftsentwicklung und die Gestaltung der Wirtschaftspolitik.
Eine systematische Beschreibung ist nur möglich, wenn geklärt ist, welche Daten für die Erhebung und Aufbereitung wichtig sind. Eine Entscheidung darüber kann nur auf der Basis theoretischer Erklä rungsmodelle erfolgen, die die wirtschaftlichen Zusammenhänge adäquat zu erfassen versuchen.12 So bildete die makroökonomische Theorie von John M. Keynes13, die in der westlichen Welt schnell Akzeptanz fand, die Basis für die Entwicklung der Volkswirtschaftlichen Gesamtrechnung nach dem Zweiten Weltkrieg, in der Entstehung, Verteilung und Verwendung der Produktion und des Einkommens einer Volkswirtschaft, also des Bruttoinlandsprodukts (BIP) und des Bruttonationaleinkommens (BNE) jeweils zu Marktpreisen statistisch umfassend beschrieben werden. Um eine internationale Vergleichbarkeit zu gewährleisten, wurden Standards von den Vereinten Nationen und der OEEC (Organization for European Economic Co-operation, Vorgängeror ganisation der heutigen Organization for Economic Co-operation and Development, OECD) gesetzt, die inzwischen mehrfach aktuali siert wurden.14 Die Genauigkeit volkswirtschaftlicher, insbesondere 11 Vgl. z. B. Manfred E. Streit, Michael Wohlgemuth (Hrsg.), Systemwettbewerb als Herausforderung an Politik und Theorie. Baden-Baden 1999. 12 »Beobachtung ist stets Beobachtung im Lichte von Theorien.«, Karl R. Popper, Logik der Forschung. 8. Aufl., Tübingen 1984, S. 31. 13 John Maynard Keynes, The General Theory of Employment, Interest and Money. London 1936. 14 Vgl. z. B. André Vanoli, A History of National Accounting. Washington D.C. 2005.
110 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
makroökonomischer Daten ist deutlich geringer als die naturwissen schaftlicher Daten. Das liegt u. a. daran, dass alles, was keine Markt preise hat oder nicht gemeldet wird, gar nicht oder nur unzureichend erfasst wird. Dazu zählt u. a. unbezahlte Arbeit, Aktivitäten in der Schattenwirtschaft und viele staatliche Leistungen. In solchen Fällen müssen oft Schätzungen exakte Erhebungen ersetzen. Es sollte daher nicht verwundern, dass Zeitreihen ökonomischer Variablen häufiger Revisionen nach Neuschätzungen etc. unterliegen und erst nach einigen Jahren endgültige Werte festgelegt werden. Beim Umgang mit volkswirtschaftlichen Daten in der empirischen Wirtschaftsforschung ist daher eine gute Fachkunde hinsichtlich der Qualität der Daten erforderlich, um falsche Schlüsse zu vermeiden. Die Erklärung und Prognose der Wirtschaftsentwicklung auf der Basis empirisch bewährter Theorien sind in der Ökonomie deutlich problematischer als in den Naturwissenschaften, auch aber nicht nur wegen der zuvor erläuterten geringeren Genauigkeit der Daten. Die ökonomischen ›Gesetzmäßigkeiten‹ haben nämlich einen anderen Charakter als Naturgesetze. Während Letztere zumeist raumzeitlich invariante Strukturrelationen darstellen, gibt es in der Ökonomie nur Quasigesetze (Hans Albert), d. h. strukturelle Zusammenhänge, die sich durch Veränderungen der Präferenzen und Verhaltensweisen der Menschen, der technischen Relationen, der institutionellen Rege lungen und damit der Anreize etc. im Zeitablauf ändern können. So kann eine bei konstantem Verhalten der Menschen richtige Pro gnose sich dadurch als falsch erweisen, dass die Menschen bei ihrer Veröffentlichung und damit Kenntnisnahme ihr Verhalten ändern und sie dadurch fehlgehen lassen (self-destroying). Oder umgekehrt kann selbst eine falsche Prognose dadurch richtig werden, dass die Menschen durch eine Verhaltensänderung bei ihrer Veröffentlichung sie ›wahr‹ machen (self-fulfilling). Durch Veränderungen bei den zuvor genannten Faktoren verän dert sich der Untersuchungsgegenstand der Ökonomie im Zeitablauf. Die strukturellen Zusammenhänge in der Wirtschaft bleiben mithin allenfalls für eine gewisse Zeit invariant. So können makroökonomi sche Modelle, die die Funktionsweise und Entwicklung einer Volks wirtschaft theoretisch zu erklären versuchen, nur temporär Gültigkeit beanspruchen, solange sich die Determinanten und die Parameter werte der Verhaltensfunktionen, die institutionellen Regelungen etc. nicht ändern. Dies geschieht im ökonomischen Entwicklungsprozess jedoch fortlaufend. Darüber hinaus werden Erklärung und Prognose
111 https://doi.org/10.5771/9783495998847 .
Wim Kösters
wegen der totalen Interdependenz aller Größen erschwert, da sie die ökonomischen Zusammenhänge i. d. R. sehr komplex macht.15 Zwar lassen sich in der theoretischen Analyse die Beziehungen zwischen einzelnen Größen unter Konstanthaltung aller anderen (Ceteris-pari bus-Annahme) untersuchen, was bei empirischen Tests oft gar nicht oder nur schwer möglich ist. So sind kontrollierte Experimente ins besondere in der Makroökonomie unmöglich bzw. sehr schwierig. Dies alles hat zur Folge, dass eine endgültige Falsifizierung theore tischer Hypothesen in empirischen Tests oft nicht gelingt. Im Fall der observational equivalence ist es so, dass zwei Theorien bezüglich ihrer empirisch testbaren Implikationen identisch sind und daher empirisch nicht zwischen ihnen hinsichtlich ihres Wahrheitsgehaltes unterschieden werden kann.16 Angesichts der zuvor aufgezeigten Probleme können die Ergebnisse ökonomischer Studien immer nur vorläufige Gültigkeit beanspruchen, da sie jederzeit durch neue Datensätze und neue Testverfahren widerlegt werden können. Der mit ihnen erzielte wissenschaftliche Erkenntnisfortschritt darf somit nicht überschätzt werden, weil das auf eine »Anmaßung von Wissen«17 hinausliefe. Diese notwendige Zurückhaltung ist in der ökonomischen Profession jedoch nicht immer geübt worden. Nachdem sich die Theorie von J. M. Keynes18 in den 1960er und 1970er Jahren weithin durchgesetzt hatte, glaubten viele, die wesentlichen Strukturmerkmale für die von ihnen betrachtete Volkswirtschaft in einem gesamtwirtschaftli chen ökonometrischen Modell korrekt erfasst zu haben. Es gelte nur noch, empirisch die ›wahren‹ Parameterwerte (Konsumneigung etc.) herauszufinden, um genaue Prognosen machen zu können und auf ihrer Grundlage durch Konjunkturpolitik (›Globalsteuerung‹) die Gesamtwirtschaft dicht bei einem Zustand der Vollbeschäftigung ohne Inflation bei außenwirtschaftlichem Gleichgewicht und stetigem und angemessenem Wachstum halten zu können. Dieser prozesspo Unter Ökonomen wird gern erzählt, dass Max Planck nach dem Besuch einiger volkswirtschaftlicher Vorlesungen gesagt haben soll, das Wirtschaftsgeschehen sei ihm zu komplex. (Quelle unbekannt). 16 Vgl. Tjalling C. Koopmans, Identification problems in economic model construc tion. Econometrica, Vol. 17 (1949), S. 125–144; Jean-Marie Dufour, Cheng Hsiao, Identification. In: S.N. Durlauf, L.E. Blume (Hrsg.), The New Palgrave Dictionary of Economics. Second Edition, London 2008, S. 2854–2861. 17 Friedrich A. von Hayek, Die Anmaßung von Wissen. Ordo, Bd. 26 (1973), S. 12–21. 18 John M. Keynes, The General Theory of Employment, Interest and Money. London 1936. 15
112 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
litische Steuerungsoptimismus, der auch von einer Reihe von Nobel preisträgern wie z. B. R. Solow und P. Samuelson geteilt wurde, wurde durch die Stagflation der 1970er Jahre (Rezession und Inflation zur gleichen Zeit) – verursacht durch die Ölpreiskrise 1973 – widerlegt. Zudem stieg die Staatsverschuldung in vielen Ländern nicht nur temporär, wie im keynesianischen Ansatz vorgesehen, sondern dauerhaft. Diese Erfahrungen lösten eine große Kontroverse aus (Monetarismusdebatte), in der es um die adäquaten theoretischen und empirischen Grundlagen der Makroökonomik sowie die richtige Ausgestaltung der Konjunkturpolitik ging. Auf der einen Seite ver suchten Keynesianer zu begründen, dass die Wirtschaft als inhärent instabil anzusehen und deshalb eine aktive, diskretionäre staatliche Stabilitätspolitik notwendig sei. Auf der anderen Seite vertraten Monetaristen die Stabilitätsthese und forderten vom Staat eine Sta bilisierung der Stabilitätspolitik, d. h. statt diskretionärer Eingriffe eine regelgebundene Geld- und Finanzpolitik.19 In vielen kontrovers diskutierten theoretischen und empirischen Analysen wurden wich tige Erkenntnisse über die Rolle des Grades der Flexibilität von Güterpreisen und Löhnen sowie die Art der Erwartungsbildung für die kurzfristige Dynamik gesamtwirtschaftlicher Prozesse und die Möglichkeiten staatlicher Konjunkturpolitik gewonnen.20 Aber auch das staatliche Handeln wurde dabei einer genaueren ökonomischen Analyse unterworfen, indem die zumeist implizite Annahme in Zweifel gezogen wurde, dass Politiker die vorhandenen Informationen effizient nutzen und auf ihrer Basis benevolent im Sinne des Gemeinwohls handeln. Insbesondere in monetaristischen Analysen wird stattdessen davon ausgegangen, dass Politiker ver sucht sein könnten, Eigeninteressen (z. B. Wiederwahl) und Interes sen von Lobbygruppen nachzugehen. Es wird deshalb vorgeschlagen, Vgl. z. B. Milton Friedman, The Role of Monetary Policy. American Economic Review, Vol. 58 (1968), S. 1–17; Franco Modigliani, The Monetarist Controversy or Should We Forsake Stabilisation Policy? American Economic Review, Vol. 67 (1977), S. 1–19. Für einen Überblick vgl. Wim Kösters, Neuere Entwicklungen in der monetären Makroökonomik. RWI-Mitteilungen, Jg. 40 (1989), S. 1–22. 20 Vgl. z. B. Robert E. Lucas, Jr., Expectations and the Neutrality of Money. Journal of Economic Theory, Vol. 4 (1972), S. 103–124; Robert E. Lucas, Jr., Thomas J. Sargent (Hrsg.), Rational Expectations and Econometric Practice. London 1981; Stanley Fischer (Hrsg.), Rational Expectations and Economic Policy. Chicago und London 1980. 19
113 https://doi.org/10.5771/9783495998847 .
Wim Kösters
ihr Handeln an Regeln zu binden, deren Einhaltung von Wählern besser kontrolliert werden kann.21 Die Deutsche Bundesbank kün digte als erste Notenbank der Welt 1975 eine Geldmengenregel an und behielt diese bis zum Eintritt Deutschlands in die Europäische Währungsunion 1999 bei – wenn auch in modifizierter Form. Zielver fehlungen wurden von ihr detailliert erläutert, um glaubwürdig zu bleiben. Auch die Europäische Zentralbank folgt im Rahmen ihrer Zwei-Säulen-Strategie einer monetären Regel, deren Einhaltung aber gegenwärtig durch die außerordentlichen geldpolitischen Maßnah men vom Wähler nur schwer kontrollierbar ist. Die wirtschaftliche Entwicklung von Volkswirtschaften in der langen Frist wird durch die Wachstumstheorie zu erklären versucht. Mit dem neoklassischen Wachstumsmodell gelang R. M. Solow, der auch wegen dieser Arbeit den Nobelpreis bekam, ein wichtiger Durch bruch. Es war über Jahrzehnte das Standardmodell in theoretischer und empirischer Analyse. In ihm wird das Wachstum des Bruttoin landprodukts in Preisen eines Basisjahrs erklärt durch den Einsatz der Produktionsfaktoren Arbeit und Kapital sowie den technischen Fortschritt (totale Faktorproduktivität).22 Die empirische Schätzung der zentralen Relation dieses Modells, der makroökonomischen Produktionsfunktion, hatte zum Ergebnis, dass durch den technischen Fortschritt etwa drei Viertel des Wachs tums ›erklärt‹ werden kann.23 Obwohl dies lange als stylized fact der Wachstumsforschung galt, stellt dies keinen großen Erkenntnisfort schritt dar. Denn der so ermittelte ›technische Fortschritt‹ ist lediglich eine nicht erklärte Restgröße, die eher ein Maß für das Nichtwissen ist (Er fällt wie ›Manna vom Himmel‹.). Erst in den Ansätzen der neuen Wachstumstheorie wird eine modellendogene, differenzierte Erklärung des technischen Fortschritts zu geben versucht. Danach muss der technische Fortschritt in Form neuer Technologien und Humankapital durch Ressourceneinsatz produziert werden. Durch Learning by Doing, nicht völlige Aneignenbarkeit von Innovationen, 21 Vgl. z. B. Kenneth Rogoff, The Optional Degree of Commitment to an Intermediate Monetary Target. Quarterly Journal of Economics, Vol. 100 (1995), S. 1169–1189; Thomas Mayer, The Debate About Monetarist Policy Recommendations. Kredit und Kapital, Jg. 20 (1987), S. 281–302. 22 Robert M. Solow, A Contribution to the Theory of Economic Growth. Quarterly Journal of Economics, Vol. 70 (1956), S. 65–94. 23 Robert M. Solow, Technical Change and the Aggregate Production Function. Review of Economics and Statistics, Vol. 39 (1957), S. 312–320.
114 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
Imitation etc. ergeben sich statt abnehmender Grenzerträge steigende Skalenerträge, die einen sich selbst tragenden Wachstumsprozess in Gang setzen.24 Größere Erkenntnisgewinne wurden insbesondere in den letzten beiden Jahrzehnten durch Fortschritte in der experimentellen Ökono mik und der empirischen Wirtschaftsforschung erreicht. Wie zuvor gesagt, sind kontrollierte Experimente zur Überprüfung gesamtwirt schaftlicher Theorien kaum möglich. Individuelles Verhalten in öko nomisch relevanten Entscheidungssituationen kann jedoch mittels kontrollierter Labor- und Feldexperimente untersucht werden. Labor experimente finden i. d. R. in Computerlaboren statt, wo jeder Teil nehmer unter kontrollierten äußeren Bedingungen und monetären Anreizen gesetzt durch den Experimentleiter am Computer Entschei dungen zu treffen hat. Das ermöglicht auch Tests diesbezüglicher ökonomischer Theorien hinsichtlich des einzelwirtschaftlichen Ent scheidungsverhaltens, wettbewerblicher Marktprozesse und des Ver haltens bei wechselseitiger strategischer Abhängigkeit (Spieltheo rie).25 Auf diese Weise wurden u. a. die Theorie vollkommener Märkte, die Theorie öffentlicher Güter, die Auktionstheorie und verhaltenstheoretische Ansätze überprüft.26 Die bisherigen Studien bestätigen eher die Preisbildung in Konkurrenzmodellen, nicht jedoch den homo oeconomicus als Verhaltensmodell. Auch diese und andere Ergebnisse der experimentellen Ökonomik müssen als vorläufig betrachtet werden. Denn es ist u. a. nicht geklärt, ob bzw. inwiefern Teilnehmer an Experimenten ihr Verhalten gegenüber dem in der Realität ändern, wenn ihnen bewusst ist, an einem Experiment teilzu nehmen und von einem Experimentleiter beobachtet zu werden.27 24 Vgl. z. B. Paul M. Romer, Endogenous Technological Change. Journal of Political Economy, Vol. 98 (1990), S. 71–102. Für eine Übersicht siehe z. B. Charles I. Jones, Introduction to Economic Growth. 3. Aufl., New York 2013. 25 Für grundlegende Arbeiten vgl. Vernon Smith, An experimental study of compe titive market behaviour. Journal of Political Economy, Vol. 70 (1962), S. 111–137; Daniel Kahneman, Amos Tversky, Prospect Theory: An analysis of decision under risk. Econometrica, Vol. 47 (1979), S. 263–291. Kahneman und Smith erhielten später den Nobelpreis. 26 Für Arbeiten in diesem Bereich wurden auch Reinhard Selten und Robert Schiller mit dem Nobelpreis ausgezeichnet. 27 Vgl. Steven D. Levitt, John A. List, What Do Laboratory Experiments Measuring Social Preferences Reveal About The Real World? Journal of Economic Perspectives, Vol. 21 (2007), S. 153–174.
115 https://doi.org/10.5771/9783495998847 .
Wim Kösters
Die wirtschaftliche Beratung, wie sie etwa von den wirtschafts wissenschaftlichen Instituten der Leibniz-Gemeinschaft geleistet wird, steht vor einem Dilemma, wenn sie ihre Expertisen auf einer fundierten Kausalanalyse der Wirkungen wirtschaftspolitischer Maß nahmen erstellen will. Denn die ideale Basis dafür ist das kontrollierte Zufallsexperiment, in dem eine zufallsgesteuerte Zuweisung von Maßnahmen erfolgt.28 Dies wird jedoch von den politischen Ent scheidungsträgern aus vielerlei Gründen abgelehnt, u. a. weil dadurch einigen Kandidaten Leistungen vorenthalten werden, die andere bekommen, ohne dass dabei persönliche Lebensumstände wegen der Zufallsauswahl berücksichtigt werden. Wenn ideale Experimente somit nicht möglich sind, kann die Evaluierung wirtschaftspolitischer Maßnahmen nur durch Verfahren erfolgen, die sie näherungsweise nachahmen. »Ein solcher Weg liegt in der Ausnutzung sogenannter natürlicher Experimente, also von Umständen, die nahelegen, dass die Zuweisung zur Maßnahme zwar nicht im Rahmen eines Zufalls experiments, aber aus der Analyseperspektive eben doch exogen zu allen kontaminierenden Faktoren erfolgt ist. Diese Studienvorausset zung ergibt sich insbesondere dann häufig, wenn institutionelle Rah menbedingungen so geändert werden, dass nur eine Teilmenge der Bevölkerung betroffen ist.«29 Die Hartz-Gesetze zur Reform des Arbeitsmarktes waren die ersten in Deutschland, die eine Evaluation durch externe Wissenschaftler vorsahen. Dies mag an ausgewählten Beispielen dafür genügen, was Öko nomen als Fortschritt in ihrer Disziplin ansehen.
3. Wirtschaftlicher Fortschritt Als wirtschaftlicher Fortschritt wird in der Disziplin allgemein eine Erhöhung der Wohlfahrt angesehen. Was genau darunter zu verste hen ist und – vor allem auch – wie dies gemessen werden kann, war 28 Christoph M. Schmidt, Policy Evaluation and Economic Policy Advice. Advances in Statistical Analysis, Vol. 91, S. 379–389. 29 Christoph M. Schmidt, Wirtschaftswissenschaft und Politikberatung in Deutsch land – Bedeutung, Möglichkeiten und Grenzen der Kausalanalyse. In: Ansgar Belke, Hans-Helmut Kotz, Stephan Paul und Christoph M. Schmidt (Hrsg.), Wirtschaftspo litik in Zeiten europäischer Integration, RWI-Schriften, Heft 83, Berlin 2009, S. 18– 36, hier: S. 34.
116 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
und ist umstritten. Wie zuvor gesagt, wurde mit dem volkswirtschaft lichen Rechnungswesen ein Instrument zur systematischen Beschrei bung der gesamtwirtschaftlichen Entwicklung geschaffen. Auf seiner Grundlage wird das Bruttoinlandsprodukt (BIP) als Maß für die wirtschaftliche Leistung einer Volkswirtschaft in einem bestimmten Zeitraum (gewöhnlich ein Jahr) berechnet. In das BIP geht der Wert aller im Inland hergestellten Waren und Dienstleistungen abzüglich der Vorleistungen ein, um Doppelzählungen zu vermeiden. Die preis bereinigte und mithin reale jährliche Veränderungsrate des BIP wird gewöhnlich als Messgröße für das Wirtschaftswachstum einer Volks wirtschaft verwendet.30 Oft wird in ökonomischen Analysen verein fachend die reale Wachstumsrate des BIP pro Kopf als Maß für den Zuwachs des Wohlstands eines Landes benutzt, insbesondere wenn es um internationale Vergleiche geht. Die Problematik dieser Quan tifizierung ist erfahrenen Wirtschaftsforschern bekannt und breit diskutiert worden. Wie zuvor schon erwähnt, werden u. a. Aktivitäten in der Subsistenz- und Schattenwirtschaft sowie unbezahlte Tätig keiten (u. a. häusliche Pflege, Familienarbeit, Kinderbetreuung und Ehrenämter) nicht oder nur unzureichend erfasst. Abgesehen davon wird auch der Wert der Freizeit in diesem Maß nicht berücksichtigt. In dieser Hinsicht wäre das BIP pro Erwerbstätigem bzw. besser noch BIP pro Arbeitsstunde geeigneter, da dann auch die unterschiedliche Länge der Lebenszeit, des Jahresurlaubs und der Wochenarbeitszeit bei internationalen Vergleichen in Rechnung gestellt würde. Auch neuere Entwicklungen wie die Digitalisierung und die Sharing Economy lassen die Erfassung der wirtschaftlichen Leistung einer Volkswirtschaft durch das BIP fehlerhaft bzw. sogar irreführend erscheinen. Wenn nämlich z. B. durch die stärkere Nutzung des Internets (Wikipedia, Nachrichten) der Lexika- und Zeitungsabsatz sinkt, zeigt das dadurch geringere BIP eine Abnahme der Leistung an, obwohl diese wegen der nicht erfassten Wertschöpfung auch durch größere Aktualität und Bequemlichkeit der Internetnutzung sogar gestiegen sein kann. Aber geht größerer materieller Wohlstand auch mit höherer sub jektiver Lebenszufriedenheit einher? Wenn Ersterer z. B. mit größerer Ungleichheit der Vermögen und Einkommen, schlechteren Arbeitsbe dingungen sowie höheren Kosten in Form von steigenden Umwelt 30 Zu den Problemen der statistischen Erfassung und damit zur Genauigkeit dieses Indikators ist zuvor schon kurz etwas gesagt worden.
117 https://doi.org/10.5771/9783495998847 .
Wim Kösters
schäden verbunden ist, muss das nicht der Fall sein.31 Die Vertreter der Happiness Economics haben in empirischen Untersuchungen u. a. zu zeigen versucht, dass Personen mit höherem Einkommen in Befragungen eine höhere Lebenszufriedenheit angeben. Allerdings lässt zusätzliches Einkommen das subjektive Wohlbefinden nur beschränkt steigen, was damit offensichtlich auch von nicht-materiel len Werten abhängt.32 Obwohl dieser Ansatz nicht zuletzt wegen der Problematik der durch Befragungen ermittelten Lebenszufriedenheit keineswegs als in der Disziplin allgemein anerkannt gelten kann, hat die Politik schon darauf reagiert. So wurde in Bhutan statt des BIP das Bruttonationalglück als wichtigster Indikator eingeführt. Mit von Bhutan initiiert wurde der seit 2011 veröffentlichte World Happiness Report der UNO, in dem die Lebenszufriedenheit im Ländervergleich zu ermitteln versucht wird. Nicht nur in autoritär regierten Ländern müssen jedoch aufgrund von Befragungen ermittelte Glücksdaten mit großer Vorsicht betrachtet werden, da die Versuchung und die Mög lichkeit der Manipulation groß sind, wodurch ihre Aussagefähigkeit zweifelhaft wird. In der Öffentlichkeit stärker diskutiert worden ist in letzter Zeit ein anderer Ansatz, die ganzheitliche Wohlfahrtsberichterstat tung. Der Sachverständigenrat zur Begutachtung der gesamtwirt schaftlichen Entwicklung (SVR) hat seit über 50 Jahren in seinen Jahresgutachten und Sondergutachten die ökonomischen Aspekte der Wohlstandsentwicklung anhand nicht nur des BIP, sondern vieler Indikatoren unabhängig begutachtet. Die Bundesregierung hat dann in ihrem Jahreswirtschaftsbericht als Teil des wirtschaftspolitischen Diskurses dazu Stellung genommen.33 Der SVR hat dabei keinen politisch vorgegebenen Kanon von Indikatoren benutzen müssen, sondern war in der Auswahl und Analyse frei.34 Dies ist bei anderen
Vgl. z. B. Joseph E. Stiglitz, Amartya Sen, Jean Paul Fitoussi, Mismeasuring Our Lives. New York 2010. 32 Für eine Übersicht vgl. Bruno S. Frey, Happiness. A Revolution in Economics. Cambridge, Mass. Und London 2008. 33 Vgl. hierzu Christoph M. Schmidt, Politikbegleitendes statistisches Monitoring zu Entwicklungslinien der ganzheitlichen Wohlfahrtsberichterstattung in Deutschland: Eine Dekonstruktion aus Sicht der Ökonomik. Nova Acta Leopoldina NF Nr. 147 (2018), S. 103–126. 34 Für eine Übersicht vgl. ebenda, Tab. 1, S. 107. 31
118 https://doi.org/10.5771/9783495998847 .
Fortschritt in der Ökonomie – einige Anmerkungen
Vorschlägen aus der letzten Zeit nicht unbedingt vorgesehen.35 Der deutsche und der französische Sachverständigenrat legten in einem Gutachten konkretere Überlegungen zu einem umfassenden Indika torensystem zur Messung von Wirtschaftsleistung, Lebensqualität und Nachhaltigkeit vor.36 Es soll eine umfassende Beurteilung der Wirtschaftsleistung und der Wohlfahrt eines Landes im Zeitablauf ermöglichen und gliedert sich in drei Dimensionen: die ökonomische, die soziale und die ökologische. Für einen ersten Überblick siehe die folgende Tabelle37:
35 Dies gilt für den aus der Enquete-Kommission des Deutschen Bundestags her vorgegangenen Indikatorensatz »W3« ebenso wie für den Indikatorensatz des Regie rungsprojekts »Gut leben in Deutschland«. Vgl. ebenda und Deutscher Bundestag, Enquete-Kommission »Wachstum, Wohlstand, Lebensqualität – Wege zu nachhalti gem Wirtschaften und gesellschaftlichem Fortschritt in der Sozialen Marktwirtschaft. Schlussbericht, Berlin 2013, Bundesregierung, Deutsche Nachhaltigkeitsstrategie. 36 Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung und Conseil d’Analyse économique, Wirtschaftsleistung, Lebensqualität und Nach haltigkeit: Ein umfassendes Indikatorensystem. Expertise im Auftrag des deutschfranzösischen Ministerrates. Wiesbaden 2010. 37 Christoph M. Schmidt, Politikbegleitendes statistisches Monitoring, a.a.O., S. 111, Tabelle 2.
119 https://doi.org/10.5771/9783495998847 .
Indikatorensatz der Sachverständigenräte (2010)
Anteil der Schüler und Studierenden in der Altersgruppe 15-24
Potenziell verlorene Lebensjahre
120
https://doi.org/10.5771/9783495998847
.
-
nationale CO2Emissionen (Niveau und je Einwohner)
Quelle: SVR/CAE (2010).
Stickstoff / Wasserqualität
Treibhausgase
Ökologische Dimension
Bildung
Gesundheit
Soziale Dimension
Quintilsverhältnis der Haushaltsnettoeinkommen
Materieller Wohlstand Verteilung
BIP je Einwohner und je Arbeitsstunde u.a., Konsumausgaben je Einwohner
Niveau
Ökonomische Dimension
Rohstoffproduktivität (DMI) und Rohstoffverbrauch (DMC)
Vogelindex
Artenvielfalt / Flächenverbrauch
Armutsrisikoquote
Anteil Arbeitnehmer in Schichtarbeit
Ressourcenverbrauch
direkte soziale Kontakte
Ausgrenzung / Sicherheit
3 Indikatoren der Finanzmarktstabilität (Lücken)
Beschäftigungsquote im Alter 15-64
Beschäftigung
Finanzierungssaldo, Tragfähigkeitslücke
Stabilität / Handlungsfähigkeit Staat Private
[Systematik des Indikatorensatzes W3: 3 Dimensionen der Nachhaltigkeit]
Feinstaubbelastung in Städten
Umwelt / nachhaltiger Konsum
Mitsprache und Verantwortlichkeit (Weltbank)
Freiheit / globale Verantwortung
FuE-Ausgaben sowie private Nettoinvestitionen relativ zum BIP
Zukunftsvorsorge
Wim Kösters
Fortschritt in der Ökonomie – einige Anmerkungen
Ohne hier aus Platzgründen auf die einzelnen Indikatoren einge hen zu können, zeigt die Tabelle, dass neben dem BIP pro Einwohner und je Arbeitsstunde eine Reihe von weiteren Indikatoren zur Wohl fahrtsmessung herangezogen werden. Dieser Vorschlag zur mehrdi mensionalen Messung des wirtschaftlichen Fortschritts dürfte von der überwiegenden Mehrheit der Ökonomen grundsätzlich geteilt werden. Wegen der zuvor näher erläuterten Besonderheiten ökono mischer und allgemein sozialwissenschaftlicher Daten sprechen diese nicht für sich selbst, sondern bedürfen der fachkundigen Analyse durch unabhängige wissenschaftliche Experten.38 Auf diese Begutach tung sollte dann die Stellungnahme der Bundesregierung im Rahmen eines öffentlichen Diskurses erfolgen. Auf diese Weise kann sicherge stellt werden, dass die Messung des wirtschaftlichen Fortschritts nicht durch eine politische Vereinnahmung verfälscht wird. Hat nun der Fortschritt in der Disziplin auch einen Fortschritt in Form höheren Wohlstands gebracht? Es kann zwar nicht davon ausgegangen werden, dass Regierungen immer den neuesten Stand der Wissenschaft bei ihrer Wirtschaftspolitik berücksichtigen. Es gibt sogar viele Beispiele dafür, dass sie gegen die Empfehlungen der wissenschaftlichen Politikberatung handeln. Aber zum einen hat die Einführung marktwirtschaftlicher Systeme vor allem nach dem Fall des Eisernen Vorhangs trotz steigender Weltbevölkerung die Armut weltweit fallen lassen, wie die Statistiken der Weltbank ausweisen. Zum anderen zeigt die erfolgreiche Bekämpfung der weltweiten Finanzkrise (große Rezession) ab 2008, dass Massenarbeitslosigkeit und Armut wie in der Weltwirtschaftskrise 1929 und danach aufgrund der inzwischen erzielten wissenschaftlichen Fortschritte vermieden werden konnten. Dies gilt nicht nur für die Entwicklung des BIP, sondern auch für die anderen Indikatoren der ganzheitlichen Wohl standsmessung.
38
Vgl. ebenda, S. 124.
121 https://doi.org/10.5771/9783495998847 .
https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
Fortschritte in der Genomeditierung beim Menschen als normative Herausforderung
Fortschritt manifestiert sich in den Biowissenschaften gegenwärtig prominent in der Entwicklung neuer und präziser Techniken eines gezielten Eingriffs in das Genom von Pflanzen, Tieren und des Menschen. Eingriffe in das Genom gehören seit vielen Jahren zum technischen Standardrepertoire der Biowissenschaften und speziell der Molekularbiologie, allerdings waren solche genetischen Verän derungen bisher wenig steuerbar und die Methoden wiesen eine geringe Effizienz auf. Mit der Herstellung und dem Einsatz von Zinkfinger-Nukleasen (ZFN) und Transcription Activator-Like Effec tor Nucleases (TALEN) wurde es – wenngleich mit erheblichem Aufwand – möglich, DNA-Stränge an definierten Stellen im Genom zu schneiden und dadurch gezielt Gene zu entfernen oder mit Hilfe des zelleigenen Reparatursystems zu modifizieren. Erst mit der Ent deckung und Entwicklung der CRISPR-Cas9-Technologie (CRISPR: Clustered Regularly Interspaced Short Palindromic Repeats; Cas: CRISPR associated protein) im Jahr 2014 steht ein Verfahren zur Verfügung, mit dem mit hoher Präzision und einfacher Handhabung doppelsträngige DNA punktgenau geschnitten werden kann, um an dieser Stelle neue DNA-Bausteine einzufügen, zu entfernen oder zu verändern.1 Versahen im Jahr 1972 die Ärzte und Wissenschaftler Theodore Friedman und Richard Roblin in ihrem Artikel »Gene The rapy for Human Genetic Disease?« die Möglichkeit einer Gentherapie beim Menschen noch mit einem Fragezeichen,2 gelangt diese Zielset zung mit dem technologischen Fortschritt im Bereich der sogenannten Genomeditierung nun in den Fokus therapeutischer Bemühungen.
1 2
Doudna & Charpentier, 2014. Friedmann & Roblin, 1972.
123 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
Auch die normativen Aspekte einer Gentherapie beim Menschen wurden in Ethik und Recht früh und intensiv diskutiert. Ein wesent liches Ergebnis besteht in der nach wie vor weithin akzeptierten grundsätzlich unterschiedlichen Bewertung einer somatischen Gen therapie und einer Keimbahntherapie. Im Wesentlichen orientieren sich die ethische und die rechtliche Beurteilung der Gentherapie an drei Argumenten: (1) der Unsicherheit und dem Risiko, die mit dem gentherapeutischen Eingriff für den Betroffenen verbunden sind, (2) einer möglichen oder intendierten Veränderung der Keimbahn durch die Gentherapie bei dem Betroffenen, durch die die genetische Ver änderung auf die Nachkommen folgender Generationen übertragen werden kann, sowie (3) der Legitimierung eines gentherapeutischen Eingriffs durch ein eindeutiges und nicht auf andere Weise zu errei chendes Therapieziel, das sich von einem Enhancement, nämlich einer Verbesserung von körperlichen oder mentalen Eigenschaften bei dem Betroffenen, klar abgrenzen lassen muss. Auch wenn diese drei Argumente eine gewisse Interdependenz aufweisen und kon zeptionell teilweise klärungsbedürftig erscheinen, besteht auf ihrer Grundlage ein breiter Konsens, dass eine Keimbahntherapie beim Menschen gegenwärtig nicht zu rechtfertigen ist. Dementsprechend fielen die Reaktionen der internationalen Wissenschaftsgemeinde auf den Vortrag des chinesischen Molekularbiologen He Jiankui auf der internationalen Konferenz über Geneditierung im November 2018 in Hongkong harsch aus, der von der Geburt zweier Zwillingsmädchen berichtete, in deren Genom er im frühen Embryonalstadium den Che mokin-Rezeptor CCR5 mittels des CRISPR-Cas-Verfahrens modifi ziert habe, um die Kinder vor einer Infektion mit dem HIV-Virus zu schützen. Dieser Bericht gab Anlass, ein weltweites Moratorium für Keimbahneingriffe beim Menschen zu fordern, bis die damit verbundenen technischen und ethischen Fragen geklärt sind.3 Gleichwohl wirft die Verfügbarkeit der CRISPR-Cas-Technolo gie die Frage auf, inwieweit die drei skizzierten Argumente gegen eine Gen- und Keimbahntherapie in Zukunft auch im Zusammenhang mit CRISPR-Cas-vermittelten Eingriffen in das Genom ihre normative Kraft behalten können. Dieser Frage soll im Folgenden nachgegangen werden, indem zunächst das Verfahren der CRISPR-Cas-Technologie kurz dargestellt wird (Kapitel 1) und anschließend die Begriffe der Keimbahn und der Keimbahntherapie dargelegt werden sowie am 3
Lander et al., 2019.
124 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
Beispiel der genetisch bedingten Erkrankung der Cystischen Fibrose eine CRISPR-Cas9-gestützte Methode vorgestellt wird, die geeig net sein könnte, bei einem gentherapeutischen Eingriff im frühen Embryonalstadium eine Übertragung der genetischen Veränderungen auf die nachfolgenden Generationen zu vermeiden (sog. Eine-Gene ration-Keimbahntherapie) (Kapitel 2). Nachfolgend wird vor diesem Hintergrund untersucht, inwieweit sich mit der veränderten Technik in Bezug auf die genannten drei ethischen Argumente neue Fragen stellen (Kapitel 3), und in einem kurzen Ausblick zusammengefasst, welche Herausforderungen mit der Einführung der CRISPR-CasTechnologie für die normative Beurteilung der Gentherapie beim Menschen verbunden sind (Kapitel 4). Im Folgenden werden Eingriffe in das Genom eines Embryos als Genomtherapie bzw. Genomeditierung bezeichnet. Mit dieser Bezeichnung soll einer noch ausstehenden Differenzierung zwischen Gentherapie und Genomtherapie bzw. genomischen Therapien nicht vorgegriffen werden. Vielmehr soll diese Begriffsverwendung dem Umstand Rechnung tragen, dass mit dem hier dargestellten Eingriff in das Genom eines Embryos »sein Genom«, d.h. alle Zellen und somit der gesamte Organismus des zukünftigen geborenen Individuums, betroffen sein werden.
1. Die CRISPR-Cas9-Technologie Die CRISPR-Cas-Technologie basiert auf einem Abwehrmechanis mus, den Bakterien gegen fremde DNA entwickelt haben, die z. B. durch ein Eindringen von Bakteriophagen oder Plasmiden in die Bakterienzelle hineingetragen wird. Das bakterielle Genom enthält eine bestimmte Sequenz von sich wiederholenden palindromen Sequenzabschnitten (CRISPR), zwischen denen fremde DNA (z. B. aus einem Bakteriophagen, nachdem das Bakterium diesen zerstören konnte) integriert werden kann (sog. Spacer). Die Transkription des Bakteriengenoms führt zu einer CRISPR-RNA (crRNA), die nun die Spacer-DNA des Bakteriophagen sowie die genannten palindromen CRISPR-Sequenzen des Bakteriengenoms enthält. Bei einem erneu ten Befall des Bakteriums durch den gleichen Bakteriophagen-Typ kann die Spacer-Sequenz der crRNA an die sequenzgleiche Bakterio phagen-DNA binden. Dieser Komplex formt eine Anlagerungsstelle für eine Endonuklease der Bakterienzelle (CRISPR-associated protein
125 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
(Cas)), die die fremde Doppelstrang-DNA des Bakteriophagen mit glatten Enden schneidet, wodurch die DNA des Bakteriophagen und damit die Möglichkeit seiner Replikation zerstört wird. Der CRISPRMechanismus vermittelt daher eine »Immunität« des Bakteriums gegen einen wiederholten Befall mit der gleichen fremden DNA. Dieser Mechanismus kann im Reagenzglas nachgebildet werden. Eine crRNA (sog. guide-RNA) kann synthetisch in der Weise herge stellt werden, dass die »Spacer«-Sequenz genau der gewünschten DNA-Sequenz entspricht, an der die Endonuklease (Cas) im Genom einer Zelle einen glatten Schnitt durch die DNA ausführen soll. Die crRNA »leitet« dabei durch ihre höchst spezifische Bindung an die gewünschte genomische DNA-Sequenz die Endonuklease an die richtige Stelle. Durch den Schnitt der DNA wird ein zelleigener Reparatur-Mechanismus ausgelöst, der darauf gerichtet ist, die bei den Enden der DNA wieder zusammenzufügen. Wenn in dieser Phase definierte DNA-Sequenzen (sog. donor-DNA) in die Zelle zugegeben werden, können diese präzise an der gewünschten Stelle in die DNA des Genoms integriert werden (homology driven repair, HDR). Auf diese Weise können auch gezielt definierte Deletionen von DNA-Sequenzen im Genom erzeugt werden. Notwendig für dieses System sind daher drei Komponenten, nämlich die synthetisch hergestellte guide-RNA mit einer gewünschten definierten »Spacer«Sequenz, die Endonuklease (Cas) sowie die donor-DNA, die der zu modifizierenden Zelle zugeführt werden. Aufgrund der Ubiquität des genetischen Codes kann dieses Verfahren bei Pflanzenzellen, tierischen und menschlichen Zellen im Prinzip in gleicher Weise angewendet werden. Wenngleich mit der CRISPR-Cas-Technologie eine ganz erheb liche Weiterentwicklung in Bezug auf Effizienz, Präzision, Vereinfa chung und Geschwindigkeit einer gezielten Genomeditierung erreicht wurde, ist das Verfahren in der gegenwärtigen Ausreifung allerdings keinesfalls frei von Fehlern. Solche können etwa durch die Insertion oder Deletion von DNA-Sequenzen an nicht gewünschten Stellen entstehen, was zum einen durch die Aktivität der Endonuklease an einer falschen Stelle im Genom, zum anderen aber durch den Umstand bedingt sein kann, dass alle HDR-vermittelten Genmodifi zierungen eine Teilung der Zelle benötigen, bei der zugeführte donorDNA-Sequenzen dann auch fälschlich in das Genom eingefügt wer den können. Solche unbeabsichtigten Veränderungen des Genoms mit unbekannten Auswirkungen auf die behandelten Zellen werden als
126 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
off-target-Mutationen bezeichnet, und ihre Möglichkeit hat zur Folge, dass eine Genommodifizierung mittels der CRISPR-Cas-Methode nach wie vor durch eine Sequenzanalyse des Genoms der modifizier ten Zellen überprüft werden muss. Dies wiederum schränkt das kli nische Anwendungsspektrum der CRISPR-Cas-Methode gegenwär tig vor allem auf Zellen in Zellkultur ein, die zunächst vereinzelt und anschließend klonal herangezüchtet werden können und von denen ein Aliquot für die Sequenzanalyse verwendet werden kann. Dies trifft z. B. für pluripotente Stammzellen zu. Mit der CRISPR-Cas-Technologie lassen sich jeweils Verände rungen an mehreren unterschiedlichen Stellen des Genoms einfügen. Für eine Anwendung im klinischen Zusammenhang einer Genthera pie ist daher zu erwarten, dass mit diesem Verfahren im Prinzip auch polygenetisch bedingte Erkrankungen therapiert werden können. Dies hat allerdings zur Voraussetzung, dass das Zusammenspiel ver schiedener Gene umfassend verstanden ist, wovon gegenwärtig in den meisten Fällen nicht auszugehen ist. Überdies müssen Erkenntnisse darüber gewonnen werden, inwieweit eine wiederholte Anwendung des Verfahrens in der gleichen Zellpopulation mit Schädigungen oder Veränderungen der Zellphysiologie einhergeht. Gegenwärtig bezie hen sich Szenarien einer klinischen Anwendung der CRISPR-CasMethode vor allem auf genetisch bedingte Erkrankungen, die durch Mutationen in einem einzigen Gen verursacht werden. Eine solche monogenetisch bedingte Erkrankung liegt etwa beim Krankheitsbild der Cystischen Fibrose vor.
2. Genetischer Eingriff in die Keimbahn und ein Vorschlag für eine »Eine-Generation-Keimbahntherapie« Mit der Entdeckung der Eizelle und der Samenzelle als Ausgangszel len für einen Embryo in der zweiten Hälfte des 19. Jahrhunderts entstand die Frage, wie diese Keimzellen entstehen und wie sie wäh rend der Entwicklung des Organismus, aber auch über die aufeinan derfolgenden Generationen der Nachkommen hinweg ihre generative Potenz erhalten. Auf dieser Basis entwickelte der Freiburger Zoologe August Weismann (1834–1914) die Keimplasma-Theorie, derzufolge vielzellige Organismen zum einen aus somatischen Zellen, die mit ihrem sogenannten Körperplasma die Körperfunktionen ausführen
127 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
und bei ihrer funktionalen Differenzierung Teile ihrer Erbinforma tion verlieren, und zum anderen aus Keimzellen bestehen, die die Erbinformation unverändert erhalten und an die nächste Generation weitergeben. Während Informationen aus dem Keimplasma in das Körperplasma gelangen können, ist der Keimplasma-Theorie zufolge der umgekehrte Weg des Informationsflusses aus dem Körperplasma in das Keimplasma nicht möglich. Demnach bleibt das Keimplasma von der Entwicklung und Differenzierung des Organismus und so auch von erlernten Fähigkeiten unberührt, eine Theorie, die als die Weismann-Barriere bezeichnet wird. Insbesondere können Keim zellen nicht aus Körperzellen hervorgehen, sondern stellen direkte Abkömmlinge der Keimzellen der vorherigen Generation dar. Vor diesem Hintergrund wurde die Vorstellung von der Keimbahn ent wickelt, zu der als Keimbahnzellen alle Zellen gehören, die daran beteiligt sind, die Erbinformation von Generation zu Generation wei terzugeben. Hierzu gehören die Keimzellen (Eizelle und Samenzelle), der hieraus hervorgehende Embryo, dessen sich differenzierende Vorläuferzellen der Eizellen bzw. Samenzellen sowie wieder die diffe renzierten Keimzellen (Eizellen bzw. Samenzellen) des entwickelten Organismus. Auch wenn heutige Kenntnisse die Weismann-Barriere in ihrer postulierten Geschlossenheit als nicht zutreffend ausweisen, stellt die Vorstellung von der Keimbahn und den Keimbahnzellen eine plausible und operationalisierbare Konstruktion dar, die es erlaubt, somatische Zellen etwa von den Zellen eines frühen Embryos zu unterscheiden und hiermit unterschiedliche Wertungen zu verbin den. Auch das deutsche Embryonenschutzgesetz greift auf die Unter scheidung zwischen Keimbahnzellen und somatischen Zellen zurück: »Keimbahnzellen im Sinne dieses Gesetzes sind alle Zellen, die in einer Zell-Linie von der befruchteten Eizelle bis zu den Ei- und Samenzellen des aus ihr hervorgegangenen Menschen führen, ferner die Eizelle vom Einbringen oder Eindringen der Samenzelle an bis zu der mit der Kernverschmelzung abgeschlossenen Befruchtung.«4 Mit dieser Definierung ihrer Konstituenten wird zugleich der Zyklus der Keimbahn beschrieben. Ein gentherapeutischer Eingriff in Keimbahnzellen hat naturge mäß zur Folge, dass die eingeführten genetischen Veränderungen an die Nachkommen aller kommenden Generationen weitergegeben werden. Dabei muss dieser Weitergabe keineswegs die therapeuti 4
Gesetz zum Schutz von Embryonen, 1990, § 8, Abs. 3.
128 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
sche Intention einer Keimbahntherapie zugrunde liegen, sondern sie ergibt sich in der Regel als unerwünschte, gleichwohl unumgängliche Nebenwirkung. Bei manchen genetisch bedingten Erkrankungen, für die z. B. die Funktion eines Gens in einer einzelnen Zellpopulation ursächlich sind, könnte sich in Zukunft eine Transplantation von körpereigenen reprogrammierten und gewebespezifisch differenzier ten Stammzellen des Patienten (iPS-Zellen) als möglich erweisen, deren krankheitsverursachende Genmutation zuvor in vitro zu einem physiologisch funktionsfähigen Gen modifiziert wurde. Viele andere genetisch bedingte Erkrankungen erfordern jedoch eine Normalisie rung mehrerer oder zahlreicher unterschiedlicher Zellpopulationen im Körper, die nach gegenwärtig verfügbaren Methoden nur durch eine Gentherapie im frühen Embryonalstadium zu erreichen ist. Ein solcher Eingriff würde allerdings einen gleichzeitigen und nicht intendierten Eingriff in die Keimbahn darstellen. Als Beispiel für eine solche Erkrankung, die durch eine Mutation in einem einzigen Gen hervorgerufen wird, sich jedoch in zahlreichen unterschiedlichen Zelltypen und damit in unterschiedlichen Organ systemen des Körpers manifestiert, kann die oben genannte Cystische Fibrose (CF), auch bekannt unter dem Begriff der Mukoviszidose, dienen. Zugrunde liegen eine oder mehrere Mutationen des Gens, das das Protein Cystic Fibrosis Transmembrane Conductance Regulator (CFTR) codiert. Dieses Protein formt einen Chlorid-Ionenkanal, der in die Zellmembran von unterschiedlichen exokrinen Drüsenzellen eingelagert ist und für eine geeignete Zusammensetzung der von diesen Zellen gebildeten Sekrete verantwortlich ist. Eine Mutation im CFTR-Gen kann zu einer gestörten oder gänzlich ausgefallenen Funk tion des CFTR-Proteins führen, wodurch die produzierten Sekrete einen zu geringen Wassergehalt aufweisen und durch ihre erhöhte Zähflüssigkeit zu einer Schädigung der jeweiligen Körperorgane füh ren können. Solche Schädigungen betreffen unterschiedliche Systeme wie z. B. die Düsen der Bronchialschleimhaut, die Bauchspeicheldrüse (Pankreassekret), die Leber (Galle), die Geschlechtsorgane und die Geschlechtsdrüsen (z. B. Prostata), den Darm und die Schweißdrüsen. Über 2000 verschiedene Mutationen im CFTR-Gen sind bekannt, die bei den Betroffenen jeweils zu einer unterschiedlich starken Ausprä gung der Erkrankung führen können. Eine schwere Form der CF ist eine tödlich verlaufende Erkrankung, und eine kurative Therapie der CF ist derzeit nicht bekannt bzw., sofern eine Gentherapie in den Blick genommen wird, nicht etabliert. Erste Symptome einer CF zeigen
129 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
sich meist bereits in der frühen Kindheit. Die Entwicklung neuer konservativer Behandlungsmethoden hat allerdings dazu geführt, dass die mittlere Lebenserwartung von betroffenen Patienten derzeit auf etwa vier Jahrzehnte erweitert werden konnte. Bei der CF handelt es sich um einen autosomal-rezessiven Erb gang und um die häufigste autosomal-rezessiv vererbte Erkrankung beim Menschen. Demnach wird die Erkrankung klinisch manifest, wenn beide Elternteile ihrem Kind jeweils ein mutiertes Gen vererbt haben und daher beide Allele (d. h. die Genorte auf dem vom Vater und von der Mutter stammenden Chromosom) für das CFTR-Gen mutiert sind; wenn nur ein mutiertes CFTR-Gen von einem Elternteil vererbt wurde, kann das vom anderen Elternteil vererbte normale CFTR-Gen die fehlende Funktion weitestgehend kompensieren, d. h. die Betroffenen erkranken nicht. Eltern, die jeweils nur in einem ihrer beiden Allele eine entsprechende Mutation des CFTR-Gens tragen (heterozygot) und daher selbst nicht erkrankt sind, vererben das mutierte Gen nach den Mendelschen Regeln. Demnach ist zu erwar ten, dass 25 % der Nachkommen in beiden Allelen ein normales Gen tragen, 50 % in einem Allel ein normales und in dem anderen Allel ein mutiertes Gen und 25 % in beiden Allelen ein mutiertes Gen haben. Nur in der letzteren Gruppe wird die Erkrankung der CF kli nisch manifest, d. h. nur 25 % der Nachkommen sind phänotypisch von der Erkrankung betroffen. Wenn bei einem Elternpaar bekannt ist, dass beide Eltern jeweils heterozygote Träger einer Mutation im CFTR-Gen sind, kann eine Testung eines Nachkommens auf CF frühestens als Präimplantati onsdiagnostik (PID) im Embryonalstadium vorgenommen werden, sofern der Embryo durch In-vitro-Fertilisation erzeugt wurde. Bei etablierter Schwangerschaft würde eine Fruchtwasseruntersuchung eine Diagnose erbringen. Wollte das Elternpaar von vornherein ein klinisch erkranktes Kind ausschließen, müsste entweder der betrof fene Embryo in vitro nicht weiterentwickelt oder die Schwangerschaft abgebrochen werden. Beide Möglichkeiten sind aus ethischen Grün den problematisch. Eine weitere Möglichkeit, zu einem gesunden Kind zu gelangen, ohne eine Auswahl treffen und gegebenenfalls einen Embryo oder Fötus vernichten zu müssen, könnte in Zukunft möglicherweise in einer Gentherapie des Embryos z. B. mittels der CRISPR-Cas-Technik bestehen. Die genetische Veränderung müsste allerdings bereits im Stadium der Zygote, dem frühesten Stadium eines Embryos als Ein-Zell-Embryo, vorgenommen werden, denn das
130 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
CFTR-Gen soll in allen Zellen des sich zu einem komplexen Organis mus entwickelnden Embryos normalisiert werden. Zwar könnte eine Geneditierung durch CRISPR-Cas auch zu einem späteren Zeitpunkt, etwa im Embryo im Vier- oder Acht-Zell-Stadium durchgeführt werden, jedoch wäre wegen der Möglichkeit von unterschiedlichen off-target-Mutationen in den verschiedenen Zellen nicht sicherge stellt, dass überhaupt alle Zellen des Organismus und diese zudem in gleicher Weise genetisch verändert wurden; denkbar wäre, dass in einer der vier bzw. acht Zellen eine physiologisch relevante off-tar get-Mutation erzeugt würde, die dann auf alle sich hieraus teilenden weiteren Zellen des Organismus übertragen würde. Der Organismus würde sich in diesem Fall als ein sogenanntes genetisches Mosaik entwickeln, was möglicherweise mit schädlichen Auswirkungen auf den Organismus verbunden wäre. Eine solche Genomtherapie im Ein-Zell-Stadium würde aller dings mehrere Besonderheiten aufweisen. Erstens müsste die Geno meditierung ohne vorherige diagnostische Klärung der Frage durch geführt werden, ob bei dem betreffenden Embryo tatsächlich eine Mutation des CFTR-Gens vorliegt. Denn eine solche genetische Diagnostik kann nur an dem Genom einer Zelle durchgeführt wer den, die dann durch das Nachweisverfahren zerstört wird, was bei einem Embryo im Ein-Zell-Stadium bedeuten würde, diesen zu ver nichten. Daher kann eine Genomtherapie, bei der alle Zellen des Organismus in gleicher Weise genetisch verändert werden sollen, nur ohne gesicherte Diagnose und – im hier angenommenen Fall – nur auf der Grundlage einer Wahrscheinlichkeit für das klinisch manifeste Auftreten einer CF durchgeführt werden, die sich ihrerseits am genetischen Status der Eltern orientiert. Zweitens wäre nach Durchführung der Genomtherapie mit dem CRISPR-Cas-Verfahren und Weiterentwicklung des Embryos in ein Viel-Zell-Stadium die Durchführung einer PID notwendig, um die gewünschte Genmodifi zierung sowie mögliche off-target-Mutationen im Genom erkennen und ggf. entscheiden zu können, ob der Embryo weiterentwickelt und zur Geburt gebracht werden soll. Drittens ist offensichtlich, dass eine Genomtherapie in einem Ein-Zell-Embryo immer auch eine Keim bahntherapie darstellen würde, da alle Zellen des sich entwickelnden Organismus genetisch verändert werden und sich aus der Zygote zu einem späteren Zeitpunkt in der Embryonalentwicklung u. a. auch die Keimbahn- und Keimzellen entwickeln.
131 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
Für eine Genomtherapie mit der CRISPR-Cas-Technik lassen sich zwei unterschiedliche Szenarien denken.5 In beiden Fällen wird angenommen, dass beide Eltern jeweils heterozygot für eine Muta tion im CFTR-Gen sind und dass eine In-vitro-Fertilisation durchge führt wird:
(1) Genomeditierung im Ein-Zell-Embryo direkt im endogenen Genort In diesem Szenario wird beim Ein-Zell-Embryo mittels der CRISPRCas-Technik das mutierte CFTR-Gen direkt im endogenen Genort im Genom gezielt verändert, so dass ein funktionell normalisiertes Gen resultiert. Damit würden alle CFTR-Allele des Embryos, ob mutiert oder normal, mit der normalen Wildtyp-Sequenz, die als donor-DNA bei dem CRISPR-Cas-Verfahren verwendet wird, remodelliert, so dass nach der Editierung im endogenen Genort in jedem Fall funk tionell normale Allele vorliegen. Alle Zellen des sich entwickelnden Organismus einschließlich der Keimzellen würden das korrigierte Gen tragen und das normalisierte CFTR-Protein produzieren. Dem zufolge wäre zu erwarten, dass auch alle Nachkommen des sich entwickelnden Organismus das korrigierte CFTR-Gen tragen und ein normal funktionsfähiges CFTR-Protein herstellen würden.
(2) Eine-Generation-Genomeditierung6 In diesem Szenario wird beim Ein-Zell-Embryo nicht der endogene Genort des CFTR-Gens verändert, sondern mittels CRISPR-CasTechnik eine künstlich erzeugte Gen-Kassette (sog. Transgen) in eine derjenigen Regionen des Genoms eingefügt, die als safe harbour sites bezeichnet werden. Solche Regionen erlauben eine stabile Inte gration von Transgenen in die DNA, ohne dass die Transgene durch benachbarte Gene oder regulatorische DNA-Sequenzen aktiviert oder unterdrückt werden. Diese Transgen-Kassette enthält nun nicht nur die normale Wildtyp-Sequenz des CFTR-Gens unter der Kontrolle des physiologischen Promoters für das CFTR-Gen, sondern zudem ein Vgl. im Folgenden Schleidgen et al., 2020. Vgl. Schleidgen et al., 2020. Das hier beschriebene hypothetische Szenario wurde von Tobias Cantz entwickelt. 5
6
132 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
Rekombinase-Gen unter der Kontrolle eines Keimzellen-spezifischen Promoters. Eine solche DNA-Rekombinase ist ein Enzym, das DNA an definierten Erkennungsstellen der DNA-Sequenz zu schneiden und die offenen Enden wieder zusammenzufügen vermag. Die GenKassette besitzt an ihren beiden Enden überdies solche DNA-Erken nungssequenzen für die Rekombinase (sog. P-lox sites). Von der in das Genom aller Körperzellen des sich entwickelnden Organismus eingefügten Gen-Kassette kann nun das Wildtyp-CFTR-Gen abge lesen und somit ‑ parallel zu dem ggf. mutierten Genprodukt im endogenen Genort ‑ ein normales CFTR-Protein hergestellt werden, das eine weitestgehend normale physiologische Sekretherstellung in den Körperorganen gewährleistet. Hingegen wird in den Keimzellen des Organismus zusätzlich der Keimzellen-spezifische Promoter in der Kassette aktiviert und daher die DNA-Rekombinase produziert, die ihrerseits an den die Kassette flankierenden Erkennungsstellen die DNA-Sequenzen schneidet und auf diese Weise die gesamte Kassette aus dem Genom entfernt. Die beiden Enden des Genoms werden wieder miteinander verbunden, wobei einige wenige funktionell inak tive Basenpaare der Erkennungsstellen im Genom zurückbleiben (sog. footprints), während die ausgeschnittene Gen-Kassette abge baut wird. Als Ergebnis bleibt der endogene Genort des CFTR-Gens in allen Zellen unverändert; das zusätzliche, mit der Gen-Kassette eingefügte normale CFTR-Gen wird in allen somatischen Zellen erzeugt und gewährleistet einen normalen Phänotyp, während in allen Keimzellen des sich entwickelnden Organismus die Gen-Kassette physisch aus dem Genom entfernt wird und daher nicht mehr auf nachkommende Generationen übertragen werden kann.
3. Ethische Fragen Vor dem Hintergrund der beschriebenen Techniken einer Genomedi tierung und den Möglichkeiten ihrer Anwendung zum Zwecke einer Genomtherapie stellen sich im Hinblick auf die bisher im Zusam menhang mit einer Gentherapie beim Menschen herangezogenen ethischen Argumente zahlreiche neue Fragen. Die deutliche Verbes serung der Präzision einer Genomeditierung durch das CRISPR-CasVerfahren stellt die Frage nach den Risiken und Nebenwirkungen erneut auf den Prüfstand. Die – oben dargestellte, gleichwohl derzeit bloß theoretische – Möglichkeit, eine Keimbahntransmission einer
133 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
vorgenommenen genetischen Veränderung durch eine Eine-Genera tion-Keimbahntherapie zu vermeiden, lenkt den Blick auf normative Bewertungen der Keimbahn und hiermit verbundene Verantwor tungszusammenhänge. Die besonderen Umstände einer Genomthe rapie im Embryo im Ein-Zell-Stadium wirft die Frage nach dem Hand lungstyp des Eingriffs auf, der hier zur Anwendung kommen soll. Und die Tatsache, dass die genetische Manipulation an einem Embryo vor genommen wird, lässt Fragen nach dem moralischen und rechtlichen Status des menschlichen Embryos in den Blick gelangen. Viele dieser Fragen stehen offenbar inhaltlich miteinander in Beziehung. Im Fol genden sollen diese Fragen skizzenhaft dargestellt werden.
3.1 Risiken und Ungewissheiten Die vor der Einführung des CRISPR-Cas-Verfahrens verfügbaren Techniken für eine Genomeditierung waren zu wenig präzise, um mit hinreichender Effizienz eine gezielte genetische Veränderung in dem komplexen Genom einer einzelnen Zelle vorzunehmen. Die mit den verfügbaren Methoden zu erreichenden Ergebnisse machten es erforderlich, die genetischen Veränderungen in zahlreiche Zellen einzuführen, die Zellen zu vereinzeln, als Zellklone heranwachsen zu lassen und jeweils auf die gewünschte und auf unerwünschte geneti sche Veränderungen zu untersuchen. Für die genetische Veränderung von menschlichen Embryonen ist ein solches Verfahren ungeeignet, da zahlreiche Embryonen erzeugt, genetisch modifiziert, entwickelt, getestet und in ganz überwiegender Mehrzahl verworfen werden müssten. Mit der CRISPR-Cas-Technologie steht nun allerdings ein Verfahren zur Verfügung, das im Prinzip den Anforderungen für eine Genomeditierung in einzelnen menschlichen Embryonen ent sprechen könnte. Zweifelsohne ist die CRISPR-Cas-Technik gegen wärtig nicht präzise genug, um im menschlichen Embryo angewendet werden zu können. Die mit dem Verfahren verbundenen off-targetEffekte sind gegenwärtig zu wenig vorhersehbar und steuerbar, als dass gravierende unerwünschte Nebenwirkungen mit hinreichender Sicherheit vermieden werden könnten. Bei Anwendung in menschli chen Ein-Zell-Embryonen – so wäre aus ethischer Sicht zu folgern – würden genetisch modifizierte Embryonen daher inakzeptable Risi ken im Hinblick auf ihr Leben als Individuum und ihre Gesundheit
134 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
tragen. Allerdings richten sich derzeit intensive Bemühungen darauf, die Präzision des CRISPR-Cas-Verfahrens zu erhöhen,7 so dass möglicherweise in Zukunft ein im Hinblick auf Präzision erheblich verbessertes CRISPR-Cas-Verfahren zur Verfügung stehen könnte. Neben verfahrensbedingten Risiken und Ungewissheiten einer Genomeditierung bestehen solche allerdings auch in Bezug auf das gegenwärtige Verständnis von der Funktion und Interaktion von Genen und ihrer epigenetischen Regulierung in einem komplexen Genom, zudem – im Falle eines Embryos – im Hinblick auf ihre mög liche Rolle bei der Entwicklung des Embryos. Mutationen in einem einzigen Gen, die infolge einer Veränderung des Genprodukts zu einer definierten Erkrankung des Individuums führen, sind durchaus bekannt; hierzu gehört etwa das oben dargestellte Krankheitsbild der CF. Zahlreiche in der Bevölkerung weit verbreitete Erkrankungen weisen allerdings einen komplexen polygenetischen Hintergrund auf, der mit simplen Schlussfolgerungen nicht zu erfassen sowie mit der Editierung eines einzigen Gens nicht zu behandeln ist und die betroffenen Individuen nicht vertretbaren Risiken aussetzen würde. Die Begründung des chinesischen Biologen He für seine oben dar gestellte Keimbahn-Genomtherapie des CCR5-Rezeptors in mensch lichen Embryonen kann diesbezüglich als abschreckendes Beispiel dienen. Eine mögliche Genomtherapie beim Embryo würde sich daher bereits aufgrund des gegenwärtigen Wissensstands über das Genom und seine Funktionen auf einige wenige Szenarien beschränken. Gleichwohl bleiben die ethischen Fragen, welches Risiko einer Genomtherapie als gerechtfertigt erscheint und wie das Eingehen eines Risikos legitimiert werden kann. Eine naheliegende Antwort könnte darin bestehen, dass die Alternative zu einer Genomtherapie in einem Ein-Zell-Embryo von Eltern, die beide in ihrem Genom jeweils heterozygot das Merkmal für eine rezessiv vererbbare Krank heit tragen, in einer genetischen Testung des Embryos durch eine PID und gegebenenfalls in seiner Verwerfung besteht. Diese letztere Mög lichkeit würde zumindest die ca. 25 % der Embryonen betreffen, die in beiden Allelen des betreffenden Gens eine Mutation tragen. Vor diesem Hintergrund wäre abzuwägen, ob der Embryo mit der gene tisch bedingten Erkrankung implantiert und die Erkrankung in Kauf genommen wird, ob er verworfen oder ob er einer Genomtherapie unterzogen werden soll mit entsprechenden Risiken für uner 7
Fellmann et al., 2017.
135 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
wünschte und gegebenenfalls gravierende Nebenwirkungen, z. B. durch off-target-Mutationen. In Bezug auf die Alternativen, dem Embryo das Weiterleben zu verwehren oder ihn durch Genomeditie rung zu therapieren, lassen sich valide Argumente anführen, die die Inkaufnahme hoher Risiken bei der Genomtherapie rechtfertigen. Die Risiken einer Genomtherapie könnten zudem durch eine nachfol gende PID des genetisch modifizierten Embryos, mit der mögliche off-target-Mutationen frühzeitig erkannt werden können, genauer eingeschätzt werden. An eine solche PID würde sich allerdings erneut die Frage anschließen, ob im Falle des Nachweises gravierender offtarget-Mutationen der Embryo verworfen oder implantiert werden soll. Beide Möglichkeiten wären durch den Umstand gekennzeichnet, dass es sich jetzt um eine fremdinduzierte, iatrogene Mutation bzw. Schädigung des Embryos handeln würde, mit der neue Verantwor tungsverhältnisse begründet werden. Je nach betroffenem Gen und einer zu erwartenden erheblich eingeschränkten Überlebensfähigkeit des Embryos bzw. Fötus durch die genetisch bedingte Erkrankung könnte eine mit hohen Risiken verbundene Genomtherapie als Ultima Ratio im Sinne eines indivi duellen Heilversuchs rechtfertigt werden. Diese Begründung würde allerdings voraussetzen, dass die Erkrankung lebensbedrohlich oder mit sehr schweren Beeinträchtigungen verbunden ist, dass keine alternativen Behandlungsmethoden – etwa solche nach der Geburt – existieren und dass die Genomtherapie eine plausible theoretische und experimentell gesicherte Grundlage hat. Schwieriger wird die Rechtfertigung der mit einer Genomtherapie verbundenen Risiken, wenn die zu erwartende Erkrankung nicht unmittelbar lebensbedroh lich ist. In solchen Szenarien sind u.a. die Risiken einer iatrogenen Schädigung gegen die Schwere der genetischen Erkrankung abzuwä gen, was komplexe Abwägungen im Einzelfall erfordert. Im Fall der CF sind z. B. Mutationen im CFTR-Gen bekannt, die zu einer sehr milden körperlichen Beeinträchtigung und keiner Einschränkung der Lebenserwartung führen; der Nachweis einer solchen Mutation bei den Eltern würde demnach eine Genomtherapie beim Embryo beim gegenwärtigen Stand dieser Technik nicht rechtfertigen. Eine weitere Frage bezieht sich auf eine Quantifizierung des mit einer Genomtherapie verbundenen Risikos. So wäre etwa zu fragen, ob eine Genomtherapie und die mit ihr verbundenen Risiken zu rechtfertigen sind, wenn die CRISPR-Cas-Technik in einer Weise fortentwickelt werden könnte, dass das Risiko für off-target-Muta
136 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
tionen desjenigen der natürlichen Mutationsrate bei der Zellteilung entspricht. Auch wenn die Replikation des Genoms bei der natürli chen Zellteilung sehr zuverlässig abläuft, entstehen doch andauernd Mutationen im Genom, die teilweise durch zelleigene Mechanismen korrigiert werden, teilweise jedoch auch im Genom erhalten bleiben. Zumindest in quantitativer Hinsicht könnte die natürliche Mutati onsrate als eine rechtfertigende Grenze für das Risiko für off-targetMutationen herangezogen werden, wobei die Frage zu klären ist, ob mit dem CRISPR-Cas-Verfahren spezifische Mutationen verbunden sind, die sich durch die natürliche Mutation nicht ergeben, und somit ein qualitativer Unterschied zwischen beiden Ereignissen besteht. Zusammenfassend wird das Risiko von off-target-Mutationen bei der Genomtherapie von menschlichen Embryonen beim gegen wärtigen Stand der CRISPR-Cas-Technik als zu hoch angesehen, als dass eine Genomtherapie vertretbar wäre. Nach entsprechender Weiterentwicklung des Verfahrens könnte das Risiko am ehesten mit dem Risiko in Abwägung gebracht werden, das durch die Schwere der zu erwartenden genetisch bedingten Erkrankung für das Individuum resultiert, und eine Behandlung im Sinne eines individuellen Heil versuchs gerechtfertigt werden. Ein kategorischer Ausschluss einer Genomtherapie beim Embryo aufgrund des Risikos der Behandlung erscheint allerdings im Lichte der neueren und zukünftiger Entwick lungen nicht mehr gerechtfertigt.
3.2 Keimbahneingriff Wie oben dargestellt, ist mit der Genomtherapie eines Embryos im Ein-Zell-Stadium in jedem Fall ein Eingriff in die Keimbahn verbunden, da die befruchtete Eizelle, die Zygote, zu den Keimbahn zellen zählt und sich hieraus u. a. die Keimzellen des Organismus entwickeln. Mit der Möglichkeit einer Genomtherapie beim Embryo stellt sich daher u. a. die Frage, inwieweit es zu rechtfertigen ist, die im Genom des Embryos erzeugten genetischen Veränderungen auch auf die Generationen seiner Nachkommen zu übertragen. Die in der ethischen Debatte um den Schutz der Keimbahn verwendeten Argumente lassen sich grob in drei Gruppen unter scheiden: konkret wissenschaftlich-medizinische, die vorwiegend die Konsequenzen eines Eingriffs für den Einzelnen behandeln, politisch-
137 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
gesellschaftliche, die politische, ökonomische und soziale Folgen fokussieren, und prinzipielle Argumente, die in kategorischer Weise den Eingriff selbst in den Blick nehmen.8 Zur ersten Gruppe zählen, speziell im Hinblick auf die Keimbahn, die Sicherheitsbeurteilung des Verfahrens, aber auch das Problem einer Begrenzbarkeit auf solche therapeutischen Anwendungen, die sich klar von Formen einer Verbesserung körperlicher oder kognitiver Eigenschaften (Enhance ment) unterscheiden. Die Argumente der zweiten Gruppe, die poli tische, ökonomische und soziale Folgen eines Eingriffs behandeln, beziehen sich auf schwerwiegende Veränderungen der konkreten sozialen Beziehungen, die durch gezielte technische Manipulationen des Erbguts angestoßen werden könnten und zudem das Genom zu einem technischen Produkt werden lassen. Die Argumente der dritten Gruppe nehmen eine kategorische Perspektive ein und bezie hen sich in prinzipieller Weise auf die menschliche Würde oder die menschliche Natur, in die durch die Intervention unangemessen eingegriffen werde. Eine solche kategorische Bedeutung unterliegt etwa einer Auffassung vom menschlichen Genom als dem »Erbe der Menschheit«, dessen Manipulation durch den Menschen moralisch inakzeptabel sei,9 oder aber auch der These der Enquete-Kommission des Deutschen Bundestages »Chancen und Risiken der Gentechnolo gie«, dass die Würde des Menschen »wesentlich in der Geburtlichkeit und Naturwüchsigkeit seines Ursprungs, die er mit allen anderen Menschen teilt«, zu verstehen sei.10 Wenngleich die kontroverse Debatte um diese kategorischen Argumente zeigt, dass ein Bezug auf die Natur innerhalb der Ethik notorisch schwierig ist, stellen sie wei terhin einen bedeutsamen und zentralen Bestandteil der Argumente für einen Schutz der Keimbahn und die Verantwortung für kommende Generationen dar. »Auch im Fall einer in Zukunft möglicherweise risi koarmen Keimbahnintervention scheint sich die ethische Problematik nicht gänzlich aufzulösen.«11 Diese Argumente, wenngleich kontrovers beurteilt, treffen für alle Fälle zu, in denen eine gezielt ins Genom eingefügte Genverän derung an die Nachkommen weitergegeben wird. Wie oben darge stellt, lässt sich mit der CRISPR-Cas-Technologie allerdings ein – gegenwärtig fiktiver, wenngleich technisch plausibler – Ansatz für 8 9 10 11
Vgl. Advena-Regnery et al., 2018, S. 284 ff. UNESCO, 1997. Enquete-Kommission, 1987, S. 187. Advena-Regnery et al., 2018, S. 285.
138 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
eine Genomtherapie beim menschlichen Embryo konstruieren, mit dem die im behandelten Embryo erzeugte genetische Veränderung nicht auf die Nachkommen übertragen wird. Formal handelt es sich nach wie vor um eine Keimbahntherapie, da neben den somatischen Zellen des Embryos auch dessen Keimbahnzellen betroffen sind. Jedoch wird das eingeführte Genkonstrukt in den Keimzellen physisch wieder aus dem Genom entfernt, wobei einige wenige DNA-Basen paare (footprints) zurückbleiben, die keine funktionelle Bedeutung besitzen. Es wäre zu folgern, dass diejenigen ethischen Argumente, die sich auf die nachkommenden Generationen beziehen, in diesem Szenario durch die technische Weiterentwicklung irrelevant werden. Eine besondere ethische Relevanz der auch in den Genomen der Individuen zukünftiger Generationen verbleibenden footprints ist nicht zu erkennen, zumal diese nicht in verfügender Absicht in das Genom des jeweiligen zukünftigen Individuums eingefügt wurden, sondern als funktionslose Residuen einer Therapie ihrer genetischen Vorfahren im Genom präsent sind. Möglicherweise ergibt sich allerdings ein anderes ethisch rele vantes Problem, nämlich die Frage, ob es ethisch zu rechtfertigen ist, die Gen-Kassette in den Keimzellen wieder aus dem Genom zu entfernen und damit die Nachkommen dem Risiko der genetischen Erkrankung erneut auszusetzen. Immerhin handelt es sich um einen intentionalen Akt der Entfernung eines physiologisch bzw. therapeu tisch wichtigen Gens, der bereits mit dem Design der Gen-Kassette beabsichtigt und realisiert wird. Zusammenfassend lassen sich die ethisch begründeten Forde rungen nach einem durchgreifenden Schutz der Keimbahn durch neue Techniken der Genomeditierung in Zukunft möglicherweise gut erfüllen. Allerdings stellen sich im Zusammenhang mit der Ver antwortung für kommende Generationen neue Fragen bezüglich der damit verbundenen »Wiederherstellung« des ursprünglichen mutier ten Original-Genoms.
3.3 Therapie und Enhancement Ein weiteres wichtiges ethisches Argument im Zusammenhang mit einem Eingriff in das Genom, insbesondere einem Keimbahneingriff, besteht in der Zwecksetzung der Therapie. Allerdings ist auch eine exklusive Fokussierung auf ein therapeutisches Szenario nicht unum
139 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
stritten, da verschiedentlich auch Eingriffe, durch die bestimmte kognitive oder physische Fähigkeiten verbessert werden, als Ausdruck der Selbstbestimmung des Individuums angesehen und in diesem Sinne rechtfertigt werden. Grundlegend ist bei beiden Zielsetzungen die Einwilligung des bzw. der Betroffenen. Im Falle einer Keimbahntherapie bei menschlichen Embryonen ist es offensichtlich, dass es sich bei diesen nicht um einwilligungsfä hige Individuen handelt. Insofern müssen die rechtlichen Vertreter, in der Regel die Eltern, für die Embryonen eine Entscheidung treffen, und diese muss sich am Wohl des Kindes orientieren und diesem ent sprechen. In diesem Zusammenhang stellt sich die Frage, wie die Maßnahme zu beschreiben ist, der die Eltern zustimmen, und wel chem Handlungstyp die Genomtherapie im vorliegenden Fall ent spricht. Die Keimbahntherapie beim Embryo ist durch die Besonder heit charakterisiert, dass zwar die Eltern von ihrer eigenen genetischen Konstitution Kenntnis besitzen, jedoch einem Ein-ZellEmbryo in vitro nicht anzusehen ist, welche Genmerkmale er indivi duell aufweist. Da die Genomtherapie bereits im Ein-Zell-Stadium durchgeführt werden muss, um eine genetische Mosaikbildung mit der Folge einer Multiplizierung der Risiken zu vermeiden, kann die Genomtherapie nur ohne vorherige Diagnose des Embryos stattfin den. Sowohl Embryonen mit Mutationen in beiden Allelen als auch solche mit monoallelischer Mutation als auch Embryonen mit gene tischem Normaltyp werden daher der genetischen Veränderung unterzogen. In den beiden letztgenannten Fällen lässt sich schwerlich von einer Therapie sprechen, da normale Embryonen und auch solche mit heterozygoter Mutation nicht phänotypisch erkranken und daher keiner Therapie bedürfen. In diesen Fällen ließe sich eine Rechtferti gung für einen genetischen Eingriff lediglich aus dem Nichtwissen über den genetischen Status des jeweiligen Embryos und der statis tischen Wahrscheinlichkeit einer Mutation herleiten. Unter diesen Umständen ist der Handlungstyp dann allerdings am ehesten als Prä emption, d.h. als Therapie, die auf der Basis möglicher klinischer Ent wicklungen ohne weitere diagnostische Parameter bei dem betroffe nen Individuum durchgeführt wird, zu beschreiben.12 Gleichwohl wird die Frage aufgeworfen, ob eine Genomtherapie als präemptive Maßnahme dem Wohl aller individuellen Embryonen entspricht, da 12
Vgl. Schleidgen et al., 2020.
140 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
75 % der Embryonen phänotypisch nicht erkranken werden und dies bezüglich kein Risiko tragen. Ein weiterer Aspekt ist die notorisch schwierige Abgrenzung von Therapie und verbessernden Maßnahmen (Enhancement). Bereits innerhalb des therapeutischen Bereichs kann sich die Frage nach der Rechtfertigung gentherapeutischer Maßnahmen stellen. Während z. B. bestimmte Mutationen im CFTR-Gen zu schweren Krankheits bildern bereits im frühen Kindesalter führen, die eine Therapie not wendig und eine Genomtherapie wünschenswert machen, führen andere Mutationen zu einer sehr milden Symptomatik, die mit kon servativen Mitteln gut zu therapieren ist und die die Inkaufnahme der gegenwärtig bestehenden Risiken einer Genomtherapie kaum rechtfertigen würde. Eine Entscheidung über eine Genomtherapie im Ein-Zell-Embryo hat zudem in den Blick zu nehmen, dass dieser Ein griff nicht mehr rückgängig zu machen ist. Das betroffene Individuum muss sich zu der Absicht einer dritten Person, Änderungen in seinem Genom vorzunehmen, verhalten, d.h. den Eingriff in einen nicht bloß heteronom begründeten Sinnzusammenhang einordnen können, und hierfür ist es notwendig, dass der Wille des betroffenen Individuums zu diesem Eingriff vorausgesetzt werden kann.13 Von Letzterem ist bei der Therapie einer schweren Erkrankung auszugehen, während bei verbessernden Maßnahmen der Verdacht nicht abzuweisen ist, dass hier in erster Linie der Wille eines Dritten in das Genom des betreffenden Individuums hineingeschrieben wird. Zusammenfassend ergibt sich die Frage, inwieweit die ethischen Beurteilungsstandards für Therapien bei nicht einwilligungsfähigen Kindern auf die Situation der Genomtherapie bei Embryonen ange wendet werden können. Zudem wird die Frage aufgeworfen, wel che objektiven Kriterien eine Erkrankung aufweisen muss, um die Einwilligung des Betroffenen antizipieren und eine Genomtherapie rechtfertigen zu können.
3.4 Der moralische Status des Embryos Mit einer Genomtherapie vererbbarer Erkrankungen gerät unmittel bar der menschliche Embryo in den Blick, dessen Genom zu diesem 13
Vgl. Habermas, 2001, S. 108 f.
141 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
Zwecke verändert werden muss. Die Schwierigkeit, dass ohne Mög lichkeit einer Diagnosestellung keine medizinische Notwendigkeit als Grundvoraussetzung für eine Genomtherapie erhoben werden kann, wurde oben erwähnt. Damit verbunden ist die Notwendigkeit, auch gesunde Embryonen dem risikoreichen Verfahren der Genomthe rapie auszusetzen, was unter ethischer Perspektive problematisch erscheint. Solche Überlegungen setzen indes voraus, dass bei dem menschlichen Embryo ein moralischer Status anerkannt wird, der ihn vor beliebigen Eingriffen schützt. In dieser Perspektive könnte eine Genomtherapie grundsätzlich im Kontext des Lebensschutzes, näm lich als Alternative zu einer PID und einer Selektion von Embryonen nach ihrem Genotyp, gerechtfertigt werden. Eine andere Perspektive könnte allerdings primär die Interessen der zukünftigen Eltern und ihre reproduktive Selbstbestimmung in den Blick nehmen. Demnach könnte die Genomeditierung bei dem Embryo vor allem dem Wunsch der Eltern und weniger medizinischen Notwendigkeiten beim Embryo bzw. dem sich daraus entwickelnden Individuum entsprechen.14 Hin zuweisen ist darauf, dass das deutsche Embryonenschutzgesetz ver bietet, die Erbinformation einer menschlichen Keimbahnzelle künst lich zu verändern.15 Ein weiteres und kaum auflösbares ethisches Problem besteht in dem Umstand, dass eine Genomtherapie beim menschlichen Embryo nach einer präklinischen Forschungsphase ab einem bestimmten Forschungsstand dann versuchsweise an menschlichen Embryonen angewendet werden müsste, die ihrerseits zweifelsohne als For schungsembryonen zu qualifizieren wären und sicherlich nicht in eine Gebärmutter übertragen werden könnten. Der moralische und rechtliche Status des menschlichen Embryos, wie er im deutschen Embryonenschutzgesetz ausgestaltet ist, lässt ein solches Vorgehen nicht zu. Zusammenfassend könnte eine Genomtherapie beim mensch lichen Embryo grundsätzlich im Sinne des Lebensschutzes interpre tiert werden, der aus seinem moralischen und rechtlichen Status entspringt, und daher den Schutz des Lebens bekräftigen. In dieser Perspektive besteht ein ungelöstes ethisches und rechtliches Problem in der Notwendigkeit, gentherapeutische Verfahren unter Verwen dung menschlicher Embryonen entwickeln zu müssen. 14 15
Vgl. Saunders, 2017. Gesetz zum Schutz von Embryonen, 1990, § 5,1.
142 https://doi.org/10.5771/9783495998847 .
Fortschritte in der Genomeditierung als normative Herausforderung
4. Ausblick Der Fortschritt in der Entwicklung neuer Verfahren der Genmodifi zierung, namentlich der CRISPR-Cas-Technik, macht es notwendig, bisherige ethische Beurteilungen der Genomtherapie beim Menschen auf den Prüfstand zu stellen. Eine Implementierung dieser neuen Technik in die molekulare Medizin wirft neue Fragen auf und for dert bisherige normative Antworten heraus. Auch wenn zum gegen wärtigen Zeitpunkt kein unmittelbarer normativer Handlungsbedarf besteht, lassen die Bemühungen in den Biowissenschaften erwarten, dass eine gezielte Veränderung einzelner Gene bzw. des Genoms auf der Grundlage des CRISPR-Cas-Verfahrens in Zukunft mit deutlich verbesserter Präzision und Effizienz durchgeführt werden kann. Diese Möglichkeit erfordert bereits jetzt, die neuen technischen Möglichkei ten durch Ethik und Recht zu reflektieren und Handlungsräume sowie Grenzen der Anwendung dieser Verfahren beim Menschen normativ zu begründen. Dabei kann der Vorschlag der Entwicklung einer Eine-Generation-Keimbahntherapie eine wichtige Rolle spielen. Eine wesentliche Voraussetzung für eine gesellschaftliche Akzeptanz der neuen Techniken wird darin bestehen, die Risiken des Verfahrens zu minimieren, ferner zukünftige Generationen von der Vererbung gezielt herbeigeführter Veränderungen im Genom ausschließen zu können sowie den Zweck der Intervention auf ein notwendiges the rapeutisches Szenario anhand klarer Kriterien zu begrenzen. Eine zu erwartende normative Akzeptanz kann ihrerseits die biowissen schaftliche und die medizinische Forschung bei der Schaffung dieser Voraussetzungen lenken und fördern.
Literatur Advena-Regnery B, Enghofer F, Sgodda S. Artifizielle Keimzellen – natürliche Keimbahn: eine interdisziplinäre Verhältnisbestimmung. Zeitschrift für medi zinische Ethik 3, (2018): 277 – 300. DOI: 10.14623. Doudna JA, Charpentier E. Genome editing. The new frontier of genome engi neering with CRISPR-Cas9. Science 346 (2014): Artikel Nummer 1258096, 1–9. Enquete-Kommission des Deutschen Bundestages »Chancen und Risiken der Gentechnologie«. Bundestags-Drucksache 10/6775, 6.1.1987. Fellmann C, Gowen BG, Lin PC, Doudna JA, Corn JE. Cornerstones of CRISPRCas in drug discovery and therapy. Nat Rev Drug Discov 16 (2017): 89 – 100.
143 https://doi.org/10.5771/9783495998847 .
Thomas Heinemann
Friedmann T, Roblin R. Gene Therapy for Human Genetic Disease? Science 175 (1972): 949 – 955. Gesetz zum Schutz von Embryonen – Embryonenschutzgesetz (ESchG). Bun desgesetzblatt 1990, Teil I, S. 2746. Habermas, J. Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? Frankfurt/M. 2001. Lander E, Baylis F, Zhang F, Charpentier E, Berg P, Bourgain C, Friedrich B, Joung JK, Li J, Liu D, Naldini L, Nie J-B, Qiu R, Schoene-Seifert B, Shao F, Terry S, Wei W, Winnacker E-L. Adopt a moratorium on heritable genome editing. Nature 567 (2019): 165 – 168; doi: https://doi.org/10.1038/d41586-019-0 0726-5 Saunders B. First, do no harm: Generalized procreative non-maleficence. Bioethics 31 (2017): 552 – 558. Schleidgen S, Dederer H-G, Sgodda S, Cravcisin S, Lüneburg L, Cantz T, Heinemann T. Human germline editing in the era of CRISPR-Cas: risk and uncertainty, inter-generational responsibility, therapeutic legitimacy. BMC Medical Ethics, 21 (2020): Artikel Nummer 87, 1 – 12. https://doi.org/10.11 86/s12910-020-00487-1 UNESCO. Allgemeine Erklärung über das menschliche Genom und Menschen rechte. 1997. https://www.unesco.de/sites/default/files/2018-03/1997_A llgemeine_Erklärung_über_das_menschliche_Genom_und_Menschenrechte .pdf. Letzter Zugriff 30.06.2021.
144 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
Zwischen Tridentinum und Vatikanum II Die Naturwissenschaft als Schrittmacher theologischer Lernprozesse?
1. Vorbemerkungen Wo und wie sollen die Naturwissenschaften angesichts ihres vergli chen mit der Theologie grundsätzlich anderen Formalobjekts und angesichts ihrer grundsätzlich anderen, durchweg quantifizierenden Methodologie zum Schrittmacher theologischer Lernprozesse wer den können? Das Konzil von Trient fand statt von 1545–1563, das 2. Vati kanische Konzil von 1962–1965. Aber dieser zeitliche Rahmen ist so groß, dass er nahezu die gesamte Geschichte naturwissenschaft licher Forschung umfasst. Daher werde ich nur zwei Konfliktfelder herausgreifen, die beide zentrale, wenn auch sehr unterschiedliche theologische Lernprozesse angestoßen haben: 1. 2.
Der Konflikt mit Galileo Galilei um die – wohlgemerkt – koper nikanische Wende. Der Konflikt mit Ernst Haeckel um die – wohlgemerkt – Darwin sche Evolutionstheorie.
In beiden Fällen ist nicht der Urheber einer wissenschaftlichen Theo rie, die in verspäteter kirchlich-theologischer Reflexion als kritisch empfunden wurde, sondern einer ihrer späteren Protagonisten der Gegner im Streit, also Galilei statt Kopernikus bzw. Kepler und Haeckel bzw. Huxley statt Darwin. Das kann an der langen Latenzzeit kirchlicher Lern- und Erkenntnisprozesse liegen – wie bringt man einen riesigen Öltanker zum Kurswechsel? –, aber es kann auch an der Art des Konfliktvortrags liegen. Mir scheint, in beiden Fällen sind beide Gründe gegeben. Den abschließenden, eher versöhnlichen Aspekt widme ich
145 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
3. Teilhard de Chardin und seinem Versuch einer intellektuell redlichen Verbindung von Evolution und Kreation, auf den etwas näher, wenn auch nur kurz eingegangen werden soll.
2. Der Kopernikus-Galilei-Komplex Die Kirche des Hoch- und Spätmittelalters verfügt über ein Defini tionsmonopol epistemisch als Wissenschafts- und existenziell als Sinngebungsinstanz. Für beides war sie zuständig. Der Widerspruch gegen dieses doppelte Definitionsmonopol kam direkt aus den Reihen von Klerikern der Kirche oder von der Kirche nahestehenden Laien. Nikolaus Kopernikus (1473–1543) lebt gewissermaßen am Vor abend des Tridentinum. Sein Onkel Lukas Watzenrode, Fürstbischof im Ermland, sorgt für Ausbildung und Erziehung von Nikolaus und seinen drei verwaisten Geschwistern, so dass Nikolaus ein Studium in Krakau und Bologna und die Promotion in Kirchenrecht in Ferrara (1503) abschließen kann. Durch diesen Onkel vermittelt, wird er schließlich Domherr in Frauenburg und Kanzler des Ermländer Dom kapitels. Als solcher hat er auch wichtige Beiträge zur Münz- und Geldtheorie geleistet.1 1537 soll er sogar Bischof des Ermlandes werden, unterliegt aber einem Gegenkandidaten bei der Wahl. Kopernikus ist keineswegs der Erste, der die Kugelgestalt der Erde postuliert. Mit ihm und vor ihm tun das, übrigens seit der griechischen Antike, zahllose Wissenschaft ler. Aber er ist wohl der Erste, der für seine Theorie angemessene mathematisch-physikalische Argumente vorbringen kann. Sein naturwissenschaftsgeschichtlich wichtigstes Werk ist De revolutionibus orbium coelestium. Es wird 1543 kurz vor seinem Tod gedruckt und ist Papst Paul III. gewidmet. Darin ersetzt Kopernikus das geozentrische durch das heliozentrische Weltbild. Es ist keine Frage: Nikolaus ist ein Mann der Kirche. Und der Widerspruch, den seine Theorie nach seinem Tode schließlich erfährt, stammt keineswegs nur aus seiner eigenen Kirche. Auch Martin Luther soll sinngemäß – folgt man hier Aufzeichnungen seiner Studenten – gesagt haben: »Der Narr will mir die ganze Kunst Nicolaus Copernicus Gesamtausgabe, Bd. V: Opera minora. Die humanistischen, ökonomischen und medizinischen Schriften. Texte und Übersetzungen. Bearbeitet von Stefan Kirschner und Andreas Kühne, Berlin 1999, S. 109–168. 1
146 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
Astronomia umkehren. Aber wie die Hl. Schrift zeigt, hieß Josua die Sonne stillstehen und nicht die Erde.«2 Johannes Kepler (1571–1630), Astronom, Mathematiker, aber auch evangelischer Theologe, war es, der in seinen drei Keplerschen Gesetzen die Planetenbahnen als elliptisch beschrieb und die helio zentrische Theorie des Kopernikus mathematisch und empirisch stüt zen konnte. In einem Brief an Kepler vom 4. VIII. 1597 bekennt sich Galilei dazu, ein Kopernikaner zu sein. Ein erstes öffentliches Bekenntnis zu dieser Theorie enthält die Schrift »Sidereus nuncius« von 1610, in der er auch die Jupitermonde beschreibt und teils richtige Beobachtungen des Saturnrings und der Venusphasen. Diese Schrift sendet er auch an Kepler und an Kaiser Rudolf II., König von Böhmen, der wissenschaft lich interessiert und Galilei sehr wohlgesinnt ist. Auf Vermittlung des toskanischen Gesandten Giuliano von Medici schickt Galilei auch noch ein von ihm konstruiertes Fernrohr nach Prag an Kaiser Rudolf. Im Jahr 1611 sieht sich Galilei dann genötigt, gegen den evan gelischen Pastor aus Böhmen, Martin Horký, in Bologna eine erste Verteidigungsschrift herauszubringen; denn dieser hatte eine Reihe aus Bibelzitaten abgeleiteter Einwände gegen die kopernikanische Theorie vorgebracht.3 Galilei neigt – er ist sehr wortgewandt und sich seiner Wirkung wohl bewusst – nicht selten zur Polemik und Arroganz gegenüber seinen Gegnern. Hier wird bereits erkennbar, dass die Inkommensurabilität der Argumentationsebenen – hier zeitgenössische Bibelexegese, dort zeitgenössische Physik – nur der eine Konfliktherd ist, der andere aber im herabsetzenden Stil der Auseinandersetzung zu suchen ist. Der eigentliche Konflikt aber liegt noch dahinter und ist im Kern ein politischer. Im Jahr 1611 begibt sich Galilei ausgerüstet mit seinem Fernglas erstmals nach Rom, wo er nicht nur nicht aneckt, sondern mit Wohl wollen für seine Forschungen überhäuft wird. »Kardinal del Monte meinte, zur Zeit der alten römischen Republik hätte man ihm ein Monument am Kapitol errichtet. Mit Wohlwollen http://de.Wikipedia.org/wiki/Nikolaus_Kopernikus 21.10.2013, S. 8. Ich stütze mich hier auf die Ausführungen und Belege von Solle, Zdenko: Neue Gesichtspunkte zum Galilei-Prozess. Veröffentlichungen der Kommission für Geschichte der Mathematik, Naturwissenschaft und Medizin. Heft 24. Hrsg.: Hamann, Günther im Verlag der Österreichischen Akademie der Wissenschaften, Wien 1980, S. 7–11. 2
3
147 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
überhäuften ihn nicht nur die Professoren des Collegium Romanum, der Jesuitenuniversität, Clavius, Grienberger, Malcotio, Lembo, son dern auch Federico Cesi, der Gründer der Accademia dei Lincei.«4
Die Debatten am Hof des Herzogs von Florenz scheinen von ähnli chem Zuschnitt gewesen zu sein. Auch hier stoßen eine das Autori tätsargument der Hl. Schrift bemühende und damit unzureichende zeitgenössische Bibelexegese sowie eine von wissenschaftlichem Mis sions- bzw. Selbstdarstellungswillen und vom Popularisierungswillen geprägte unzureichende zeitgenössische Physik aufeinander. Oder genauer gesagt: Sie stoßen gar nicht aufeinander; sie reden vielmehr beständig aneinander vorbei. Der Selbstdarstellungs- und Selbstbehauptungswille spielt auch eine Rolle in der Auseinandersetzung Galileis mit den Jesuiten bei der Entdeckung der Sonnenflecken. Der Jesuit Scheiner und Galilei hatten beide 1611 unabhängig voneinander die Sonnenflecken entdeckt. Galilei reklamiert allerdings 1612 sehr unkollegial die Erstentdeckung kategorisch für sich. Ähnliches ereignet sich 1613 bei der Entdeckung dreier Kometen, in denen der Jesuit Grassi – der Wahrheit damit näher als Galilei – Körper von einem anderen Planetensystem sehen zu können glaubt. Galilei dagegen behauptet mit Eloquenz, es handle sich nur um Lichtreflexe, und versucht Grassi und die Jesuiten lächer lich zu machen. So verprellt er die potenziellen Bundesgenossen mit physikalisch-fachlicher Kompetenz im Jesuitenorden. Seit 1613 legt Galilei in Briefen auch die Unterscheidung zwi schen dem Buch der Natur und dem Buch der Schrift vor, zwischen denen es – Galilei ist ein treuer Katholik – keine Widersprüche geben dürfe, da sie vom selben Autor, nämlich Gott, stammten. Diese Unterscheidung der beiden Bücher findet sich bis hinein in die Lehre von der natürlichen Gotteserkenntnis bzw. der Gotteserkenntnis aus der Natur und der übernatürlichen Offenbarung im I. Vatikanum, ja bis hinein in eine Enzyklika Johannes Pauls II.5 von 1998. Im Januar 1616 unternimmt Galilei eine Romreise im Vertrauen auf das Wohlwollen seiner Freunde, um in hervorragenden Häusern Roms und mit täglichen Disputationen die Richtigkeit des heliozentri schen Weltbildes zu beweisen. Es wird von glänzenden Disputationen in den Häusern Cesarini und Ghislieri berichtet. Aus letzteren stammt übrigens Papst Pius V. Das von Galilei durchaus Gewollte dieser 4 5
Solle, Zdenko: Neue Gesichtspunkte, S. 8. Vgl. Fides et ratio Nr. 19, 53.
148 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
»physikalischen Bildungsoffensive«, nämlich dass sie über die Eliten hinaus das Volk erreicht, erweist sich zugleich als Bumerang. Denn nun kommt es zu Anzeigen gegen Galilei aus Rom, der Toskana, ja aus ganz Italien bei der Inquisition. Um Ruhe unter das Volk zu bringen, machen sich die Inquisitoren die Sache zu einfach; sie wollen den Ruhestörer zum Schweigen bringen. Am 25.2.1616 kommt es zum ersten Prozess gegen Galilei und zur Verurteilung des Hauptpunktes seines neuen Weltsystems, die Sonne stehe im Mittelpunkt der Welt und die Erde bewege sich um die Sonne. In der Begründung für die Verurteilung heißt es, diese These widerspreche dem Wort der Schrift. Es folgt eine freundliche Belehrung durch Kardinal Bellarmin, der durchaus der Meinung ist, man müsse die Hl. Schrift, wenn denn die Sonne als Mittelpunkt der Welt erwiesen sei, weniger wörtlich interpretieren. Auch durch Papst Pius V. erhält Galilei die durchaus richtige Empfehlung, dieses helio zentrische Weltbild als Hypothese zu bezeichnen, was sie ja in der Tat auch ist. Das lehnt Galilei ab, was allerdings der Freundschaft mit den Kardinälen – unter ihnen auch Maffeo Barberini, der spätere Papst Urban VIII. – keinen Abbruch tut. Galilei wird nur dazu verpflichtet, die heliozentrische Vorstellung nicht weiter zu verbreiten. Im Jahre 1623 wird der teils als wissenschafts- und kunstsinnig, teils als verschwendungssüchtig apostrophierte Maffeo Barberini als Urban VIII. Papst. Er selbst ist ein Bewunderer Galileis und hat in seiner Umgebung etliche Freunde Galileis, z. B. den Hauptzensor Riccardi, den Maestro di Palazzo Ciampoli, Kardinal Caesarini, Abt Castelli etc. Galilei wird sechs Male zu längeren Audienzen beim Papst zugelassen, der sich auch in einem Breve lobend beim Großher zog der Toskana über Galilei äußert. All das führt dazu, dass Galilei sich und seine wissenschaftliche Position im Aufwind sieht. 1630 beendet Galilei sein Werk Dialogo di Galileo Galilei über den Streit um das Ptolemäische und das Kopernikanische Weltbild. Um die Druckerlaubnis für ein Werk zu erhalten, das eindeutig die Nichtbeachtung des ersten Urteils von 1616 dokumentiert, reist er nach Rom. Wieder empfängt ihn der Papst, der ihm aufträgt, im Titel deutlich zu machen, dass es sich um eine mathematische Theorie handle. Galilei ist dazu wiederum nicht bereit; stattdessen legt er einer komischen literarischen Gestalt, die er Simplicio nennt, Worte des Papstes – und zwar auch aus Privatgesprächen – in den Mund. Riccardi, der Hauptzensor, genehmigt die Drucklegung dieser verunglimpfenden Schrift trotzdem. Galilei geht auf Nummer sicher,
149 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
lässt die Schrift in Florenz nach Durchsicht durch den dortigen Zensor drucken und widmet sie Großherzog Ferdinand II.6 Nun sei ein Blick auf die (kirchen)politischen Hintergründe dieses Prozesses gewagt. Papst Urban VIII. vertritt im Dreißigjährigen Krieg eine ausgesprochen franzosenfreundliche Politik auch dann noch, als Richelieu – Kardinal und Erster Minister in Frankreich – die protestantischen Schweden unter König Gustav Adolf gegen die katholischen Deutschen und den spanischen König unterstützt. Es kommt daraufhin innerhalb des Kardinalskollegium zu heftigen Auseinandersetzungen über diese Politik. Dabei sind vor allem die Gönner Galileis die Opponenten des Papstes. Kardinal Borgia fordert im Auftrag des Kaisers den Papst auf, Position für den katholischen Kaiser und gegen Frankreich zu beziehen, sowie die Hälfte seiner Einkünfte aus spanischen Besitzungen zur Verteidigung der katholi schen Deutschen gegen die protestantischen Schweden abzutreten und den Staatsschatz aus der Engelsburg diesem Verteidigungszweck zuzuwenden. All das lehnt Urban VIII. ab. Daraufhin fordert Kardinal Borgia die Gläubigen öffentlich dazu auf, die Geldsammlungen des Papstes zu boykottieren. Kardinal Ubaldini stellt einen lateinischen Protest gegen den Papst zusammen, den Kardinal Borgia am 08.03.1632 im Konsisto rium verliest. Der Papst fordert ihn auf, zu schweigen und zu gehen. Als Borgia trotzdem weiterliest, kommt es zu tumultartigen Szenen. Daraufhin entledigt sich der Papst der Kardinäle Ludovisi, der für die Einberufung eines Konzils votiert hatte und für die Entthronung Urbans. Kardinal Ubaldini will er ins Gefängnis werfen lassen, streicht ihm aber letztlich nur die Jahresrente. Der Hauptzensor Riccardi, der das Imprimatur für Galilei erwirkt hatte, und der Maestro di Palazzo, Kardinal Ciampoli, werden abgesetzt. Kardinal Borgia wird aus dem Konsistorium ausgeschlossen und nimmt erst 1635 daran wieder teil. Er soll außerdem aus Rom ausgewiesen werden, was aber Urban VIII. nicht durchsetzen kann. Urban selbst begibt sich vielleicht aus Furcht vor einer Ermordung auf sicheres Terrain, nach Castel Gandolfo. Scharfmacher beim 2. Prozess gegen Galilei, der dann 1633 stattfindet, sind mit Ausnahme von Antonio Barberini, dem Bruder Urbans, am Ende nicht die 10 Inquisitoren, sondern der Papst selbst, der immer wieder verschärfend interveniert. Der Vorsitzende des Gerichts, Guido Bentivoglio, ist sogar ein Schüler Galileis. Drei 6
Vgl. Solle, Zdenko: Neue Gesichtspunkte, S. 14 f.
150 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
der 10 Inquisitoren, die bei der letzten Sitzung anwesend sind, unterschreiben gegen den ausdrücklichen Willen des Papstes das Verurteilungsdekret nicht, unter ihnen der Neffe des Papstes, Kardinal Francesco Barberini. Einige unterschreiben vielleicht nur, weil ihnen das Hemd der Jahresrenten und Einkünfte näher war als der allzu weite Rock der Bewegung von Himmelskörpern. Am 22. Juni 1633 widerruft Galilei. Vielleicht hat man ihm die Folterwerkzeuge gezeigt. Andere vielleicht weniger plausibel erschei nende Deutungen behaupten, der als Kunst- und Wissenschafts freund geltende Urban VIII. habe Galilei durch den erzwungenen Widerruf den Tod auf dem Scheiterhaufen ersparen wollen. Den hat Galilei sich wohl eher selbst erspart. Formaljuristisch kann sich der Papst beim zweiten Prozess auf die nachweisliche Nichteinhaltung der Auflagen aus dem ersten Prozess von 1616 berufen. Heimo Dolch sieht daher insbesondere den ersten Prozess, der sich überhaupt nur mit der physikalisch strittigen Materie befasst und die Position Galileis verurteilt, als das Hauptproblem an,7 auch wenn dieser praktisch keine persönlichen Konsequenzen für Galilei gehabt hat. Konsequenzen hat erst der zweite, rein formal juristisch abgehandelte Prozess. Nur während der Prozessdauer im Jahre 1633 ist Galilei regelrecht inhaftiert. Später steht er unter einem zunächst etwas strengeren, dann aber »freizügigeren Hausarrest«, während dessen er in seinem Landhaus in Arcetri weiterforschen und Besucher empfangen kann. Er darf auch in das benachbarte St.-Matthäus-Kloster, in dem seine Töchter Sr. Maria Celeste und Sr. Archangela als Nonnen leben – eine sogar als Oberin. Die großen wissenschaftlichen Leistungen Galileis liegen u. a. in der Begründung der induktiven Methode, der Ableitung der Fall-, Wurf- und Pendelgesetze sowie der Beiträge zur Formulierung des Trägheitsprinzips. Eine zusammenfassende Darstellung dieser Arbei ten findet sich in seinem Spät- und Hauptwerk »Discorsi dimostra zioni mathematiche intorno a due nuovo scienze«, das er 1638, also zur Zeit seines »milderen Hausarrests«, fertigstellt. 1637 oder 1638 erblindet Galilei schließlich, vielleicht eine Spätfolge seiner riskanten Beobachtungen von Sonnenflecken. Als der bis zum Ende fromme Katholik Galilei am 08.01.1642 stirbt, ist er mit sich und seiner Kirche durchaus im Reinen. 7
Dolch, Heimo: Galilei, Galileo. In LthK, 2. Aufl. 1960, Sp. 494 f.
151 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
Was ist zu lernen aus dem Konflikt? Auch wenn im 19. Jahrhun dert mit der Geschichte des Altertums und der sich entfaltenden Literaturwissenschaft wichtige geisteswissenschaftliche Quellen zur Entwicklung der Bibelwissenschaft auftauchten, ist doch auch die Nötigung durch naturwissenschaftliche Fakten eine nicht zu unter schätzende Entwicklungshilfe für die Exegese. Und sie zeitigt kurz gefasst folgende Ergebnisse: 1. Ein päpstlich-autoritatives Dekretieren dessen, was angeblich der Fall ist oder zu sein hat, ist trotz der scheinbaren Niederlage Galileis endgültig obsolet. Faktisch gilt die Lehre von den zwei Büchern, dem Buch der Offenbarung und dem Buch der Natur, als den zwei einander teils widersprechenden und nur schwer miteinan der harmonisierbaren Quellen der Gotteserkenntnis. Und damit ist ausgehend von diesen naturwissenschaftlichen Antwortversuchen die Frage der Interpretation der Hl. Schrift wieder auf dem Tisch. 2. Die Frage der Schriftinterpretation, die mit dem ständigen Ver merk »Zur Wiedervorlage« immer wieder auf- und abtaucht, erhält ihre Antwort erst nach vielen, teils wenig mutigen Zwischenschritten und bleibt während dieser Zeit permanent virulent. Zu den sachlich raumgreifenderen Schritten unter den Trippelschritten gehören u. a. die 1893 erschienene Enzyklika von Leo XIII. »Providentissimus Deus«8 und die 1943 erschienene Enzyklika von Pius XII. »Divino afflante spiritu«.9 Die Langsamkeit der Therapie chronifiziert das Lei den. 3. Ihre grundsätzliche Antwort erfährt die Frage nach der ange messenen Schriftinterpretation erst in der Dogmatischen Konstitu tion »Dei Verbum«10 des II. Vatikanum von 1965 und in der noch wei tergehenden Verlautbarung der Bibelkommission »Die Interpretation der Bibel in der Kirche« von 1993, also 100 Jahre nach »Providentis simus Deus«. Demnach ist die Heilige Schrift nicht das in sich völlig eindeutige, Wort für Wort auf Gott zurückführbare und damit nicht das unhinterfragbare und absolut unantastbare Wort Gottes, sondern das um seiner Verstehbarkeit willen im Menschenwort mitgeteilte Gotteswort. Und als solches ist es, um angemessen verstanden zu werden, der Auslegung mit allen Mitteln einer historisch-kritischen, 8 Vgl. DH 3280–3294. Das ist die wohl erste vorsichtige Öffnung hin zur historischkritischen Exegese in päpstlichen Verlautbarungen. 9 Vgl. DH 3825–3831. 10 Vgl. DH 4201–4235.
152 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
einer kanonischen, einer tiefenpsychologischen und anderer Formen von Exegese bedürftig.11 4. Außerdem wird unter Rückgriff auf das I. Vatikanum nochmals ausdrücklich die sichere Erkennbarkeit Gottes »mit dem natürlichen Licht der menschlichen Vernunft aus den geschaffenen Dingen« hervorgehoben12 und damit implizit ein Mitspracherecht der Natur wissenschaft bei der Gottesfrage und eine Konsultationspflicht der Theologie bei der Naturwissenschaft nahegelegt. 5. Zu lernen ist auch etwas über den innerkirchlichen Umgang mit Konflikten. In der Folgezeit nach Galilei versucht sich die Kirche irgendwie, ohne Aufhebens von der Sache zu machen, stillschweigend aus dem Desaster davonzustehlen. 1741 erteilt die Inquisition auf Bitte Benedikts XIV. das Imprimatur für die Gesamtausgabe der Werke Galileis. Das ist damit für einen Teil seiner lehramtlich insgesamt abgelehnten Werke das bereits dritte Imprimatur und damit ein wis senschaftshistorisches Kuriosum besonderer Art. Von 1979 bis 1992 arbeitet die Päpstliche Akademie der Wissenschaften im Auftrag Johannes Pauls II. an der Aufarbeitung dieses Falls. Am 31.10.1992 gibt dieser das Ergebnis bekannt, und am 02.11.1992 wird Galileo Galilei formal kirchlich rehabilitiert. Erst mit diesem intellektuell redlichen und ein spätes Schuldeingeständnis umfassenden Schritt und nicht mit den einer angeblichen Gesichtswahrung des Papstamtes geschuldeten, Jahrhunderte währenden Vertuschungsbemühungen kommt man einer Lösung des Kopernikus-Galilei-Komplexes näher.
3. Der Darwin-Haeckel-Komplex Es mag erstaunen, dass Charles Darwins Großvater Erasmus Darwin, der wesentliche Impulse für die Evolutionslehre liefert, auf dem Index der verbotenen Bücher der Kirche steht, nicht aber Charles Darwin selbst, der übrigens seinerseits z. B. an die Adresse Haeckels gerichtet mehrfach brieflich um Deeskalation im Konflikt mit der Kirche bzw. genauer mit den Kirchen bemüht ist. Erstaunlich ist ferner dies: Während sich im 19. Jahrhundert namhafte, ja weltberühmte Biologen finden, die das Evolutionspara Vgl. DH 4215–4220. Vgl. DH 4206. Näheres in Lüke, Ulrich: Mensch – Natur – Gott. Naturwissen schaftliche Beiträge und theologische Erträge. Münster/Hamburg/London 2002, S. 153–166. 11
12
153 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
digma ablehnen, z. B. Rudolf Virchow (1821–1902), finden sich – verkehrte Welt – nicht minder namhafte, ja weltberühmte Theologen, die es bestätigen, z. B. John Henry Newman (1801–1890). Die Aus einandersetzung zu Lebzeiten Darwins ist also nicht ausschließlich die zwischen Naturwissenschaften und Kirche. Es geht schon damals über den christlichen Glauben hinaus vor allem um Weltbildfragen. Die großen christlichen Konfessionen nehmen ursprünglich zumeist keinen Anstoß am Gedanken eines evolutiven Artwandels, sonst hätten sie die Jahrtausende alte Züchtungspraxis verbieten müssen, wenn sie die Art, weil von Gott geschaffen, für sakrosankt gehalten hätten. Sonst hätten sie auch 50 Jahre vor Darwin Lamarck attackieren müssen, sonst hätte auch nicht der Mönch Gregor Mendel mit seinen Kreuzungsversuchen zum Vater der klassischen Genetik werden können. Ein antikatholischer Ton kommt erst und insbesondere über Ernst Haeckel in die zwischen Naturwissenschaft und Glaube geführte Debatte. Der mit Wissenschaftspathos und Emanzipationsimpulsen aufgeladene Evolutionismus versteht sich damals weithin als kämpfe risch-antikirchlich. So formuliert Hackel zum Beispiel, der als Schöp fer begriffene Gott sei wohl ein »Dr. ing. ersten Grades«13. Und angesichts der Unerkennbarkeit Gottes und von der behaupteten Got tebenbildlichkeit des Menschen gewissermaßen rückschließend, Gott müsse dann wohl ein »gasförmiges Wirbeltier«14 sein. Seinerseits lehrt er einen Pantheismus, den er mit Schopenhauer als eine höfliche atheistische Verabschiedung Gottes versteht. Erklärtes Ziel seiner antikirchlichen Attacken ist das Papsttum insbesondere wegen seines Unfehlbarkeitsanspruches.15 In seinem Werk »Die Lebenswunder« erweist sich Haeckel auch als ein Vordenker von Rassenhygiene,
13 Haeckel, Ernst: Die Lebenswunder. Gemeinverständliche Studien über biologische Philosophie. Ergänzungsband zu dem Buche über die Welträtsel. Stuttgart 1904, S. 422; vgl. auch Altner, Günther: Schöpfungsglaube und Entwicklungsgedanke in der protestantischen Theologie zwischen Ernst Haeckel und Teilhard de Chardin. Zürich 1965, S. 5. 14 Haeckel, Ernst: Natürliche Schöpfungsgeschichte. Gemeinverständliche wissen schaftliche Vorträge über die Entwicklungslehre. Erster und zweiter Theil. Berlin 10 1902. I. S. 63. 15 Vgl. Haeckel, Ernst: Die Welträtsel. Gemeinverständliche Studien über monisti sche Philosophie. Leipzig, 11. Auflage 1919/Stuttgart 1984.
154 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
Selektion und Eugenik – Gedanken, auf die die Nationalsozialisten später zurückgreifen.16 Haeckel lässt sich in polemischer Absicht auf dem FreidenkerKongress 1904 in Rom zum »Gegenpapst« ausrufen und gründet 1906 den Deutschen Monistenbund zur Verbreitung seiner monis tisch-pantheistisch-panpsychistischen Anschauungen. Haeckel selbst ist bis zu seinem Kirchenaustritt 1910 Protestant. Ähnlich kämpfe risch wie Haeckel in Deutschland gegenüber der katholischen ver treten damals Thomas Henry Huxley in England gegenüber der anglikanischen und Paul Broca in Frankreich wiederum gegenüber der katholischen Kirche die Position Darwins. Es gibt auch damals namhafte Theologen, die in der Evolutions theorie nicht nur eine Herausforderung, sondern eine Chance für die Theologie sehen. Der von der Anglikanischen zur Katholischen Kirche konvertierte und dort zum Kardinal avancierte Oxforder Theologe John Henry Newman (1801–1890) ist zugleich ein Anhänger der Darwinschen Theorie. Wenn Gott die Welt so, wie wir sie vorfin den, als »Fertigprodukt« geschaffen hätte, dann müsse man auch die Erschaffung fossilienhaltiger Felsen erklären, war eines seiner (naturwissenschaftlich geprägten) Argumente. Überdies hätte man Gott zu einem deus fraudulentus, einem Täuscher-Gott gemacht, der seine Geschöpfe durch das dann ja irreführende Einbringen von Fos silien in Gesteinsformationen zur falschen Annahme einer Evolution verführt hätte. Immerhin wird von Seiten des Papstes kein einziges hochran giges Dokument gegen die Evolutionstheorie formuliert, und zwar weder auf der höchsten Verbindlichkeitsstufe von Dogmen noch auf der minderen Verbindlichkeitsstufe der Enzykliken. Erst 1950 befasste sich die Enzyklika »Humani Generis« von Pius XII.17 mit der Frage der Evolution des Menschen, die dabei für den Leib nicht bestritten, wohl aber für die Seele – verstanden als Chiffre für die Gottunmittelbarkeit eines jeden Menschen – ausgeschlossen wird. Diese Position weist eine nur schwer zu behebende Inkonsistenz auf, da sie zumindest implizit Leib und Seele voneinander trennt, was in anderen Dokumenten mit der Betonung der Einheit von Leib und Seele nachdrücklich vermieden werden soll.
16 17
Haeckel, Ernst: Die Lebenswunder, S. 23. Vgl. DH 3875–3899.
155 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
Die spannungsvolle geistesgeschichtliche Ausgangssituation lässt sich also holzschnittartig so skizzieren: In der Zeit zwischen dem Erscheinen von Darwins »Origin of species« (1859), dem I. Vati kanum (1869/70) und den Verlautbarungen der Bibelkommission 1909 standen einander zwei Positionen unversöhnlich gegenüber: 1.
2.
Die eine, von Ernst Haeckel (1834–1919) in Deutschland und Thomas Huxley (1825–1895) in England vertreten, sieht einen emanzipatorisch-naturwissenschaftlichen Alleinvertretungsan spruch in Fragen der Welt- und Lebensentstehung ohne Mitspra cherecht der Theologie und Religion vor. Die andere, vertreten z. B. durch Papst Pius IX. und das I. Vatikanum, sieht die kirchliche Lehrautorität gefährdet und reagiert 1864 mit dem Syllabus18 und 1870 mit dem Unfehl barkeitsdogma19. Die römische Bibelkommission dekretiert im Jahr 1909, die zentralen bildhaft erzählenden Elemente von Genesis 1–3 seien als in weiten Teilen historisch anzusehen.20 Es ist symbolträchtigerweise das 100. Geburtsjahr Darwins und das 50. Erscheinungsjahr seines bahnbrechenden Werkes »The Origin of Species«. Hier liegt also auf maßgeblicher römischer Ebene die Fehldeutung vor, die sich zum Teil bis heute bei fundamentalistisch-evangelikalen Gruppierungen findet.
Ebenfalls angeregt von evolutionistischen Überlegungen und in Konfrontation mit dem christlichen Glauben des 19. Jahrhunderts breitet Friedrich Nietzsche (1883/84) seine Gedanken zum Übermen schen aus: »Ich lehre euch den Übermenschen. Der Mensch ist etwas, das über wunden werden soll. Was habt ihr getan, ihn zu überwinden? Alle Wesen bisher schufen etwas über sich hinaus (…). Was ist der Affe für den Menschen? Ein Gelächter oder eine schmerzliche Scham. Und ebendas soll der Mensch für den Übermenschen sein: ein Gelächter oder eine schmerzliche Scham. Ihr habt den Weg vom Wurme zum Menschen gemacht, und vieles ist in euch noch Wurm. Einst wart ihr Affen (…).«21 Vgl. DH 2901–2980. Vgl. DH 3073 f. 20 Vgl. DH 3512 ff. 21 Nietzsche, F.: Also sprach Zarathustra. Ein Buch für alle und keinen. Vollständige Ausgabe nach dem Text der Ausgabe Leipzig 1891, München o.J., S. 11 f. Auch der weitere Text ist interessant: »Ich beschwöre euch, meine Brüder, bleibt der Erde treu und 18
19
156 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
In einem vom Kulturkampf gezeichneten deutschen und einem mittels Unfehlbarkeitsdogma um Selbstsicherung bemühten europä ischen Katholizismus ist eine sine ira et studio geführte sachliche Diskussion der polemisch-provokanten Haeckelschen Position und der ihr zu Recht oder Unrecht entnommenen Folgerungen nicht zu erwarten. Eher ist es verwunderlich, dass es über die jede Evolu tion verwerfende Erklärung des Kölner Partikularkonzils von 186022 und über die Zensurierung von evolutionsfreundlichen Schriften einiger Theologen und Philosophen wie des Mathematikers und Philosophen Edouard Le Roy (1870–1954), des Anatomen und katho lischen Naturphilosophen St. George Mivart (1827–1900), Pater John Augustine sowie über das Dekret der Bibelkommission von 190923 hinaus weder einschneidende lehramtliche Maßregelungen noch definitive theologische Festlegungen gibt. Hermann Josef Dörpinghaus hat die katholischen Zeitschriften zwischen 1854 und 1914 hinsichtlich ihrer Einlassungen mit und ihrer Auslassungen über die Darwinsche Evolutionstheorie analy siert. Höchst interessant ist dabei, dass sich bei katholischen Autoren in diesen katholischen Zeitschriften schon 1854, also bereits vor Darwins 1859 erschienenen »Origin of species«, Positionen finden, die es ablehnen, die Bibel als ein naturhistorisches Lehrbuch zu interpretieren. Zusammenfassend stellt Dörpinghaus weiter fest: »Die naturwissenschaftliche Aufklärung wird in diesen Jahrzehnten wesentlich getragen durch die weit verbreiteten Schriften von Büchner, Vogt, Moleschott, Haeckel u. a., bei denen es sich wenigstens zum Teil um Forscher von Rang handelt, die mit dem Anspruch auf Sachautorität auftreten. Sie popularisieren die neue Methode, wie die neuen Theo rien und Erkenntnisse der Naturwissenschaft auf eine Weise, die den weltanschaulichen Atheismus als die einzig mögliche Konsequenz der Forschung hinzustellen versucht. Damit enthalten ihre Schriften ein explosives Gemisch von empirischen Ergebnissen und religionsfeind lichen Ausdeutungen, das im krassen Gegensatz zu christlichen Lehren steht. Der mit empirischen Argumenten begründete, rücksichtslos vorgetragene Angriff auf die Religion hat auf katholischer Seite hef tigste Gegenreaktionen zur Folge […] Im Kampf gegen Haeckel, glaubt denen nicht, welche euch von überirdischen Hoffnungen reden! Giftmischer sind es, ob sie es wissen oder nicht. Verächter des Lebens sind es, Absterbende und selber Vergiftete, deren die Erde müde ist: so mögen sie dahinfahren.« 22 Vgl. Rahner, K.: Art. ›Abstammung des Menschen‹. In: LThK, Bd. 1 21957, Sp. 83 f. 23 Vgl. DH 3512–3514.
157 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
der zur eigentlichen Zentralfigur der Auseinandersetzung wird, fehlt namentlich in den 70er Jahren (sc. des 19. Jhdts.) die Differenzierung zwischen empirischem Material und weltanschaulicher These, eine Differenzierung, die erst nach 1900 stärker möglich wird. … Daher werden auf katholischer Seite die neuen naturwissenschaftlichen Theo rien und Ergebnisse zunächst nur insoweit akzeptiert, als sie sich den alten naturtheologischen Vorstellungen unterordnen lassen. … erst allmählich erwacht das Verständnis für das methodische Vorgehen der Naturwissenschaft und damit verlagert sich nun das Interesse der katholischen Autoren darauf, die Grenzen zu bestimmen, die der Kausalanalyse gesetzt sind. An diesen Grenzen hat die thomistische Naturphilosophie einzusetzen, um die naturwissenschaftlichen Aussa gen zu vervollständigen…«24
Der Theologe und Biologe Werner Bröker widmet sich nicht den Kombattanten auf der katholischen Seite, sondern analysiert die Kombattanten auf biologischer Seite, insbesondere den Zoologen Karl Vogt (1817–1895), den provozierenden Hauptakteur im mate rialistischen Dreigestirn Vogt–Moleschott–Büchner. Vogt ist neben Haeckel einer der Hauptkontrahenten gegen Glaube und Kirche im Lager der Naturwissenschaften. Dabei stellt Bröker in seinen Studien präzis heraus: »Nicht die Konfrontation von Naturwissenschaft und Christentum ist primär intendiert und eine politische Konsequenz sekundär hin zugefügt, sondern die politische Zielsetzung ist primär, der Einsatz der Naturwissenschaften gegen die Kirchen sekundär. … Nicht der Naturwissenschaftler Karl Vogt wird zum Materialismus und nachfol gend zur Kontrastellung gegen den christlichen Offenbarungsglauben gedrängt, sondern der Politiker Karl Vogt greift zum naturwissen schaftlichen Materialismus, um ihn politisch dienstbar zu machen gegen die ideologische Integration ›christlicher Religion‹ in herr schende Staats- und Gesellschaftsinteressen.«25
Auch im Darwin-Haeckel-Komplex gibt es also eine Kontamination oder Überlagerung der naturwissenschaftlich-theologischen Sachfra gen mit politischen Ambitionen, diesmal von zwei Seiten, von Seiten Dörpinghaus, Hermann Josef: Darwins Theorie und der deutsche Vulgärmateria lismus im Urteil deutscher katholischer Zeitschriften zwischen 1854 und 1914. Inau gural-Dissertation zur Erlangung der Doktorwürde der Philosophischen Fakultät der Albert-Ludwigs-Universität Freiburg 1969, S. 91–93 und S. 117. 25 Bröker, Werner: Politische Motive naturwissenschaftlicher Argumentation gegen Religion und Kirche im 19. Jahrhundert. Münster 1973, S. 165. 24
158 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
der involvierten und emanzipativ politisch ambitionierten Naturwis senschaftler wie auch von Seiten einer politisch überforderten und neuscholastisch festgelegten Kirche. Die vernichtenden Urteile, die beide Seiten – ich nenne sie ein mal Evolutionisten und Kreationisten – übereinander fällen, beruhen keinesfalls auf profunder Sachkenntnis der jeweils anderen Position und der Kenntnis ihrer jeweiligen Grenzen, sondern auf Vorurteilen. So wird einerseits behauptet, die Kirchenvertreter und Theolo gen seien auf Scholastik eingeschränkte, römisch-rechthaberische, autoritätsfixierte und bornierte Naturwissenschaftsignoranten. Und andererseits wird behauptet, den konfligierenden Naturwis senschaftlern ginge es nicht um die Erhellung naturwissenschaftlicher Fragen, sondern um die Zerstörung des Glaubens mit den Mitteln oder unter missbräuchlicher Nutzung oder sogar unter Fälschung der Naturwissenschaften. Beide Urteile, so defizient auch ihre sachliche Argumentations basis und so dominant auch der Wille zur Polemik ist, sind leider weitgehend zutreffend. Ganz unmittelbar ergibt sich daraus eine Lehre für eine beide christlichen Kirchen umfassende theologische und kirchliche Refle xion. 1. Die Vertreter der Kirchen und der Theologie treten gar nicht oder nicht entschieden genug gegen eine politische Instrumentalisie rung von Religion und Glaube durch die herrschende Politik an. Aus diesem Grunde ziehen sie auch politisch motivierte Aversionen auf sich. »Entweltlichung« hätte beiden Kirchen gut getan. Insbesondere die preußisch protegierte evangelische Kirche hatte allerdings kaum theologische Berührungsängste gegenüber den politischen Machtha bern. 2. Die Katholiken im protestantisch-preußischen Staat befin den sich ohnehin in einem Widerstandsmodus gegen dominante politische Akteure (weitgehende Enteignung von kirchlichen Besitz tümern durch den Reichsdeputationshauptschluss, Kölner Ereignis, Kulturkampf mit Kanzelparagraph, Brotkorbgesetz, Jesuitengesetz, weitestgehenden Enteignungen von Klosterbesitz, Aufhebung kirch licher Schulen etc.) und differenzieren nicht zwischen den diversen naturwissenschaftlichen bzw. politischen Akteuren und Motiven. Alle Anwürfe und auch die sachgerecht vorgetragenen naturwissen schaftlich begründeten Anfragen werden weithin undifferenziert als üble antikatholische Attacken empfunden. Wer das Lebensgefühl der
159 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
Katholiken in dieser Zeit nachempfinden möchte, lese oder singe das 1876 entstandene Lied »Ein Haus voll Glorie schauet weit über alle Land«, aber natürlich in der Urfassung von Joseph Hermann Mohr.26 3. Die große Mehrheit der Theologen bleibt einer neothomisti schen Schöpfungstheologie verpflichtet, zumal die Studienkongrega tion unter Pius X. 1914 den Thomismus als philosophisch-theologi sche Leitnorm vorgibt, ohne allerdings streng darauf zu verpflichten.27 So realisieren viele Theologen nicht, dass moderne Naturwissen schaft, die ihr Objekt aus der Gesamtheit der Phänomene erst her auspräpariert, d. h. separiert, terminiert, lokalisiert, quantifiziert etc., von sich aus und streng als Naturwissenschaft nicht metaphysikfähig ist. Allerdings fehlt diese Einsichtsfähigkeit auch weithin in den Naturwissenschaften, die sich im Siegeszug der induktiven Methode eine Zuständigkeit auch für metaphysische Fragen attestieren, wenn nicht gar für potenziell allwissend halten. 4. Viele Theologen, einschließlich der Bibelkommission von 1909,28 die den historischen Charakter der ersten Kapitel aus Genesis nahelegt, haben auch ihre dem damaligen Stand entsprechenden bibel-hermeneutischen Hausaufgaben nicht gemacht. Nicht wenige verteidigen daher die ersten drei Kapitel der Genesis als naturhis torisch-menschheitsgeschichtliche Aussagen und begeben sich in unsinnige Konfrontationen und in haltlose Rückzugsgefechte mit den einschlägigen biologischen und historischen Disziplinen. 5. Es gibt eine Reihe prominenter Theologen und Philosophen, z. B. Antonio Rosmini-Serbati, John Henry Newman, Franz Xaver Kiefel, St. George Mivart u. a., die als Zeitgenossen Darwins und Haeckels durchaus selbstverständlich das Evolutionsparadigma auf nehmen und mit ihrer Philosophie und Theologie zu verbinden wissen. Einige von ihnen werden allerdings von Rom gemaßregelt. Huxley hatte gegenüber Mivart ein Verdikt ausgesprochen, er könne nicht »gleichzeitig ein treuer Sohn der Kirche und ein loyaler Soldat der Wissenschaft sein«29. Damit ergibt sich die bösartige Behauptung, Der aus Siegburg stammende Jesuit und spätere Weltpriester Joseph Hermann Mohr (1834–1892) ist nicht zu verwechseln mit dem aus dem Salzburgischen stammenden Joseph Franz Mohr (1792–1848), dem Dichter von »Stille Nacht, hei lige Nacht«! 27 Vgl. DH 3601–3624. 28 Vgl. DH 3512–3519. 29 Desmond, Adrian/Moore, James: Darwin. München/Leipzig 1991, S. 660; Mr. Darwin's Critics S. 458, zitiert nach Wikipedia. 26
160 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
man könne nicht gleichzeitig katholisch, ehrlich und intelligent sein. Denn entweder man sei ehrlich und intelligent, dann sei man nicht katholisch; oder katholisch und intelligent, dann sei man nicht ehrlich; oder katholisch und ehrlich, dann sei man nicht intelligent. Die Dogmatische Konstitution Dei Filius des I. Vatikanum, dass »Gott, Ursprung und Ziel aller Dinge, mit dem natürlichen Licht der menschlichen Vernunft aus den geschaffenen Dingen gewiss erkannt werden«30 könne, ist auf die Verhältnisbestimmung von naturwissenschaftlicher und theologischer Rationalität allgemein und auf den Kopernikus-Galilei-Komplex wie auch auf den Darwin-Hae ckel-Komplex applizierbar. Dei Filius erfüllt dabei eine doppelte, den Konzilsvätern vielleicht so gar nicht bewusste Funktion. Hier wird nicht nur das Buch der Natur als eine gewisserma ßen naturwüchsige Offenbarungsquelle ausgewiesen und damit der Naturwissenschaft implizit ein Mitspracherecht in Fragen der Theolo gie eingeräumt.31 Es wird überdies auch, indem der Gott des Christen tums aus der Natur, wenn auch nicht vollständig, so doch anfanghaft erkannt werden kann, das Christentum zur »natural religion« (David Hume, 1711–1776) hinter und über der Vielfalt der sonstigen Religio nen erhoben und zur Zielgröße von Religion im Allgemeinen und der konkreten Religionsentwicklung im Speziellen geadelt.32 Indem das Verhältnis des Buches der Natur zum Buch der Schrift näher wie das Verhältnis von Grundwissen zu Spezialwissen beschrieben wird, versucht man das Problem im Kern zu lösen oder im Keim zu ersticken, dass die Erkenntnisse aus dem Buche der Natur zur Norma normans für die Erkenntnisse aus dem Buch der Schrift aufgewertet werden könnten.
4. Teilhard de Chardin – Verbindung von Evolution und Kreation? Trotz aller Vermittlungsbemühungen der alttestamentlichen Exegese von Genesis 1 und 2 verharrt das Problembewusstsein der meisten Vgl. DH 3004. Vgl. Lüke, Ulrich: Mensch – Natur – Gott. Naturwissenschaftliche Beiträge und theologische Erträge. Münster 2002, S. 153–166. 32 Vgl. Religionsbegriff der Aufklärung in Hock, Klaus: Einführung in die Religions wissenschaft. Darmstadt, 4. Auflage 2011, S. 11 f.
30 31
161 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
Zeitgenossen auch heute noch immer bei der unglücklichen Alter native, scheinbar wählen zu müssen zwischen einer mythologiever dächtigen Schöpfungslehre und einer wissenschaftlich erhärteten Evolutionstheorie. Viele Zeitgenossen glauben sogar zwischen einem biblizistischen Kreationismus und einem metaphysisch aufgeladenen Evolutionismus wählen zu müssen. Die meisten Zeitgenossen glau ben also, sich entweder für »Mutter Natur« oder für »Gottvater« entscheiden zu müssen. In diesem Fall glauben sie lieber an eine pure Jungfernzeugung von Mutter Natur denn an eine väterliche Kopfgeburt, wie sie ja von Zeus in Bezug auf die Göttin Athene berichtet wird. Zum entscheidenden, wenn auch mühsam errungenen Durch bruch innerhalb der Schöpfungstheologie gelangt die Evolutionstheo rie erst durch den Paläontologen und Jesuiten Pierre Teilhard de Chardin (1881–1955), der zwar gewissermaßen am Vorabend des Zweiten Vatikanums stirbt, aber dennoch posthum wie ein geheimer Konzilsvater gewirkt hat. Wenn auch die Veröffentlichung seiner Schriften durch das römi sche Lehramt zeit seines Lebens untersagt und nach ihrer Veröffent lichung posthum noch bis 1961 behindert wird, sind doch gerade sie es, die zunächst nur in Form von Vorlesungsmitschriften und dann nach und nach doch in Buchform erschienen maßgebliche katholische Konzilstheologen des 20. Jahrhunderts wie Karl Rahner, Henri de Lubac oder auch Joseph Ratzinger beeinflussen. Warum wird hier nun auf Teilhard de Chardin zurückgegriffen, worin liegt seine Relevanz in dieser Thematik? 1. Teilhard de Chardin steht lebensgeschichtlich im Schnittpunkt der historischen Auseinandersetzung um den jeweiligen Geltungs bereich von Evolutionstheorie und Schöpfungstheologie. Seine Lebenszeit reicht weit in die eines Ernst Haeckel zurück und in die beginnende Molekulargenetik hinein. 2. Er ist ein ausgewiesener und angesehener Paläontologe, der Jahrzehnte lang in China unter anderem im Ausgrabungsteam mitge wirkt hat, das den Sinanthropus, den sogenannten Peking-Menschen (Homo erectus von Choukoutien 1928/29), entdeckt. 3. Er ist Priester im Jesuitenorden, vermag also theologische, damals vorwiegend neuscholastische Überlegungen mit großem Sachverstand zu beurteilen und als Mann der Kirche naturwissen schaftliche Perspektiven in der Kirche zur Geltung zu bringen.
162 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
4. Seine Ideen von einer Vereinbarkeit und Kompatibilität zwischen Evolutionstheorie und Theologie erleben bei Naturwissen schaftlern – wenn auch in manchen Variationen, unter anderem beim Anthropischen Prinzip – bis heute hin immer wieder eine Art Renaissance. 5. Am Werk Pierre Teilhard de Chardins lässt sich die inner kirchliche Rezeptionsgeschichte einer Theorie studieren, die anfangs als befremdlich oder gar den Glaubenswahrheiten widersprechend eingeschätzt wird. Diese Rezeptionsgeschichte beginnt bei strikter Ablehnung der Theorie einschließlich der Maßregelung ihrer Vertre ter. Teilhard erhält übrigens zeitlebens keine Publikationserlaubnis für seine naturphilosophisch-theologischen Werke. Dann folgen das Leiserwerden des kirchenamtlichen Widerspruchs und das Schweigen zu ehemals inkriminierten Positionen. Und schließlich kommt es zur stillschweigenden unzitierten Übernahme bestimmter Gedanken, wie das im Fall Teilhards bis in die Konzilsdokumente (z. B. Lumen gentium und Gaudium et spes) hinein nachgewiesen ist.33 6. Die theologische Wirkungsgeschichte hält also, nun sogar durch offizielle kirchenamtliche Dokumente bewirkt, auch weiterhin an. So viel auch unbestreitbar an theologischen und biologischen Erkenntnissen seit Teilhard hinzugekommen ist – auf ihn Bezug zu nehmen, ist auch heute weder aus theologischen noch aus biologi schen Gründen überholt. Bei Teilhard erfolgt eine Sinndeutung des Universums eher aus der Vorausschau auf das Ende bzw. die Vollendung in der Antizipa tion des Omega, des in Gott liegenden und in jegliche Gegenwart hineinwirkenden Zielpunktes aller Evolution. Das zukünftige Ende bzw. diese zukünftige Vollendung wird allerdings aus der Vergangen heit extrapoliert; so wird die evolutionstheoretische Frage nach dem Woher wichtig für die Erhellung der theologischen Frage nach dem Wohin. Evolution als Komplexifikationsprozess verstanden ist der Weg zu immer mehr Geist, bis dieser zur Kommunikation mit Gott fähig ist. Das zentrale Anliegen Teilhards ist wohl dies: Er möchte eine Integration von Kosmos-, Natur- und Geistesgeschichte in die Heils geschichte oder zumindest eine Deutung von Kosmos-, Natur- und Geistesgeschichte aus heilsgeschichtlicher Perspektive vorlegen. Es 33 Vgl. Klein, W.: Teilhard de Chardin und das Zweite Vatikanische Konzil. Mün chen/Paderborn/Wien 1975.
163 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
geht ihm um eine in Kosmogenese, Biogenese und Noogenese zumin dest latent vorhandene, wenn nicht sogar ganz offensichtliche und letztlich auf Gott zielende Intentionalität. „›Mutter Natur‹ und/oder ›Gottvater‹?«, so könnte die Frage nach dem Verhältnis von Evolutionsbiologie und Schöpfungstheolo gie gelautet haben. Sie ist aus der Perspektive Teilhards eindeutig so zu beantworten: »Mutter Natur« und »Gottvater«. Die naturwissen schaftlich erfassbare Außenseite der Dinge weist eine ganz und gar natürliche Herkunft und eine durchgängig materielle Signatur auf. Die mit ihr gekoppelte Innenseite der Dinge weist eine auf Zukunft hin offene geistige Intentionalität in Richtung Gott auf. Der von der Naturwissenschaft als Evolution bezeichnete Prozess ist zwar ganz und gar natürlich, aber gewissermaßen um Gottes willen. Teilhard de Chardins Schriften bieten eine von den kosmolo gischen Phänomenen (Kosmogenese) ausgehende, biologische und geistige Phänomene (Biogenese und Noogenese) einbeziehende und auf Heilsgeschichte (Christogenese) hin deutende Gesamtinterpreta tion des evolutiven Weltgeschehens. Ihm ist aufgrund seiner paläon tologischen Forschungen klar geworden: Gott erschafft kein statisches Fertigprodukt, sondern eine Werdewelt; er macht eine Welt, die sich macht, eine autopoietische Welt. Und diese sich machende Welt schreitet von der chemischen über die biologische zur geistigen Evo lution fort und damit, wie Teilhard de Chardin meint, Gott entgegen. Nach den Werkzeugen zur Erweiterung der manuellen Fähig keiten und den Fahrzeugen zur Erweiterung der Fortbewegungsmög lichkeiten sieht er Denkzeuge kommen und prognostiziert bereits mehr als ein Jahrzehnt vor den ersten Computern »ein Denken, das künstlich das Organ vervollkommnet, auf dem es beruht«.34 Teilhard de Chardin besitzt auch die Kühnheit und die Sachkenntnis, den evo lutiven Prozess in den christlichen Deutungshorizont zu stellen und Evolutionsgeschichte als Heilsgeschichte Gottes mit seiner Schöpfung und seiner Menschheit zu interpretieren. Das hat ihm zunächst in Rom manche Probleme eingebracht, aber die nachkonziliare Kirche hat seine bahnbrechenden Gedanken weithin rezipiert. Teilhard de Chardin hat gezeigt, dass es theologisch äußerst fruchtbar sein kann, den Entwicklungsgedanken aufzunehmen. Er greift nämlich das biblische Verständnis einer Heilsgeschichte auf. 34 Teilhard de Chardin, Pierre, Der Mensch im Kosmos, München 7. Auflage 1964, S. 243.
164 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
Gottes Schöpfung besteht demnach nicht nur aus einem Akt am Anfang, der eine unwandelbare Ordnung schafft, sondern aus einem andauernden Prozess, in dem sich Neues ereignet und initiiert wird. Biologisch meint das etwa die Entstehung neuer Rassen, Arten, Gattungen und Familien etc. Theologisch bedeutet das, dass jeder Einzelne und das Volk Gottes als Ganzes als kreative Mitgestalter heilswirksam tätig sein und die Kulturgeschichte zur Heilsgeschichte umgestalten können und sollen. Der Einzelne und das ganze Volk Gottes bleiben nicht nur das Objekt eines Handelns Gottes an ihm, sondern wird zum Subjekt der Gestaltung seiner Geschichte ermächtigt. Das Tun des Einzelnen und des ganzen Volkes Gottes kann in einer offenen Entwicklung, wie sie biologisch durch die Evolutionstheorie beschrieben wird, (heils)geschichtsprägende Aus wirkungen haben. Es ist wohl sicher, dass einer ganzen Generation naturwissen schaftlich interessierter Theologen und theologisch interessierter Naturwissenschaftler vor und nach dem II. Vatikanum angesichts der ihnen von Evolutionisten und Kreationisten zugemuteten kognitiven Dissonanz das Denksystem des Teilhard de Chardin als wissenschaft liches Notgepäck zum Erhalt und zur Rückgewinnung der intellektu ellen Redlichkeit große Dienste geleistet hat.
Übersicht über das Denksystem des Teilhard de Chardin Eine grafische Gesamtdarstellung des Teilhardschen Systems, die gewiss nicht in jeder Hinsicht seinem an Verästelungen reichen Denken gerecht wird, die entscheidenden Denkschritte aber umfasst, nimmt sich wie folgt aus:
165 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke 54 $(!'&! 1 5 0%' %&$ % $ ($(!! &0 '%$'&24 !&(% 5 %&)'%%&% $ 4 5)-0 % ! %#' ,$%%)-2224
3 !"*&. &%,' 1$!,%%(! / "$!&!"%+% %& $&$'. $)'%%&% 0 )'%%&% ! )'%%&% %,' !&( )'%%&% . '-$$ $&$1 5)-2224 !"*$% 0 $ (!' ,' )'%%&% / 5'- %& $ 4 3 ,$$& ,$ $&$ "$!&!"%+% . '&$ %& $&$ . '-$$ #'&&($ $&$1 "$' / '&!3 7%! & '&. &8 $"&! #' &&&(% 222&! $!3 6 %&' !'. !'. $!& 7 ! & '&. &8
54
Abb. 1 Der evolutive Prozess nach Teilhard de Chardin: Ein als »Empor im Voran« charakterisierbarer Komplexifikations-Bewusstseins-Prozess
Alles beginnt mit einem Komplexitätswachstum schon des Unbeleb ten, vom Atom bis zur DNS/RNS und den Proteinen. Der Schritt vom Unbelebten zum Belebten wird in dem Moment vollzogen, wo informationstragende und katalytisch wirksame Makromoleküle miteinander interagieren und eine Autoreplikation zuwege bringen. Man könnte sagen: Materie macht sich. Und eben da beginnt Leben – ein Leben, dessen Innenseite von einfachsten gespeicherten Informa tionen bis zum Bewusstsein reicht. Der nächste entscheidende Schritt, der zwischen noch Tier und schon Mensch liegt, ist aus fossilen Belegen des Menschen selbst nicht so ohne Weiteres erschließbar,
166 https://doi.org/10.5771/9783495998847 .
Zwischen Tridentinum und Vatikanum II
sondern allenfalls über die von ihm produzierten Artefakte. Teilhard sieht diesen entscheidenden Schritt vollzogen in der Bildung des Ichbewusstseins: »Vom Standpunkt der Erfahrung – dem unseren – ist das Ichbewusstsein, seinem Wortsinn entsprechend, die von einem Bewusstsein erworbene Fähigkeit, sich auf sich selbst zurückzuziehen und von sich selbst Besitz zu nehmen, wie von einem Objekt, das eigenen Bestand und Wert hat: nicht mehr nur kennen, sondern sich kennen; nicht mehr nur wissen, sondern wissen, dass man weiß. […] Ganz gewiss, das Tier weiß. Aber sicher weiß es nicht, dass es weiß.«35 Dieses Ichbewusstsein entstand zwar aus Bewusstsein, aus kon tinuierlichen Stufen der Entwicklung desselben, weist aber dennoch einen entscheidenden qualitativen Unterschied auf. »Nicht einfacher Stufenwechsel, sondern ein Naturwechsel, der aus einem Zustandswech sel hervorgeht.«36 Der durchgängig übliche evolutive Schritt in der Kontinuität eines »Voran« ist zugleich durch die Diskontinuität eines »Empor«, also nicht nur als quantitativer, sondern auch als qualitati ver Schritt oder Sprung gekennzeichnet. Teilhard benutzt zur Veran schaulichung des Gemeinten häufiger das Bild von der kontinuierli chen Erwärmung von Wasser. Dort kommt es nach Erreichen von 100 Grad Celsius unter Idealbedingungen auch zu einem Phasenwechsel von flüssig nach gasförmig. Er nennt das einen qualitativen Sprung, der sich da vollzieht, ohne dass dadurch die chemische Beschreibung von Wasser als H2O ihre Berechtigung verlöre. Das Erreichen des Ichbewusstseins, also das selbstbezügliche Denken, stellt Teilhard bedeutungsmäßig auf eine Ebene mit der »Kondensation der chemi schen Stoffe der Erde« und mit der »Erscheinung des Lebens«. Der Entwicklungsstrahl verläuft demnach so: Die noch tote »Geosphäre« durchläuft einen materiellen und quantitativ beschreibbaren Komple xifikationsprozess, die »Geogenese«. In diesem quantitativen Prozess kommt es bei Erreichen einer kritischen Größe zu einem qualitativen Sprung, dem ersten Auftreten des Lebens. Dieses Leben umhüllt nach und nach die »Geosphäre« und bildet eine Sphäre des Belebten, eine pflanzliche und tierische »Biosphäre«, aus. Diese durchläuft ihrerseits einen Komplexifikationsprozess, die »Biogenese«. Dieser Komplexifikationsprozess der Biosphäre manifestiert sich nicht ein fach im Größenwachstum der Lebewesen, sondern vor allem in deren 35 Teilhard de Chardin, Pierre, Der Mensch im Kosmos, München 7. Aufl. 1964, S. 151; vgl. auch ders.: Die Zukunft des Menschen, Olten 2. Aufl. 1966, S. 358 u. S. 385. 36 Teilhard de Chardin: Der Mensch im Kosmos, S. 152.
167 https://doi.org/10.5771/9783495998847 .
Ulrich Lüke
informationsverarbeitendem Apparat. Die Nervensysteme werden komplexer (diffuse Nervensysteme, Strickleiternervensysteme, Zen tralnervensystem) und ermöglichen als neue Systemeigenschaft das Auftreten des Denkens, ja sogar des ichbewussten Denkens. Nach Teilhard wäre der Punkt der Unterscheidung zwischen Tier und Mensch genau ein solcher evolutiver Schritt, gewissermaßen das Überschreiten des Rubikon zwischen Bewusstsein und Ichbewusst sein, der Schritt vom Wissen zum Wissen, dass man weiß. Von hier an beginnt nun die Herausbildung einer Sphäre des Denkens, die Herausbildung der »Noosphäre« und ihre »Noogenese«. Der durch genetische Beziehungen in sich kohärenten erdumspannenden »Biosphäre« folgt die denkende Sphäre: »(…) außer und über der Biosphäre eine Noosphäre.«37 Und das sich mit der Noosphäre mehr und mehr herausbildende kollektive Bewusstsein ist der Horizont, in dem die vollkommene Kommunikation zwischen Schöpfer und Geschöpf möglich wird.
37
Teilhard de Chardin, Der Mensch im Kosmos, S. 164.
168 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
Fortschritt – in katholischer Theologie und Kirche? Fundamentaltheologische Überlegungen im Horizont des 2. Vatikanischen Konzils
1. Fortschritt – zur Ideologiegeschichte des Konzepts Die Idee und die Ideologie des Fortschritts haben im 20. Jahrhundert einen massiven mentalitätsgeschichtlichen Wandel erlebt.1 Der Fort schrittsoptimismus ist durchgreifender Kritik verfallen.2 Das progres sive Modell des Fortschritts im Zeichen gesellschaftlich-technologi scher Utopien ist einer Sensibilität für Rückschläge und Widersprüche gewichen. Die »Dialektik der Aufklärung« von Max Horkheimer und Theodor W. Adorno, die im historischen Kontext der politischen Totalitarismen des 20. Jahrhunderts entstand, attestierte: »[D]er Fortschritt schlägt in den Rückschritt um«3 und arbeitete dieses Urteil mit einer grundsätzlichen rationalitätstheoretischen Dialektik aus. Die Vernunft übt den Zwang des Begreifens im Subjekt wie in der Gesellschaft als einen Mechanismus aus, der in sich gewaltför mig funktioniert. Der Rückschlag der Aufklärung ins Unaufgeklärte bleibt dem mythologischen Wiederholungszwang schon deshalb ver bunden, weil der Mythos selbst einen Prozessor in der Geschichte der Vernunft darstellt. Sie führt also einerseits aus mythischen Ver blendungszwängen heraus, schlägt aber andererseits gerade in der historischen Gestalt der Aufklärung als Motor der Fortschrittsidee und der mit ihr verbundenen technologisch-ökonomischen Prozesse 1 Vgl. A. Wildfeuer, Art. Fortschritt I. Begriff, Begriffsgeschichte, in: Lexikon für Theologie und Kirche3, Bd. 3, hrsg. v. W. Kasper u. a., Freiburg 1995, 1365f. 2 Das ist auch ein Aspekt des theologischen Fortschrittsdiskurses, der im Modus politischer Theologie den Blick auf die Opfer moderner Fortschrittsprozesse lenkt. 3 M. Horkheimer / Th. W. Adorno, Dialektik der Aufklärung. Philosophische Frag mente, Frankfurt a.M. 1989, 5.
169 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
wie gesellschaftlichen Emanzipationsbewegungen in neue Verblen dungszusammenhänge zurück – in die Funktionsweisen instrumen teller Vernunft. Diese exemplarische Kritik des Fortschrittsmotivs führt in seine historischen Ambivalenzen ein, ohne den Erfolgen der modernen Wissenschaftsgeschichte wie den entsprechenden gesellschaftlichen Transformationen nach dem 2. Weltkrieg mit Entkolonialisierung und Demokratisierungen gerecht werden zu können. Die Entwicklung des Human Development Index verzeichnet die Rückschläge in einem brei ten Kriteriensetting menschlicher Entwicklung, macht aber im Zuge von Entwicklungsprozessen auch förmliche Fortschritte in den Berei chen medizinischer Grundversorgung, Bildung und gesellschaftlicher Partizipation nachvollziehbar.4 Die Umstellung des Konzepts Fortschritt auf Entwicklung trägt den semantischen Unschärfen und den ideologischen Belastungen des Fortschrittsgedankens Rechnung, kann sich aber ebenso wenig von den ambivalenten Aspekten von Entwicklungsprozessen lösen, die einerseits eine formale systemtheoretische Dimension anzeigen,5 insofern soziale Systeme nicht erstarren, andererseits Avancen auf normativ gehaltvolle Entwicklungsziele freisetzen – wie z. B. Über windung von Ungleichheit, Erfolge in der Armutsbekämpfung etc. An einem entscheidenden Punkt erweist sich das Konzept »Entwick lung« jedoch als leistungsstärker gegenüber dem »Fortschritt«: Es löst sich von linearen Vorstellungen und spannt evolutive Prozesse in komplexere gesellschaftliche Bedingungsgefüge ein, bricht also mit dialektischen Konstruktionen und enthebt sich vor allem der »Überbietungslogik des Fortschritts«.6
Vgl. den HDI-Report für 2019: https://hdr.undp.org/system/files/documents// hdr2019pdf.pdf. Der Term »Fortschritt« (progress) wird vermieden, aber Entwicklungsprozesse werden mit Handlungsplänen bestimmt, die Ziele einlösen sollen. »Some 40 years ago the founding father of human development, Professor Amartya Sen, asked a deceptively simple question: equality of what? He answered with equal simplicity: of the things we care about to build the future we aspire to.« (Ebd., III). 5 Vgl. N. Luhmann, Die Gesellschaft der Gesellschaft, Frankfurt a.M. 1997, Bd. 1, 428f. 6 Ebd., 555. 4
170 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
2. Fortschritt – zur methodologischen Korrektur des Konzepts Das Thema »Fortschritt« wirft nicht zuletzt die Frage nach einer belastbaren Definition und nach operationalisierbaren Kriterien des Konzepts auf. Diese sind wiederum wissenschaftsbezogen bestimmt, also von den Voraussetzungen und dem Selbstverständnis der jeweiligen wissenschaftlichen Disziplin, ihrem Gegenstandsbereich sowie ihrem methodischen Repertoire her zu entfalten. Dabei spielt nicht nur eine entscheidende Rolle, ob und wie »Fortschritt« nor mativ aufgeladen wird, sondern auch, wie sich das Verständnis von »Fortschritt« wissenssoziologisch im diskursiven Rahmen der jeweiligen Wissenschaftsdisziplin auffassen lässt. Hier unterscheiden sich bereits die Zugänge der naturwissenschaftlich, technisch und empirisch arbeitenden Wissenschaften von interpretationsbezogenen Kulturwissenschaften. Was sich etwa in medizinischer Hinsicht als ein Fortschritt bei der Behandlung von Krankheitsbildern darstellen lässt, weist auf Lernprozesse zurück, die wiederum auch für die Phi losophie konstitutiv sind. »Was Philosophen wissen und was man von ihnen lernen kann« – unter diesem Titel hat Herbert Schnädelbach eine »kurze Problemgeschichte« von Philosophie als Wissenschaft geschrieben und dabei bereits eine Einsicht philosophischer Lernpro zesse als konstitutiv ausgewiesen: dass »ein einheitliches und universelles Kriterium der Wissenschaft lichkeit nicht existiert, sondern nur eine Mehrzahl von methodolo gischen Anforderungen, die in den verschiedenen Wissenschaften, und eben darum auch in der Philosophie, in unterschiedlicher Weise erfüllt werden.«7 Der entsprechende Lernprozess lässt sich wiederum als ein Fortschritt auf mehreren Ebenen rekonstruieren, insofern damit ein Wissen beansprucht wird, das – vorbehaltlich neuer Erkenntnisse – nicht mehr übergangen werden kann, weil es relevante Kenntnisse und Orientierungen zur Verfügung stellt, die man für die Lösung von Problemen berücksichtigen muss: a)
wissenschaftsgeschichtlich als Einsicht in eine – unauflösbare – Pluralität von wissenschaftlichen Arbeitsweisen und methodolo gischen Standards;
7 H. Schnädelbach, Was Philosophen wissen und was man von ihnen lernen kann, München 2012, 13.
171 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
b) c)
wissenschaftssystematisch mit der Konsequenz, sich von der Utopie einer mathesis universalis zu verabschieden, weil sie aussichtslos erscheint; wissenschaftstheoretisch mit der Erkenntnis, dass Wissenschaft auf transformierbaren Formen des Wissens basiert, damit in ihrer geschichtlichen Gestalt wiederum an die Plausibilisierung ihrer Methoden und Erkenntnisse gekoppelt ist, für die wiede rum eigene Kriterien entwickelt werden müssen – wie z. B. tech nologischer Erfolg, der an den gesteckten Zielen gemessen wird.
Damit wird wiederum eine entscheidende Einsicht des philosophi schen Diskurses beansprucht: »Wissen als den Inbegriff wahrer, gerechtfertigter Überzeugungen aufzufassen. Solche Überzeugungen haben unhintergehbar sprachliche Gestalt, nur so sind sie kommunizierbar.«8
Was Schnädelbach als »unhintergehbar« ausweist, wird sprach- und kommunikationstheoretisch begründet, zugleich aber performativ beansprucht – in der Form eines Satzes, der eine Entscheidung über seine Wahrheitsfähigkeit erlaubt. Sie kann je nach Wahrheitstheorie unterschiedlich ausfallen, bestätigt so also noch einmal die zuvor formulierte Einsicht in Lernerfolge, die sich philosophisch nicht mehr auflösen lassen. Wenn aber Wissen unter den Bedingungen endlicher Subjekte des Wissens und in einer kontingenten Welt grundsätzlich fallibel bleibt, betrifft diese Einsicht einerseits die Reichweite dieser Einsicht, um sie andererseits auf diese Weise zu bestätigen. Der Lernprozess, der sich genau darin zeigt, hält auf ein nicht material gefasstes, sondern methodologisch bestimmtes Konzept zu, das unter diesem Gesichtspunkt einen methodologischen Fortschritts begriff in den Blick rückt. Er fokussiert das Konzept wissenschaftlichen Fortschritts auf die Bearbeitungsform von neuen Erkenntnissen im Zuge von Theoriebildungen. »So vollzieht sich die wissenschaftliche Forschung als eine Abfolge T1 → T2 → … Tn → … von Theorien. Verbunden sind die Theorien vor allem durch Probleme. In einer Nachfolgetheorie Ti+1 sind gewisse Probleme der Vorgängertheorie Ti gelöst. Wie die Wissenschaftsge
8
Ebd., 30f.
172 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
schichte eindrücklich lehrt, darf man sich allerdings den wissenschaft lichen Fortschritt nicht allzu geradlinig und zielstrebig vorstellen.«9
Der wissenschaftliche Fortschritt zeigt sich demnach in Problemlö sungen, die auf der Ebene der Bearbeitung neuer oder wiederkehren der Probleme das Wissen um methodische Bearbeitungsoptionen gerade mit ihren Fehlermeldungen beanspruchen. Jenseits des damit erreichten reflexiven Standards und des mit diesem verbundenen Methodenbewusstseins lässt sich Wissenschaft nur um den Preis eines unterkomplexen Bewusstseins vom eigenen Wissen betrei ben.10 Ob es sich dann noch um Wissenschaft im umrissenen metho dologischen Sinn handelt, wäre wiederum eine Frage, die erst auf der Basis wissenschaftstheoretisch erreichter Einsichten zu diskutieren ist. Insofern also kann – zunächst in einem heuristischen Zugang – ein methodologischer Fortschrittsbegriff die folgenden Überlegun gen anleiten.
3. Fortschritt als Thema des 2. Vatikanischen Konzils Ein dezidiert katholisch-theologischer Zugang zum Thema »Fort schritt« steht in mehrfacher Hinsicht in einem problemati schen Zusammenhang: – – –
im Blick auf die Frage nach Theologie als Wissenschaft; mit der Frage nach der Denkbarkeit eines Fortschritts im Sinne eines theologischen Programmbegriffs (heilsgeschichtlich, aber auch erkenntnistheologisch); im Horizont der spezifischen Fortschrittsproblematik, die die katholische Kirche betrifft. So hat die katholische Kirche mit ihrem dezidierten Antimodernismus11 eine Position zur Moderne eingenommen, die als förmliche Fortschrittsverweige rung wahrgenommen wurde – exemplarisch mit der verzögerten
H. Tetens, Wissenschaftstheorie. Eine Einführung, München 2013, 73. Zum Komplexitätsbegriff vgl. S. Mitchell, Komplexitäten. Warum wir erst anfan gen, die Welt zu verstehen, Frankfurt a.M. 2008. 11 Zum Antimodernismus vgl. P. Neuner, Der Streit um den katholischen Modernis mus, Frankfurt a.M./Leipzig 2009, besonders 11–184. 9
10
173 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
Akzeptanz von wissenschaftlichen Erkenntnissen im Rahmen der Evolutionstheorie.12 Es war gerade das 2. Vatikanische Konzil, das – namentlich mit seiner Pastoralkonstitution Gaudium et spes (GS) – auf Herausforderungen der »Welt von heute« reagierte, die im Zeichen von gesellschaft lichem und technologischem Fortschritt wahrgenommen wurden. Zugleich wurden die Dokumente des Konzils selbst als eine Art von Fortschritt in der Entwicklung der kirchlichen Lehre rezipiert – angeleitet von Johannes XXIII., der sich vom Konzil einen »Sprung vorwärts« erhoffte.13 In seiner Eröffnungsansprache griff der Papst das Fortschritts-Thema gleich mehrfach auf. Er sprach vom »Fortschritt der Erkenntnisse«14, die er würdigte, sah aber auch die Gefahren eines »blinden Vertrauen(s) auf den technischen Fortschritt«.15 Stattdessen nahm er den »wahren Fortschritt«16 in den Blick, den er theologisch qualifizierte – im Grundbezug des Menschen auf Gott als Ursprung und Ziel des Lebens, aber auch als »Quelle aller Weisheit«, sprich: wahrer (Selbst-)Erkenntnis. Die Verknüpfung des Fortschritts-Motivs mit der Humanisie rung des Menschen und der Gesellschaft betrifft die Kirche aber auch insofern, als sie sich produktiv auf die modernen Fortschrittsdynami ken einstellen muss. Diese fordern zu einer veränderten Darstellung der kirchlichen Lehre heraus und nötigen förmlich zum »Sprung vor wärts«, der aus der defensiven Haltung antimoderner Verurteilungen zu einem offenen Dialog mit der »Welt von heute« veranlasst. Die Kirche lehrt nicht länger nur, sondern erweist sich als lernfähig – darin besteht ein theologisch qualifizierter Fortschritt kirchlicher Lehre. In historischer Perspektive führt dieser Fortschritt über den kir chenpolitischen Antimodernismus, in religionssoziologischer Hin 12 Für die Wahrnehmung der Position der katholischen Kirche in Fragen der Sexual ethik gilt dies bis in die Gegenwart – mit bemerkenswerten Umbrüchen z. B. in der Bewertung von Homosexualität. 13 Vgl. P. Hünermann, Der Text: Werden – Gestalt – Bedeutung. Eine hermeneuti sche Reflexion, in: ders. / B. J. Hilberath (Hrsg.), Herders Theologischer Kommentar zum Zweiten Vatikanischen Konzil (HThKVat II), Bd. 5: Die Dokumente des Zweiten Vatikanischen Konzils: Theologische Zusammenschau und Perspektiven, Freiburg u. a. 2006, 5–101, 22, Anm. 22. 14 Johannes XXIII., Ansprache anlässlich der feierlichen Eröffnung des Zweiten Vati kanischen Konzils am 11. Oktober 1962, in: HThKVat II, Bd. 5, 482–490, 486. 15 Ebd., 487. 16 Ebd., 486.
174 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
sicht über die eigenweltlichen Formationen des katholischen Milieus, in theologischer Konsequenz über das Kirchenmodell der societas perfecta hinaus. Seine Abschließungstendenzen, seine formative Sozi algestalt hatte sich als Reaktion auf die Herausforderungen des 16. Jahrhunderts selbst in verschiedener Hinsicht als ein Fortschritt erwiesen, der aber sein Kapital unter veränderten gesellschaftlichen und wissenshistorischen Bedingungen im 19. Jahrhundert verbraucht hatte. Dieser Prozess macht auf die spezifische Bedeutung des Fort schritt-Themas für die katholische Theologie und Kirche sowie dessen Bearbeitung auf dem 2. Vatikanischen Konzil aufmerksam – und zwar gerade in den geschichtlichen Ambivalenzen und Umschlagmomen ten in dem, was als Fortschritt wahrgenommen und bestimmt wird. Dafür wird nicht ein normatives, sondern ein methodologisches Fortschritts-Konzept eingesetzt. Im Mittelpunkt steht die Form, in der die Lehre des Konzils entwickelt wird. Entscheidend erweist sich dabei die Grammatik, mit der differenten Positionen sowohl in der Kirche als auch in der Konfrontation mit der Welt von heute Raum gegeben wird. Dabei wird die Situation der Moderne in einer grundlegenden Spannung beschrieben – im Zeichen von Aufbrüchen zu selbstbestimmtem, erfülltem Leben in allen Sphären (GS 9,3). Das Konzil spricht die Emanzipation der Frauen ebenso wie die Situation von Arbeitern und Bauern an. Es verbindet dabei Gerech tigkeitserwartungen mit Vorstellungen von Gleichbehandlung und Partizipation (GS 9,2). »Unter diesen Umständen zeigt sich die moderne Welt zugleich stark und schwach, in der Lage, das Beste oder das Schlimmste zu tun; für sie ist der Weg offen zu Freiheit oder Knechtschaft, Fortschritt oder Rückschritt, Brüderlichkeit oder Haß. Zudem wird nun der Mensch sich dessen bewußt, daß es seine eigene Aufgabe ist, jene Kräfte, die er selbst geweckt hat und die ihn zermalmen oder ihm dienen können, richtig zu lenken.« (GS 9,4)
Bemerkenswert ist die Oppositionsbildung, mit der Freiheit und Fortschritt verbunden werden. Das wird anthropologisch begründet: »Aus der gesellschaftlichen Natur des Menschen geht hervor, daß der Fortschritt der menschlichen Person und das Wachsen der Gesellschaft als solcher sich gegenseitig bedingen.« (GS 25,1)
Fortschritt wird im Horizont komplexer gesellschaftlicher, ökonomi scher und kultureller Bedingungen auf die humane Entwicklung des Menschen und der Menschheit bezogen. Damit wird ein Kri
175 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
terium vorgelegt, das einerseits schöpfungstheologisch und heils geschichtlich begründet, andererseits gesellschaftstheoretisch ange schlossen wird. Gleichheits- und Freiheitsvorstellungen werden nicht exklusiv theologisch erschlossen, sondern bereits über die Darstel lung des gesellschaftlichen Bedingungsgefüges in einer Wechselwir kung erfasst. Dieses Zueinander stellt in methodischer Hinsicht einen mar kanten Schritt dar: Die katholische Kirche lässt sich von den Realitäten der modernen Welt gerade an einem Punkt beeindrucken, der für sie – paradigmatisch mit der Genealogie der Moderne in Dei Filius – zur Projektionsfläche kritischer Distanzierung und förmlicher Ver urteilungen wurde: die Freiheitsprozesse offener Gesellschaften mit den Autonomievorstellungen ihrer AkteurInnen.17 Dieser Positions wechsel setzt im Horizont der modernen Fortschrittsthematik selbst einen lehramtlichen Fortschritt in Gang – im formalen Sinn einer Entwicklung mit Ablösungstendenzen von gegebenen Positionen, in inhaltlicher Hinsicht mit einer Neubewertung bislang verworfener gesellschaftlicher Tendenzen und weltanschaulicher Überzeugungen.
4. Das Lernprogramm des 2. Vatikanischen Konzils Dieser Positionswechsel entwickelt sich am Leitfaden der Ausein andersetzung mit einer Welt, die vom Konzil im Zeichen eines Fortschrittsdiskurses identifiziert wird. Die Haltung des Konzils, das auf Dialog setzt, lässt sich dabei bereits von einem entscheidenden Moment moderner Gesellschaften bestimmen: von deren Pluralität und Diversität. Sie ist politisch wie lebensweltlich, aber auch wis senschaftlich von einer Ausdifferenzierung von Lebenssphären und Wissenskulturen bestimmt, die Eigenlogiken produzieren und sich nicht vom Regime einer übergeordneten Perspektive bestimmen lassen. Wahrheit steht nicht fest, sondern wird – worauf Herbert Schnädelbach hinweist – in wahrheitsfähigen Sätzen bestimmt. Gel 17 Vgl. die »Dogmatische Konstitution über den katholischen Glauben Dei Filius«, in: J. Wohlmuth (Hrsg.), Dekrete der ökumenischen Konzilien, Bd. 3: Neuzeit, Paderborn u. a. 2002, 804–811. Im ersten Kapitel der Dogmatischen Konstitution über den katholischen Glauben wird ein Narrativ der modernen Verfallsgeschichte aufgesetzt: Es führt von der Reformation zu Rationalismus und Naturalismus, also zur Abkoppelung von Glaube und Vernunft und damit letztlich »in den Abgrund des Pantheismus, Materialismus und Atheismus.« (DF 3).
176 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
tungsansprüche werden diskursiv ausgehandelt und abgeglichen. Wissenschaftstheoretisch müssen sie sich Verifizierungs- und Falsifi zierungsproben unterziehen – und das gilt nicht nur für empirische Wissenschaften, sondern auch für theologisch reflektierte Glaubens überzeugungen. Das eigentliche Risiko, dem sich das Konzil mit seinem Dialog programm stellte, bestand und besteht darin, dass sich aus dem Gegenüber der »Welt von heute« mit ihren als fortschrittlich begrif fenen Freiheitspotenzialen auch ein Gegenüber von wahrheitsbezo genen religiösen und weltanschaulichen Überzeugungen abzeichnet. Der Fortschritt, mit dem sich das Konzil theologisch auseinander setzte, bedingt einen theologischen Fortschritt in der Hinsicht, dass sich abweichende Positionen als Impulsgeber, als Inspirationsquellen, als kritische Spiegel der eigenen Überzeugungen darstellen lassen. Im Sinne des methodologischen Fortschrittskonzepts eignet sich das Konzil damit eine theologische Differenzkompetenz an, die es wiederum erlaubt, eigene Spannungsverhältnisse produktiv zu bearbeiten. In praktischer Hinsicht zeigt sich dies im Tarieren von Konzilsmajorität und -minorität. Letztere wird nicht einfach niedergestimmt, sondern ihre Positionen erhalten in der Darstellung des kirchlichen Glau bens einen Ort. Aber auch Spannungsverhältnisse wie die zwischen Orts- und Universalkirche, Bischofskollegium und Papst, kirchlichem Amt und dem allgemeinen Priestertum werden über diese Gramma tik koordiniert. Dieses Lernprogramms, das im Pensum der Themen und Doku mente des Konzils eingeübt wird, setzt eine performative Dynamik in der Auseinandersetzung mit einem Fortschrittsgedanken frei, der selbst wiederum differenziert wahrgenommen wird: mit Respekt vor produktiven Ergebnissen, mit kritischer Distanz gegenüber seinen negativen Folgen. Auf diese Weise entwirft das Konzil einen Pro spekt der Kirche, die sich selbst einem Prozess des dogmatischen Fortschritts unterziehen kann – in der theologischen Qualifizierung dessen, was sich in einer allein von der Kirche her bestimmten Wahrheit nicht erreichen lässt. Indem das Konzil sich in der Welt von heute auf die – bedingte – Wahrheitsfähigkeit abweichender weltanschaulicher Realitäten und Traditionen einlässt, erreicht es eine neue Position in der kirchlichen Glaubensdarstellung: Das Kon zil und die katholische Kirche dringen zur religiösen Bedeutung relativierender Wahrheiten vor und können diese für die eigene Wahrheitsdarstellung produktiv machen. Dieser Schritt, der sich im
177 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
Horizont jener Prozesse vollzieht, die das Konzil freiheitsbezogen mit fortschrittlichen Gesellschaften assoziiert, stellt einen dogmatischen Fortschritt dar – einen »Sprung vorwärts«. Das lässt sich an einigen einschlägigen Dokumenten des 2. Vati kanischen Konzils verdeutlichen. Die lehramtlichen Positionen, die damit festgelegt wurden, weisen in Richtungen, die seitdem keinen Schritt hinter diese Überzeugung und ihre normative Bindungskraft erlaubt haben. Es handelt sich um Grenzmarken, mit denen sich verdeutlichen lässt, dass hier tatsächlich Schritte gesetzt wurden, die sich deshalb nicht mehr zurücknehmen ließen, weil sich daran die Überzeugungsfähigkeit des katholischen Glaubens in der »Welt von heute« bemisst.18
(1) Die Erklärung über die Religionsfreiheit Dignitatis humanae (DH) Bis in die vorbereitenden Schemata des 2. Vatikanischen Konzils und noch im Entwurf »Über die Kirche« aus dem Jahr 1962 wurde die Lehrmeinung vertreten, dass in einem mehrheitlich katholisch geprägten Staat dieser selbst katholisch sein müsse. »Für die Bekenner eines anderen Glaubens gibt es kein Recht, diesen Glauben öffentlich zu bekennen. Der Staat kann und muß unter Umständen aber wegen des Gemeinwohls ihr Bekenntnis tolerieren. Ist die Mehrheit der Menschen in einem Staat nichtkatholisch, dann hat sich der Staat nach dem Naturrecht zu richten, d.h., er hat sowohl den einzelnen Katholiken als auch der Kirche alle Freiheit zu lassen.«19
Diese Position wurde als strukturelle Intoleranz der katholischen Kirche und Ausdruck ihrer Weigerung wahrgenommen, sich auf die Freiheitsrechte in demokratisch-offenen säkularen Gesellschaften Das verdeutlicht paradigmatisch die Trennung der Pius-Brüderschaft von der römisch-katholischen Kirche, die mit der unerlaubten Weihe eines Bischofs vollzogen wurde, sowie die Rekonziliierungsbemühungen seitdem. Sie müssen als gescheitert gelten, weil sich die Pius-Brüderschaft maßgebliche Lehrpositionen des 2. Vatikani schen Konzils nicht zu eigen machen kann – namentlich zur Religionsfreiheit und im Verhältnis zu den nicht-christlichen Religionen sowie zur Ökumene. Vgl. W. Beinert (Hrsg.), Vatikan und die Pius-Brüder. Anatomie einer Krise, Freiburg 2009. 19 K. Rahner / H. Vorgimler, Einleitung zur Erklärung über die Religionsfreiheit »Dignitatis humanae«, in: dies. (Hrsg.), Kleines Konzilskompendium. Sämtliche Texte des Zweiten Vatikanischen Konzils, Freiburg 191986, 655–659, 655. 18
178 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
einzulassen. Damit wurde aber auch das Anliegen des Konzils, in einen Dialog mit der Welt von heute zu treten, vorab eingeschränkt, in mancher Hinsicht (etwa religionspolitisch) unmöglich gemacht. Der Schritt zur Anerkennung der Religionsfreiheit, die aus der menschlichen Würde begründet wird, stellt insofern eine »kopernika nische Wende« in der Beziehung der katholischen Kirche sowohl zu den säkularen Staatsverfassungen der Moderne als auch zu anderen Religionen dar.20 Ihre freiheitliche Grundperspektive wird übernom men, damit aber auch das, was Johannes XXIII. als ein Spezifikum des Fortschritts bestimmt hatte. Auf dieser Linie erklärt das Konzil formell, »daß die menschliche Person das Recht auf religiöse Freiheit hat.« (DH 2,1) Dabei verzichten die Konzilsväter nicht auf den theolo gischen Wahrheitsanspruch, dass sich Gott in Jesus Christus offenbart habe und insofern das Christentum der Ort der wahren Religion sei. »Diese einzige wahre Religion, so glauben wir, ist verwirklicht in der katholischen, apostolischen Kirche, die von Jesus dem Herrn den Auftrag erhalten hat, sie unter allen Menschen zu verbreiten.« (DH 1,2)
Die Exklusivität dieses Bekenntnisses wird an die Freiheit des Men schen vermittelt, namentlich an das Gewissen jedes und jeder Einzel nen, das auf den je eigenen, unvertretbaren Zugang zu Gott (mithin aber auch auf eine atheistische Überzeugung) verpflichtet (DH 3,3). Roman Siebenrock spricht in diesem Zusammenhang von einer ech ten »Lernerfahrung der Kirche«.21 Sie findet auch darin Ausdruck, dass »selbst die Feindschaft ihrer Gegner und Verfolger (…) für sie sehr nützlich war und es bleiben wird« (GS 44,3). Das Konzil spricht in diesem Zusammenhang von einem Erkenntnisgewinn. Nicht zuletzt erlaubt ihr die Auseinandersetzung mit anderen Positionen und der »Entwicklung des gesellschaftlichen Lebens«, dass die »Verfassung« der Kirche selbst »zeitgemäßer gestaltet werden kann« (GS 44,3). Dieser programmatische Ansatz wird im Zeichen der Auseinan dersetzung mit den als Fortschritt bezeichneten gesellschaftlichen Entwicklungen möglich – und stellt selbst einen Fortschritt dar, weil sich mit den Lernerfolgen auch eine dieser geschichtlichen Situation angemessenere Kommunikation des Glaubens verbindet. Das betrifft wiederum die kommunikative Organisation des Konzils. Siebenrock ordnet DH in ein neues Kapitel der Konziliengeschichte ein mit dem 20 R. Siebenrock, Theologischer Kommentar zur Erklärung über die religiöse Freiheit Dignitatis humanae, in: HThKVat II, Bd. 4, 125–218; 197. 21 Ebd., 131.
179 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
»Typus der nachkonstantinischen Konzilien, d. h. Konzilien einer freien Kirche in einer verfassungsrechtlich sich frei konstituierenden Gesell schaft. Dieser Typus aber fordert nicht nur die passive Anerkennung der Religionsfreiheit, sondern die aktive Rezeption derselben als zen trale Bestimmung der Sendung der Kirche.«22
Dieser Paradigmenwechsel wird von der katholischen Kirche nicht einfach als ein Fortschritt der Lehrentwicklung qualifiziert, als wäre damit die bisherige Lehrtradition irrelevant. Aber er stellt einen Schritt der Lehrentwicklung dar, der sich gerade in der Form leben diger Tradition als jener »Sprung vorwärts« darstellt, den Johannes XXIII. im Sinn hatte, weil erst auf dieser Basis die Agenden des Konzils bearbeitet werden konnten. Das lässt sich in seinen Konsequenzen exemplarisch mit zwei weiteren Dokumenten zeigen, deren Perspektiven knapp vorge stellt werden:
(2) Die Erklärung über die Haltung der Kirche zu den nichtchristlichen Religionen Nostra aetate (NA) Mit dieser Erklärung wird ein Schritt zu einem neuen Verhältnis zu den nichtchristlichen Religionen gesetzt. Eine Hermeneutik der Wertschätzung bestimmt den Blick auf andere religiöse Traditionen und Erfahrungen. Den Ausgangspunkt bildet eine Reflexion auf die Situation der sich globalisierenden Menschheit (NA 1,1), die ihren »Ursprung« und ihr »Ziel« in Gott hat. Gott wird dabei als das »letzte und unsagbare Geheimnis unserer Existenz« (NA 1,3) bestimmt. Der Zugang zu ihm läuft über die anthropologische Situation: die Suche nach einer »Antwort auf die ungelösten Rätsel des menschlichen Daseins« (NA 1,3). Diese Suche verbindet alle Menschen und alle Religionen. Erst indem das Konzil diese gemeinsame Basis setzt, wird auch echter Dialog zwischen den Religionen möglich, ohne dass darum die aus der jeweiligen Innenperspektive gesetzten religiösen Wahrheitsansprüche preisgegeben werden müssten. Insofern gilt der religionstheologische Hauptsatz der Erklärung: »Die katholische Kirche lehnt nichts von alledem ab, was in diesen Religionen wahr und heilig ist. Mit aufrichtigem Ernst betrachtet sie 22
Ebd., 198.
180 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
jene Handlungs- und Lebensweisen, jene Vorschriften und Lehren, die zwar in manchem von dem abweichen, was sie selber für wahr hält und lehrt, doch nicht selten einen Strahl jener Wahrheit erkennen lassen, die alle Menschen erleuchtet.« (NA 2,2)
Dem ist das Dialogprogramm des Konzils zugeordnet: »Unablässig aber verkündet sie und muß sie verkündigen Christus, der ist ›der Weg, die Wahrheit und das Leben‹ (Joh 14,6), in dem die Menschen die Fülle des religiösen Lebens finden, in dem Gott alles mit sich versöhnt hat. Deshalb mahnt sie ihre Söhne, daß sie mit Klugheit und Liebe, durch Gespräch und Zusammenarbeit mit den Bekennern anderer Religionen sowie durch ihr Zeugnis des christlichen Glaubens und Lebens jene geistlichen und sittlichen Güter und auch die sozialkulturellen Werte, die sich bei ihnen finden, anerkennen, wahren und fördern.« (NA 2,3)
Unter religionstheologischen Vorzeichen findet sich der Ansatz wie der, der über DH grundgelegt wird, hier aber eine theologische Trans formation in der Auseinandersetzung mit anderen Religionen erfährt. Dass in diesem Kontext in NA 4 auch das Verhältnis zum Judentum neu geordnet wird und damit Konsequenzen aus der schuldbesetzten Geschichte des kirchlichen Antijudaismus gezogen wurden, erweist sich als ein mehrfacher Fortschritt – heraus aus der kulturell tief verwurzelten Theologie der Verwerfung Israels hin zur Anerkennung der bleibenden Bedeutung Israels vor Gott (im Anschluss an Röm 9–11) und damit auch für die Kirche selbst.23
Auf dieser Linie hält die Erklärung der Päpstlichen Kommission für die religiösen Beziehungen zum Judentum – »Denn unwiderruflich sind Gnade und Berufung, die Gott gewährt« (Röm 11,29). Reflexionen zu theologischen Fragestellungen in den katholisch-jüdischen Beziehungen aus Anlass des 50-jährigen Jubiläums von »Nostra aetate« (Nr. 4) aus dem Jahr 2015 – fest: »Nostra aetate (Nr. 4) wird mit Recht zu jenen Dokumenten des Zweiten Vatikanischen Konzils gezählt, die in einer besonders eindrucksvollen Weise eine Neuausrichtung der Römisch-Katholischen Kirche seit dieser Zeit bewirken konnten. Diese Veränderung gilt der Beziehung der Kirche zum jüdischen Volk und zum Judentum und tritt erst vor unsere Augen, wenn wir beden ken, dass es in früheren Zeiten große Vorbehalte auf beiden Seiten gegeben hat, und zwar teilweise deshalb, weil die Geschichte des Christentums als diskriminierend gegenüber Juden betrachtet wurde, sogar bis hin zu Versuchen von Zwangsbekeh rungen.«- Vgl. zur theologischen Interpretation und Bedeutung von Nostra aetate: R. Boschki / J. Wohlmuth (Hrsg.), Nostra Aetate 4. Wendepunkt im Verhältnis von Kir che und Judentum – bleibende Herausforderung für die Theologie (Studien zu Juden tum und Christentum Bd. 30), Paderborn 2015. 23
181 https://doi.org/10.5771/9783495998847 .
Gregor Maria Hoff
(3) Das Dekret über den Ökumenismus Unitatis redintegratio (UR) Einen vergleichbaren Fortschritt stellt das Ökumenismus-Dekret dar – und in diesem Fall greift das Konzept »Fortschritt« in besonderer Weise. Denn mit diesem Dekret öffnet sich die katholische Kirche nicht nur der ökumenischen Bewegung der Gegenwart, sondern macht damit einen Schritt auf den Weg zur Einheit der Kirche hin. Dies wird einleitend und grundlegend als »eine der Hauptaufgaben« des Konzils bezeichnet. Gegenüber der bis zum Konzil lehramtlich vorgegebenen ökumenischen Verweigerungshaltung, die am exklusi ven Anspruch der katholischen Kirche als der wahren Kirche Christi hing, stellt dies im Sinne des vorgegebenen Ziels einen Fortschritt dar. Insofern dieses Ziel theologisch qualifiziert wird, weil die Trennung der Kirchen dem »Willen Christi widerspricht« (UR 1,1), lässt sich aus diesem Paradigmenwechsel auch ein theologischer Fortschritt ablei ten.
5. Theologischer Fortschritt im Modus des 2. Vatikanischen Konzils – ein Fazit Dieser exemplarisch beschriebene »Fortschritt« in der Lehre wurde im Zuge einer differenzierten Selbstwahrnehmung der katholischen Kirche möglich. Als basale Einsicht und als Implementierung einer differenzbezogenen ekklesiologischen Grammatik lehrt das Konzil, dass die wahre Kirche Jesu Christi in der katholischen Kirche »sub sistiert« (Dogmatische Konstitution über die Kirche Lumen gentium (LG) 82). Beide Größen werden also nicht einfach identifiziert. Diese Umstellung in der kirchlichen Lehre lässt sich im Sinne eines metho dologischen Fortschritts interpretieren. Der Einsatz einer differenzbe zogenen Hermeneutik, der mit der Offenbarungskonstitution Dei verbum (DV) freigegebene Einsatz historisch-kritischer Methoden in der Exegese und die mit der Pastoralkonstitution Gaudium et spes (GS) etablierte Aufmerksamkeit für die theologische Bedeutung gesellschaftlicher Realitäten setzen sich material in theologischen Schritten um, die die katholische Kirche in ein neues, produktives Ver hältnis zu den freiheitsbezogenen, differenziell organisierten moder nen Gesellschaften führen.
182 https://doi.org/10.5771/9783495998847 .
Fortschritt – in katholischer Theologie und Kirche?
Der Prozess, den das 2. Vatikanische Konzil unternommen hat, lässt formalisiert von Lernerfahrungen oder von Transformationspro zessen sprechen. Demgegenüber macht das – problematische, weil ideologisch belastete – Konzept Fortschritt im gegebenen Zusammen hang, der vom Konzil selbst als Fortschritt beansprucht wurde, auf die unausweichliche Bewertung dieses Vorgangs aufmerksam. Dabei ist mit theologischen Gründen auszuweisen, worin ein echter Fort schritt besteht. Johannes XXIII. koppelte ihn an die Entwicklung von wahrer Humanität, die aus Sicht von DH nicht ausschließlich, aber maßgeblich in der Respektierung und Entfaltung freiheitsbestimmter Menschenwürde besteht, auf deren Basis der Glaube an Gott erst Raum gewinnen kann. Aus theologischer Sicht erlaubt aber noch ein weiteres Kriterium, von einem echten Fortschritt in der kirchlichen Lehre zu sprechen: der Schritt hin zur Bearbeitung gesellschaftlicher, religiöser und eben auch theologischer Komplexität. Sie erfordert die Wahrnehmung der geschichtlichen Situation nicht zuletzt in ihren – widersprüchlichen – Fortschrittsdynamiken und den ihnen zuge ordneten (säkularen) Diskursen, die Rezeption wissenschaftlicher Erkenntnisse und den Einsatz der damit verbundenen Methoden auch im Raum der Theologie. Dafür hat das Konzil in verschiedener Hinsicht den Weg frei gemacht – und auf diese Weise einen Fortschritt in der Auseinandersetzung mit dem ermöglicht, was gesellschaftlich, wissenschaftlich als Fortschritt im Zuwachs von Erkenntnissen und Lebensoptionen wahrgenommen wurde und wird.
183 https://doi.org/10.5771/9783495998847 .
https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
Säkularisierung – Fortschritt oder Rückschritt?
1. Rückkehr der Religion – Ende der Säkularisierung? Säkularisierung ist ein Begriff, der in den sozialwissenschaftlichen und philosophischen Debatten lange an Bedeutungsverlust durch Selbstverständlichkeit litt. Aber durch seine in den letzten Jahren zunehmende Kritik und ausdrückliche Bestreitung hat dieses Konzept in jüngster Zeit wieder die Stellung eines zentralen Bezugspunk tes intellektueller Debatten erhalten. Wie für die Religion, so gilt offenbar auch für Begriff wie Phänomen der Säkularisierung, dass seine Beharrlichkeit und Wandlungsfähigkeit unterschätzt wurde. Das Säkularisierungskonzept bildet den permanenten Bezugspunkt für die Frage sowohl nach den religionsdestruktiven als auch den religionsproduktiven Tendenzen der Gegenwart. Sowohl die Rede vom Verschwinden der Religion als auch der Glaube an ihre Rückkehr bleiben auf das Konzept der Säkularisierung bezogen. Einerlei also, ob die ambivalenten kulturellen Entwicklungen der Gegenwart nun als Verschwinden, Wiederkehr oder Transformation von Religion gedeutet werden – die entsprechenden empirischen Untersuchungen und begrifflichen Argumentationen bleiben zentriert auf den Begriff der Säkularisierung. Der Eindruck einer Rückkehr der Religion erscheint nicht zuletzt als ein Phänomen der Globalisierung. Der Soziologe Peter Berger, in den 60er und 70er Jahren selbst einer der exponiertesten Vertreter der klassischen Theorie der Säkularisierung, spricht heute von einer »Desäkularisierung der Welt«1. Während es in den meisten industria lisierten Gesellschaften nach wie vor einen Trend zu zunehmend säkularen Einstellungen gibt, wächst der Anteil der religiösen Perso nen an der Weltbevölkerung stetig an. Die beiden Ausnahmen bilden 1 P. L. Berger (ed.), The Desecularization of the World. Resurgent Religion and Politics, Grand Rapids 1999.
185 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
offenbar Westeuropa und die Mitglieder einer bestimmten Schicht mit einer typisch westlichen höheren Bildung, also die kulturellen Eli ten in Wissenschaft, Politik, Rechtsinstitutionen und Massenmedien. Diese weitgehend säkularisierte globale Elite sei einflussreich in jenen Institutionen, welche die offiziellen Definitionen kultureller und sozialer Realität dominierten, in Medien, Kunst und Wissenschaft; in der Basis vieler Gesellschaften seien diese Einstellungen und Hal tungen jedoch eher marginal. Mit einem Blick auf die Globalisierung müsse Säkularisierung also nicht als Verschwinden von Religion ver standen werden, sondern als deren Pluralisierung. Die Konsequenzen dieses Befundes bestehen in einer verstärkten Aufmerksamkeit für die globale Vitalität der Religion bei gleichzeitiger Beachtung der lokalen Unterschiede.2 Zudem stellt sich angesichts der Heterogenität der Säkularisierung im globalen Maßstab die Frage, ob der europäische Weg der Säkularisierung nicht einen Sonderfall darstellt statt, wie gemeinhin stillschweigend unterstellt, die Regel. Die Vermutung, die europäische Situation stelle einen Sonderfall dar, wird verstärkt durch den Erfolg der im globalen Maßstab am stärksten expandierenden religiösen Strömungen – dem Islam und pfingstlerischen Varianten des Christentums. Dies sorgt für eine doppelte Irritation: Zum einen scheinen gerade jene fundamentalis tischen Formen von Religiosität, die den Prinzipien der Moderne am stärksten entgegengesetzt sind, am vitalsten. Gleichzeitig sind diese religiösen Formen aufs Engste mit der Moderne verwoben. Die evangelikalen Expansionen, vor allem in Gestalt der Mega-Churches und der Teleevangelisten bedienen sich modernster Mittel der Mas senkommunikation und zielen bewusst auf die zentralen Tugenden und Dispositionen eines gleichermaßen aufstiegsorientierten und von Abstiegsängsten geplagten modernen Mittelstandes. Der Islam steht vor allem deshalb im Fokus der Aufmerksamkeit, weil er in den Ländern Westeuropas die Religion der stärksten Gruppen von Einwanderern und ihrer Kinder darstellt. Fragen der Integration moderner Gesellschaften sind daher aufs Engste mit der Frage nach Demokratiefähigkeit des Islam und der Religionsverträglichkeit der modernen Demokratie verbunden. Dies zeigt aber auch, dass viele Konflikte, die andere Ursachen besitzen, der Religion als Auslöser zugeschrieben werden, die aber H. Joas / K. Wiegandt (Hg.), Säkularisierung und Weltreligionen, Frankfurt am Main 2007.
2
186 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
häufig nur ein Symptom und symbolischen Ausdruck dieser Krisen darstellt. Die Rede von der Rückkehr der Religion könnte dann also bedeuten, dass nicht etwas Verschwundenes zurückkommt, sondern etwas immer Vorhandenes, aber Ausgeblendetes durch soziale und politische Krisen wieder in den Lichtkegel der öffentlichen Aufmerk samkeit rückt. Möglicherweise hat sich nicht so sehr die Rolle der Religion in einer säkularen Gesellschaft verändert, sondern vielmehr ihre öffentliche Wahrnehmung.
2. Vom Opium zur Option – Kritik der Säkularisierungstheorie Für die These einer veränderten Wahrnehmung von Religion spricht nicht nur das gestiegene mediale und öffentliche Interesse, sondern auch die Veränderung in der theoretischen Selbstbeschreibung der säkularen Gesellschaft. Die veränderte Einschätzung der Wahrneh mung von Theorien und Phänomenen der Säkularisierung lässt sich mit einer Verschiebung vom religionskritischen Leitbegriff des Opiums zu dem existenziellen Konzept der Option beschreiben. Religion wird nicht mehr mit gesellschaftstheoretischen Mitteln als schädliches Gift und zu entlarvende Illusion beschrieben, sondern als eine mögliche und bleibende Option in einer säkularen und pluralistischen Gesellschaft.3 Die klassische, auf Max Weber zurückgehende Theorie der Säku larisierung4 zielte zwar, anders als die Religionskritik eines philoso phischen Atheismus, nicht auf die Entlarvung der Religion als Illusion und Opium des Volkes. Aber sie vertritt eine Gesellschaftstheorie, welche die Erwartung einer alternativlosen und globalen Entfaltung moderner Lebensverhältnisse mit der Prognose verknüpft, dass Reli gion, mindestens der Tendenz nach, immer bedeutungsloser wird und tendenziell vom Aussterben bedroht ist. Max Weber hat seine Theorie der Säkularisierung entwickelt, um die Frage zu beantworten, wie die moderne Gesellschaft westlichen Typs entstanden ist. Weber setzt 3 I. U. Dalferth, Transzendenz und säkulare Welt. Lebensorientierung an letzter Gegenwart, Tübingen 2015; H. Joas, Glaube als Option. Zukunftsmöglichkeiten des Christentums, Freiburg i. Br. 2012. 4 M. Weber, Die protestantische Ethik und der Geist des Kapitalismus [1905]. Hg. von D. Käsler, München 2006.
187 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
dabei Modernisierung mit Rationalisierung gleich. Was aber sind die entscheidenden Faktoren für diesen Prozess der Rationalisierung von Handlungsorientierungen und von Lebensentwürfen? Für Weber ist die moderne Gesellschaft weder allein aus der kapitalistischen Öko nomie noch aus der modernen Wissenschaft zu erklären. Die moderne Wissenschaft ist für Weber zwar das Paradigma von Rationalisierung schlechthin, aber nicht ihre einzige oder wesentliche Ursache. Für eine erfolgreiche Modernisierung bedarf es weiterer Schritte einer Rationalisierung der Kultur. Auch die moderne, autonome Kunst stellt für Weber eher ein Symptom und weniger eine zentrale Ursache der Rationalisierung dar. Die Autonomisierung der Kunst ist nicht zentral für die soziologische Erklärung der gesellschaftlichen Ratio nalisierung. Autonome Kunst und expressive Selbstdarstellung der Subjektivität stehen vielmehr in einem kompensatorischen Verhältnis zur Rationalisierung des Alltags. Sie übernehmen die Rolle einer innerweltlichen Erlösung vom Alltag und vor allem auch von dem zunehmenden Druck des theoretischen und praktischen Rationalis mus. Die gesellschaftliche Rationalisierung in Form der kapitalisti schen Wirtschaft und des modernen Rechtsstaats mit bürokratischer Verwaltung setzt eine kulturelle Rationalisierung voraus – in Gestalt von Wissenschaft, Technik, autonomer Kunst, formalem Recht und prinzipiengeleiteter profaner Moral. Diese kulturelle Rationalisie rung kann nur wirksam werden, wenn sie getragen wird durch eine Rationalisierung der Strukturen der Persönlichkeit. Die Rationali sierung der Persönlichkeit ist die Voraussetzung für die Institutio nalisierung der kulturellen und gesellschaftlichen Rationalisierung. Diese Rationalisierung der Persönlichkeit wäre Weber zufolge nicht möglich gewesen durch die persönlichkeitsbildende Funktion der protestantischen Ethik. Modernisierung als Entwicklung und Verste tigung einer methodisch-rationalen Lebensführung setzt religiöse Rationalisierung voraus.5 Weber schreibt der Religion also eine zentrale Rolle bei der Entstehung moderner rationaler Bewusstseinsstrukturen zu. Die protestantische Religion trägt daher Weber zufolge maßgeblich zur Entstehung moderner Bewusstseinsformen und Institutionen bei, 5 P. Anter, »Entzauberung der Welt und okzidentale Rationalisierung«. In: Th. M. Schmidt / A. Pitschmann (Hg.), Religion und Säkularisierung. Ein interdisziplinäres Handbuch. Stuttgart 2014, 14–20.
188 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
zur Entstehung der kapitalistischen Wirtschaft und des zweckratio nalen Denkens, einer bürokratischen, verwalteten, ausschließlich nach Effizienzgesichtspunkten gestalteten Welt. In dieser Welt wird Religion aber gerade zunehmend ort- und wirkungslos. Die moderne Gesellschaft westlichen Typs wird ermöglicht durch einen Prozess der Rationalisierung der Religion. Dieser Prozess bringt aber eine Gesellschaft hervor, in der Religion keinen Ort mehr hat. Bereits in den 60er Jahren wurde die klassischen Säkularisie rungstheorie mit dem Argument kritisiert, sie verkürze Religion zu stark auf institutionalisierte Religiosität.6 Zwar seien gesellschaftliche Entwicklungen wie die institutionelle Trennung von Staat und Kirche oder der starke Rückgang formaler Mitgliedschaft und aktiver Teil nahme in religiösen Institutionen nicht zu leugnen. Berger hat Säku larisierung ausdrücklich als den Prozess definiert, »durch den Teile der Gesellschaft und Ausschnitte der Kultur aus der Herrschaft religiöser Institutionen und Symbole entlassen werden«7. Dieser unleugbare Säkularisierungsprozess lässt sich aber Berger und Luckmann zufolge mit Hilfe eines erweiterten Religionsbegriffs besser analysieren. In dessen Licht werde nämlich deutlich, dass Säkularisierung einen Formwandel von Religion bewirke, nicht ihren Bedeutungsverlust. Thomas Luckmann zufolge muss aber stärker unterschieden werden zwischen der bleibenden Funktion und der wechselnden Erschei nungsform von Religion. Beim Vorgang Säkularisierung handele es sich eher um einen Prozess der Entinstitutionalisierung und Individualisierung von Religion und nicht um ihren Bedeutungsver lust. Der Eindruck eines unaufhaltsamen Bedeutungsverlustes der Religion werde vor allem durch die Gleichsetzung von Religiosität mit Kirchlichkeit erzeugt. Gerade die Theologie müsse sich von der Fixierung auf Kirchlichkeit lösen und einen weiteren Religionsbegriff entwickeln und gebrauchen. In den neunziger Jahren des 20. Jahrhunderts kommt es zu einer anders akzentuierten und qualitativ neuen Bestreitung der auf Weber zurückgehenden Säkularisierungsthese. Sie wird aus der Perspektive 6 P. L. Berger, Zur Dialektik von Religion und Gesellschaft. Elemente einer soziologi schen Theorie, Frankfurt am Main 1973 (engl.: The Sacred Canopy, 1967); Thomas Luckmann, Das Problem der Religion in der modernen Gesellschaft. Institution, Person und Weltanschauung, Freiburg 1963; ders., Die unsichtbare Religion, Frankfurt am Main 1991. 7 P.L. Berger, a.a.O., 103.
189 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
von Positionen kritisiert, welche die »säkularisierungsresistente« Bedeutung der Religion stärker von ihrer politisch aktiven Rolle her bestimmen und weniger von der medial erbrachten gesellschaftlichen Integrationsfunktion. Besonders einflussreich war hier die Studie von José Casanova8, welche die bleibende öffentliche Rolle von Reli gion gerade in modernen demokratischen Gesellschaften hervorhebt. Casanova kritisiert, dass der Säkularisierungsbegriff häufig nicht differenziert genug verwendet wird. »Säkularisierung« bezeichne drei verschiedene Entwicklungen, die stärker unterschieden und nicht, wie bisher, fraglos miteinander identifiziert werden dürften. Das These der Säkularisierung beziehe sich auf die unterschiedlichen gesell schaftlichen Prozesse der Ausdifferenzierung, Individualisierung und des Bedeutungsverlustes von Religion, die keineswegs identisch seien. So sind Prozesse der gesellschaftlichen Ausdifferenzierung von Teilsystemen und Wertsphären, wie sie sich exemplarisch in Gestalt der Trennung von Religion und Politik vollziehen, nicht mit der Individualisierung oder Privatisierung von Religion identisch. Auch in der politischen Öffentlichkeit eines säkularen Staates können sich religiöse Auffassungen sehr wohl legitim und wirksam Gehör ver schaffen. Die Trennung von Staat und Kirche ist nicht notwendiger weise mit der Privatisierung und Individualisierung von religiösem Glauben identisch. Ausdifferenzierung und Individualisierung sind zudem weder der notwendige Ausdruck noch die alleinige Ursache eines Bedeutungsverlustes von Religion.
3. Postsäkulare Gesellschaft – Rückkehr der Säkularisierungstheorie? Detlef Pollack hat sich in den letzten Jahren wie kaum ein zweiter Reli gionssoziologe im deutschsprachigen Raum für eine differenzierte Betrachtung des Konzepts der Säkularisierung eingesetzt.9 Seine »Studien zum religiösen Wandel in Deutschland« argumentieren für eine Position, die sowohl eine sterile und unproduktive Wiederholung als auch eine vorschnelle Verabschiedung der Säkularisierungsthese vermeidet. Pollacks Werk ging von einem allseits beschworenen J. Casanova, Public Religions in the Modern World, Chicago 1994. D. Pollack, Säkularisierung – ein moderner Mythos? Studien zum religiösen Wandel in Deutschland, Tübingen 2003. 8
9
190 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
Paradigmenwechsel in der Religionssoziologie aus, der die Rückkehr der Religion und den Bedeutungsverlust der Säkularisierung verkün dete. Die Situation stellt sich gegenwärtige heute allerdings wieder etwas differenzierter dar – nicht zuletzt aufgrund der Arbeiten von Pollack. Die Aufgabe von Religionssoziologie sieht Pollack in der gegenwärtigen Situation darin, weder eine modische Kritik an der Säkularisierungsthese unkritisch zu übernehmen noch unreflektiert an der Säkularisierungsthese festzuhalten. Pollack kritisiert religions soziologische Ansätze, für die Säkularisierung ausschließlich einen Formwandel der Religion bedeutet, aber keinen Bedeutungsverlust. In der Regel handele es sich dabei um funktionalistische Ansätze, die aufgrund ihres Theoriedesigns die gesellschaftliche Funktion von Religion so bestimmen, dass sie unverzichtbar sein müsse. Religion könne in der Perspektive dieser Theorien nicht verschwinden, son dern allenfalls diffus werden, das heißt transformiert und umcodiert werden. Dies ist deshalb möglich, weil in solchen Theorien religiöse Funktion und religiöser Inhalt auseinanderfallen. Eine solche Tren nung von Form und Inhalt ist nicht zuletzt theologisch problematisch, denn sie führt zu einer Ausklammerung des Selbstverständnisses der Religion. Ihr Wahrheitsanspruch wird unbedeutend, da die notwen dige und unverzichtbare gesellschaftliche Funktion von Religion auch dann erfüllt wird, wenn sie unwahr sind. Wichtig ist nur, dass an den Glauben geglaubt wird; auch als Placebo kann Religion dann ihre unverzichtbare gesellschaftliche Funktion erfüllen. Aus soziologischer Perspektive kritisiert Pollack an solchen Ansätzen, dass durch einen weiten funktionalen Religionsbegriff das Konzept der Säkularisierung diagnostisch unscharf werde. Dabei vertritt Pollack ein modifiziertes Verständnis von Säkula risierung, das das Verhältnis von Religion und moderner Gesellschaft nicht eindimensional und monokausal begreift, sondern als komplexe Wechselwirkung. Es geht nicht nur darum zu untersuchen, welche Effekte Modernisierungsprozesse auf Seiten der Religion hervorru fen, sondern auch umgekehrt, »wie Religion auf Modernität reagiert und ihrerseits auf die Gesellschaft Einfluss zu nehmen versucht«10. Eine angemessene Säkularisierungstheorie habe sowohl den Form wandel als auch den Bedeutungsverlust von Religion zu erfassen. In diesem Ansatz, der auf die begriffliche und empirische Erfassung der Ambivalenz der Säkularisierung zielt, wird deutlich, dass tradi 10
D. Pollack, a.a.O., 17.
191 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
tionelle Formen von Religion durch Modernisierungsprozesse eher geschwächt werden als neue Formen von Religiosität, die durch Modernisierungsprozesse eher begünstigt werden. Als eine Interde pendenz von säkularen Bedingungen zeigt sich dabei nicht zuletzt die Marktförmigkeit und Urbanität dieser neuen, durch Prozesse der Modernisierung gerade geförderten Formen von Religiosität. Auf der einen Seite gerät Religion so in Abhängigkeit von säkularen Vergesellschaftungsformen wie Markt, Medien und Urbanität. Die Flüchtigkeit der Sozialkontakte, die Orientierung an der Teilnahme an Events mit großer Erlebnisqualität anstelle langjähriger institutio neller und formaler Mitgliedschaften prägen die Sozialgestalt dieser neuen Formen von Religion. Umgekehrt wirken diese neuen Formen einer großstädtischen, medial inszenierten, Therapieangebote unter breitenden und Großereignisse inszenierenden Religiosität auf die Gesellschaft zurück. Damit widerlegen sie die klassische Auffassung von Säkularisierung, wonach Religion sich in direkter Abhängigkeit von Modernisierungsprozessen verändert. Angesichts der komple xen Wechselwirkungen zwischen Religion und Gesellschaft und angesichts der Ambivalenz des Säkularisierungsprozesses scheint es unmöglich, den Begriff der Säkularisierung auf eine definite Weise zu verwenden, ohne den Begriff der Religion genau zu bestimmen. Die Interpretation einer bestimmten historischen und gesellschaftli chen Entwicklung als Verlust, Veränderung oder Wiederbelebung einer religiösen Tradition ist in erheblichem Maße abhängig vom vorausgesetzten Begriff der Religion. Pollack weiß sehr wohl um die Schwierigkeiten der Definition eines allgemeinen Religionsbegriffs. Zu nennen ist hier vor allem die Spannung zwischen funktionalisti schen und substanzialistischen Religionskonzeptionen, die einerseits zu weit und zu unspezifisch ausfallen, andererseits zu eng am Selbst verständnis einer bestimmten Religion angelehnt sind. Die diffizile Suche nach einem allgemeinen Begriff der Religion ist bekanntlich ein wesentlich modernes Phänomen. Die Moderne erzwingt einer seits die Suche nach einem allgemeinen, von Gehalten konkreter, konfessionell gewordener Religiosität abgelösten Religionsbegriff. Andererseits erschwert die Moderne gerade die Formulierung eines solchen Begriffs, da religiöse Phänomene hier faktisch und legitim immer schon im Plural auftreten. »Religion« bezeichnet einerseits bestimmte soziale Institutionen, andererseits eine individuelle Form
192 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
von »Religiosität«, die allgemein und schwer zu bestimmen scheint.11 Vor diesem Hintergrund leuchtet Pollack die Weigerung mancher Religionswissenschaftler ein, »mit einer Religionsdefinition einzu setzen, bevor die historisch-empirische Feldforschung angelaufen ist«12. Allerdings beharrt er darauf, »dass der gänzliche Verzicht auf eine Begriffsklärung zur Übernahme unreflektierter Voraussetzungen in die religionswissenschaftliche Arbeit«13 führe. Der von Pollack entwickelte Religionsbegriff erfüllt die Funktionen, den Gegenstands bereich der empirischen Religionswissenschaften abzugrenzen, die Vergleichbarkeit religiöser Phänomene zu sichern und die Identität und Unauflösbarkeit des Gegenstandes religionswissenschaftlicher Forschung und damit die Identität und Kontinuität der Religionswis senschaften zu garantieren. Pollacks Ansatz verbindet daher funktio nale mit substanziellen Argumenten, begrifflich-normative Überle gungen mit empirisch-deskriptiven Untersuchungen. Sie führen ihn zu dem Schluss, dass die Säkularisierungsthese zwar modifiziert werden müsse, aber auch nicht vorschnell verabschiedet werden dürfe. Viele Kritiker der Säkularisierungstheorie verwendeten einen sehr weiten Begriff, der Religion mit sinnhafter Orientierung überhaupt gleichsetze. Auf diese Weise sei gewissermaßen »schon definitorisch ausgeschlossen«14, einen Bedeutungsschwund von Religion zu kon statieren. Zudem neigten Kritiker der Säkularisierungsthese dazu, die Vitalität der religiösen Aufschwungsprozesse zu überschätzen. Zwar ließe sich in der Tat feststellen, dass in den letzten Jahren das Interesse an Formen außerkirchlicher Religiosität gestiegen sei. Aber dieses steigende Interesse kompensiere keineswegs den Mitgliederschwund und den Verlust des Einflusses der traditionellen Religion. Die Dynamik der Säkularisierung hat Pollacks empirischen Untersuchungen zufolge keinen signifikanten Umkehrschub erfah ren. Die Veränderung besteht offenbar in einer gestiegenen Sensi bilität für die Ungleichzeitigkeit und Gegenläufigkeit von Entwick 11 »Von der privatisierten und individualisierten Religion der Individuen wird die auf die Kirchen und ihre Theologien bezogene kirchliche Religion unterschieden.« Falk Wagner, »Religion der Moderne – Moderne der Religion«. In: W. Gräb (Hg.), Religion als Thema der Theologie. Geschichte, Standpunkte und Perspektiven theologischer Religionskritik und Religionsbegründung, Gütersloh 1999, 20. 12 D.Pollack, »Was ist Religion? Probleme der Definition«, Zeitschrift für Religions wissenschaft 1995 (Heft 3), 163–190, 165. 13 Pollack, Säkularisierung – ein moderner Mythos, 29. 14 Pollack, a.a.O., 134.
193 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
lungsdynamiken in einem pluraler gewordenen gesellschaftlichen Feld. Was sich am stärksten verändert zu haben scheint, ist der normative Rahmen, in dem über das Verhältnis von Religion und säkularer Moderne diskutiert wird. Es ist genau diese veränderte Diskussionslage, die Jürgen Habermas in seiner Friedenspreisrede als Zeichen für eine »unabgeschlossene Dialektik des … abendländi schen Säkularisierungsprozesses«15 interpretiert hat. Für die gegen wärtige gesellschaftliche Situation, in der religiöse »Gemeinschaften in einer sich fortwährend säkularisierenden Umgebung«16 fortbeste hen, hat Habermas den prägnanten Ausdruck der »postsäkularen Gesellschaft«17 in die Debatte eingeführt. Dieser von Jürgen Habermas bekannt gemachte Begriff trägt der Einsicht Rechnung, dass sowohl das progressiv-optimistische Verständnis von Säkularisierung als linearem Fortschritt als auch das konservativ-pessimistische Modell von Säkularisierung als Verfall und Entwertung religiöser Traditionen nicht mehr zu einer gesell schaftlichen Wirklichkeit passen, in der religiöse Gemeinschaften inmitten eines säkularen Milieus fortbestehen. Habermas lässt keinen Zweifel daran, dass das säkulare Denken den kritischen Maßstab für die Bewertung und Legitimation religiöser Überzeugungen bildet, weil nur dieser säkulare Rahmen einen gewaltfreien Pluralismus von unterschiedlichen religiösen und nicht-religiösen Weltanschauungen ermöglicht. Die konstruktive Rolle, die Religion in der säkularen Gesellschaft durchaus spielen kann, ist daher für den religiösen Menschen mit einigen intellektuellen Herausforderungen verbunden: Religiöse Menschen müssen heute eine epistemische Einstellung zu fremden Religionen und Weltanschauungen, zum Eigensinn säku laren Wissens und zur Wissenschaft und zum Vorrang säkularer Gründe in der politischen Arena finden. Daher bestehen die kogniti ven Voraussetzungen für eine moderne Religion darin, den Glauben zu konkurrierenden Heilslehren selbstreflexiv in ein Verhältnis zu setzen, das Verhältnis von dogmatischen Glaubensinhalten und säku larem Weltwissen widerspruchsfrei zu bestimmen und das Vernunft
15 16 17
J. Habermas, Glauben und Wissen, Frankfurt am Main 2001, 11. J. Habermas, Glauben und Wissen, 13. J. Habermas, Glauben und Wissen, 12.
194 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
recht und universalistische Moral in den Kontext religiöser Lehren zu integrieren.18 Angesichts dieser anspruchsvollen kognitiven Herausforderun gen lässt sich fragen, ob Religion überhaupt in der Lage sein kann, diese anspruchsvollen Bedingungen zu erfüllen, und ein Reflexions gleichgewicht19 herstellen kann zwischen religiösen Überzeugungen und säkularen Gründen. Einen Vorschlag zur Entdramatisierung dieser Situationsbeschreibung unterbreitet die sogenannte Religions ökonomie.
4. Existenzielle Entscheidung oder zweckrationale Wahl? Religion in der Marktgesellschaft Gegen die starke Version der Säkularisierungstheorie, die Moderni sierung mit einem notwendigen Bedeutungsverlust von Religion verknüpft, erhebt die Religionsökonomie20 Einspruch. Dieser auf den methodischen Voraussetzungen der Rational-Choice-Theorie beruhende Ansatz vertritt die These, dass Säkularisierungsschübe kommen und gehen und immer wieder beantwortet werden durch religiöse Innovationen und Erneuerungen. Wie Unternehmen, so können auch religiöse Institutionen scheitern und Bankrott gehen, wenn ihre Produkte nicht mehr nachgefragt werden. Religiöse Anbie ter können sich aber auch durch strukturellen Umbau an neue Markt lagen anpassen, Kunden halten oder neue dazugewinnen, neue Teil nehmer können mit Innovationen auf dem Markplatz erscheinen und sich dort behaupten. Wenn das religiöse Feld als Markt verstanden wird, dann erscheinen Gewinne und Verluste normal, ja notwendig und werden so entdramatisiert. Selbstverständlich schreitet die Welt in Richtung einer Steige rung von Komplexität und größerer sozialer Ausdifferenzierung J. Habermas, »Religion in der Öffentlichkeit. Kognitive Vorrausetzungen für den öffentlichen Vernunftgebrauch religiöser und säkularer Bürger«. In: ders. (Hg.), Zwischen Naturalismus und Religion. Philosophische Aufsätze, Frankfurt 2005, 119– 154, bes. 143. 19 Th. M. Schmidt, »Reflexionsgleichgewicht. Die Rechtfertigung von Gerechtigkeit in einer pluralen Welt«. In: ders. (Hg.), Herausforderungen der Modernität, Würzburg 2012, 137–158. 20 Vgl. die Arbeiten von Witham Larry, Debating Secularism. Oxford 2010 und Laurence R. Iannaccone, »Introduction to the Economics of Religion«. In: Journal of Economic Literature 36 (1998), 1465–1495. 18
195 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
voran, wie sich an der Trennung der Religion von Staat, Recht, Wissenschaft und Kunst zeigt. Da die soziale Welt aber als Marktplatz begriffen werden müsse, werde es immer konjunkturelle Schwankun gen von Säkularisierung und Religion geben. In modernen, säkula ren Gesellschaften besitzt Religion keine exklusive und dominante Stimme mehr, aber sie berührt immer noch die Interessen und Bedürf nisse von vielen Menschen. Gerade der Verlust der Dominanz trägt nach dieser Auffassung zur Vitalisierung der Religion bei. Religiöse Institutionen, die eine hegemoniale Stellung in einer Gesellschaft besitzen, können diese auf Dauer nur verteidigen, wenn sie sich mehr und mehr an die Regeln und Institutionen dieser Gesellschaft anpassen. Hegemonia len Religionen wohnt deshalb eine Tendenz zur Selbstsäkularisierung inne. Diese weltlich gewordenen Religionen werden dann durch neue religiöse Strömungen ersetzt, die rigoristischer sind und sich stärker von ihrer kulturellen Umwelt unterscheiden. Religionen, die in einem starken und intensiven Kontrast zu der sie umgebenden Gesellschaft und Kultur leben, werden sich leichter behaupten können, während angepasste Religionen ihre Orientierung an übernatürlichen Wahr heiten zunehmend aufgeben und somit in ihrem Angebot ununter scheidbar von säkularen Angeboten und daher überflüssig werden. Die Religionsökonomie kann auf diese Weise das Verschwinden von bestimmten religiösen Institutionen und Traditionen erklären, ohne eine starke und lineare Logik der Säkularisierung unterstellen zu müssen. Stattdessen sind Zyklen, das wechselnde Spiel von Angebot und Nachfrage von religiösen und säkularen Angeboten vollkom men normal. Auf diese Weise wird auch eine funktionalistische Sicht auf die Religion zurückgewiesen. Eine solche Interpretation, wie sie sich etwa Luckmann zuschreiben lässt, geht ja davon aus, dass sich zwar die Gestalt von Religion unter dem Druck der Säkularisierung verändern mag, ihre Funktion als soziales Schmiermittel oder gesellschaftlicher Kitt aber unverzichtbar ist. Diese Funktion als soziales Schmiermittel ist dann aber kein Alleinstellungsmerkmal von Religion, sie kann in dieser funktionalistischen Perspektive also jederzeit durch andere Angebote ersetzt werden. Das ökonomische Modell muss dagegen nicht unterstellen, dass es einen gemeinsamen gesellschaftlichen Sinnhorizont gibt – der Markt genügt. Dieser Ansatz geht von den individuellen Sinnbedürfnissen der marktteilnehmenden Individuen aus, die auf der Basis ihrer rationalen gewinnmaximierenden Kosten-
196 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
Nutzen-Analyse jene Sinnangebote erwerben und konsumieren, die ihren Präferenzen entsprechen. Eine weitere Stärke des ökonomischen Modells scheint in seiner Fähigkeit zu bestehen, die religionspolitischen Unterschiede zwischen den modernen Gesellschaften erklären zu können. Kurz gesagt, die Religionsökonomie vermag den verwirrenden Unterschied zwischen Europa und den USA zu erklären. Sie muss dazu nicht auf kultu relle oder ethnische Faktoren zurückgreifen, sondern kann dies auf rein ökonomische tun, auf der Basis eines Arguments der religiö sen Deregulierung. Der religiöse Markt ist in den USA weitgehend dereguliert; dies ist die Antwort auf die Zersplitterung des religiösen Feldes dieser Gesellschaft in zahlreiche Nischen, die von sektiererischen Anbietern besetzt werden, aber auch auf die große räumliche, kulturelle und soziale Mobilität. In Europa und anderen Weltgegenden erscheint der religiöse Markt eher überreguliert. In Europa fließen fast alle Ressourcen in wenige religiöse Großanbieter, so bleiben kaum Inves titionsmittel für kleinere und neue Marktteilnehmer. Konkurrenz belebt aber das Geschäft. Es gibt einen Zusammenhang zwischen Wettbewerbsorientierung und der Vitalität von Religion. Aufgrund seiner Entstaatlichung und Deregulierung sowie der weitverbreiteten Haltung eines religiösen Unternehmertums ist der religiöse Markt in den USA ungleich lebendiger als in Alteuropa. Es ist also nicht das Faktum des Pluralismus, das Menschen vom Glauben abfallen lässt, sondern vielmehr die staatliche Überregulierung und die Monopol stellung behördenartiger Religionsanbieter, welche die Versorgung mit religiösen Angeboten erschwert, die den Bedürfnissen und Nach fragen der Konsumenten wirklich entsprechen. Die Religionsökonomie vertritt also eine schwache Theorie der Säkularisierung, bisweilen wird auch von einer These der Neosäkula risierung gesprochen. Sie leugnet nicht, dass sich die moderne Welt in einem Prozess der fortschreitenden Säkularisierung befindet. Unter dieser Voraussetzung verlieren religiöse Institutionen, die sich auf traditionelle Autorität berufen und die auf eine integralistische Weise das gesamte Leben ihrer Gläubigen regulieren wollen, auf Dauer Anhänger. Dort, wo Religion in der post-säkularen Gesellschaft sichtbar, vital und einflussreich ist, besitzt sie die Gestalt von sozialen Gruppen, die sich um ein bestimmtes Interesse oder eine bestimmte thematische Agenda zentrieren, wie etwa die Diskurse über Friedens politik, Ökologie, Familienbilder, Geschlechterrollen. Diese religiö
197 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
sen Gruppen unterscheiden sich daher in ihrer institutionellen Form nicht von anderen sozialen und politischen Akteuren. Religion scheint vor allem als Ressource der Bildung und Behauptung der kulturellen Identität einer Gruppe immer wichtiger zu werden. Religion wird zur Ressource der Identitätspolitik von bestimmten Gruppen, gerade von Minderheiten. Dies ist eine Entwicklung, die sich aus religionsökonomischer Sicht gut verstehen und analysieren lässt. Detlef Pollack hält die religionsökonomische These, »dass die Pluralisierung der Religionen und Weltanschauungen zur Herausbil dung eines religiösen Marktes geführt habe« jedenfalls für »stark übertrieben«21. Denn der Erfolg marktförmiger und medial gestütz ter religiöser Angebote sei doch weitgehend auf die soziale und kulturelle Situation von Großstädten beschränkt; nur hier sei eine religiöse Marktsituation wirklich gegeben. Ökonomische Modelle tragen aber dazu bei, die klassische Auffassung von Säkularisierung zu modifizieren, wonach Religion sich in direkter Abhängigkeit von Modernisierungsprozessen verändert. Sie weisen aber auch die Auf fassung zurück, dass die Säkularisierung an ihr Ende gekommen sei und moderne Gesellschaft von nun an von religiösen Minderheiten dominiert und terrorisiert werden. Pollack rät zu einer Entdramatisierung der Rede von der Rück kehr der Religion. Die Dynamik der Säkularisierung habe, mindes tens in der von ihm empirisch untersuchten bundesdeutschen Gesell schaft, keinen signifikanten Umkehrschub erfahren. Der Begriff der Säkularisierung ist offenbar kein Konzept, mit dem eindeutig gesell schaftlicher Fortschritt oder Rückschritt zu messen wäre. Dennoch hält sich hartnäckig die Verknüpfung von Fortschritt und Säkularisie rung als ein Narrativ zur Selbstbeschreibung westlicher Gesellschaf ten. Das Konzept der Säkularisierung als ein Narrativ zur Selbstbe schreibung moderner Gesellschaften zu verstehen, die in diesem Licht ihre Transformationsprozesse als Fortschritt deuten, ist die Grundthese, die Charles Taylor vertritt.
21
Pollack, a.a.O., 139f.
198 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
5. Säkularisierung als Fortschrittsnarrativ. Charles Taylor über das »säkulare Zeitalter« Die monumentale Studie Ein säkulares Zeitalter22 von Charles Taylor stellt den gegenwärtig wohl einflussreichsten Beitrag zu einer herme neutischen Interpretation von Säkularisierung als großer Erzählung dar. Taylor verfolgt hier nicht primär das Ziel einer sozialwissen schaftlichen Erklärung einzelner Phänomene der Säkularisierung. Ihn interessieren vielmehr die hermeneutischen Voraussetzungen, unter denen der neuzeitliche Modernisierungsprozess als eine lineare Erfolgsgeschichte verstanden wird. Die Standardtheorien von Säkula risierung folgen nach Taylor dem Modell der Subtraktion. Fortschritt bedeutet danach Überwindung von Religion. Taylor schlägt stattdes sen die Unterscheidung in mehrere Dimensionen von Säkularisie rung vor. Er differenziert zwischen Säkularisierung als historischem Prozess, Säkularismus als laizistischer Ideologie und Säkularität als Erscheinungsform bzw. Ergebnis von Säkularisierung. Dabei sind wieder verschiedene Formen von Säkularität zu unterscheiden. Säku larität I, die erste Bedeutung von ›Säkularität‹, ist durch »Bezugnahme auf das Öffentliche definiert«23, genauer durch den Bedeutungsverlust von Religion in der gesellschaftlichen Öffentlichkeit. Dieser Verlust manifestiert sich in Gestalt der Trennung von religiösen und säkula ren Sphären, dem Rückzug der Religion aus öffentlichen Domänen wie Politik, Wissenschaft, Kunst, Wirtschaft. Mit Säkularität II ist der Bedeutungsverlust von Religion gemeint, der Rückgang explizit religiöser Überzeugungen, Praktiken und formaler Mitgliedschaften. Diese beiden Formen von Säkularität sind zentral für die soziologi schen Standardtheorien der Säkularisierung, die Taylor als Subtrakti onsmodelle bezeichnet. Diesen Theorien ist nach Taylor gemeinsam, dass sie aus dem Anspruch nach neutraler Beobachterperspektive eine Fortschrittsideologie entwerfen, die das säkulare Denken als imma nente Teleologie menschlichen Vernunftstrebens bestimmt. In dieser Perspektive entpuppt sich die neuzeitliche Säkularisierungsgeschichte als Entfaltung einer linearen Entwicklungslogik, die in ihrer inneren Folgerichtigkeit den Fortschritt der Vernunft in Wissenschaft, Technik und Moral widerspiegelt. Die umfassende und auf alle Lebensbereiche ausgreifende Rationalisierung reklamiert dabei für sich, hinter den 22 23
Ch. Taylor, Ein säkulares Zeitalter, Frankfurt am Main 2009 (engl. 2007). Ch. Taylor, a.a.O., 13.
199 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
falschen Menschenbildern einer mit Jenseitshoffnungen hantieren den Metaphysik die wahre individualistische Natur und zeitlos-libe rale Identität des Menschen entdeckt zu haben. Taylor weist den von den Subtraktionstheorien der Neuzeit propagierten monokausalen Begründungszusammenhang zwischen Wissenschaft und Moral zurück. Auf der Grundlage einer philosophi schen Anthropologie starker Wertungen skizziert er vielmehr eine ethische Perspektive humaner Selbstdeutung, die den Erfolg und die Überzeugungskraft wissenschaftlicher Entdeckungen als Ausdruck dessen nimmt, was für die Interpretation eines sich auf diese moderne Welt hin verstehenden Subjektes ausschlaggebend geworden ist. Die Erklärungsmuster, die den Prozess der Säkularisierung auf einen Wandel in den theoretischen Überzeugungen zurückführen, bringen in Wirklichkeit einen Wandel unserer inneren Erfahrungen zum Aus druck. Hier zeichnen sich nach Taylor substanzielle Veränderungen des Erlebens und des Empfindens ab. Religion wird von Taylor nicht ausschließlich als jener Glaube an das Transzendente verstanden, (der durch den Fortschritt an Bildung und Wissenschaft an Plausibilität verlöre. Religion erschöpft sich generell nicht im Glauben, sondern ist vor allem eine bestimmte Art des Empfindens. Dieses Empfinden ist aber wiederum kein besonderes, abgeschlossenes Gefühl, sondern der Hintergrund, der Rahmen, der uns ein Leben als erfüllt erleben lässt. Für den »nicht religiösen Menschen der Neuzeit« stellt die »Kraft, zur Fülle zu gelangen, (…) eine innere Kraft«24 dar. Für das religiöse Empfinden ist hingegen die Haltung einer »Öffnung des Selbst und das Empfangen einer Kraft jenseits unserer selbst«25 charakteristisch. Das nicht-religiöse Selbst, das allein auf seine innere Kraft vertraut, nennt Taylor das »abgepufferte Selbst«26. Diese fundamental unter schiedenen Weisen des Empfindens sind im säkularen Zeitalter zu gleichberechtigten Optionen geworden. Dieser Raum für gleichberechtigte Alternativen ist nun das, was Taylor Säkularität III nennt. Säkularität III bezeichnet den säkularen institutionellen und kulturellen Rahmen, in dem heute auch die Option für den Glauben gefällt werden kann und muss. Der Glaube ist also eine Option innerhalb des immanenten Rahmens der Säku larität. Während Säkularismus und Religion sich kontradiktorisch 24 25 26
Ch. Taylor, a.a.O., 24. Ch. Taylor, a.a.O., 24. Ch. Taylor, a.a.O., 901.
200 https://doi.org/10.5771/9783495998847 .
Säkularisierung – Fortschritt oder Rückschritt?
zueinander verhalten, besteht kein Widerspruch zwischen Säkularität und Religiosität. Es kommt darauf an, welche narrative Deutung wir diesem immanenten Rahmen der Säkularität geben – ob wir ihn im Sinne eines abgepufferten, innerweltlich geschlossenen Selbst verstehen oder im Sinne von Transzendenzoffenheit. Die Entstehung des abgepufferten Selbst ist aber keine rein binnensubjektive Deu tungsleistung. Die Entstehung dieses Selbstbildes des modernen Subjekts verdankt sich realen, d. h. subjektunabhängigen sozialge schichtlichen Entwicklungs- und Disziplinierungsprozessen, nicht zuletzt im Bereich von Sexualität und Affektbeherrschung, die Taylor im Anschluss an Norbert Elias und Michel Foucault benennt. Aber auch diese Sozialtheorien einer Disziplinierungsgeschichte bieten Taylor zufolge keinen unabhängigen epistemologischen Weltzugang. Vielmehr lässt sich der Zugang zur sozialen Welt angemessen nur von innen, als konstitutiver Bestandteil unseres sozialen Handelns her meneutisch erschließen und verstehen. Die Säkularität der Moderne lässt sich nicht von einem ethisch neutralen Null-Punkt der Erfahrung her analysieren, sondern sie muss selbst als Teil einer umfassenden Selbstbeschreibung gedeutet werden, die als Hintergrundbild unsere Vorstellungen von sozialer Existenz und normativer Fülle verkörpert. Für Taylor gibt es keinen privilegierten, vermeintlich neutralen Standpunkt außerhalb der Geschichte, der nicht schon durch vorgän gige Wertüberzeugungen vermittelt wäre. Seine Erzählung über den Weg des säkularen Zeitalters setzt daher hermeneutisch anders an als die auf Wissenszuwachs fokussierten Selbstbeschreibungstechniken der Moderne. Sie versucht, den säkularen Wandel in den Auffassun gen der menschlichen Natur vor allem als ein Ausdruck der sub stanziellen Veränderung unserer moralischen Selbstwahrnehmung zu erschließen. Er möchte nicht die historische Erklärung selbst ersetzen, vielmehr verfolgt er den Anspruch, die blinden Flecken der materia listischen Analyse zu beseitigen, die aus einer Vernachlässigung der inneren Erfahrungsdimension des Menschen entstehen. Der Vorteil von Taylors Bestimmung des Verhältnisses von Religion und Säkularisierung ist die Zurückweisung von Subtrakti onskategorien. Auf diese Weise werden das Religiöse wie das Säkulare nicht nur negativ voneinander abgegrenzt, sondern als Kategorien eigenen Rechts verstanden. Allerdings bezeichnet der Ausdruck Säkularisierung gemeinhin reale historische und gesellschaftliche Prozesse. Säkularisierung ist daher nicht nur eine Metapher oder ein hermeneutisches Narrativ zur Explikation eines humanen Selbst
201 https://doi.org/10.5771/9783495998847 .
Thomas M. Schmidt
verständnisses, sondern auch, zumindest dem Anspruch nach, eine explanative Kategorie. Aus der Säkularisierungsdebatte wäre dann Taylor zufolge für unser Thema zu lernen, dass Fortschritt nicht so sehr eine Kategorie der wissenschaftlichen Erklärung des sozialen Wandels darstellt, sondern ein hermeneutisches, narratives Konzept zur Selbstdeutung unserer moralisch relevanten Erfahrung in einer kulturellen und gesellschaftlichen Umwelt, der wir nicht beobachtend gegenüberste hen, sondern in die wir immer schon deutend eingelassen sind.
202 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
Wissenschaftskommunikation im Wandel
Zu Beginn sei auf einige Zahlen verwiesen: Im Jahr 1985 hatte die Deutsche Forschungsgemeinschaft (DFG) rund 400 Mitarbeiterin nen und Mitarbeiter und das Budget lag bei einer Milliarde DM. Heute (2022) sind es mehr als 900 Mitarbeiterinnen und Mitarbeiter und der Haushalt beläuft sich auf 3,7 Milliarden Euro. Der Bereich Presse- und Öffentlichkeitsarbeit hatte dabei im Jahr 1985 sechs Personalstellen. Jetzt sind es mehr als 20 – darunter eine Reihe von Teilzeitstellen und natürlich große neue Aufgabenfelder wie zum Beispiel die Sozialen Medien. Schon die Zahlen zeigen die Dynamik im Bereich der Wissenschaftskommunikation. Der Beitrag gliedert sich in drei Abschnitte: 1. 2. 3.
Voraussetzungen für erfolgreiche Wissenschaftskommunikation und die wichtigsten Aufgaben und Arbeitsfelder von Abteilun gen für Presse- und Öffentlichkeitsarbeit Das PUSH-Memorandum von 1999 Die Empfehlungen der Wissenschaftsakademien zur Kommuni kation zwischen Wissenschaft, Öffentlichkeit und den Medien (WÖM) sowie die Siggener Impulse
1. Voraussetzungen für erfolgreiche Wissenschaftskommunikation und die wichtigsten Aufgaben und Arbeitsfelder in der Presseund Öffentlichkeitsarbeit Beginnen möchte ich mit zwei kleinen Geschichten: Es war in den ersten Wochen meiner Arbeit als Pressesprecherin der DFG im Sommer des Jahres 1985. Ein – wie ich erst später erfuhr – sehr renommierter Wissenschaftler einer norddeutschen Universität hatte einen Beitrag für die Zeitschrift »forschung« der
203 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
DFG eingereicht – gespickt mit Fachausdrücken und Spezialtermini. Frisch aus der Redaktion einer Tageszeitung zur DFG gewechselt, schickte ich den Beitrag mit einem deutlichen Brief zurück und bat um Überarbeitung, besser noch Neufassung. Meine Kollegen in der Fachabteilung waren erschrocken, aber – siehe da – wenige Tage später kam ein Brief des Wissenschaftlers zurück, der zugab, dass es viel einfacher sei, einen Fachvortrag aus der Schublade zu holen, als einen für die Öffentlichkeit verständlichen Beitrag zu verfassen. Jetzt aber fühle er sich an seiner Ehre gepackt. Er schickte uns wenig später einen gut lesbaren Beitrag. Versehen mit Bildern und einer prägnanten Überschrift erschien er kurze Zeit darauf in der Zeitschrift. Die Sekretärin des Autors rief bald darauf an und erbat 50 weitere Belegexemplare! Einige Zeit später trug sich Folgendes zu: Der WDR trat an die DFG heran, um gemeinsam mit dem Kölner Sonderforschungsbe reich »Kultur- und Landschaftswandel im ariden Afrika« eine Reihe von Fernsehdokumentationen zu realisieren. Eine Besprechung mit allen Beteiligten wurde anberaumt, eine erste inhaltliche Konzeption besprochen, die Frage einer Mitfinanzierung durch die DFG erörtert. Am Ende stellte einer der am Sonderforschungsbereich beteiligten Wissenschaftler die entscheidende Frage: »Wird der Bewilligungsaus schuss der DFG bei der nächsten Fortsetzungsbegutachtung die Zeit, die wir für die Dreharbeiten aufwenden müssen, gewichten? Werden statt Fachpublikationen auch Videokassetten anerkannt?« Die Beispiele lassen die Grundsatzfrage der Wissenschaftskom munikation deutlich werden: Welche Rolle kommt ihr innerhalb des Wissenschaftssystems zu? Ist sie eine lästige Zusatzpflicht oder konstitutiv für den Erfolg wissenschaftlicher Arbeit? Nun komme ich zu den Voraussetzungen für erfolgreiche Wis senschaftskommunikation: Abteilungen für Presse- und Öffentlichkeitsarbeit sind in allen großen Institutionen – ob es nun Ministerien, Verbände, Banken, Versicherungen oder der Erzbischof von Köln sind – in ihrer Aufga benstellung im Prinzip gleich. Man kann sie als Schaltstellen oder auch Filter bezeichnen, die Informationen von außen nach innen und von innen nach außen durchlassen. Es ist zu filtern, was wem wie und wann herausgegeben wird. Umgekehrt ist es die Aufgabe, für das Haus wichtige Entscheidungen, Entwicklungen, Trends und Infor mationen zu sammeln und hineinzugeben. Im politischen Bereich ist das sehr häufig gekoppelt mit der persönlichen PR für einen
204 https://doi.org/10.5771/9783495998847 .
Wissenschaftskommunikation im Wandel
bestimmten Minister oder eine Ministerin. Bei der DFG oder bei Stiftungen dominieren eher die Sachthemen. Presseabteilungen sollten immer Stabsstellen sein, d. h. dem Vorstand zugeordnet mit einem direkten Zugang zur Spitze des Hauses. Pressesprecherinnen oder Pressesprecher von großen Insti tutionen sollten auch Mitglied im Direktorium oder den Abteilungs leiterrunden sein. Pressesprecherinnen und Pressesprecher sind naturgemäß eher Generalisten – umso wichtiger ist es, dass sie über alle wichtigen Vorgänge im Haus automatisch informiert werden. Es gehört dann die journalistische Spürnase dazu, herauszufinden, welches Thema wichtig, interessant oder auch manchmal nur gut verkäuflich ist. Unabdingbar ist eine offene und vorbehaltlose Informationspolitik. Offen heißt nicht offensiv, weil Werbung eher kontraproduktiv ist für die Vermittlung von Sachinhalten. Nur durch Offenheit kann eine Vertrauensbasis aufgebaut werden, die dann auch entsprechendes Arbeiten mit Journalisten ermöglicht. Wichtig ist nach meiner Erfahrung, dass Pressesprecherinnen und Pressesprecher selbst eine journalistische Ausbildung haben, am besten bei einer Tageszeitung. Um einschätzen zu können, was die unterschiedlichen Medien brauchen, braucht es Insiderkenntnisse. Flexibilität ist gefragt – auch Priorisierung. Es macht einen Unter schied, ob die BILD oder die FAZ anruft, wobei die BILD wegen ihrer Reichweite und Schnelllebigkeit zuerst bedient werden muss. Hörfunk- oder Fernsehjournalisten, Wochen- oder Tageszeitungskol legen, sie alle haben unterschiedliche Anforderungen. Ein Hörfunk journalist, der in einer Stunde aktuell auf Sendung gehen muss, kann nicht warten, bis ein Vermerk im Hause abgestimmt ist. Fernsehjournalisten haben wiederum ihre ganz eigenen Zwänge, weil sie für alle Themen bewegte Bilder brauchen. Ein wichtiges Prinzip der Arbeit ist, dass Redaktionen im Tages geschäft immer Vorrang haben. Meine Erfahrung ist, dass sich dies herumspricht und damit ein Renommee aufgebaut werden kann. Journalistinnen und Journalisten wissen sehr schnell, wo sie umge hend und zuverlässig bedient werden. Die wichtigsten Aufgaben und Arbeitsfelder will ich am Beispiel der DFG kurz anführen: Zur Pressearbeit gehören das Verfassen von Pressemitteilungen und Informationen für die Wissenschaft, Pressereisen, Presseauswer tung, die Organisation von Pressekonferenzen und Interviews, die
205 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
Bearbeitung von Journalistenanfragen und schließlich das Medien training innerhalb des Hauses. Zur Öffentlichkeitsarbeit gehören die Betreuung von Publikatio nen wie der Zeitschrift »forschung«, des Jahresberichts, von Infor mationsbroschüren und Buchprojekten sowie die Organisation von Ausstellungen und DFG-Vortragsreihen und schließlich der gesamte, an die Öffentlichkeit gerichtete Internetauftritt. In den späten 80er und den frühen 90er Jahren waren die Abtei lungen für Presse- und Öffentlichkeitsarbeit an den Hochschulen, aber auch bei der DFG und den außeruniversitären Forschungsein richtungen häufig unterbesetzt. Die Bereitschaft, sich gegenüber der Presse zu äußern oder öffentlichkeitwirksame Aktionen durchzufüh ren, war keineswegs selbstverständlich. Viel hing vom guten Willen der Wissenschaftlerinnen und Wissenschaftler ab, für die all dies zusätzliche Arbeit bedeutete. Das wissenschaftliche Renommee der Akteure hing und hängt bis heute an den Publikationen in entsprechenden Zeitschriften. Alles andere ist »nice to have.« Es war nicht in den Köpfen verankert, dass Millionen an Steuermitteln für die Wissenschaft auch eine Bringschuld bedeuten. Zwei Ereignisse in diesem Zeitraum trugen entscheidend dazu bei, die Rolle und Bedeutung der Wissenschaftskommunikation zu stärken. Das erste war die Wende und die darauffolgende deutsche Einheit. Die DFG reiste mit einem Großaufgebot an Personal durch die neuen Bundesländer, um ihre Fördermöglichkeiten vorzustellen und auch um zu verhindern, dass sich eine Ost-DFG bildete. Informa tionsmaterial, erstellt durch den Bereich Presse- und Öffentlichkeits arbeit, war im Nu vergriffen. Sprechstunden auf allen Ebenen vor Ort machten deutlich, wie zentral Beratung und Information waren. Das zweite Ereignis kam zum Ende der Präsidentschaft von Prof. Dr. Wolfgang Frühwald auf die DFG 1997 zu, als der erste große Fälschungsfall in der Medizin offenbar wurde. Die Krebsforscher Prof. Dr. Friedhelm Hermann und Prof.in Dr. Marion Brach hatten in bislang nicht vorstellbarem Maße ihre Ergebnisse gefälscht. Wochen lang gab es für die Presseabteilung kein anderes Thema. Die Schrift »Sicherung guter wissenschaftlicher Praxis« erschien – und sie wird bis heute immer wieder neu aufgelegt und weiterentwickelt. Sie griff zum ersten Mal das Thema »Qualität statt Quantität« mit Blick auf die Publikationsflut auf.
206 https://doi.org/10.5771/9783495998847 .
Wissenschaftskommunikation im Wandel
Aber letztlich waren es die Krise in der Forschungsfinanzierung durch die Politik, der Rückgang in den Zahlen junger Wissenschaft lerinnen und Wissenschaftler in bestimmten Fächern und heftige gesellschaftliche Debatten vor allem über bioethische Fragen, die dazu führten, dass die Wissenschaft geschlossen den Elfenbeinturm verließ und ein bis heute bemerkenswertes Dokument verabschiedete.
2. Das PUSH-Memorandum von 1999 Das sogenannte PUSH-Memorandum – PUSH steht für Public Understanding of Science and Humanities (also den Natur- und Geis teswissenschaften) – wurde am 27. Mai 1999 im Bonner Wissen schaftszentrum von den neun Präsidenten der großen Wissenschafts organisationen und des Stifterverbandes unterzeichnet: Dr. Arend Oetker für den Stifterverband für die deutsche Wissenschaft, Prof. Dr. Ernst-Ludwig Winnacker für die DFG, Prof. Dr. Hubert Markl für die Max-Planck-Gesellschaft, Prof. Dr. Klaus Landfried für die Hoch schulrektorenkonferenz, Prof. Dr. Detlev Ganten für die HelmholtzGemeinschaft, Prof. Dr. Jürgen Warnecke für die Fraunhofer-Gesell schaft, Prof. Dr. Frank Pobell für die Leibniz-Gemeinschaft und Dipl.Ing. Hans Wohlfahrt für die AiF – Arbeitsgemeinschaft industrieller Forschungsvereinigungen. Es war die erste und im Übrigen bislang einzige Gemeinschaftsaktion der Wissenschaft und sie hatte konkrete Auswirkungen. Vorausgegangen war ein intensives halbes Jahr in einer Arbeits gruppe aus Kommunikationsexperten und -expertinnen und Medien vertretern und -vertreterinnen, die – moderiert vom Stifterverband – den Text des Memorandums erarbeitete und ein Programm für ein ganztägiges internationales Symposium zusammenstellte. Vor dem Hintergrund der Erfahrungen mit Public Understanding of Science in den USA und Großbritannien wurde eine Defizitanalyse für die deutsche Situation erstellt. In dem Memorandum »Dialog Wissenschaft und Gesellschaft« heißt es, dass die einzelnen Institutionen ein angemessenes Anreiz system entwickeln werden, das Belohnungen für diejenigen Wissen schaftler und Wissenschaftlerinnen in Aussicht stellt, die sich aktiv im Dialog mit der Öffentlichkeit engagieren. Das Engagement für diesen Dialog – so wörtlich – darf dem wissenschaftlichen Ruf nicht
207 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
abträglich sein, es sollte vielmehr zu einem zusätzlichen Merkmal wissenschaftlicher Reputation werden. In einem zweiten Kernpunkt heißt es, dass die Unterzeichner sich nachhaltig dafür einsetzen wollen, dass wissenschaftsfördernde Einrichtungen ihre Förderkriterien dahingehend weiterentwickeln, dass der Dialog mit der Öffentlichkeit den ihm angemessenen hohen Stellenwert erhält. Ferner solle die Würdigung von Leistungen im Dialog mit der Öffentlichkeit im Rahmen der internen und externen Begutachtung bzw. ihrer Evaluation zusätzlich zur Würdigung der wissenschaftlichen Leistung erfolgen. Hochschulen und Forschungseinrichtungen wurden aufgefor dert, die notwendige Infrastruktur sowie Lehr- und Weiterbildungs angebote dafür zu entwickeln.1 Unmittelbar im Anschluss an dieses denkwürdige Symposium legte der Stifterverband einen Aktionsplan für ein Programm PUSH auf, das mit insgesamt 500.000 DM dotiert war. Das Programm zielte darauf ab, Beispiele guter Praxis durch Förderung sichtbar zu machen. 217 Anträge mit einem Volumen von mehr als sechs Millionen DM wurden eingereicht; die Jury wählte 22 Beispiele als »best practice« aus. PUSH wurde im Jahr 2000 umbenannt zur Initiative »Wissen schaft im Dialog« (WiD) und zu einer gemeinnützigen, von den großen Wissenschaftsorganisationen und dem BMBF getragenen GmbH mit Sitz in Berlin. Im Jahr 2000 nahm »Wissenschaft im Dialog« die Arbeit auf. In Zusammenarbeit mit dem Bundesministerium für Bildung und Forschung wurde seitdem für jedes Jahr ein Thema in den Mittelpunkt gestellt. ● ● ● ● ● ● ● ●
2000: Jahr der Physik 2001: Jahr der Lebenswissenschaften 2002: Jahr der Geowissenschaften 2003: Jahr der Chemie 2004: Jahr der Technik 2005: Einsteinjahr (Albert Einstein (1879–1955), Annus mirabi lis 1905) 2006: Jahr der Informatik 2007: Jahr der Geisteswissenschaften
1 Dialog Wissenschaft und Gesellschaft, PUSH Symposium, hrsg. vom Stifterver band für die Deutsche Wissenschaft, S. 60.
208 https://doi.org/10.5771/9783495998847 .
Wissenschaftskommunikation im Wandel
● ● ● ● ● ● ● ● ● ● ● ● ●
2008: Jahr der Mathematik 2009: Forschungsexpedition Deutschland (Internationales Jahr der Astronomie 2009) 2010: Zukunft der Energie 2011: Gesundheitsforschung 2012: Zukunftsprojekt Erde 2013: Die demografische Chance 2014: Die digitale Gesellschaft 2015: Zukunftsstadt 2016*17: Meere und Ozeane 2018: Arbeitswelten der Zukunft 2019: Künstliche Intelligenz 2020/21: Bioökonomie 2022: Nachgefragt!
»Wissenschaft im Dialog« ist eine Erfolgsgeschichte, bis heute, und hat mit den Wissenschaftssommern, dem Schiff MS Wissenschaft – einem schwimmenden Science Center –, den langen Nächten der Wis senschaft, Schülerlaboren, dem Forum Wissenschaftskommunikation und zahlreichen weiteren neuen Formaten der Wissenschaftskommu nikation ganz entscheidend zum Dialog zwischen Wissenschaft und Öffentlichkeit beigetragen. Die Erlebniskomponente, das Mitmachen, Staunen und die Faszination standen im Mittelpunkt und prägten diese Jahre. Ein gutes Beispiel ist die MS Wissenschaft, ein umgebautes Frachtschiff, das statt Kohle in den Sommermonaten eine dem Thema des jeweiligen Wissenschaftsjahres gewidmete Ausstellung über deutsche und später auch österreichische Flüsse transportiert. In jedem Hafen wurde das Schiff von anderen Wissenschaftsbegeisterten empfangen, fanden Vorträge und Experimente statt, gab es Wissen schaft zum Anfassen vor Ort. Die DFG initiierte zusammen mit dem Stifterverband den Com municator-Preis, einen hochdotierten persönlichen Preis für Wissen schaftlerinnen und Wissenschaftler. Ausgezeichnet werden herausra gende Leistungen in der Vermittlung von wissenschaftlichen Inhalten in die Öffentlichkeit. Die Resonanz auf die erste Ausschreibung übertraf alle Erwar tungen. Fast 300 Bewerbungen gingen ein – die Jury, bestehend aus Journalistinnen und Journalisten, Kommunikationsexperten und -expertinnen sowie Wissenschaftlern und Wissenschaftlerinnen, hatte ihre liebe Mühe bei der Auswahl.
209 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
Aber wichtiger war das Signal, das mit der Auslobung eines solchen Preises einherging. Es kam einem Paradigmenwechsel gleich, dass eine Förderorganisation wie die DFG einen Preis für Wissen schaftskommunikation ausschrieb. Alle Preisträgerinnen und Preisträger sind anerkannte Wissen schaftler und Kommunikatoren. Beispiele sind der Hirnforscher Prof. Dr. Wolf Singer, der Theologe Prof. Dr. Hubert Wolf, die Meeresfor scherin Prof.in Dr. Antje Boetius. Überall sprossen in diesen Jahren neue Initiativen aus dem Boden. Beispiele sind die Kinderuniversität an vielen Standorten, ESOF (European Science Open Forum), der »Descartes Prize for Science Communication« der EU, um nur einige wenige zu nennen. PUSH bzw. WID war der Startschuss für eine atemberaubende Aufrüstung der Hochschulen und Wissenschaftseinrichtungen mit Kommunikationsstäben und Marketingabteilungen. Parallel dazu stockten die Medien – angestoßen durch private Fernsehsender, die Wissenschaft als Thema entdeckt hatten – ihre Wissenschaftsredaktionen auf. Die 2000er Jahre waren eine BoomZeit der Wissenschaftskommunikation für beide Seiten. Natürlich gab es auch kritische Stimmen. So mutmaßte Ulrich Schnabel von der Wochenzeitung DIE ZEIT, es ginge der Wissen schaft mit ihrer Initiative »Wissenschaft im Dialog« nicht wirklich um den Dialog, sondern um Akzeptanzbeschaffung, also Public Relations anstelle von Public Understanding.2 Und der britische Experte für Public Understanding Sir John Krebs mahnte schon beim Bonner Symposium 1999: »Wer glaubt, die Öffentlichkeit sei ein leeres Glas, in das man einfach Kenntnisse einfüllen könne, der wird nicht erfolgreich sein. Public Understanding of Science enthalte nicht nur die Aufforderung an die Öffentlichkeit, die Wissenschaft besser zu verstehen; der Begriff sei auch ein Appell an die Wissenschaft, die Gesellschaft besser zu verstehen.«3 Das war schon vor 20 Jahren eine weitsichtige Aussage, auf die ich im dritten Teil des Beitrags zurück komme. In der Folgezeit hat vor allem der Blick der ausländischen Fach gutachter und -gutachterinnen auf das deutsche Wissenschaftssystem im Rahmen der Exzellenzinitiative viel zu einer weiteren Stärkung der Wissenschaftskommunikation beigetragen. Ein herausragendes 2 3
Ulrich Schnabel, Imagepflege, DIE ZEIT, 27.5.1999. John Krebs, PUSH-Symposium, Verständnis für die Öffentlichkeit, S. 14 – 19.
210 https://doi.org/10.5771/9783495998847 .
Wissenschaftskommunikation im Wandel
Beispiel ist das Zentrum für Wissenschaftskommunikation des Exzel lenzclusters »Religion und Politik« an der Universität Münster. Die guten Kontakte zu führenden Medien schon vor Beginn der Förderung überzeugten vor allem die amerikanischen Gutachter, die den Faktor »outreach« traditionell besonders hoch gewichten. Die DFG schuf in diesen Jahren mit der Modularisierung ihres Förderportfolios für alle Projekte die Möglichkeit zur Beantragung von Mitteln für die Öffentlichkeitsarbeit.
3. Die Empfehlungen der Wissenschaftsakademien zur Kommunikation zwischen Wissenschaft, Öffentlichkeit und den Medien (WÖM) sowie die Siggener Impulse So weit so gut, könnte man sagen, wenn sich nicht in den letzten Jah ren seit etwa 2013 Veränderungsprozesse gezeigt hätten, die bis dahin nur unzureichend berücksichtigt worden waren – Veränderungspro zesse, die dazu zwingen, die Wissenschaftskommunikation ganz neu zu denken. So erschien schon 2014 eine Schrift der wissenschaftlichen Aka demien Leopoldina, Acatech und der Union der deutschen Akademien unter dem Titel: »Zur Gestaltung der Kommunikation zwischen Wis senschaft, Öffentlichkeit und den Medien.«4 Im Vorwort schreiben die Verfasser, dass Wissenschaft und Journalismus ihre Aufgabe der Versorgung der Gesellschaft mit vielfältigen und möglichst zuverläs sigen Informationen nicht mehr ausreichend wahrnehmen könnten. Der Grund: Die ökonomischen Rahmenbedingungen sowohl der Wissenschaft als auch der Medien hätten sich in den vergangenen Jahren deutlich gewandelt. Das Wissenschaftssystem verändere sich unter indikatorenbasierten Leistungsanreizen und einer sich daraus ergebenden Konkurrenz um Aufmerksamkeit. Auch die Medienland schaft befinde sich unter anderem aufgrund der Digitalisierung und Fragmentierung sowie der daraus folgenden ökonomischen Zwänge in einem tiefgreifenden Umbruch. Dieses WÖM I (Wissenschaft, Öffentlichkeit und Medien) genannte Papier wurde 2017 ergänzt um 4 Stellungnahme der Leopoldina, Acatech und der Union der Deutschen Akade mien der Wissenschaft: Zur Gestaltung der Kommunikation zwischen Wissenschaft, Öffentlichkeit und den Medien. Juni 2014, 28 Seiten (WÖM 1).
211 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
eine weitere Empfehlung der Akademien zu den Sozialen Medien und der digitalen Wissenschaftskommunikation (WÖM II).5 Parallel dazu entwickelte sich seit 2013 der sogenannte Siggener Kreis, benannt nach dem Gut Siggen im Holsteinischen. Dort treffen sich Vertreterinnen und Vertreter von Hochschulen und Forschungs einrichtungen, Journalistinnen und Journalisten, PR-Fachleute, Wis senschaftlerinnen und Wissenschaftler und weitere Fachleute jährlich ohne Auftrag oder Mandat ihrer Institution für fünf Tage, um über die Zukunft der Wissenschaftskommunikation nachzudenken. Die Alfred Toepfer Stiftung finanziert die Treffen. Das Ergebnis waren die Siggener Impulse oder Denkanstöße – 2019 zum Beispiel ging es um die Auswirkung von Künstlicher Intelligenz auf die Wissenschafts kommunikation; 2020 um das Thema: „Die Krise kommunizieren“.
Medienkrise Die Medienkrise lässt sich am Beispiel der britischen Verlagsgruppe verdeutlichen, in der eine der bedeutendsten Tageszeitungen der Welt erscheint, der GUARDIAN. Seit 2011 hat der GUARDIAN keinen Cent mehr verdient. In guten Jahren hat er mehr als 40 Millionen Pfund Verlust eingefahren, in schlechten dreimal so viel. Woran liegt es, dass eine der besten Tageszeitungen der Welt quasi pleite ist? Die Begründung ist simpel: Gerade weil der GUAR DIAN so gut ist, sich also mit Geschichten und Themen befasst, die nur mit enormem Personal-, Zeit- und Geldaufwand zu realisieren sind. Seit dem Zusammenbruch des anzeigenbasierten Erlösmodells gibt es keine Einnahmen mehr, die diesen qualitätsjournalistisch not wendigen Aufwand gegenfinanzieren könnten. Das Problem ist ein doppeltes: Nicht nur befinden sich die Anzeigenumsätze der Tages zeitungen in freiem Fall, auch die Erlöse aus dem seit 2000 global stark ansteigenden Onlinewerbegeschäft landen nicht beim GUAR DIAN oder anderen Medien, sondern zu mehr als 80 % bei Google und Facebook. Die Medienkrise ist kein angloamerikanisches Problem, sondern ein globales und ein strukturelles. So hat die Schweiz in den vergange Kurzfassung der Stellungnahme von Leopoldina, Acatech und Union der Deutschen Akademien der Wissenschaften: Social Media und digitale Wissenschaftskommuni kation, Juni 2017, 6 Seiten (WÖM 2).
5
212 https://doi.org/10.5771/9783495998847 .
Wissenschaftskommunikation im Wandel
nen 25 Jahren zwei Drittel ihrer Tageszeitungstitel verloren. Wenn die Tageszeitungen sterben, sind auch die damit untrennbar verknüpften Nachrichtenagenturen vom Untergang bedroht. In Deutschland sieht es aufgrund der weltweit einmaligen Regio nalzeitungslandschaft so aus, als ob das traditionelle Mediensystem noch einigermaßen in Ordnung sei. Das ist allerdings eine Täuschung. Die Zeitungen sterben noch nicht wirklich, aber sie zombifizieren sich. Das bedeutet: Die Titelvielfalt am Kiosk bleibt optisch zwar erhalten, doch dahinter befindet sich der immer gleiche Inhalt, hergestellt in einigen wenigen Zentralredaktionen. Die Verlage reagieren auf diese ökonomische Krise mit Mas senentlassungen und Budgetkürzungen für freie Autoren – und investieren in andere Geschäftsfelder, um Geld zu verdienen. Der Holtzbrinck-Konzern z. B. investiert in Zalando und Flixbus, Springer in Onlineportale wie Stepstone, Idealo oder Immowelt. Gibt es Lösungsvorschläge zur Überwindung der Medienstruk turkrise? Man könnte z. B. an eine andere Steuergesetzgebung den ken, die Journalismus als gemeinnützige Tätigkeit anerkennt. Mittel, die bislang dem gebührenfinanzierten öffentlich-rechtlichen System zur Verfügung stehen und dort nicht selten für journalismusferne Aktivitäten wie Sport und Unterhaltung verwendet werden, könnten umgewidmet und in eine Stiftung überführt werden. Stiftungen könn ten überhaupt hier ein Betätigungsfeld sehen. Ich zitiere hierzu zwei Empfehlungen aus dem Akademienpapier von 2014. Im Kapitel »Empfehlungen an die Politik und gesellschaftliche Akteure« heißt es: »Stiftungen in Deutschland sind aufgefordert, ein künftiges Engage ment in der nachhaltigen Förderung des Qualitätsjournalismus zu prü fen.«6
Und im Kapitel »Empfehlungen an die Medien«: »Den Massenmedien, Verlegerverbänden und vergleichbaren Einrich tungen wird empfohlen, gemeinsame Strategien zur Kommunikation der Rolle und Bedeutung eines unabhängigen Journalismus in der Demokratie zu entwickeln. Insbesondere sollen neue Finanzierungs
6
WÖM 1, S. 7.
213 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
modelle für einen unabhängigen und wissensbasierten Qualitätsjour nalismus entwickelt werden, der auch die neuen Medien einbezieht.«7
Und wie sieht es derzeit auf der Seite der Wissenschaft aus?
Wissenschaftskommunikation vor neuen Herausforderungen Es sind im Wesentlichen zwei Faktoren, die die Wissenschaftskom munikation vor völlig neue Herausforderungen stellen: Der erste ist das, was ich die »digitale Revolution« nennen möchte, der zweite resultiert aus der wachsenden Konkurrenz zwischen den For schungseinrichtungen untereinander, u. a. aufgrund des internationa len Wettbewerbs um die besten Köpfe, der Exzellenzinitiative etc.
Die digitale Revolution Die letzten 15 Jahre der Wissenschaftskommunikation waren eine moderne Variante der Wunderkammern: Die interessierten Öffent lichkeiten wurden zum Staunen gebracht. Jetzt ist diese Phase zwar nicht vorbei – »Faszination Wissenschaft« gibt es nach wie vor, aber es kommt etwas anderes hinzu. Dieselben Öffentlichkeiten wollen jetzt auch wissen, wie und warum die Forschungsergebnisse zustande gekommen sind. Dieser erhöhte Anspruch ist auch eine Folge der besseren Informiertheit. Aus den Möglichkeiten des Internet ergibt sich ein komplett verändertes Informations- und Kommunikations verhalten. Das führt zu einer nie da gewesenen Aufsplitterung in Spe zialinteressen und in der Informationsbeschaffung. Stichworte hierfür sind: Blogs, Bürgerdialoge, direkte Nachfragen bei Wissenschaftlern, Citizen-Science-Initiativen, Science Slams.
Der verstärkte Wettbewerb innerhalb der Wissenschaft Der zweite Faktor, der erhöhte Wettbewerb innerhalb der Wissen schaft, generiert einen stärkeren Zwang zur Profilierung der eigenen Institution. Die Wissenschaftskommunikation hat also systembe 7
WÖM 1, S. 7.
214 https://doi.org/10.5771/9783495998847 .
Wissenschaftskommunikation im Wandel
dingte Rahmenbedingungen, die zum beständigen Verwischen der Grenzen zwischen Marketing und Kommunikation führen können. Beide Seiten – Medien und Wissenschaftskommunikation der Institutionen – sind sich der Veränderungen bewusst und diskutieren sie intensiv, die Papiere der Akademien und des Siggener Kreises wurden bereits erwähnt. Der Siggener Kreis hat 2016 Leitlinien für eine gute Wis senschaftskommunikation vorgelegt, in denen Qualitätssicherung, Glaubwürdigkeit und Transparenz als zentrale Werte genannt wer den.8 Und die Akademien forderten schon 2014: »Das Prinzip der wissenschaftlichen Redlichkeit und Selbstkritik der einzelnen Wissenschaftlerin und des einzelnen Wissenschaftlers sollte im Hinblick auf die Kommunikation mit der Öffentlichkeit bzw. mit den Medien Geltung erhalten und gestärkt werden. So soll u. a. die wissentliche, nicht durch Daten gedeckte Übertreibung von Forschungsergebnissen gegenüber den Medien (HYPE) als Verstoß gegen gute wissenschaftliche Praxis gelten und entsprechend sanktio niert werden.«9 Die Situation ist ernst: Wer hätte z. B. gedacht, dass populistische Regime die Wissenschaftsfreiheit aushöhlen würden? Dass evidenz basiertes Wissen nicht nur angezweifelt, sondern massiv in Frage gestellt wird? Das bekannte Stichwort hierfür lautet Fake News. Wer hätte gedacht, dass die Wissenschaft einmal für ihre Belange auf die Straße gehen würde? (March for Science am 22.4.2017) Wer hätte gedacht, dass Raubverlage mit fingierten Zeitschrif ten und Pseudo-Tagungen auch seriöse Wissenschaftler und Wissen schaftlerinnen an der Nase herumführen? Die Forderungen und Mahnungen derer, die sich um gute Wissenschaftskommunikation – auch als unabdingbarer Bestandteil unserer demokratischen Kultur – sorgen, werden deutlicher und drängender. So forderte Jens Rehländer, Sprecher der Volkswagen Stiftung, ein zweites PUSH-Memorandum. Die Befunde lägen alle vor.10 Michael Sonnabend, der die Öffentlichkeitsarbeit beim Stifter verband verantwortet, schreibt: »Die Science Community sieht sich Siggener Kreis: Leitlinien für gute Wissenschafts-PR, 2016, 12 Seiten. WÖM 1, S. 6. 10 Jens Rehländer, Wer schreibt endlich PUSH 2? Zukunft der Wissenschaftskom munikation.de, 15. April 2018. 8
9
215 https://doi.org/10.5771/9783495998847 .
Eva-Maria Streier
Verdächtigungen ausgesetzt, die bis vor kurzem undenkbar gewesen wären. Nicht selten steht dabei die Unterstellung im Raum, dass Wissenschaft käuflich sei, ohnehin von Eliten für Eliten betrieben werde – und damit eben nicht dem Allgemeinwohl diene. Plumpe Wissenschaftsfeindlichkeit sei in den sozialen Medien häufig zu fin den, unterfüttert durch Falschinformation, populistischen Anti-Intel lektualismus oder puren Zynismus. Wir sind jetzt alle am Zug!«11 Der Siggener Impuls von 2017 trägt den Titel: »Wissenschaft braucht Courage«. Ich zitiere: »Bei allen Beteiligten ist nicht nur Professionalität, sondern auch Courage vonnöten, um im Geiste der Integrität und Gemeinwohlorientierung sowohl Fehlentwicklungen im System Wissenschaft entgegenzutreten als auch Widerstand gegen intellektuelle Falschmünzer zu leisten.«12 Und die Wochenzeitung DIE ZEIT schreibt in einem bemerkens werten Aufmacher vom 12. April 2017 unter dem Titel: »Raus, raus, raus!«: »Die Wissenschaft steckt in einer Vertrauenskrise. Sie muss sich der Gesellschaft öffnen, viel radikaler als bislang gedacht.« Und weiter: »Es darf kein nettes Beiwerk sein, dass Hochschulen sich für die Belange ihrer Stadt, für die Belange der Gesellschaft interessieren. Es gehört zu ihrem Kern, zu ihrer dritten Mission neben Forschung und Lehre.«13 Und hier kann ich endlich den Bogen zu meinen Eingangsbei spielen schlagen – der Brückenschlag zwischen Wissenschaft und Gesellschaft ist und bleibt eine Lebensaufgabe.
11 Michael Sonnabend, Jetzt brauchen wir alle guten Köpfe, Zukunft der Wissen schaftskommunikation.de, 28. März 2018. 12 Siggener Impuls 2017: Wissenschaft braucht Courage, S. 3. 13 Manuel J. Hartung, Andreas Sentker, Raus, raus, raus! DIE ZEIT, 12. April 2017, S. 29.
216 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
Künstliche Intelligenz Die Entwicklung der Disziplin in Deutschland
Der Fortschritt in den Wissenschaften manifestiert sich auf vielfältige Weise – ein offensichtliches Merkmal ist, wie sich die akademische Infrastruktur und die Institutionen eines neuen Gebietes im histori schen Kontext etabliert haben. Ein besonders interessantes Beispiel dafür ist die Entwicklung der Künstlichen Intelligenz (KI) in Deutsch land, die wegen der weitgehenden Zerstörung der international füh renden deutschen Wissenschaft durch den Nationalsozialismus und wegen des Zweiten Weltkrieges mit über zwanzigjähriger Verspätung gegenüber dem Ausland einsetzte, dann aber gleichsam im Zeitraffer durchgesetzt werden konnte. Das interessante Zusammenspiel zwi schen Akademia, Politik und Wirtschaft, das diese Aufholjagd ermög lichte, ist ein interessantes Beispiel für die Entwicklung eines Hoch technologiefaches. Die Diskussion über die Möglichkeit maschineller Intelligenz hat eine lange Geschichte, die bis in die Antike zurückreicht, im Mittelal ter heftig geführt wurde und im Zeitalter der ersten Rechenmaschinen von Wilhelm Schickard, Gottfried Wilhelm Leibniz und Plaise Pascal erneut aufflammte. Die Entwicklung moderner elektronischer Rechenanlagen hat diese geistigen Traditionen erneut belebt und die Pioniere dieser Entwicklung – wie Alan Turing und John von Neumann – haben die Analogie zwischen Computer und Gehirn in Artikeln beschrieben, die heute zu den Klassikern der KI_Literatur zählen. Ebenso haben die Kybernetik und die Arbeiten der Neurologen und Gehirnforscher wie Warren S. McCulloch und Walter Pitts in der ersten Hälfte des vorigen Jahrhunderts zu einer fruchtbaren Diskussion über den neuen Zugang zu einer alten Frage beigetragen: »wie kann man intelligente Prozesse verstehen und gegebenenfalls technisch realisieren?«. Die ser neue wissenschaftliche Ansatz fasst intelligente Leistungen als
217 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
Informationsverarbeitung im Sinne der Informatik auf und nutzt und beeinflusst deren Begriffsapparat. KI und ihre geisteswissenschaftliche Schwesterdisziplin, die Kogniti onswissenschaft, erklären Intelligenz als Informationsverarbeitung – unabhängig von der sie realisierenden Substanz, das heißt ›in der feuchten neuronalen Hardware‹ des Gehirns oder in dem trockenen Silizium einer Maschine.
Die bahnbrechende Idee, dass »Maschinen denken und lernen kön nen« – wobei Maschine hier eine Metapher für mechanisch erklär bares Denken ist – wird heute mit Computer instanziiert. In den 50er Jahren schrieb Alan Turing, bekannt für seine Beiträge zum »Entscheidungsproblem« in der theoretischen Informatik, mehrere Abhandlungen über die Möglichkeit intelligenter Maschinen und deren Verhältnis zur menschlichen Intelligenz. Bekannter ist heute sein sogenannter »Turing-Test«. Donald Michie, der mit Turing im Bletchley Park gearbeitet hatte – dem bekannten Ort, an dem der deutsche Verschlüsselungscode der ENIGMA während des Zweiten Weltkriegs entschlüsselt wurde –, war ein guter Freund von Alan Turing und während ihrer langen Spaziergänge in der Natur disku tierten sie ihre Gedanken über »Maschinen, die denken und lernen können«. Michie gründete 1963 in der kleinen legendären Wohnung am Hope Park Square in Edinburgh eine Forschungsgruppe, der sich später Bernard Meltzer und andere anschlossen, um schließlich das Department of Artificial Intelligence zu gründen. Edinburgh wurde damit zur Geburtsstätte der KI in Großbritannien und pionierte dieses akademische Gebiet in Europa. Die Geburtsstunde der KI in den USA – und des Namens Artifi cial Intelligence – wird in der Dartmouth Conference gesehen, einem kleinen Workshop, zu dem sich 1956 eine Reihe von Wissenschaftlern am Dartmouth College (New Hampshire) trafen, um Möglichkeiten und Potenzial des neuen Arbeitsgerätes Computer zu diskutieren, die über das damals dominierende numerische Einsatzgebiet hinaus gingen. Hier wurde von John McCarthy der Arbeitstitel Artificial Intelligence vorgeschlagen und dessen Berechtigung von den Teilneh mern heftig diskutiert. Die Liste der damals vornehmlich noch jungen Teilnehmer liest sich heute wie ein »Who's who« der amerikanischen KI-Szene: John McCarthy, Marvin Minsky, Allen Newell und der spä tere Nobelpreisträger (für Wirtschaftswissenschaften) Herbert Simon – Namen, mit denen die Geschichte und der Aufbau der KI zunächst in den USA und dann weltweit unauslöschlich verbunden sind.
218 https://doi.org/10.5771/9783495998847 .
Künstliche Intelligenz
Diese Zeit vor dem Zweiten Weltkrieg bis Mitte der 50er Jahre ist intellektuell eine besonders spannende Epoche der KI-Geschichte gewesen: In der Auseinandersetzung mit der Kybernetik, neueren Ergebnissen aus der Neurophysiologie, den Anfängen der Automa tentheorie und nicht zuletzt durch den Einfluss der damals noch jungen computer science haben sich die Grundlagen für eine eigene Methodik herauskristallisiert, die einen neuen Zugang zu der alten Frage »Was ist Intelligenz?« brachte und die KI als eigenständige Wissenschaft definierte. Die Entwicklung der Künstlichen Intelligenz in den folgenden Jahren von diesen bescheidenen Anfängen zu einem Gebiet mit welt weit über hundert Konferenzen und Workshops pro Jahr, mit einer internationalen Jahreskonferenz, der IJCAI, mit einer europäischen KI-Konferenz, der ECAI, und einer amerikanischen KI-Konferenz, der AAAI, die jeweils einige tausend Teilnehmer anziehen, und den sie unterstützenden Wissenschaftsorganisationen ist ein faszinieren des Kapitel moderner Wissenschaftsgeschichte das unter anderen in Pamela McCorducks »Machines Who Think«,1 erzählt wird. Den heu tigen Boom mit dem weltweiten Wettbewerb um die technologische Vorherrschaft konnte sie freilich nicht ahnen. Deutschland hat heute die mitgliederstärkste Gruppe für KI in der Europäischen Gemeinschaft aufgebaut, die Lecture Notes for Artificial Intelligence (LNAI) des Springer Verlages sind internatio nal führend und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) ist mit fast eintausend Mitarbeitern zu einem der größten Institute für angewandte KI-Forschung in der Welt geworden. »Industrie 4.0« ist ein Begriff, der eine Technologie für die industrielle Produktion bezeichnet, der am DFKI geprägt wurde und heute wie »Kindergarten« oder »Eigenwert« als ein eigenes Wort Bestandteil der englischen Sprache ist. Diese positive Entwicklung im organisatorischen und wissen schaftspolitischen Umfeld lässt sich auch an der inhaltlichen akade mischen Entwicklung nachvollziehen: die deutsche KI-Forschung hat ein sehr hohes international ausgewiesenes Niveau erreicht, das in Spezialgebieten sogar weltweit führend ist. Damit sind die deut schen KI-Wissenschaftler wieder in die internationale Forscherge 1 McCorduck, Pamela, »Machines Who Think«, W. Freeman & Co, first 1972, revised 2004. Ebenso: Mirowski, Philip, »McCorduck's Machines Who Think after Twenty-Five Years Revisiting the Origins of AI«. AI-Magazine, 2003.
219 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
meinschaft als gleichberechtigte Partner aufgenommen und integriert worden und eine rein national gefärbte Betrachtung der wissenschaft lichen Entwicklung ist eigentlich obsolet und akademisch nicht mehr sehr hilfreich. Der Aufbau der KI in Deutschland war bis in die 70er Jahre dagegen durch verpasste Möglichkeiten, Fehleinschätzungen der wirklichen Bedeutung dieses Gebietes und durch den mangelnden Weitblick der etablierten Informatik gekennzeichnet. Die damalige Forschung wurde hauptsächlich von Nachwuchsforschern getragen, von interessierten und begeisterten Studenten oder von jungen Wissenschaftlern, die aus den USA oder England (den damaligen Hochburgen der KI-Forschung) zurückgekommen waren und nun an den Lehrstühlen der Informatik oder in geisteswissenschaftlichen Gebieten arbeiteten. Fehlende akademische Standards wurden nicht selten durch große Begeisterung und die enorme Aufbruchsstimmung kompensiert – doch die Dominanz der Forschung der USA und England war allgegenwärtig. Ich möchte die Entwicklung dieser Disziplin in Deutschland in drei Abschnitte einteilen: die Zeit vor 1975, also vor dem ersten deutschen Workshop zur Künstlichen Intellgenz, von 1975 bis 1983, der ersten Professur für KI in Deutschland und letztlich von 1983 bis in die 90er Jahre. Im Weiteren werde ich versuchen, diese Abschnitte durch das relativ zeitgleiche Auftreten von Ereignissen und Entwick lungen dieser vier Abschnitten anhand der folgenden Kriterien zu charakterisieren und zu rechtfertigen: 1. 2. 3. 4. 5.
der Art der KI-Veranstaltungen der Wissenschaftsorganisation der KI dem Aufbau eigenständiger Forschungsinstitutionen an den Universitäten der Qualität der Forschung dem Aufbau von Forschungs- und Entwicklungseinheiten in der Industrie
Sichtweise, Wertvorstellungen und die wissenschaftlichen Organisa tionsformen naturwissenschaftlicher Forschung sind für viele von uns wesentlich durch die Physik geprägt worden, und hier sind es die Sternstunden am Anfang des vorigen Jahrhunderts mit der Relativitätstheorie und der Quantentheorie, die unsere jüngere Wis senschaftlergeneration beeinflusst haben.
220 https://doi.org/10.5771/9783495998847 .
Künstliche Intelligenz
Eine interessante Beobachtung aus der Geschichte der KI (von der ich glaube, dass sie sich auch auf andere Hochtechnologiegebiete im modernen Wissenschaftsbetrieb übertragen lässt) ist, dass die Leistungsfähigkeit eines Forschungsgebietes nicht in erster Linie davon abhängt, ob die sprichwörtliche Hochbegabung in der völligen Abgeschiedenheit einer universitären Klause plötzlich Forschungsre sultate von Weltgeltung erbringt – obwohl dies am Anfang einer neuen Entwicklung auch der Fall sein mag – sondern ganz entschei dend davon, ob eine eigene Infrastruktur und ein eigenes Paradigma im Sinne von Thomas S. Kuhn vorhanden sind, in der Hochbegabun gen florieren können – ja, überhaupt erst in ausreichender Zahl für ein Thema gewonnen werden können.
Vorgeschichte (bis etwa 1975) Es ist bemerkenswert, dass der wissenschaftliche Diskurs (vor allem in den USA und Großbritannien) über die möglichen Grenzen des Computers ihren fast zeitgleichen Niederschlag auch in frühen Arbeiten in Deutschland gefunden hat und unter anderen von Otto Selz, Konrad Zuse, Karl Steinbuch und Gert Veenker (beispielhaft, unabhängig voneinander und weitgehend selbständig) aufgenommen wurde2. Dies ist vor allem deshalb erstaunlich, weil Deutschland durch die Emigration vieler Spitzenwissenschaftler nach 1933, durch die Vernichtung und Vertreibung jüdischer Intellektueller und Wis senschaftler und durch den nachfolgenden Krieg und die Probleme der Nachkriegszeit keine kontinuierliche wissenschaftliche Entwicklung erleben durfte, sondern in dieser Zeit (seit 1933) seine ehemalige wissenschaftliche Spitzenstellung auf fast allen Gebieten verlor. Diese politischen Bedingungen haben die Entwicklung in fast allen Wissen 2 Konrad Zuse baute in Deutschland den weltweit ersten Computer und er hatte viele bahnbrechende Ideen für dessen Anwendung, die unserem neuen Paradigma nahekamen, wie z. B. das Schachspiel oder das Programmieren in Logik. Und auch Karl Steinbuch diskutierte diese Ideen in seinem Buch ›Automat und Mensch‹ und wurde von Philosophen und Vertretern der Geisteswissenschaften genauso angegriffen wie wir KI-ler später – und zwar mit den gleichen Argumenten. Aber wegen der Rückstän digkeit der Wissenschaft in der Nazizeit und der unmittelbaren Nachkriegszeit in Deutschland haben sie nicht an der internationalen Forschungsgemeinschaft dieses bereits gut etablierten neuen Faches teilnehmen können. Das macht – leider – die Tragik der verpassten Chancen der KI in Deutschland aus.
221 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
schaftsgebieten vor und nach dem Zweiten Weltkrieg geprägt, und so ist es nicht verwunderlich, dass es die ersten Informatikstudiengänge und Fachbereiche praktisch erst Ende der sechziger Jahre gab, in Großbritannien und in den USA dagegen fast zwanzig Jahre früher3. Entsprechend konnten sich frühe Ansätze und Veröffentlichun gen zur KI nicht wirklich entfalten, und selbst als die Informatik dann verspätet eingerichtet wurde, war die damalige Ausrichtung der deutschen Informatik, der Psychologie und Philosophie einer Entwicklung der KI-Forschung nicht förderlich. Gemessen an den oben genannten Kriterien ist diese Zeit dadurch gekennzeichnet, dass 1. 2. 3. 4. 5.
es keine eigenen KI-Veranstaltungen gab, die KI keine eigene Organisationsform hatte, es an den Universitäten keine festen KI-Forschungsgruppen gab, sondern nur einzelne interessierte Wissenschaftler, die Forschung, soweit es sie überhaupt gab, von wenigen und isolierten Einzelwissenschaftlern erbracht wurde und den inter nationalen Stand nicht widerspiegelte, es kein industrielles Interesse gab, wenn man von einzelnen Entwicklungen (wie z. B. der Robotik) einmal absieht.
Frühgeschichte (bis etwa 1983) Um 1975 sah die Situation der KI in der Bundesrepublik bezüglich des dritten Kriteriums bereits anders aus: Es gab an den Universitäten Berlin, Bielefeld, Bonn, Erlangen, Hamburg, Karlsruhe, München, Stuttgart und Tübingen und am ›Institut für Deutsche Sprache‹ in Mannheim Forschergruppen meist jüngerer Mitarbeiter, die sich zur Bearbeitung bestimmter KI-relevanter Forschungsfragen und Als ich als Professor in Shanghai an der Fudan-Universität arbeitete, fiel mir auf, dass China ein ähnliches Schicksal erlebte: Die Kulturrevolution verbannte Akademiker und Intellektuelle aufs Land, wo viele verhungerten oder an harter Arbeit und Krankheiten starben, ein Grund für den Verlust der meisten großen akademischen Traditionen Chinas. Die Unterbrechung der wissenschaftlichen Kontinuität war in fast allen Fächern massiv zu spüren. Wissenschaft und Technologie erholten sich erst nach den Reformen von Deng Xiaoping 1986, die dann zur Wiederbelebung der alten Fächer sowie zur Gründung vieler neuer Gebiete, einschließlich der KI, führten. Für mich sind das ein weiterer Grund den heutigen Wiederaufstieg Chinas zu bewundern, nachdem ich das gleiche Muster in meinem Land gesehen habe. 3
222 https://doi.org/10.5771/9783495998847 .
Künstliche Intelligenz
-gebiete zusammengeschlossen hatten und begannen, ihre Ergebnisse zum Teil auch auf internationalen Konferenzen zu veröffentlichen. Etwa zur gleichen Zeit wurde auch eine eigene Organisations form für die KI als Fachgruppe in der Gesellschaft für Informatik (GI) gefunden und von Gert Veenker betreut. Dies war zwar ein sehr begrenzter Organisationsstatus, der aber wesentlich zu einer engeren Koordination der Wissenschaftler und zum weiteren Wachstum bei getragen hat. Als besonderes Ereignis in Bezug auf das erste Kriterium wurde in diesem Zeitabschnitt eine eigene KI-Veranstaltung ins Leben geru fen: 1975 rief Gert Veenker die deutschen Wissenschaftler zu einem kleinen KI-Workshop zusammen und diese Veranstaltung wurde von da an jährlich als ›German Workshop on Artificial Intelligence‹ (GWAI) abgehalten. Diese Veranstaltung spielte für Deutschland eine ähnliche Rolle wie die Dartmouth Conference für die USA – allerdings zwanzig Jahre später. Die Tagungsbände wurden als interne Berichte verschiedener Universitäten herausgebracht. Ebenso wurde 1976 von Woody Bledsoe und Michael Richter am Mathematischen Forschungsinstitut in Oberwolfach die erste Tagung zum Automa tischen Beweisen abgehalten, die zu der heutigen renommierten CADE-Tagungsreihe führte. Ab 1975 besorgte Hans-Helmut Nagel die Herausgabe eines Informationsblattes, Rundbrief für die KI, das für den weiteren Aufbau der KI und den Zusammenschluss der beteiligten Wissenschaftler von großer Bedeutung war. Dieser lose Rundbrief erschien ab 1977 unter dem neuen Herausgeber Wolfgang Bibel als gebundene Zeitschrift und aus diesen Anfängen ging später die deutsche Zeitschrift für Künstliche Intelligenz des Springer Verla ges hervor. An einigen Universitäten (Berlin, Bonn, Hamburg, Karlsruhe, München und Stuttgart) wurden die ersten Vorlesungen und Semi nare zu ausgewählten Themen der KI abgehalten, der erste vierse mestrige KI- Kursus wurde von Gert Veenker in Bonn angeboten. Es gab jedoch wenig nennenswertes Interesse der Industrie. Zusammenfassend kann man sagen, dass: 1. 2. 3.
es inzwischen eigene KI-Veranstaltungen und Vorlesungen gab, die KI eine eigene Organisationsform in der Gesellschaft für Informatik hatte, es an den Universitäten erste feste KI-Forschungsgruppen gab, die
223 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
4. 5.
auf internationalen Tagungen publizierten, und es kaum industrielles Interesse gab.
Geschichte (von 1983 bis in die 90er Jahre) Von 1983 an änderten sich die Rahmenbedingungen dieser eher informellen und wenig etablierten Aktivitäten stark: Zunehmend mehr Professuren wurden in der Bundesrepublik Deutschland in thematisch verwandten Gebieten durch Wissenschaftler aus dem KIBereich besetzt und 1983 wurde (in Kaiserslautern) die erste deutsche Professur für Künstliche Intelligenz ausgeschrieben und besetzt. In der Folge gab es immer mehr feste universitäre Forschungsgruppen, die durch eine professorale Leitung verstetigt waren und durch konti nuierliche Arbeiten auf Teilgebieten der KI zunehmend internationale Anerkennung fanden (vor allem auf den Gebieten der Sprachverarbei tung, der Bildverarbeitung und der Deduktionssysteme). Eine wichtige Vorreiterrolle und ein Zeichen für die veränderten Förderbedingungen wird dem Sonderforschungsbereich 314, Künstli che Intelligenz – Wissensbasierte Systeme (Sprecher Peter Deussen), zugeschrieben, der auf eine Initiative von Peter Raulefs, Jörg Siekmann und Wolfgang Wahlster zurückging und indirekt auch wesentlich zur Gründung der KI-Institute beitrug. Dieser SFB, der von Größe, Fördervolumen und Ortsprinzip alle damaligen DFG-Vorstellungen sprengte (ca. dreimal so groß wie ein normaler SFB, vier Institutionen in drei Bundesländern, ein im Grunde viel zu weites Arbeitsgebiet), wurde nicht zuletzt durch eine zweckgebundene Fördersumme der Bundesregierung an die DFG von insgesamt 100 Millionen DM »zur Verstärkung der Grundlagenforschung auf dem Gebiet der Informati onstechnik« 4 über das BMFT ermöglicht. Die Vorbereitungen dazu begannen 1983, die erste Förderperiode startete im Januar 1985 an den Universitäten Karlsruhe, Kaiserslautern und Saarbrücken5. Bald danach wurde die KI-bezogene Forschung durch die BMFTVerbundprojekte sowohl in der Industrie als auch an den Univer sitäten weiter verstärkt. Hinzu kam ab 1985 die Etablierung von KI-Forschungsgruppen in der Industrie, zum Beispiel LILOG, die Regierungsbericht 1984, pp. 68. Weitere Sonderforschungsbereiche der KI waren der SFB 360 (Bielefeld) und der SFB 378 (Kaiserslautern, Saarbrücken).
4 5
224 https://doi.org/10.5771/9783495998847 .
Künstliche Intelligenz
bedeutendste deutsche Industrieforschungsgruppe unter der Leitung von Otthein Herzog und Claus Rollinger bei IBM, die KI-Abteilungen bei Siemens, Nixdorf, AEG-Telefunken, VW, ADV-Orga, DANET, BASF und anderen Firmen der Datenverarbeitung. Die Industrie hatte die KI entdeckt und einige der wichtigsten Führungskräfte der Industrie gaben aktive Unterstützung, wie Heinz Schwärtzel bei der Firma Siemens, Heinz Nixdorf oder Hans-Olaf Henkel in der IBM Deutschland. Von besonders herausragender Bedeutung war die Ausschrei bung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) durch das BMFT mit einer Fördersumme von fast 200 Mil lionen DM über einen Zeitraum von 10 Jahren. Das DFKI wurde als GmbH unter der Beteiligung vieler namhafter DV-Firmen in Kai serslautern gegründet und zunächst von Wolfgang Barth und später von Wolfgang Wahlster geleitet. Ebenso gründeten die Bundesländer das FORWISS (Bayrische Forschungszentrum für Wissensbasierte Systeme), das FAW (Forschungsinstitut für anwendungsorientierte Wissensverarbeitung) in Ulm, die KI-Forschergruppe in der GMD (dem Forschungsinstitut der Gesellschaft für Mathematik und Daten verarbeitung) und das LKI (Labor für Künstliche Intelligenz) in Hamburg. Diese Institute koordinierten ihre Arbeit in der im Oktober 1900 gegründeten AKI (Arbeitsgemeinschaft der deutschen KI-Insti tute), sie sind aber nach und nach geschlossen worden. Die Veränderung des Charakters der Forschungsaktivitäten ist auch gemäß den anderen Kriterien erstaunlich zeitgleich belegt: Die Umorganisation der GI Anfang der achtziger Jahre brachte die Anhebung der KI-Fachgruppe zum Fachausschuss 1.2 im Fachbereich Grundlagen der Informatik, die von Bernd Neumann und Jörg Siek mann mit der GI verhandelt wurde. Der Vertreter der GI war Wilfried Brauer, der durch seine weitsichtige und liberale Wissenschaftspolitik zusammen mit Hans-Helmut Nagel und Walter von Hahn schon in Hamburg dafür Sorge trug, dass sich die jungen KI-Wissenschaftler dort nicht als Außenseiter fühlen mussten und Hamburg bald zu einer der ersten deutschen Hochburgen der KI-Forschung wurde. Das war leider nicht an allen deutschen Informatikstandorten der Fall und trug in der Folge viel zum »Bruderzwist« und »Ihr-und-Wir-Gefühl« in den teilweise heftigen Auseinandersetzungen bei. Wenig später wurden die deutschen Wissenschaftler als eigen ständige Gruppe in der europäischen KI-Organisation ECCAI (Euro pean Coordinating Committee for Artificial Intelligence, heute EurAI)
225 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
etabliert. Die ECCAI war als europäisches Pendant zu den (dominie renden) amerikanischen Organisationen unter anderen von Wolfgang Bibel gegründet und in der wichtigen Aufbauphase von ihm geprägt worden. Die EurAI ist neben der American Association for Artificial Intelligence (AAAI) und der internationalen IJCAI (International Joint Conference on Artificial Intelligence, Inc.) eine der wichtigsten Fachverbände geworden, mit einer besonderen Organisationsform: die EurAI ist eine Gesellschaft von nationalen Gesellschaften. Sie ist repräsentiert durch das Board der EurAI mit eigenen Webseiten, einem Einkommen aus Mitgliedsbeiträgen und Konferenzen und besteht heute aus fast dreißig nationalen europäischen Mitglieder organisationen. Alle zwei Jahre findet eine große europäische KIKonferenz statt, die European Conference on Artificial Intelligence (ECAI), die inzwischen an Umfang und Qualität der amerikanischen KI-Konferenz AAAI und der IJCAI gleichwertig ist. Noch deutlicher sind in diesem Zeitabschnitt die Veränderungen hinsichtlich des ersten Kriteriums: 1983 wurde die KI-Jahrestagung mit eigenem Tagungsband zum ersten Mal als offizielle Veranstal tung der GI von Jörg Siekmann organisiert und von da an jährlich zunächst unter der Bezeichnung GWAI (German Workshop on Arti ficial Intelligence) abgehalten. Die Tagungsbände erscheinen heute in den renommierten Lecture Notes on Artificial Intelligence (LNAI). 1982 wurde von Wolfgang Bibel und Jörg Siekmann die erste Frühjahrsschule für Künstliche Intelligenz (KIFS) ausgerichtet, die von nun an jährlich bis 1996 durchgeführt6 wurde. Sie war ein wichtiger Beitrag zur Ausbildung, durch die viele Studenten und fast alle der heute etablierten KI-Wissenschaftler erstmals mit der KI in Berührung kamen. Für August 1983 wurde die International Joint Conference on Artificial Intelligence (IJCAI) nach Karlsruhe vergeben und von Peter Raulefs, Jörg Siekmann und Graham Wright son geleitet. Dies war das erste Mal seit dem Zweiten Weltkrieg, dass eine internationale Konferenz von dieser Größe (mit fast 7000 Teilnehmern) und Bedeutung für die Informatik in unserem Land abgehalten wurde. Seit 1985 kam der von Wilfried Brauer organisierte internationale GI-Kongress über wissensbasierte Systeme hinzu und auch die GI-Jahreskonferenzen nahmen zunehmend KI-Themen auf. Ebenso wurde die damals renommierteste europäische KI-Tagung, die AISB, nach Hamburg vergeben und von Hans-Helmut Nagel geleitet. 6
Danach als International College weitergeführt, siehe http://www.ipke.de/KIFS/.
226 https://doi.org/10.5771/9783495998847 .
Künstliche Intelligenz
Japans Frontalangriff auf die wirtschaftliche Überlegenheit des Westens mit dem Computerprogramm der fünften Generation, das weitgehend auf KI-Technologien und der Logikprogrammierung basierte, weckte große Erwartungen und Ängste und das Thema wurde auch für Deutschland immer dringlicher. Es schreckte die Industrie und die europäischen Förderinstitutionen gleichermaßen auf und war der Auslöser für die Gründung des Forschungsinstituts ECRC in München durch die drei führenden europäischen Datenver arbeitungsunternehmen Siemens aus Deutschland, Bull aus Frank reich und ICL für Großbritannien. Die Industrie hatte die KI entdeckt und einige der wichtigsten Führungskräfte der Industrie unterstützten sie aktiv. Nicht nur dadurch war die KI plötzlich zum Medienereig nis geworden. In diese Zeit fiel die wichtigste organisatorische Veränderung: die von Jörg Siekmann durchgesetzte Anhebung des Fachausschus ses Künstliche Intelligenz zu einem eigenen Fachbereich in der GI. Dadurch wurde die Struktur der deutschen Informatik verändert und war danach in vier Bereichen aufgebaut: FB O: Theoretische Informatik, FB 1: Künstliche Intelligenz, FB 2: Praktische Informa tik (Software), FB 3: Technische Informatik (Hardware)7. Die mit Leidenschaft und Härte geführte Sitzung des Präsidiums der GI war wegweisend: Damit wurde die KI in Deutschland angemessen in die Informatik integriert und nicht – wie in den angelsächsischen Ländern und wie in einigen anderen europäischen Ländern – als eigene Wissenschaftsorganisation aufgebaut. Dies war sicher zum Vorteil beider Gebiete, der Informatik und der KI, zumal die KI sich ohnehin immer stärker naturwissenschaftlich-technisch orientierte und die geisteswissenschaftlichen Aspekte vornehmlich in der neu gegründe ten Kognitionswissenschaft (Cognitive Science) behandelt wurden. Umgekehrt fanden immer mehr Teilgebiete der KI ihren Eingang in die klassische Informatik und wurden entweder in bereits bestehende Gebiete integriert (z. B. Datenbanken und Wissensrepräsentation, Deduktion und Verifikation u. a. m.) oder als Informatikgebiete akzeptiert (Sprachverarbeitung, Computersehen, Robotik, Deduktion oder Multiagentensysteme u. a.). Obwohl große Teile der deutschen Informatik diesen Struktur wandel leidenschaftlich bekämpften, gab es doch einflussreiche und mächtige Vertreter der Professorenschaft (u. a. Günter Hotz, Hans7
Die Struktur ist später immer wieder verändert worden, siehe https://gi.de/.
227 https://doi.org/10.5771/9783495998847 .
Jörg Siekmann
Helmuth Nagel, Wilfried Brauer, Peter Deussen), der Förderinstitutio nen (Herr Leppien von der DFG und die Herren Isensee, Marx und Reuse vom BMBF/BMFT), der Wirtschaft (u. a. Siemens, Daimler, Nixdorf und IBM) und der Großforschungsinstitutionen (Max Syrbe, Fraunhofer-Gesellschaft), die durch ihren Einfluss eine Mehrheitsent scheidung bewirkten. Der damalige GI-Präsident, Heinz Schwärtzel von der Firma Siemens, der die Sitzung leitete, hat ebenfalls wesent lich zu diese Entscheidung beigetragen. An fast allen Informatikfachbereichen und an einigen Philoso phie- bzw. Psychologieabteilungen gab es nun Professorenstellen für Teilgebiete der KI, und einige Universitäten hatten sich deutlich als Hochburgen für die KI-Forschung mit jeweils vierzig bis fünfzig wis senschaftlichen Mitarbeitern herausbilden können (Berlin, Erlangen, Hamburg, Kaiserslautern, Karlsruhe, München, Saarbrücken und Ulm). Die Ausstattung dieser Forschungsgruppen (u. a. mit Spezial hardware, einer »kritischen Masse« an Mitarbeitern usw.) war um 1990 der Ausstattung der amerikanischen Eliteuniversitäten (MIT, Stanford, CMU, Cornell) vergleichbar, zum Teil sogar überlegen. Die deutsche KI-Forschungslandschaft, d. h. die universitären und außeruniversitären KI-Forschungsinstitutionen und deren Ver netzung mit den Entwicklungs- und Forschungsabteilungen der deut schen Industrie, war inzwischen respektabel geworden und hoch angesehen und viele von uns KI-lern haben als Regierungsberater und Gutachter bei dem Aufbau der KI in anderen Ländern mitwirken dürfen. Zum ersten Mal war es in Europa gelungen, die KI von der Grundlagenforschung an den Universitäten über die freien For schungsinstitute bis hin zu den Entwicklungsabteilungen der Indus trie als F&E-Kette auf nationaler Ebene zu organisieren. Durch die IJCAI-83 in Karlsruhe angestoßen und durch das japa nische Fifth Generation Computer Programm beeinflusst, nahmen auch die deutschen Medien zunehmend Artikel und Analysen zur KI in ihr Programm auf und bewirkten, nicht zuletzt unter Mitwirkung engagierter KI-Wissenschaftler, eine Akzentuierung im Meinungs bild der deutschen Öffentlichkeit und mit gebotener Verzögerung dann auch ein Umdenken an den deutschsprachigen Hochschulen (BRD, Österreich und Schweiz).
228 https://doi.org/10.5771/9783495998847 .
Künstliche Intelligenz
Die neunziger Jahre: Die Revolution entlässt ihre Kinder. In den 1990er Jahren hatten fast alle Informatik-Fachbereiche und einige Philosophie- oder Psychologie-Fachbereiche akademische Mit arbeiter in Teilbereichen der KI, und einige Universitäten hatten sich eindeutig als Hochburgen der KI-Forschung herausgebildet. Die Aus stattung dieser Forschungsgruppen (einschließlich spezieller Hard ware, unterstützendem technischem Personal usw.) war vergleichbar mit den besten amerikanischen Universitäten wie etwa dem MIT, Stanford oder der CMU und ähnlich in Oxford, Essex, Sussex oder Edinburgh in Großbritannien. Viele der deutschen Wissenschaftler aus den Anfangsjahren der KI konnten sich international etablieren und auszeichnen: Die Auf holjagd von den bescheidenen Anfängen nach dem Zweiten Weltkrieg war geglückt und Deutschland war in die internationale Forschungs gemeinschaft aufgenommen worden. Die KI-Forschung in der heutigen Zeit ist allerdings durch andere Maßstäbe charakterisiert: Der Wettkampf zwischen den USA und China um die technologische Vorherrschaft in der Welt, in dem Europa seine Eigenständigkeit sucht, verlangt jedoch finanzielle und organisatorische Dimensionen im Milliardenbereich, die wir uns in den Gründerjahren so nicht vorstellen konnten. Referenzen: Ich habe inzwischen mit meinem Kollegen Peter Raulefs aus den USA einen sehr viel ausführlicheren und detaillierteren Arti kel auf Englisch geschrieben, der auch mit den entsprechenden biblio grafischen Angaben versehen ist. Dieser Artikel wird voraussichtlich in der Zeitschrift ›Künstliche Intelligenz‹ und der Schriftenreihe des Deutschen Museums in München erscheinen.
229 https://doi.org/10.5771/9783495998847 .
https://doi.org/10.5771/9783495998847 .
Kurzbiografien
Thomas Heinemann, Prof. Dr. med. Dr. phil. Thomas Heinemann ist Professor für Ethik, Theorie und Geschichte der Medizin an der Philosophisch-Theologischen Hochschule / Vinzenz Pallotti University, Vallendar. Gregor Maria Hoff, Prof. Dr. Gregor Maria Hoff ist Professor für Fundamentaltheologie und Ökumene an der Universität Salzburg. Wim Kösters, Prof. Dr. Wim Kösters ist ehemaliges Vorstandsmitglied des RWI – Leibniz-Institut für Wirtschaftsforschung und emeritierter Professor für Volkswirtschaftslehre der Ruhr-Universität Bochum. Ulrich Lüke, Prof. Dr. Ulrich Lüke ist emeritierter Professor für Systematische Theologie der RWTH Aachen und leitender Krankenhauspfarrer am St. Franziskus-Hospital Müns ter. Gregor Nickel, Prof. Dr. Gregor Nickel ist Professor für Philosophie der Mathematik an der Universi tät Siegen. Thomas M. Schmidt, Prof. Dr. Thomas M. Schmidt ist Professor für Religionsphilosophie an der GoetheUniversität Frankfurt. Jörg Siekmann, Prof. Dr. Jörg Siekmann ist ehemaliger Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Seniorprofessor der Informatik und Künstlichen Intelligenz an der Universität des Saarlandes.
231 https://doi.org/10.5771/9783495998847 .
Manfred Stöckler, Prof. Dr. Manfred Stöckler ist emeritierter Professor für Theoretische Philosophie und Philosophie der Naturwissenschaften an der Universität Bremen. Eva-Maria Streier, Dr. Eva-Maria Streier ist ehemalige Direktorin der Deutschen Forschungsgemein schaft (DFG) für Presse- und Öffentlichkeitsarbeit.
232 https://doi.org/10.5771/9783495998847 .