119 37
German Pages 256 [248] Year 2023
Andreas Bartels
Grundprobleme der modernen Naturphilosophie 2. Auflage
Grundprobleme der modernen Naturphilosophie
Andreas Bartels
Grundprobleme der modernen Naturphilosophie 2., vollständig überarbeitete und aktualisierte Auflage
Andreas Bartels Institut für Philosophie, Universität Bonn Bonn, Deutschland
ISBN 978-3-662-67125-2 ISBN 978-3-662-67126-9 (eBook) https://doi.org/10.1007/978-3-662-67126-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Ursprünglich erschienen als Uni-Taschenbuch bei UTB/Ferdinand Schöning, Paderborn, 1996 1. Auflage: © Ferdinand Schöningh GmbH, Paderborn 1996 2. Auflage: © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Andreas Rüdinger Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Inhaltsverzeichnis
1 Zur Einführung: Was ist moderne Naturphilosophie?. . . . . . . . . . . . . 1 1.1 Ursprünge der modernen Naturphilosophie. . . . . . . . . . . . . . . . . . . . 2 1.2 Naturphilosophische Fragen in diesem Buch . . . . . . . . . . . . . . . . . . 4 1.3 Wozu moderne Naturphilosophie?. . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1 Einleitung: Die Debatte über die Realität des Raums. . . . . . . . . . . . 11 2.2 Der Begriff des Raums. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.3 Die Leibniz-Clarke-Debatte über die Realität des Raums. . . . . . . . . 16 2.4 Die Realität der Raumzeit in der allgemeinen Relativitätstheorie. . . 22 2.5 Ein neues Leibniz-Argument. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.6 Ontologische Optionen des Raumzeit-Substanzialismus. . . . . . . . . . 30 2.7 Geometrische versus dynamische Interpretation der Raumzeit. . . . . 33 2.8 Zeichnen die Relativitätstheorien ein Bild der Welt?. . . . . . . . . . . . . 38 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3 Zeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.1 Einleitung: Zum Begriff der Zeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.2 Zeitmessung und physikalische Zeit. . . . . . . . . . . . . . . . . . . . . . . . . 45 3.3 Zeit in der relativistischen Welt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.4 Unterschiede zwischen Raum und Zeit. . . . . . . . . . . . . . . . . . . . . . . 51 3.5 McTaggarts Argument der Irrealität der Zeit. . . . . . . . . . . . . . . . . . . 53 3.6 Präsentismus und Eternalismus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.7 Die Richtung der Zeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4 Materie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 4.1 Einleitung: Revision des Materiebegriffs. . . . . . . . . . . . . . . . . . . . . . 73 4.2 Interferenzen und der Welle-Teilchen-Dualismus. . . . . . . . . . . . . . . 74 4.3 Das Rätsel des Messprozesses. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.4 Interpretationen der Quantenmechanik. . . . . . . . . . . . . . . . . . . . . . . 84 4.5 Bell’sche Ungleichung und Nicht-Lokalität . . . . . . . . . . . . . . . . . . . 91
V
VI
Inhaltsverzeichnis
4.6 Sind Quantenobjekte Individuen?. . . . . . . . . . . . . . . . . . . . . . . . . . . 96 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5 Komplexität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.1 Einleitung: Komplexität als Phänomen der Natur. . . . . . . . . . . . . . . 101 5.2 Reduktive Strategien der Wissenschaft . . . . . . . . . . . . . . . . . . . . . . . 103 5.3 Pro und contra Reduktionismus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 5.4 Selbstorganisation und die Rolle der Randbedingungen. . . . . . . . . . 111 5.5 Der Begriff des Chaos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.6 Chaos in Aktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 6 Leben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 6.1 Einleitung: Leben als historischer Prozess . . . . . . . . . . . . . . . . . . . . 127 6.2 Das Selektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 6.3 Worauf wirkt die natürliche Selektion?. . . . . . . . . . . . . . . . . . . . . . . 132 6.4 Adaptation, Funktion und Fitness . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 6.5 Spezies: Natürliche Arten oder historische Individuen? . . . . . . . . . . 140 6.6 Kooperation oder Kampf ums Dasein?. . . . . . . . . . . . . . . . . . . . . . . 147 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 7 Geist. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 7.1 Einleitung: Geist in der Natur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 7.2 Die Ontologie mentaler Zustände . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 7.3 Intentionalität: Sich auf die Welt beziehen . . . . . . . . . . . . . . . . . . . . 159 7.4 Repräsentationen: Wissen über die Welt erwerben . . . . . . . . . . . . . . 166 7.5 Begriffe bei Tieren?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 8 Bewusstsein. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8.1 Einleitung: Der Blick nach innen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8.2 Das Rätsel des Bewusstseins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 8.3 Chalmers Eigenschaftsdualismus. . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 8.4 Dennetts Qualia-Skepsis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 8.5 Repräsentationstheorien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 8.6 Empirische Theorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 8.7 Selbstbewusstsein. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 8.8 Bewusstsein bei Tieren?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 9 Umwelt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 9.1 Einleitung: Unser praktisches Verhältnis zur Natur. . . . . . . . . . . . . . 213 9.2 Natur und Ethik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 9.3 Ethischer Naturalismus: Der physiologische Naturbegriff . . . . . . . . 217 9.4 Pflichten gegen die Natur?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 9.5 Umweltethik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Inhaltsverzeichnis
VII
9.6 Klimaethik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 9.7 Rechte für Tiere?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1
Zur Einführung: Was ist moderne Naturphilosophie?
Dieses Buch soll als eine Einführung in die moderne Naturphilosophie gelesen werden können. Was unter diesem Begriff zu verstehen ist, ob gegenwärtig noch eine Form der Naturphilosophie denkbar ist und welche Leistungen von ihr zu erwarten sind, bedarf freilich der Erläuterung. Während die Erwartungen an eine Einführung in die Sprachphilosophie oder Erkenntnistheorie nicht dramatisch divergieren werden, ist der Begriff der „Naturphilosophie“ geeignet, sehr unterschiedliche Assoziationen auszulösen. Dies hängt damit zusammen, dass frühere Formen der Naturphilosophie, wenn man an die griechische Antike, die Philosophie der französischen Aufklärung, den klassischen deutschen Idealismus oder die Romantik denkt, entweder spekulativ spätere Wissenschaft vorwegnahmen oder sich als Gegenentwurf zur beginnenden empirischen Naturforschung verstanden. Das Ziel dieses Buches ist es nicht, an die historischen Formen der Naturphilosophie anzuknüpfen – ohne dabei die Vielzahl inspirierender Ideen zu vergessen, die sie hervorgebracht haben. Wenn ich auf eine systematische Darstellung der Geschichte der Naturphilosophie in diesem Buch verzichte, so nicht deswegen, weil ich die Traditionen metaphysischen Denkens über die Natur für folgenlos oder unerheblich hielte. Im Gegenteil, viele Bestandteile metaphysischen Denkens sind tief in unser allgemeines Denken über die Natur eingedrungen. Begriffe der Substanz, wie sie von Aristoteles, Leibniz u. a. entwickelt wurden, sind als Bezugspunkte noch in der modernen Diskussion über die Substanzialität von Raum und Zeit präsent (vgl. Kap. 2 und 3) und Diderots Plädoyer, den Formenreichtum der Natur in den Fokus der Naturbeschreibung zu rücken, ist erst in der modernen Komplexitätsforschung neu zur Geltung gekommen (vgl. Kap. 5). Heute kann Naturphilosophie allerdings nicht mehr als Konkurrenzunternehmen zur Naturwissenschaft, sondern nur noch in Kooperation mit den verschiedenen Naturwissenschaften betrieben
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 A. Bartels, Grundprobleme der modernen Naturphilosophie, https://doi.org/10.1007/978-3-662-67126-9_1
1
2
1 Zur Einführung: Was ist Moderne Naturphilosophie?
werden. Aber wie kann diese Kooperation funktionieren und welche Aufgabe fällt dabei der Naturphilosophie zu? Ein Blick auf die neuere Geschichte naturphilosophischen Denkens mag dabei helfen, diese Frage zu beantworten.
1.1 Ursprünge der modernen Naturphilosophie Nachdem die vom deutschen Idealismus und der Romantik geprägte Naturphilosophie in der zweiten Hälfte des 19. Jahrhunderts einen raschen Niedergang erlebt hatte – nicht zuletzt aufgrund der verheerenden Einschätzung durch den überwiegenden Teil der Naturwissenschaften1 –, ist die philosophische Reflexion innerhalb der empirischen Wissenschaften keineswegs zum Erliegen gekommen. Sie nimmt aber nun, vor allem in der Physik, die Form erkenntnistheoretischer und methodischer Reflexion über die Grundlagen der Wissenschaft an. Im Vordergrund stehen Fragen nach dem logischen Aufbau erfahrungswissenschaftlicher Theorien, nach der Art und Weise, wie sprachliche und mathematische Zeichen unser Wissen über die Natur organisieren und worin der Wahrheitsgehalt wissenschaftlicher Aussagen besteht. Beispiele dafür sind die Werke von Hermann von Helmholtz, Henri Poincaré und Pierre Duhem. In den ersten Jahrzehnten des 20. Jahrhunderts entstand parallel zu den revolutionären und teilweise irritierenden Einsichten über die Natur, zu denen Relativitätstheorien und Quantentheorie geführt hatten, auch ein neues Interesse an naturphilosophischer Reflexion, die nach dem Bild der Welt fragte, wie es von diesen neuen Theorien entworfen wurde. Die ontologische Interpretation dieser Theorien war offenbar keineswegs eindeutig (und ist es bis heute nicht) und es wurde zu einem Teil wissenschaftlicher Forschung selbst, zu klären, was in Begriffen dieser Theorien über die Welt ausgesagt wird. In kaum einer Epoche der Physik lebten so viele herausragende Physiker und Physikerinnen, die dezidiert – und ausgestattet mit philosophischem Bildungshintergrund – nach der philosophischen Bedeutung ihrer wissenschaftlichen Theorien suchten. Albert Einstein, Erwin Schrödinger und Niels Bohr verwendeten in ihren physikalischen Argumenten Annahmen über die Beschaffenheit der Natur und über die Art und Weise, wie Begriffe einer Theorie mit Objekten der Natur zu verknüpfen sind – ohne deshalb selbst diese Überlegungen als „naturphilosophisch“ zu etikettieren. Wenn die modernen Theorien der Physik abstrakten Bauplänen gleichen, so besteht das naturphilosophische Interesse darin, eine Vorstellung des Gebäudes zu entwickeln, das durch diese Baupläne skizziert wird. Gerade in ihrer
1 Ein
drastisches Beispiel dafür ist das im Jahr 1874 von Justus von Liebig ausgesprochene Urteil: „Die Thätigkeit, das Wirken der Naturphilosophen war die Pestilenz, der schwarze Tod des Jahrhunderts“ (Liebig 1874, S. 24).
1.1 Ursprünge der Modernen Naturphilosophie
3
ntstehungsphase werden über neue wissenschaftliche Theorien oft intensive E naturphilosophische Auseinandersetzungen geführt. So versuchte Niels Bohr, den Besonderheiten der neuen Quantentheorie gerecht zu werden, indem er eine strikte Trennung postulierte zwischen einer grundsätzlich verborgenen Natur der Quantenwelt und ihren Erscheinungen, die mithilfe klassischer Messgrößen beschrieben werden. Albert Einstein attestierte der Theorie hingegen, Quantenobjekte im Widerspruch zu allgemeingültigen Annahmen über die Natur zu beschreiben. Auf diese Weise fanden die wichtigsten naturphilosophischen Debatten der Zeit innerhalb der Naturwissenschaft selbst statt. Die Impulse, die von diesen Debatten ausgingen, wurden von Philosophen wie Hermann Weyl und Hans Reichenbach aufgenommen – und es entstanden erste Werke wie Hans Reichenbachs Philosophie der Raum-Zeit-Lehre von 1928, in denen die naturphilosophischen Konsequenzen der neuen Theorien ausgearbeitet wurden. Diese moderne Traditionslinie einer an den Naturwissenschaften orientierten Naturphilosophie ist in Deutschland in den 1930er Jahren infolge der Emigration wesentlicher Philosophen und Philosophinnen, die sie vertraten, abrupt unterbrochen worden – sie lebte v. a. in den Vereinigten Staaten in der dort entstehenden Philosophy of Science fort und hat erst zu Beginn der 1970er Jahre in Deutschland wieder Fuß gefasst. Es ist diese moderne Tradition einer durch Fragen der naturwissenschaftlichen Forschung hervorgerufenen und mit dieser in engem Wechselverhältnis sich weiterentwickelnden naturphilosophischen Reflexion, die der in diesem Buch verwendete Begriff der „modernen Naturphilosophie“ in erster Linie meint. Es geht dieser Form der Naturphilosophie nicht mehr um eine „Grundlegung“ der Naturwissenschaft, um das Aufdecken vermeintlich apriorischer Grundsätze naturwissenschaftlicher Forschung – nur zu deutlich haben die Theorien des 20. Jahrhunderts gezeigt, dass es keine grundlegenden Begriffe und Annahmen der Naturwissenschaften gibt, die dauerhaft vor Revision und Widerlegung geschützt wären. Es ist auch nicht Aufgabe der Naturphilosophie, ein vermeintlich „tieferes“ Verständnis der Natur anzustreben, als es durch empirische Forschung erlangt werden kann. Spekulative Ideen haben in der naturwissenschaftlichen Forschung durchaus ihren Platz, aber die Methoden empirischer Überprüfung sorgen dafür, dass nur solche Ideen dauerhaft überleben, die sich als fruchtbar und empirisch tragfähig erweisen. Der Naturphilosophie, so wie sie in diesem Buch verstanden wird, geht es vielmehr darum, unser Bild der Natur, einschließlich unseres Selbstverständnisses als Naturwesen, an dem, was uns die Naturwissenschaften über die Welt mitteilen, zu überprüfen und es, wo nötig, zu korrigieren. Naturphilosophische Reflexion hat die Aufgabe, die geistige Dimension naturwissenschaftlicher Forschung zu erschließen – jene Gehalte, die unser allgemeines Denken über die Natur informieren und uns als Menschen in der Natur zu verorten helfen. Wie der kurze Überblick über die Ursprünge der modernen Naturphilosophie gezeigt hat, ist diese Aufgabe nicht der Philosophie vorbehalten, sondern auch Teil naturwissenschaftlicher Forschung selbst.
4
1 Zur Einführung: Was ist Moderne Naturphilosophie?
1.2 Naturphilosophische Fragen in diesem Buch Wir haben in Abschn. 1.1 von naturphilosophischer Reflexion gesprochen. Jede Reflexion beginnt mit einer Frage. Einige der Fragen, um die es der modernen Naturphilosophie geht, werden durch naturwissenschaftliche Forschung aufgeworfen, ja häufig erst entdeckt, sie können aber nicht allein mithilfe naturwissenschaftlicher Methoden beantwortet werden – in diesem Fall werden sie zum Gegenstand naturphilosophischer Reflexion. Die Beantwortung dieser Fragen ist nicht etwas, was man tun oder lassen könnte, ohne den Fortschritt der Naturwissenschaften selbst infrage zu stellen. Schließlich wollen wir auch wissen, welche Art von Wissen über die Natur uns eine naturwissenschaftliche Theorie vermittelt, selbst wenn wir hier und dort vorläufig ratlos bleiben, weil herkömmliche Weisen, Naturobjekte zu verstehen, sich als unzulänglich erweisen. In diesem Buch werden wir einige solcher durch moderne naturwissenschaftliche Theorien aufgeworfenen Fragen behandeln, z. B. die Frage danach, wie die Quantentheorie als Darstellung der physikalischen Welt zu interpretieren ist (Kap. 4: Materie). Ausgelöst wird diese Frage durch die einschneidende Revision, die der Begriff der Materie in der Quantentheorie erfahren hat. Diese Revision hat – anders als manche populärwissenschaftliche Darstellung es suggeriert – nicht etwa das Auftreten des „Subjekts“ in der vormals objektiven Naturbeschreibung zum Gegenstand, sondern den offenkundigen Widerspruch zur Lokalitätsannahme der klassischen Physik. Die verschränkten Systeme der Quantentheorie folgen nicht mehr der Vorstellung, dass der Zustand eines materiellen Systems allein von seinen lokal bestimmten inneren Eigenschaften abhängt. Dass dies keine vorübergehende Paradoxie der Physik darstellt, demonstriert der Beweis von John Bell: Er besagt, dass Nicht-Lokalität ein bleibendes Merkmal sein wird – ein Merkmal jeder Theorie, der es gelingt, den experimentellen Erfolg der Quantentheorie zu reproduzieren. Andere Fragen der Naturphilosophie wurden nicht erst durch moderne Theorien angestoßen, sondern sind seit der Antike über die Jahrhunderte hinweg präsent gewesen. In ihnen artikuliert sich alltägliches Denken über die Natur, ohne dabei auf bestimmte wissenschaftliche Theorien zu rekurrieren. Fragen dieser Art, die sich auf allgemeine Kategorien wie Raum, Zeit oder Materie beziehen, lassen sich heute, wenn sie mit Aussagen wissenschaftlicher Theorien konfrontiert werden, differenzierter und präziser formulieren. Und häufig werden neue Möglichkeiten ihrer Beantwortung sichtbar. Ein Beispiel dafür ist in Kap. 3: Zeit die Frage, ob der zeitliche Wandel ein fundamentales Prinzip der Welt widerspiegelt oder nur die begrenzte Perspektive von Wesen, die in einem zeitlos existierenden Universum leben (Eternalismus). Das Alltagsdenken scheint uns zu sagen, dass wir in einer Welt mit offener Zukunft leben – Gegenwärtiges (und in gewissem Sinn auch Vergangenes) ist real, während Zukünftiges erst real werden muss (Präsentismus). Die sprachlichen Modi der Zeit – „vergangen“, „gegenwärtig“ und „zukünftig“ – sind Ausdruck für diese scheinbar selbstverständliche Auffassung. Die spezielle Relativitätstheorie setzt aber
1.2 Naturphilosophische Fragen in diesem Buch
5
genau dieser Auffassung Grenzen: Der Verlust eines globalen Begriffs der Gleichzeitigkeit hat zur Folge, dass entweder auch Zukünftiges als real zu gelten hat oder dass unsere Unterscheidung von Gegenwart und Zukunft Beobachter-abhängig wird. Eine wissenschaftliche Theorie hat hier zu einer sehr nachhaltigen Irritation unseres Alltagsdenkens über die Natur geführt. Abschn. 3.6 erwägt die Alternativen, die uns in dieser Situation bleiben. Es wird sich herausstellen, dass die Relativitätstheorie uns nicht auf eine der beiden konträren Auffassungen festlegt: Wir können das Universum weiterhin als ein zeitloses Ganzes denken – innerhalb dessen wir uns als Wesen bewegen, die zeitlichen Wandel und eine offene Zukunft erleben – oder als eine selbst im Werden begriffene Welt. Weder die eine noch die andere Auffassung löst allerdings eines der rätselhaftesten Probleme, die mit der Zeit und dem Zeiterleben verknüpft sind: das Problem des Ursprungs der Richtung der Zeit, der fundamentalen Verschiedenheit von Vergangenheit und Zukunft. Den verschiedenen Ansätzen, dieses Problem zu lösen, werden wir in Abschn. 3.7 nachgehen. Eine wechselhafte, zwischen Physik und Philosophie hin und her wandernde Problemgeschichte besitzt die Frage, ob der Raum eine eigenständige Entität (eine Substanz) ist oder eine Struktur, die durch Beziehungen zwischen materiellen Dingen aufgespannt wird und daher keine Existenz unabhängig von ihnen besitzt. Diese Frage wird uns in Kap. 2: Raum von ihrer ersten philosophischen Zuspitzung in der Debatte zwischen Leibniz und Clarke bis hin zu neueren Argumenten im Rahmen der allgemeinen Relativitätstheorie beschäftigen. An diesem Beispiel wird deutlich werden, was für (scheinbar einfache) naturphilosophische Fragen charakteristisch ist, wenn sie im Rahmen naturwissenschaftlicher Theorien diskutiert werden: Sie spalten in eine Vielzahl subtiler Fragen auf, deren Beantwortung nun aber auf wissenschaftliche Argumente gestützt werden kann. So stellt sich heute nicht mehr nur die Frage, ob der Raum (bzw. die Raumzeit) eine Substanz ist, sondern auch in welchem Sinn er dies ist: als ein besonderes physikalisches Feld, durch das räumliche und zeitliche Beziehungen in der Welt vorgegeben werden und das als Träger aller anderen, materiellen Felder fungiert, oder als ein physikalisches Feld neben anderen Feldern. Kap. 2, 3 und 4 setzen sich mit naturphilosophischen Fragen auseinander, die durch physikalische Theorien aufgeworfen werden bzw. durch Konfrontation mit physikalischen Theorien neue Gestalt gewinnen. Ein geschlossenes „System der Natur“, das unsere Hoffnung nach einer Einheit der Natur befriedigt, kann nicht das Ergebnis dieser Auseinandersetzung sein. Vielmehr wird sich zeigen, dass verschiedene Versionen dessen, was die Welt „im Innersten zusammenhält“, möglich bleiben. Die Grundlagentheorien der Physik bieten kein abgeschlossenes Ganzes, innerhalb dessen die wechselseitigen Beziehungen schon abschließend geklärt wären – auch weil nicht einmal Übereinstimmung hinsichtlich der Interpretation der einzelnen Theorien herrscht. Deshalb muss eine moderne Naturphilosophie vorläufig und unabgeschlossen bleiben. Wenn sie dieses Schicksal mit wissenschaftlichen Theorien teilt, dann zeigt dies nur, dass sie Anteil hat an der allgemeinen Entwicklung des wissenschaftlichen Denkens.
6
1 Zur Einführung: Was ist Moderne Naturphilosophie?
Komplexität, der Gegenstand von Kap. 5, ist ein Thema, das quer durch eine Vielzahl von Wissenschaften reicht, von Mathematik und Informatik zu Physik und Meteorologie, Neurowissenschaft und Ökonomie. Berühmt geworden ist der Schmetterling in Brasilien, dessen Flügelschlag gewaltigen Einfluss auf unser lokales Wetter nehmen kann. Die Wissenschaft komplexer Systeme zeigt, dass über die verschiedenen Gebiete hinweg komplexe Systeme ähnliche Tendenzen in ihrem Verhalten aufweisen, die v. a. dann auftreten, wenn die Systeme in eine chaotische Phase eintreten – eine Phase, die durch eine prinzipielle Unvorhersagbarkeit ihres Verhaltens gekennzeichnet ist, gleichgültig wie präzise wir die Anfangsbedingungen eines Systems kontrollieren. Komplexität hat dabei nichts mit „Kompliziertheit“ im Sinn unüberschaubar vieler Einzelheiten zu tun: Wie schon Henri Poincaré wusste, können auch „einfache“ Systeme komplex sein, wenn ihre Variablen auf nicht-lineare Weise voneinander abhängen. Komplexität ist ein Phänomen der Natur und reduktive Strategien der Wissenschaft sind ein Mittel, sie beherrschbar zu machen. Am Beispiel der mikroreduktiven Erklärung des Tag-Nacht-Rhythmus von Organismen sowie anhand der Modellbildung in der Beschreibung einer Pandemie werden wir in Abschn. 5.2 verdeutlichen, dass Reduktion von Komplexität in der Beschreibung der Wirklichkeit dazu beitragen kann, die relevanten Einflussfaktoren natürlicher Prozesse zu identifizieren. Die Lebenswissenschaften, die Erforschung der Ursprünge kognitiver Fähigkeiten (kognitive Ethologie) und die empirische Bewusstseinsforschung haben zur Erweiterung unseres Bildes der Natur, insbesondere auch zur Bestimmung des Ortes, den wir Menschen in der Natur einnehmen, entscheidend beigetragen. Dies ist Gegenstand der Kap. 6, 7 und 8: Leben, Geist und Bewusstsein. Da es auch hier praktisch unmöglich ist, die unüberschaubare Vielzahl theoretischer und experimenteller Entwicklungen vieler Jahrzehnte wiederzugeben, werden wir uns wieder an naturphilosophischen Grundproblemen orientieren, auf die diese Entwicklungen Einfluss genommen haben. Die Evolutionsbiologie mit ihren Prinzipien der Selektion und Adaptation wird bis heute häufig unter Schlagwörtern wie dem „Kampf ums Dasein“ in ihrer naturphilosophischen Bedeutung missverstanden. Deswegen gilt die Aufmerksamkeit in Kap. 6: Leben zunächst dem korrekten Verständnis dieser zentralen Prinzipien. Kooperatives Verhalten und Altruismus sind nicht etwa paradoxe Sonderformen des Verhaltens lebender Systeme, sondern haben in Einklang mit diesen Prinzipien selbst ihren Ursprung in der biologischen Evolutionsgeschichte. Das Leben auf der Erde stellt einen einmaligen historischen Prozess dar, an dem alle Organismen in gleicher Weise teilhaben und dessen Fortgang durch das Verhalten der Organismen selbst mitbestimmt wird. Kap. 7: Geist widmet sich den Ursprüngen kognitiver Fähigkeiten innerhalb unserer gemeinsamen Evolutionsgeschichte. Diese Fähigkeiten sind, wie alle anderen Merkmale von Organismen, biologischen Ursprungs. Deswegen können geistige Phänomene mit experimentellen naturwissenschaftlichen Methoden untersucht werden, wie dies vor allem im Forschungsfeld der kognitiven Ethologie geschieht. Die zentrale naturphilosophische Frage, der wir in diesem Kapitel nachgehen, richtet sich auf die Ursprünge und damit auf elementare Voraussetzungen
1.3 Wozu Moderne Naturphilosophie?
7
geistiger Fähigkeiten: Wie können materielle Zustände und Prozesse in biologischen Subjekten überhaupt zu „geistigen“ Zuständen werden, indem sie sich auf Objekte und Zustände der Welt beziehen, und wie können sie mentalen Gehalt annehmen, der den Subjekten Information über solche Objekte und Zustände der Welt vermittelt? Letztlich ist damit das alte Rätsel angesprochen, wie Geist aus Materie hervorgehen kann. Um diese Frage zu beantworten, werden in diesem Kapitel nicht nur einschlägige Theorien mentaler Repräsentation diskutiert (u. a. Funktionalismus und Teleofunktionalismus), sondern auch konkrete Beispiele aus der Kognitionsforschung: die Erforschung der Fähigkeit zur räumlichen Orientierung bei Wüstenameisen und eine experimentelle Studie, die die Verwendung elementarer Begriffe durch den Graupapageien Alex zum Gegenstand hat. Kap. 8: Bewusstsein hat es mit einem Phänomen zu tun, dessen naturwissenschaftliche Erforschbarkeit umstritten ist. So hat David Chalmers die Auffassung vertreten, dass die subjektiven Qualitäten des phänomenalen Bewusstseins – wie sich eine Bach-Kantate für uns anhört oder eine Rose für uns riecht – niemals auf Grundlage naturwissenschaftlich beschreibbarer materieller Zustände erklärt werden können. Die Welt könnte, so Chalmers, in ihren materiellen Zuständen exakt so beschaffen sein, wie sie es tatsächlich ist, ohne auch nur eine Spur von Bewusstsein zu enthalten. Wir befassen uns in diesem Kapitel aber auch mit Gegenpositionen (z. B. Daniel Dennett und Michael Tye), die der Unerforschlichkeit des Bewusstseins widersprechen, und schließlich werden einige Modelle der empirischen Bewusstseinsforschung skizziert, die die Frage zu beantworten versuchen, wodurch sich bewusste Zustände von anderen mentalen Zuständen unterscheiden. Was unter Selbstbewusstsein zu verstehen ist und ob Tieren Bewusstsein zugeschrieben werden kann, sind weitere Themen dieses Kapitels. In Kap. 9: Umwelt geht es schließlich um unser praktisches Verhältnis zur Natur und um die angesichts von Umweltzerstörung und menschengemachtem Klimawandel erhobene Forderung nach einer neuen Naturethik. Lassen sich menschliche Pflichten gegenüber nicht-menschlichen Lebewesen rechtfertigen, die auf Eigenrechten der nicht-menschlichen Natur beruhen? Oder ist vielmehr eine Erweiterung ethischer Maßstäbe auf Naturdinge gefordert, bei der die anthropozentrische Perspektive erhalten bleibt? Am Schluss steht die Frage, welche Aussichten Prinzipien der Gerechtigkeit und die elementaren Menschenrechte als ethische Grundlagen einer Umwelt- und Klimaethik bieten.
1.3 Wozu moderne Naturphilosophie? Moderne Naturphilosophie, so wie sie sich in den oben erläuterten Fragen widerspiegelt, hat nicht die Aufgabe populärwissenschaftlicher Wiedergabe naturwissenschaftlicher Ergebnisse. Sie wiederholt nicht in allgemein verständlicher Weise, was die Fachwissenschaften in ihrer Sprache ausdrücken. Sie zielt auch nicht in erster Linie auf wissenschaftstheoretische Analysen naturwissenschaftlicher Theorien – obgleich solche Analysen manchmal erforderlich sind, um
8
1 Zur Einführung: Was ist Moderne Naturphilosophie?
naturphilosophische Gehalte aufzuschlüsseln. Vielmehr verfolgt sie das Ziel, traditionelle Fragen der Naturphilosophie wiederzuentdecken, die in modernen naturwissenschaftlichen Theorien neue Formen angenommen haben, und zu zeigen, wie diese neuen Formen dazu beitragen, die Fragen der Naturphilosophie zu präzisieren, zu differenzieren – oder aber im Einzelfall aufzulösen. In naturphilosophischen Fragen artikuliert sich das allgemeine Denken über die Natur, vom „man on the street’s view“ bis hin zu subtilen philosophischen Spekulationen. Dieses allgemeine Denken über die Natur gilt es, auszudifferenzieren, weiterzuentwickeln und gegebenenfalls zu korrigieren, und zwar nicht gegen die Naturwissenschaften, sondern in engem Kontakt und in der Auseinandersetzung mit ihnen. Das Resultat wird dabei oft keine harmonische und einheitliche Sicht der Natur sein. Wer beispielsweise die wechselhaften Interpretationsgeschichten in Rechnung stellt, durch die Theorien wie die Quantentheorie, die Relativitätstheorien oder auch die biologische Evolutionstheorie gekennzeichnet sind, kann nicht erwarten, dass es der modernen Naturphilosophie gelingen kann, aus der Vielfalt naturwissenschaftlichen Wissens eine harmonische Einheit, eine Synthese herzustellen. Naturphilosophische Reflexion hat selbst Anteil an der Vorläufigkeit und Bruchstückhaftigkeit, an Ambiguitäten, Alternativen und Umwälzungen naturwissenschaftlicher Erkenntnis. Aber eine Naturwissenschaft, die nicht von naturphilosophischer Reflexion begleitet wird, läuft Gefahr, in bloßer Technik zu erstarren und für das Denken der meisten Menschen unzugänglich zu werden. In welchem Sinn sollen Fragen, wie sie in Abschn. 1.2 angesprochen wurden, überhaupt als „naturphilosophische“ Fragen gelten? Zunächst in dem Sinn, dass sie nicht die vorgegebenen disziplinären Grenzen einhalten, die sich im Lauf der Zeit in den Naturwissenschaften herausgebildet haben. Es lässt sich häufig nicht leicht voraussehen, welche naturwissenschaftlichen Disziplinen und Gebiete relevante Information zur Beantwortung einer bestimmten naturphilosophischen Frage beisteuern können. Naturphilosophische Fragen sind entweder noch nicht oder aber nicht mehr Teil des Stroms disziplinierten, systematischen Fragens innerhalb naturwissenschaftlicher Traditionen der Problemlösung – sie tendieren vielmehr dazu, disziplinäre Grenzen zu sprengen. Trotz solcher Besonderheiten existiert keine scharfe Abgrenzung zwischen naturphilosophischen und naturwissenschaftlichen Fragen. Vielmehr hat es sich einfach eingebürgert, solche Fragen „naturphilosophisch“ zu nennen, die entweder sehr allgemeiner Natur sind oder für die es (noch) keine etablierten Lösungsverfahren in den Naturwissenschaften gibt. So können manchmal auch recht spezielle Fragen von „naturphilosophischer“ Art sein. Dies ist beispielsweise dann der Fall, wenn ihre Beantwortung nur um den Preis der Revision und Neukonstruktion begrifflicher Grundlagen einer Wissenschaft möglich ist. Ein Beispiel dafür ist Einsteins Relativierung des Begriffs der Gleichzeitigkeit. Dieses Beispiel zeigt zugleich, dass Fragen, die einmal als „naturphilosophisch“ galten, zu speziellen Fragen der Physik oder der Biologie werden können. Die Abgrenzung zwischen Naturphilosophie und Naturwissenschaft bleibt daher prinzipiell unscharf. Diese Unschärfe spiegelt nicht mangelnde Präzision des Denkens, sondern ist Ergebnis
Literatur
9
der Tatsache, dass der Horizont der Naturforschung sich in Richtung spezieller und allgemeiner Fragen erweitert. Aus den Überlegungen, die dieses Buch ausmachen, können sich bestenfalls Bruchstücke für ein Bild der Welt ergeben, wie es die heutigen Naturwissenschaften zeichnen. Das Zusammenfügen solcher Bruchstücke ist Aufgabe des zukünftigen naturwissenschaftlichen Erkenntnisprozesses – an dem Naturphilosophie Anteil hat. Moderne Naturphilosophie hat die Aufgabe der Vermittlung naturwissenschaftlicher Forschung mit dem allgemeinen Denken über die Natur. Dies ist eine kulturelle Aufgabe der Naturphilosophie. Wenn die Naturwissenschaften nicht als Teil unserer Denkkultur begriffen werden, droht die sicher heute sehr reale Gefahr, sie auf ihre technologischen Aspekte zu reduzieren. Wer die Naturwissenschaften nur aus diesem eingeschränkten Blickwinkel sieht, kann kein Gefühl dafür entwickeln, welche Rolle sie für die Entwicklung unseres Selbstverständnisses als Naturwesen gespielt haben und noch spielen können. Von der Ausbildung eines angemessenen Selbstverständnisses hängt aber nicht nur ab, ob wir vernünftige Ziele für wissenschaftliche Anwendungen entwickeln, die nicht allein den durch aktuelle Technologien vorgegebenen „Sachzwängen“ folgen. Davon hängt auch unser praktisches Naturverhältnis ab (vgl. Kap. 9), die Art und Weise, wie wir Menschen uns in der Natur verorten und an welchen ethischen Maßstäben wir unser Verhalten gegenüber Naturdingen orientieren.
Literatur Liebig, Justus von (1874). Über das Studium der Naturwissenschaften und über den Zustand der Chemie in Preußen. In: Justus von Liebig, Reden und Abhandlungen, Leipzig: Winter.
2
Raum
2.1 Einleitung: Die Debatte über die Realität des Raums Die moderne Geschichte der Philosophie des Raums ist die Geschichte einer bis heute unabgeschlossenen Debatte: Vor einem im Lauf der Zeit sich wandelnden Hintergrund physikalischer Theorien steht dabei immer wieder eine Frage im Mittelpunkt: Ist der Raum eine reale Entität unserer physischen Welt, eine selbstständige, unabhängige Substanz oder vielmehr ein Geflecht von Eigenschaften und Strukturen materieller Dinge? Die Dinge kann es nicht ohne den Raum geben, aber wäre ein Raum ohne Dinge wenigstens denkbar? Die miteinander im Streit stehenden Auffassungen, die als Substanzialismus bzw. Relationalismus bezeichnet werden, haben an den verschiedenen Stationen der Debatte jeweils unterschiedlich starke Unterstützung durch die Physik erfahren, wodurch sich das Gewicht mehrmals in die eine oder andere Richtung verschoben hat. Die verwendeten Argumente entspringen dabei nicht allein den jeweils maßgeblichen Theorien, es wird auch auf theorieunabhängige Erfahrungstatsachen sowie auf grundlegende erkenntnistheoretische Prinzipien verwiesen. Physikalische Theorien legen nicht einfach fest, ob der Raum als substanziell oder relational zu verstehen ist, die getroffene Entscheidung bleibt davon abhängig, wie diese Theorien philosophisch interpretiert werden. In Abschn. 2.2 wird zunächst der Begriff des Raums näher umrissen, von seiner mengentheoretischen Struktur ausgehend bis zur affinen und metrischen Struktur. Während auch Farben- und Sehraum durch solche Strukturen charakterisiert sind, wird das Thema in den folgenden Abschnitten auf den Raum als Arena des physikalischen Geschehens eingeengt. Abschn. 2.3 präsentiert die erkenntnistheoretischen und physikalischen Argumente im Briefwechsel von 1715/1716 zwischen Gottfried Wilhelm Leibniz und Samuel Clarke, der den Beginn der Debatte über die Realität des Raums markiert. Während die von Clarke (bzw. Newton) vertretene substanzialistische Auffassung zunächst die besseren Argumente © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 A. Bartels, Grundprobleme der modernen Naturphilosophie, https://doi.org/10.1007/978-3-662-67126-9_2
11
12
2 Raum
auf ihrer Seite zu haben scheint, dreht sich die Situation 1915 mit Einsteins allgemeinem Relativitätsprinzip. Philosophen wie Ernst Cassirer und Hans Reichenbach fühlen sich durch Einsteins Theorie in ihrer relationalistischen Auffassung des Raums bestätigt – eine Einschätzung, die durch die in den folgenden Jahrzehnten einsetzende Neuinterpretation der allgemeinen Relativitätstheorie (im Folgenden: ART) revidiert wurde, welche die Eigenständigkeit geometrischer Größen betont (Abschn. 2.4). Danach bedeutet Einsteins Theorie keineswegs das Ende objektiver Raumstrukturen (bzw. Raumzeitstrukturen), sondern liefert stattdessen Belege für einen Substanzialismus der Raumzeit. Durch die in den 1980er Jahren einsetzende Debatte um das „Lochargument“ wird dieser Substanzialismus allerdings erneut herausgefordert (Abschn. 2.5) – was zu neuen Varianten des Substanzialismus Anlass gibt, wie z. B. zu einem „metrischen Essentialismus“. In Abschn. 2.6 werden einige ontologische Optionen diskutiert, die sich daraus ergeben: Raumzeit als Träger materieller Felder, als Feld neben materiellen Feldern oder als elementarer Baustoff der Welt. Der Substanzialismus in seinen verschiedenen Varianten wird neuerdings wieder durch eine Wende zum Relationalismus herausgefordert, den „dynamischen Ansatz“ (Harvey Brown); dieser Ansatz stellt die etablierte geometrische Deutung der ART infrage und betont, dass zeitliche und räumliche Strukturen ihre Bedeutung nur in Abhängigkeit vom Verhalten materieller Dinge erhalten (Abschn. 2.7). In Abschn. 2.8 wird schließlich die Frage erörtert, in welchem Sinn die Relativitätstheorien ein Bild der raumzeitlichen Welt zeichnen.
2.2 Der Begriff des Raums Man kann vom physikalischen Raum sprechen, aber auch vom Farbenraum, vom Sehraum und vielen anderen „Räumen“. Gibt es etwas, das allem, was wir „Raum“ nennen, gemeinsam ist? In seinem Habilitationsvortrag „Über die Hypothesen, welche der Geometrie zu Grunde liegen“ hat Bernhard Riemann (1854) eine allgemeine Definition des Begriffs des Raums gegeben. Unter einem „Raum“ verstehen wir, so Riemann, zunächst eine „mehrfach ausgedehnte Größe“ (eine „Mannigfaltigkeit“). Der Begriff der „Größe“ setzt voraus, dass wir von „Werten“ dieser Größe sprechen können, also von unterscheidbaren Abstufungen, die ihrerseits entweder eine diskrete oder eine kontinuierliche Menge bilden können. Die Elemente der Menge heißen „Punkte“. Ein Raum ist also zunächst eine Punktmenge. Im Fall des Farbenraums werden die „Punkte“ durch unterscheidbare Farbqualitäten repräsentiert. Die elementarste Struktur eines Raums ist seine mengentheoretische Struktur: Die Zahl der Punkte ist endlich, abzählbar unendlich oder überabzählbar unendlich.1 Ist eine überabzählbar unendliche Punktmenge eineindeutig auf die Menge der reellen Zahlen abbildbar, so ist die Punktmenge kontinuierlich.
1 Eine
überabzählbar unendliche Menge von Punkten kann nicht mithilfe der natürlichen Zahlen abgezählt werden.
2.2 Der Begriff des Raums
13
Im physikalischen Raum wird die Unterscheidung zwischen geraden und nichtgeraden Kurven durch die affine Struktur gegeben. Auf einem Blatt Papier, das auf einer ebenen Tischplatte liegt, kann jedes Paar von Punkten durch genau eine gerade Linie verbunden werden und jede gerade Linie kann in beide Richtungen beliebig weit fortgesetzt werden – jedenfalls soweit das Blatt Papier reicht. Nicht jeder physikalische Raum besitzt diese Form der affinen Struktur. Während euklidische Räume – also jene Räume, die Euklids Axiome erfüllen – die eben erwähnte Eigenschaft besitzen, dass zwei verschiedene Punkte durch immer genau eine gerade Linie verbunden werden können, gibt es in nicht-euklidischen („gekrümmten“) Räumen entweder keine oder unendlich viele „gerade“ Linien, die zwei Punkte verbinden. So werden beispielsweise auf der positiv gekrümmten Oberfläche eines Globus Nordpol und Südpol durch unendlich viele „gerade“ Linien – die unendlich vielen Längengrade – miteinander verbunden. Die für das Folgende wichtigste Struktur eines physikalischen Raums ist seine Metrik. Sie wird durch eine Abstandsfunktion für die Punkte des Raums bestimmt, die von irgendwelchen Koordinaten der Punkte abhängt. Abstandsfunktionen können zunächst in verschiedener Weise gewählt werden, wobei auch nichteuklidische Abstandsfunktionen2 infrage kommen. Karl Friedrich Gauß zeigte, dass eine „externe“ Metrik, die für die Bestimmung der Metrik einer gekrümmten Fläche den einbettenden dreidimensionalen Raum verwendet, stets durch eine „innere“ Metrik ersetzbar ist: Legt man z. B. ein beliebiges Netz von Koordinaten über die Fläche, so existiert relativ zu diesem Koordinatennetz eine eindeutig bestimmte Funktion, deren Werte an jedem Punkt der Fläche den Abstand von Punkten entlang einer Kurve zu berechnen erlauben. Diese Funktion, die im Fall der Fläche aus vier Komponentenfunktionen besteht, charakterisiert die innere Metrik der Fläche relativ zu den gewählten Koordinaten.3 Sie hat im Allgemeinen nicht die Gestalt der euklidischen Abstandsfunktion. Die von Gauß entwickelte Flächengeometrie wurde von Bernhard Riemann auf Räume beliebiger Dimension verallgemeinert. Für den dreidimensionalen physikalischen Raum gibt es keine „Einbettung“ mehr in einen höherdimensionalen Raum. Dies bedeutet einerseits, dass kein anderes Verfahren zur Charakterisierung der metrischen Struktur des Raums zur Verfügung steht als die von Gauß gewählte innere Metrik. Damit entfällt aber auch der externe Maßstab dafür, ob die verwendete innere Metrik „korrekt“ ist, ob sie also die „wirklichen“ Längen eines Kurvenabschnitts angibt. Riemann sah sich deshalb durch die von ihm vorangetriebene Entwicklung der Geometrie auch vor ein neues naturphilosophisches Problem gestellt: Wodurch ist die Metrik des physikalischen Raums
2 Zur
Entstehungsgeschichte und Bedeutung der nicht-euklidischen Geometrien vgl. Sklar (1974, S. 13–27). 3 Zur internen Koordinatisierung der Fläche verwendet man zwei Scharen von Kurven, die im Allgemeinen weder „gerade“ noch zueinander senkrecht sein müssen; zwei Kurven derselben Schar dürfen sich jedoch nicht überschneiden. Ein Beispiel dafür sind die Längen- und Breitengrade auf dem Globus.
14
2 Raum
bestimmt? Seine Andeutung am Schluss des Habilitationsvortrags von 1854, „der Grund der Maßverhältnisse“ müsse „außerhalb, in darauf wirkenden bindenden Kräften, gesucht werden“ (Riemann 1854/2013, S. 43), hat sich schließlich als zutreffend erwiesen. In der ART ist die Metrik zu einem physikalischen Feld geworden, das Wirkungen auf Materie ausübt und Wirkungen durch Materie erleidet. Damit haben wir schon jenes Bild verwendet, das die ART vom physikalischen Raum zeichnet. Zunächst aber können wir aus der Tatsache, dass die Metrik des physikalischen Raums in keiner Weise „vorgegeben“ erscheint, nur den folgenden Schluss ziehen: Dem physikalischen Raum soll jene metrische Struktur zugeschrieben werden, bei der sich eine besonders befriedigende, einfache und geschlossene Beschreibung der physikalischen Prozesse ergibt.4 Die Punkte des physikalischen Raums sind dabei zunächst unterscheidbare Stellen eines materiellen Bezugssystems, die wir markieren und (mittels einer Abbildung in den R3) mit Koordinaten versehen können. An Bezugssysteme gebundene Räume nannte Isaac Newton in seinen Principia „relative Räume“. Zur Beschreibung der Bewegung physikalischer Körper (Kinematik) genügt es, sich auf relative Räume zu beziehen. Die theoretische Erklärung der Bewegungserscheinungen mithilfe von Kräften, also die Dynamik, mit ihrem grundlegenden Unterschied von „wahrer“ und „scheinbarer“ (bzw. relativer) Bewegung, erforderte jedoch eine von besonderen Bezugssystemen unabhängige Kategorie des Raums, den absoluten Raum. Die Punkte des absoluten Raums sind nicht mehr wahrnehmbare und markierbare Stellen in einem Bezugssystem. Sie sind vielmehr „theoretische Entitäten“, deren Existenz vorausgesetzt werden muss, um „wahre“ von „scheinbaren“ Bewegungen der Körper unterscheiden zu können. Als reale Entitäten können sie sich nur durch ihre Erklärungsleistung im Rahmen einer Theorie bewähren. Die Frage, ob es gute Gründe dafür gibt, die Existenz eines absoluten Raums anzunehmen, d. h. eines Raums unabhängig von allen materiellen Bezugssystemen, oder ob vielmehr alle räumlichen Bestimmungen stets nur Festlegungen an materiellen Systemen sein können und Raum daher nur als „räumliche Qualität der Materie“5 existiert, bildet den zentralen Streitpunkt der Naturphilosophie des Raums, die Auseinandersetzung zwischen Substanzialismus und Relationalismus. Sie beherrscht die Debatte seit dem Erscheinen der Principia, in denen der Raum zum ersten Mal explizit zum Gegenstand einer quantitativen mathematischen Theorie wurde.
4 Im
Rahmen der ART muss, um eine solche angemessene Darstellung der physikalischen Prozesse zu erreichen, anstelle einer dreidimensionalen Raummannigfaltigkeit eine vierdimensionale Raumzeitmannigfaltigkeit verwendet werden. 5 Für Descartes (1644/1992) stellte diese räumliche Qualität der Materie zugleich ihre einzige, auszeichnende Qualität dar.
2.2 Der Begriff des Raums
15
Der älteren und neueren Debatte um die Existenzweise des Raums wenden wir uns im Folgenden zu. Diese Debatten werden repräsentiert durch die historische Auseinandersetzung zwischen Gottfried Wilhelm Leibniz und Samuel Clarke in den Jahren 1715/1716 sowie durch ihre neuere, noch andauernde Nachfolgediskussion im Rahmen der ART. Worum es in diesen Debatten geht, wird allerdings nur klar, wenn drei verschiedene Bedeutungen des Ausdrucks „absolut“, die in der Diskussion um den Status des absoluten Raums eine Rolle spielen, sorgfältig unterschieden werden: Diese verschiedenen Verwendungen von „absolut“ im Zusammenhang mit dem Begriff des absoluten Raums können an folgenden drei Gegensatzpaaren erläutert werden:6 (i) absolut-relativ, (ii) absolut-dynamisch und (iii) absolut-relational: (i) Räumliche Größen und Beziehungen können in einem relativen oder in einem absoluten Sinn aufgefasst werden, je nachdem, ob sie nur hinsichtlich eines besonderen Bezugssystems definiert sind oder aber eine bezugssystemunabhängige Bedeutung besitzen. Viele räumliche Größen, die in der Newton’schen Mechanik absolute Bedeutung in diesem Sinn besaßen, werden in der speziellen und allgemeinen Relativitätstheorie „relativiert“, z. B. der räumliche Abstand zwischen zwei Punkten. Auch innerhalb der ART gibt es nach wie vor absolute räumliche Begriffe, z. B. den wichtigen Begriff der Rotation.7 (ii) Räumliche Größen können „absolut“ in dem Sinn sein, dass sie unabhängig vom jeweiligen Zustand der Materie festgelegt („starr“) sind. In der ART gibt es keine absoluten räumlichen Größen in diesem Sinn; die Werte aller Größen hängen vom Zustand der Materie ab, sie sind dynamische Größen. Die Lichtgeschwindigkeit, die im Rahmen der speziellen Relativitätstheorie hinsichtlich aller Inertialsysteme den gleichen Wert c besitzt, und der vorrelativistische Äther als Medium elektromagnetischer Wechselwirkungen sind Beispiele von Größen, die absolut im Sinn der Unabhängigkeit vom Zustand der Materie sind. (iii) Das letzte Gegensatzpaar „absolut-relational“ bezieht sich auf die semantische Interpretation räumlicher Größen. So kann z. B. eine Aussage über die Gleichheit zweier räumlicher Abstände in einem „absoluten“ oder in einem „relationalen“ Sinn verstanden werden, je nachdem, ob diese Aussage als Information über eine innere Kongruenzstruktur des Raums selbst oder als Information über das räumliche Kongruenzverhalten materieller Körper interpretiert wird. Im letzteren Fall wird eine Kongruenzstruktur dem Raum erst durch den Transport starrer Maßstäbe aufgeprägt. Um diesen Sinn von „absolut“ geht es in der folgenden historischen Debatte um die Realität des Raums wesentlich.
6 Diese
Darstellung folgt Friedman (1983, S. 62 f.).
7 Rotationen
sind in der ART Drehungen von Körpern um eine Körperachse relativ zu einem lokalen Inertialsystem. Lokale Inertialsysteme sind maßgeblich dafür, welche Bewegung kräftefrei ist, und sie bilden daher einen Maßstab mit „absoluter“ physikalischer Bedeutung (vgl. Friedman 1983, S. 208 f.).
2 Raum
16
Obgleich keine räumliche Größe der ART im Sinn von (ii) absolut ist, ist damit noch keine Entscheidung über deren Absolutheit im Sinn von (iii) gefallen. Auch dynamische Größen können als Repräsentanten innerer Eigenschaften des Raums verstanden werden. Voraussetzung dafür ist freilich, dass diese Größen wenigstens „absolut“ im Sinn von (i) sind; denn der Raum selbst kann nur Träger einer Eigenschaft sein, die bezugssystemunabhängig ist.
2.3 Die Leibniz-Clarke-Debatte8 über die Realität des Raums Die klassische Debatte über die Realität des Raums ist in einem Briefwechsel zwischen Gottfried Wilhelm Leibniz und Samuel Clarke, dem Vertreter der Newton'schen Raumauffassung, in den Jahren 1715/1716 geführt worden. Leibniz ist davon überzeugt, dass alle Aussagen über räumliche Eigenschaften und Beziehungen als Aussagen über aktuelle und mögliche Beziehungen zwischen materiellen Körpern verstanden werden müssen (relationale Raumauffassung): Was mich angeht, so habe ich mehr als einmal betont, dass ich den Raum für etwas bloß Relatives halte, wie die Zeit; für eine Ordnung des gleichzeitig Bestehenden, wie die Zeit eine Ordnung von Aufeinanderfolgendem ist. Denn der Raum bezeichnet als Ausdruck der Möglichkeit eine Ordnung von Dingen, die zur selben Zeit existieren …. (Clarke 1715/16; 1990, S. 28).
Unabhängig von materiellen Körpern, so Leibniz, kann von „dem Raum“ nur im Sinn eines idealen mathematischen Konstrukts die Rede sein. Bezüglich dieses mathematischen Konstrukts kann man auch von „Raumpunkten“ sprechen. Zum mathematischen Begriff des Raumpunktes kommen wir, so kann man Leibniz verstehen, durch eine Abstraktion von konkreten Materielokalisationen. Abstrahiert man davon, dass ein bestimmter Ort von einem konkreten Körper besetzt ist, gelangt man zur Vorstellung eines von Materie unabhängigen Ortes. Daraus folgt nun nicht, dass solchen idealen Raumpunkten reale Gegenstücke in der physikalischen Wirklichkeit entsprechen müssen. Aus Sicht von Leibniz macht Newton mit seiner Annahme eines „absoluten“ physikalischen Raums (im Sinne von Abschn. 2.2 (iii)) einen grundsätzlichen philosophischen Fehler: Er hypostasiert Gegenstände einer idealen, begrifflichen Welt zu physikalisch realen Gegenständen. Die Annahme einer solchen Entsprechung „Eins-zu-Eins“ wäre nur dann gerechtfertigt, wenn die Darstellung einer Materielokalisation durch einen idealen Raumpunkt sich von der Darstellung durch einen anderen idealen Raumpunkt physikalisch unterscheiden ließe. Nur dann würden die idealen
8 Die
beiden Kontrahenten tauschten ihre Briefe nicht direkt, sondern über eine Mittelsperson aus, nämlich über Caroline, Prinzessin von Wales.
2.3 Die Leibniz/Clarke-Debatte über die Realität des Raums
17
Raumpunkte in der Repräsentation des physikalisch Wirklichen eine wesentliche, nicht redundante Rolle spielen. Diese Auffassung versucht Leibniz mithilfe eines Arguments zu veranschaulichen, das in heutiger Lesart als Symmetrieargument verstanden werden kann: Leibniz betrachtet dazu ein Modell der physikalischen Welt, in dem eine bestimmte Anordnung der Materie im Raum vorausgesetzt wird. Die Materieteilchen dieses Modells werden nun einer simultanen Spiegelung an einer zur Westund Ost-Richtung orthogonalen Spiegelungsebene unterzogen.9 Das Resultat dieser Transformation ist ein zweites Modell, in dem im Vergleich zum ersten Modell zwar die individuellen Besetzungen von Raumpunkten durch Materieteilchen geändert, aber alle relativen Lagen der Materieteilchen zueinander erhalten geblieben sind. Da es aber nur solche relativen Lageverhältnisse sind, die überhaupt physikalisch feststellbar (und in diesem Sinne relevant) sind, handelt es sich um „äquivalente“, d. h. in allen relevanten Merkmalen übereinstimmende Modelle. Die vorgenommene Transformation gehört zu den zulässigen Symmetrien, die alle physikalisch relevanten Merkmale eines Modells invariant lassen. Da die Spiegelungstransformation die Besetzung individueller Raumpunkte geändert hat, kann es folglich nicht zu den relevanten Merkmalen eines Modells gehören, welcher Raumpunkt welche Lokalisation durch ein Materieteilchen repräsentiert; jeder Raumpunkt kann in dieser Rolle durch andere Raumpunkte ersetzt werden: Der Raum ist etwas absolut Gleichförmiges, und ohne darin befindliche Dinge unterscheidet sich ein Punkt des Raumes absolut in nichts von einem anderen Punkt des Raumes. Nun folgt hieraus, vorausgesetzt der Raum ist irgendetwas für sich selbst außer der Ordnung der Körper untereinander, dass es unmöglich einen Grund geben könnte, weshalb Gott, bei Aufrechterhaltung derselben Lagen der Körper zueinander, sie im Raum so und nicht anders angeordnet hätte, und weshalb nicht alles entgegengesetzt angeordnet wurde, beispielsweise durch einen Tausch von Osten und Westen. (Clarke 1715/16; 1990, S. 29)
Ideale Raumpunkte erweisen sich, so lässt sich Leibniz’ Symmetrieargument resümieren, nicht als wesentliche (invariante), sondern als austauschbare (redundante) Darstellungsmittel der physikalischen Realität. Es handelt sich bei den verschiedenen äquivalenten Modellen der Welt nicht um Repräsentationen verschiedener möglicher Welten, sondern um verschiedene mögliche Repräsentationen derselben Welt. Der Versuch, den Raumpunkten selbst Realität zuzusprechen,
9 Vgl.
Clarke (1715/16; 1990, S. 29). Man kann Leibniz’ Beschreibung der Neuanordnung der Materie im Raum als „einen Tausch von Osten und Westen“ (in seinem dritten Brief) alternativ auch so verstehen, dass eine simultane Translation der Materieteilchen in ostwestlicher Richtung erfolgen soll. Auch Translationen stellen zulässige Symmetrietransformationen auf einem euklidischen Raum dar, sodass die Struktur des Arguments davon unberührt bleibt.
18
2 Raum
scheitert an einem Invarianz-Kriterium, das man allgemein wie folgt formulieren kann: Soll einem Element der Darstellung ein Element der Realität entsprechen, so muss dieses Element invariant gegenüber den zulässigen Symmetrien der Darstellung sein. Leibniz selbst spricht in dem Briefwechsel mit Clarke allerdings nicht von einem Symmetrieargument. Er führt als leitendes Prinzip seiner Argumentation vielmehr das Prinzip des zureichenden Grundes an, „dass nichts geschieht, ohne dass es einen Grund gibt, weshalb es eher so als anders geschieht“ (Clarke 1715/16; 1990, S. 16). Die Anwendung dieses Prinzips auf die Anordnungen der Materie im Raum führt aber genau zu jenem Schluss, den wir als Symmetrieargument bezeichnet haben. Denn für die beiden Anordnungen der Materie, die durch eine Symmetrietransformation auseinander hervorgehen, würde gelten, dass „… diese beiden Zustände, der eine der, wie er ist, der andere entgegengesetzt angenommen, sich untereinander in nichts unterscheiden: ihr Unterschied findet sich nur in unserer abwegigen Voraussetzung der Wirklichkeit des Raumes an sich. Aber in Wahrheit wäre der eine genau dasselbe wie der andere, da sie absolut ununterscheidbar sind und folglich kein Platz ist für die Frage nach einem Grund für die Bevorzugung des einen vor dem anderen“ (Clarke 1715/16; 1990, S. 29). Nicht einmal Gott könnte einen Grund dafür finden, den einen Zustand dem anderen vorzuziehen, einfach weil es überhaupt keinen relevanten Unterschied zwischen ihnen gibt. Das Prinzip des zureichenden Grundes führt auf ein anderes metaphysisches Prinzip, das Prinzip der Identität des Ununterscheidbaren („principium identitatis indiscernibilium“, kurz: PII): Wenn es keinen Grund dafür gibt, einen von zwei Zuständen, zwischen denen kein relevanter Unterschied besteht, zu bevorzugen, dann kann es auch keinen Grund dafür geben, dass der eine Zustand in unserer Welt realisiert ist und nicht etwa der andere (denn die Realisierung des einen Zustands würde ja gerade eine solche „Bevorzugung“ darstellen). Folglich kann es sich nicht um zwei verschiedene Zustände handeln (von denen ja nur einer realisiert sein könnte): Die beiden Zustände müssen vielmehr identisch sein. Weder das Prinzip des zureichenden Grundes noch das PII sind unumstritten. Weshalb, so kann man fragen, soll es für alles, was in der Welt geschieht, einen zureichenden Grund geben? Unser aktueller Weltzustand geht sicher auf einen früheren Zustand zurück und so immer weiter, bis wir bei den Anfangsbedingungen des Universums angelangt sind. Aber gibt es auch für deren Auftreten einen zureichenden Grund? Und zeigt nicht gerade der Indeterminismus der Quantenmechanik, dass es eben nicht für jedes Ereignis einen zureichenden Grund gibt? Ähnlich skeptisch kann man auch hinsichtlich der allgemeinen Geltung des PII sein: Weshalb sollte es nicht zwei qualitativ in jeder Hinsicht ununterscheidbare Objekte in der Welt geben können? Wäre Leibniz konsequent, müsste er sogar behaupten, dass es nur einen Raumpunkt in einer Newton’schen Welt geben kann, da in ihr alle Raumpunkte qualitativ ununterscheidbar sind – was aus seiner Sicht ein schlagendes Argument gegen die Realität des Newton’schen Raums wäre –; umgekehrt könnte man die Tatsache, dass uns das Prinzip die Konsequenz eines Raums aufnötigt, der aus nur einem Punkt besteht, als eine
2.3 Die Leibniz/Clarke-Debatte über die Realität des Raums
19
„deductio ad absurdum“ des PII betrachten.10 Während also die generelle Geltung beider Prinzipien höchst fraglich erscheint, ist Leibniz’ spezielle Anwendung der Prinzipien für den Fall der Anordnung der Materie im Raum durchaus überzeugend: Wie wir gesehen haben, entspricht sie modernen Symmetrieargumenten. Allerdings ist in Leibniz’ Argumentation eine problematische Voraussetzung enthalten, von welcher die von ihm gezogene Konklusion der Irrealität physikalischer Raumpunkte abhängt. Denn, wie wir gesehen haben, setzt Leibniz voraus, dass sich „ohne darin befindliche Dinge“ ein Punkt des Raumes „absolut in nichts von einem anderen Punkt des Raumes unterscheidet“. Es kann also nicht zu irgendwelchen physikalischen Unterschieden führen, wenn man (gedanklich) ein Materieteilchen an einem bestimmten statt an einem anderen Punkt des Raums platziert. Dies ist eine starke Annahme, weil sie ausschließt, dass die Identität von Raumpunkten physikalisch eine Rolle spielt. In gewisser Weise nimmt Leibniz dadurch vorweg, dass Raumpunkte, unabhängig von Materielokalisationen, nicht als physikalische Entitäten infrage kommen. Sein Opponent Samuel Clarke kann dagegen zu Recht darauf hinweisen, dass aus Gottes Sicht auch die Tatsache, dass ein bestimmtes Materieteilchen an einem bestimmten (und nicht an einem anderen) Raumpunkt lokalisiert ist, eine objektive Tatsache darstellt, auch wenn sie menschlichen Beobachtern unzugänglich bleibt. Die Äquivalenz der alternativen Anordnungen der Materie, das zentrale „Beweismittel“ in Leibniz’ Argumentation, wäre damit infrage gestellt: Ein Materieteilchen an einen anderen Raumpunkt zu versetzen, würde bedeuten, es einem anderen physikalischen Individuum zuzuordnen, mit der Konsequenz, dass eine von der ersten verschiedene, neue physikalische Situation beschrieben wird, die Gott – wäre es denn sein Wille gewesen – auch hätte herstellen können, ganz ohne das Prinzip des zureichenden Grundes zu verletzen. Auch wenn wir physikalische Raumpunkte mithilfe unserer Beobachtungs- und Messmethoden nicht voneinander unterscheiden können, ist damit nicht ausgeschlossen, dass sie verschieden sind. So gesehen ist Leibniz’ Kritik an Newtons absolutem Raum Ausdruck einer spezifischen erkenntnistheoretischen Einstellung, des Verifikationismus, nach dem nur beobachtbare Unterschiede physikalisch realen Unterschieden entsprechen können. Können wir verschiedene Objekte nicht durch Beobachtung unterscheiden, dann wissen wir niemals, um welches Objekt es sich gerade handelt, d. h., es gibt eine Frage, die, soweit Beobachtungen reichen, immer unbeantwortbar bleibt – eine absolute Wissensgrenze. Eine solche Wissensgrenze lehnt der Verifikationismus als künstlich und unbegründet ab. Nach Auffassung von Tim Maudlin (2012, S. 42/43)11 müsste uns die Existenz einer solchen Grenze 10 Tatsächlich
ist das PII für Leibniz ein Grund gewesen, die Hypothese der Existenz von Atomen abzulehnen, die ja verschiedene, aber qualitativ ununterscheidbare Entitäten sein müssten; jedenfalls gilt dies für die Exemplare einzelner Atomsorten (vgl. Clarke 1715/16; 1990, S. 88). 11 Maudlin hält die Behauptung einer Wissensgrenze in diesem Zusammenhang überhaupt für chimärisch, läuft sie doch darauf hinaus zu behaupten, wir wüssten nicht, an welchem Punkt im Raum wir uns gerade befinden. Es sei aber gar nicht klar, was damit eigentlich gemeint ist: Wo wir uns befinden? – Nun ja, wir befinden uns hier, an genau diesem Ort; dass wir uns an einem
20
2 Raum
allerdings nicht sonderlich irritieren, sei es doch das größere Wunder, dass wir durch Wechselwirkung mit der Welt überhaupt etwas in ihr entdecken können, als dass wir nicht alles entdecken können. Auf der anderen Seite, so gibt auch er zu bedenken (vgl. Maudlin 2012, S. 43), löst die Behauptung physikalischer Tatsachen, die sich nicht in beobachtbarem Verhalten von Dingen ausdrücken, den Verdacht aus, dass die Theorie überflüssige Objekte postuliert. Ein solcher Verdacht erscheint umso berechtigter, wenn es sich um unzugängliche Objekte handelt, die nicht durch die Struktur der Theorie selbst gefordert sind. In seiner dritten Antwort auf Leibniz hatte Clarke die Möglichkeit ins Spiel gebracht, dass Gott die gesamte Materie des Universums simultan mit konstanter Geschwindigkeit gegen den absoluten Raum fortbewegen könne (Clarke 1715/16; 1990, S. 35). Leibniz könne eine solche Situation nicht einmal korrekt beschreiben; denn aus seiner Sicht würde sich durch die Bewegung gegenüber der Situation der absoluten Ruhe der Materie nichts ändern (da ja alle relativen Lagen im „bewegten“ Zustand erhalten blieben). Tatsächlich verwirft Leibniz dieses Gedankenexperiment Clarkes auf harsche Weise: Es zeige lediglich eine vermeintliche Veränderung, die „nichts verändert“ (Clarke 1715/16; 1990, S. 44). Dies hört sich vertraut an, aber die dialektische Situation ist nun doch eine andere als bei der Spiegelung oder Translation der Materie im Raum: Im Fall der gleichförmigen Bewegung der Materie gegenüber dem absoluten Raum kann man tatsächlich eine prinzipiell unbeantwortbare, aber aus Sicht der Auffassung des absoluten Raums physikalisch sinnvolle Frage stellen: Welches ist die gegenwärtige Geschwindigkeit der Materie (bzw. des Massenschwerpunktes der Materie) gegenüber dem absoluten Raum? Es gibt keine möglichen Beobachtungen, die diese Frage entscheiden könnten. Dies weist darauf hin, dass Newtons Theorie tatsächlich überflüssige Objekte enthält (den absoluten Raum), die nicht durch die dynamische Struktur der Theorie gefordert12 sind. Die Einschätzung, der absolute Raum sei eine überflüssige, fiktive Entität, trägt allerdings nur soweit, wie ausschließlich geradlinige, gleichförmige Bewegungen betrachtet werden. Sobald Rotationen ins Spiel kommen, erhält die Auffassung der Realität des absoluten Raums neue Nahrung. Die von Newton beschriebenen Gedankenexperimente des rotierenden Eimers und der rotierenden Kugeln demonstrieren, dass der absolute Raum doch eine erklärende Rolle spielen kann; sie haben dazu geführt, dass in der Debatte Clarke (und damit Newton), jedenfalls vorläufig, die Oberhand behielt.
anderen Ort befinden könnten, ist eine bloß kontrafaktische Möglichkeit, nicht etwa eine alternative Deutung unseres jetzigen Zustands. 12 Die auf die Materie wirkenden Kräfte, die durch Newtons Theorie bestimmt werden, sind in allen Inertialsystemen (d. h. in allen Bezugssystemen, die sich gleichförmig gegenüber dem absoluten Raum bewegen) identisch. Der Unterschied zwischen den Inertialsystemen, der durch die Annahme eines absoluten Raums postuliert wird, ist daher ohne physikalische Bedeutung.
2.3 Die Leibniz/Clarke-Debatte über die Realität des Raums
21
Im Eimer-Experiment betrachtet Newton einen mit Wasser gefüllten, mit seinem Henkel an einem Seil hängenden Eimer. Verdrillt man das Seil und lässt den Eimer anschließend los, wird der Eimer in eine Rotationsbewegung um die Seilachse versetzt. Zunächst bleibt die Oberfläche des Wassers im Eimer eben; die Rotationsbewegung ist noch nicht auf das Wasser übergegangen, sodass die Eimerwand nun relativ zum Wasser rotiert. Aber wenig später hat auch das Wasser die Rotationsbewegung angenommen, folglich rotieren Eimer und Wasser nun simultan. Es zeigt sich aber in dieser Phase der Bewegung, dass die Oberfläche des Wassers an der Eimerwand leicht ansteigt: Die Wasseroberfläche ist nach außen gewölbt. Wenn man den Eimer nun von außen festhält, rotiert das Wasser noch eine Weile weiter, wobei die Wölbung der Wasseroberfläche bestehen bleibt. Erst etwas später, wenn das Wasser zur Ruhe kommt, verschwindet auch die Wölbung. Erstaunlich an diesem Vorgang ist die Wölbung der Wasseroberfläche. Offenbar hängt sie mit der Rotationsbewegung des Wassers zusammen. Die relative Rotation des Wassers gegenüber der Eimerwand kann aber nicht der Grund für sie sein; schließlich tritt die Wölbung ja unabhängig davon auf, ob Eimer und Wasser relativ zueinander bewegt sind oder nicht: Sie ist in der zweiten Phase vorhanden, in der Eimer und Wasser simultan rotieren, es also keine Relativbewegung gibt.13 Und sie ist nicht vorhanden während der ersten Phase, in der es eine Relativbewegung gibt. Wenn wir Relativbewegungen des Wassers gegenüber der materiellen Umgebung als Ursache der Wölbung ausschließen, bleibt nur die Erklärung übrig, dass die Rotationsbewegung des Wassers gegenüber dem absoluten Raum die Wölbung verursacht. Tatsächlich ist die Wölbung ja dann und nur dann vorhanden, wenn das Wasser im Eimer rotiert (unabhängig davon, ob der Eimer mit rotiert). Der Schluss, nach dem die Rotation gegenüber dem absoluten Raum die Wölbung der Wasseroberfläche verursacht, ist natürlich nicht alternativlos. Prominent ist die Vermutung von Ernst Mach, die Wölbung werde vielmehr durch die Rotation des Wassers gegenüber den „fernen Massen“, also der umgebenden Sternmaterie des Universums, hervorgerufen. Nachdem Mach aber keine Theorie darüber vorlegen konnte, wie der Einfluss der fernen Massen denn genau erfolgt, blieb Newtons Erklärung zunächst die beste Erklärung. Jedenfalls kann die Möglichkeit, das Phänomen im Sinne von Leibniz durch lokale Relativbewegungen zu erklären, ausgeschlossen werden. Das zweite Gedankenexperiment handelt von zwei Kugeln, die durch eine Schnur miteinander verbunden sind. Man bringt die Kugeln dazu, um ihren gemeinsamen Massenschwerpunkt herum zu rotieren. Wird die Rotation der Kugeln aufgrund der nach außen gerichteten Zentrifugalkräfte eine Spannung in der verbindenden Schnur hervorrufen? Zweifellos ja, wenn wir den Versuch in unserem Zimmer durchführen. Aber in diesem Fall ist klar, dass die Kugeln
13 Wir
abstrahieren in diesem Gedankenexperiment von Relativbewegungen des Wassers gegenüber der lokalen Umgebung des Eimers – im Idealfall denken wir uns die umgebende Materie einfach weg und lassen den Versuch im leeren Raum stattfinden.
2 Raum
22
g egenüber den Gegenständen im Zimmer rotieren, und wir können nicht wissen, ob die Spannung, die in der Schnur auftritt, nicht nur eine Rotation der Kugeln relativ zu diesen Gegenständen, also relativ zur unmittelbaren Umgebung, anzeigt. Deswegen lässt Newton den Versuch (in Gedanken) in einem Vakuum stattfinden, in dem keine äußeren Gegenstände vorhanden sind, auf die wir die Rotationsbewegung der Kugeln beziehen könnten. Seine Annahme ist nun, dass auch in diesem nur idealiter zu realisierenden Fall eine Spannung in der Schnur auftreten wird, an deren Stärke sich die Rotationsgeschwindigkeit der Kugeln zeigt. Wogegen rotieren die Kugeln, wenn die Spannung in der Schnur ihre Rotation anzeigt? Sie können dann, so schließt Newton, nur gegenüber dem absoluten Raum rotieren (bzw. gegenüber dem absoluten Raum nicht rotieren, wenn keine Spannung in der Schnur auftritt). Wenn man Newtons Annahme teilt, dass auch in einem leeren Raum ein Unterschied existieren würde zwischen rotierenden und nicht-rotierenden Kugeln, wobei nur die rotierenden Kugeln Kräfte in ihren Verbindungen hervorrufen, dann folgt daraus, dass es absolute und nur scheinbare Rotationsbewegungen gibt; Erstere sind Rotationen gegenüber dem absoluten Raum, Letztere nur Rotationen gegenüber materiellen Objekten der Umgebung. Der absolute Raum erweist sich dann als keineswegs überflüssige und fiktive Entität; ganz im Gegenteil muss seine Existenz notwendigerweise angenommen werden, um einem echten Unterschied in der Natur gerecht werden zu können. Eimer-Versuch und rotierende Kugeln demonstrieren – unabhängig davon, welche Theorie man voraussetzt –, dass es in der Natur absolute, nicht auf Relativbewegungen reduzierbare Rotationen gibt, die sich in Trägheitskräften kundtun. Diese Tatsache bleibt bestehen, auch nachdem Newtons Postulat der Existenz eines absoluten Raums als Bezugsobjekt absoluter Rotationen seine Geltung verloren hat. Aber was ist dann das Bezugsobjekt absoluter Rotationen?
2.4 Die Realität der Raumzeit in der allgemeinen Relativitätstheorie Fast genau 200 Jahre nach Leibniz’ Argumenten im Briefwechsel mit Clarke, mit dem Erscheinen von Albert Einsteins Die Grundlage der allgemeinen Relativitätstheorie 1916, haben die Gewichte sich scheinbar endgültig in Richtung der Auffassung von Leibniz verschoben: Das allgemeine Relativitätsprinzip nimmt dem Raum (bzw. der Raumzeit) den „letzten Rest physikalischer Gegenständlichkeit“ (Einstein 1916, S. 776), räumliche und zeitliche Größen existieren danach jedenfalls niemals unabhängig vom materiellen Geschehen, dem Hier und Jetzt materieller Punktereignisse: Die allgemeinen Naturgesetze sind durch Gleichungen auszudrücken, die für alle Koordinatensysteme gelten, d. h. die beliebigen Substitutionen gegenüber kovariant (allgemein kovariant) sind. Es ist klar, dass eine Physik, welche diesem Postulat genügt, dem allgemeinen Relativitätspostulat gerecht wird. Denn in allen Substitutionen sind jedenfalls auch diejenigen enthalten, welche allen Relativbewegungen der (dreidimensionalen) Koordinatensysteme entsprechen. Dass diese Forderung der allgemeinen
2.4 Die Realität der Raumzeit in der allgemeinen Relativitätstheorie
23
Kovarianz, welche dem Raum und der Zeit den letzten Rest physikalischer Gegenständlichkeit nimmt, eine natürliche Forderung ist, geht aus folgender Überlegung hervor. Alle unsere zeiträumlichen Konstatierungen laufen stets auf die Bestimmung zeiträumlicher Koinzidenzen hinaus. Bestände beispielsweise das Geschehen nur in der Bewegung materieller Punkte, so wäre letzten Endes nichts beobachtbar als die Begegnungen zweier oder mehrerer dieser Punkte. Auch die Ergebnisse unserer Messungen sind nichts anderes als die Konstatierung derartiger Begegnungen materieller Punkte unserer Maßstäbe mit anderen materiellen Punkten bzw. Koinzidenzen zwischen Uhrzeigern, Zifferblattpunkten und ins Auge gefassten, am gleichen Orte und zur gleichen Zeit stattfindenden Punktereignissen. (Einstein 1916, S. 776)
Der Kern von Einsteins Argumentation in der obigen Passage liegt in einer scheinbar natürlichen Folgerung: Das allgemeine Kovarianzprinzip führt, so unterstellt Einstein, zur Realisierung eines allgemeinen Relativitätsprinzips, d. h. zu einer Erweiterung des Galilei’schen Relativitätsprinzips14 auf alle möglichen, auch beschleunigten Bewegungen. Das Prinzip der allgemeinen Kovarianz besagt, dass die Bewegungsgesetze der Theorie bei allen möglichen bijektiven und kontinuierlichen Koordinatentransformationen erhalten bleiben. Da solche Transformationen anschaulich Deformationen der Koordinatenlinien unter Erhaltung aller ihrer Schnittpunkte entsprechen, ist es suggestiv anzunehmen, dass eine Welt, in der das Prinzip der allgemeinen Kovarianz gilt, als einzige invariante, reale raumzeitliche Struktur nur mehr Beziehungen raumzeitlicher Koinzidenz (oder NichtKoinzidenz) von Ereignispunkten enthält (vgl. Ryckman 1992). Alle über diese minimale Struktur hinausgehenden raumzeitlichen Strukturen scheinen ihre Invarianz (gegenüber beliebigen Koordinatentransformationen) und damit ihre objektive Bedeutung verloren zu haben.15 Es dauerte nur wenige Jahre, bis die Unhaltbarkeit dieser frühen Interpretation der ART offenbar wurde. Das allgemeine Kovarianzprinzip impliziert kein allgemeines Relativitätsprinzip (vgl. Friedman 1983, S. 26). Denn jeder Raum, unabhängig von seiner geometrischen Struktur, kann mithilfe willkürlich gewählter Koordinaten beschrieben werden – auch Newtons Theorie lässt sich „allgemein kovariant“ formulieren. Zwar existieren in der ART keine global ausgedehnten Inertialsysteme mehr, die kräftefreie Bewegungen repräsentieren. Aber lokal, an jedem Punkt der Raumzeit, können „lokal-geodätische“ Inertial-
14 Galilei
hatte sein Relativitätsprinzip am Bild eines gleichförmig bewegten Schiffes demonstriert: Wenn wir uns in die abgeschlossene Kajüte eines Schiffes begeben, dann werden wir die Relativbewegung des Schiffes gegenüber dem Ufer nicht bemerken, wenn das Schiff in eine gleichförmige Bewegung versetzt wird. Welche physikalischen Experimente wir in der Kajüte auch unternehmen, keines dieser Experimente wird in irgendeiner Weise anders verlaufen als im Ruhezustand des Schiffes. Aus keinem dieser Experimente „werdet Ihr entnehmen können, ob das Schiff fährt oder stille steht“ (Galilei 1982, S. 197). Ruhe und gleichförmige Bewegung sind für sich, abgesehen von beobachtbaren Relativbewegungen von Körpern, physikalisch völlig ununterscheidbare Zustände. 15 Der
Philosoph Moritz Schlick hat diese Konsequenz begrüßt, weil sie die Überzeugungen einer empiristischen Erkenntnistheorie in der Physik, den „Wunsch, in den Ausdruck der Naturgesetze nur physikalisch Beobachtbares aufzunehmen“, erfülle (Schlick 1919, S. 51).
24
2 Raum
systeme bestimmt werden; diese lokalen Inertialsysteme zeigen die affine (oder: geodätische) Struktur der Raumzeit an, die Struktur „gerader“ Linien, denen ein Materieteilchen folgt, wenn es – außer dem Gravitationsfeld – keinen externen Kräften unterliegt. Die Raumzeit der ART besitzt eine an jedem Punkt wohlbestimmte Metrik (inklusive der dadurch festgelegten geodätischen Struktur), die aufgrund ihrer Variabilität von Punkt zu Punkt ein physikalisches Feld aufspannt, das metrische Feld. Dieses Feld besitzt objektive Bedeutung, in keinem Sinn wird „die Metrik durch willkürliche Wahl oder Konvention bestimmt“ (Friedman 1983, S. 26, Übersetzung A.B.). Die Suggestion einer strukturlosen, amorphen Raumzeit, der auch Einstein selbst anfangs ausgesetzt war, ist damit verflogen.16 Damit erhält nun auch die am Ende von Abschn. 2.3 gestellte Frage eine Antwort: „Bezugsobjekt“ absoluter Rotationen ist nicht irgendeine materielle Umgebung, sondern die jeweilige lokal-geodätische Struktur (vgl. Earman 1989, Kap. 4). Die Raumzeit der ART enthält absolute raumzeitliche Objekte: die Metrik, die Raumzeit-Krümmung (die durch die Metrik bestimmt ist), die raumzeitliche Länge einer Weltlinie sowie die absolute Rotation von Materie. Hinsichtlich der in Abschn. 2.2 eingeführten Unterscheidung verschiedener Bedeutungen von „absolut“ sind diese Objekte absolut im Sinn von (i), also invariant, aber nicht absolut im Sinn von (ii), d. h. nicht starr. Stattdessen sind alle raumzeitlichen Größen dynamisch: Sie nehmen teil an den lokalen Wechselwirkungen und sie werden durch die jeweilige Materieverteilung beeinflusst. Die Aussichten einer klassischen relationalistischen Interpretation der Raumzeit im Sinn von Leibniz sind aufgrund der Existenz absoluter raumzeitlicher Objekte in der ART gering: Nicht alle Phänomene in Raum und Zeit lassen sich als Resultat relativer Anordnungen und relativer Bewegungen von Materieteilchen verstehen. Dass diese Konsequenz unvermeidlich ist, kann man schon aus einem der Prinzipien der speziellen Relativitätstheorie ersehen, der Konstanz der Lichtgeschwindigkeit: Die Bewegung einer emittierten Lichtwelle relativ zu der Lichtquelle spiegelt sich nicht in der physikalischen Beschreibung der Wellenausbreitung wider; sie besitzt keine objektive physikalische Bedeutung. Die Lichtausbreitung erfolgt vielmehr stets unabhängig vom relativen Bewegungszustand zwischen Welle und Lichtquelle mit konstanter Geschwindigkeit c. Das Relativitätsprinzip impliziert keinen Vorrang eines relativen gegenüber einem absoluten Bewegungsbegriff und daher keinen Relationalismus, nach dem nur räumliche und zeitliche Relationen Gegenstand einer objektiven Naturbeschreibung sein können. Wenn also die Raumzeit selbst objektive Strukturen besitzt, so müssen die Träger dieser Strukturen, die Raumzeitpunkte (oder kleine Raumzeitbereiche) eigenständige Entitäten sein. Aber was genau kann damit gemeint sein? Die Frage, was ein Raumzeit-Substanzialismus beinhaltet, ist Gegenstand der Debatte, die im nächsten Abschnitt dargestellt wird.
16 Bereits
1920 spricht Einstein von einer tatsächlich existierenden Struktur der Raumzeit, die durch das metrische Feld repräsentiert sei (vgl. Einstein 1920).
2.5 Ein neues Leibniz-Argument
25
2.5 Ein neues Leibniz-Argument Ende der 1980er Jahre entwickelten die Pittsburgher Wissenschaftsphilosophen John Earman und John Norton das „Loch-Argument“ (Hole Argument17), das als eine Art Neuauflage des historischen Leibniz-Arguments gegen die Realität des Raums im Rahmen der ART aufgefasst werden kann. Der Name Loch-Argument entstammt Einsteins berühmter Loch-Betrachtung aus dem Jahr 1913, die zu demonstrieren schien, dass eine kovariante Formulierung der Feldgleichungen unvereinbar mit Einsteins Ziel war, eine eindeutige Bestimmtheit des metrischen Feldes durch die Materieverteilung zu gewährleisten (vgl. Norton 1987). Eine moderne Raumzeittheorie wie die ART kann durch die Klasse ihrer Modelle charakterisiert werden. Diese Modelle m = bestehen aus einer Mannigfaltigkeit M von Punkten (Repräsentanten von physikalischen Raumzeitpunkten) und verschiedenen, durch geometrische Begriffe beschriebenen mathematischen Objekten Oi (Tensoren), durch die Felder auf der physikalischen Raumzeit-Punktmenge dargestellt werden (z. B. das metrische Feld sowie Materiefelder). Die Raumzeitpunkte fungieren als „Träger“ der Feldgrößen, analog zur Besetzung von Raumpunkten durch Materieteilchen in Newtons Theorie. Wie in Leibniz’ historischem Argument wird auch im Loch-Argument ein Modell m durch eine Symmetrietransformation in ein Modell m’ überführt, wobei die beobachtbaren physikalischen Eigenschaften von m durch die Transformation nicht verändert werden. Alle metrischen Relationen werden exakt dupliziert und eine Geodäte des Urbildmodells, also eine Kurve, die ein frei fallender Körper in der Raumzeit beschreibt, geht in eine Geodäte des Bildmodells über. Im Unterschied zum klassischen Argument findet die Transformation jedoch nicht auf einer Menge von Raumpunkten, sondern von Raumzeitpunkten statt; es werden auch nicht einfach Materieteilchen verschoben (bzw. gespiegelt), sondern verschiedene Feldgrößen, zu denen Materiefelder, aber auch das metrische Feld gehören. Man kann nun die Transformation so wählen, dass sie im „Vergangenheitsbereich“, also für Punkte, die relativ zu einem gewählten „Jetzt“-Zeitpunkt t = 0 in der Vergangenheit liegen18, die Identität darstellt; die Felder werden hier nicht auf der Punktmenge verschoben, im Besonderen bleibt die Verteilung der Materie erhalten. Im „Zukunftsbereich“ – er entspricht dem materiefreien „Loch“ in Einsteins Loch-Betrachtung – soll dagegen die Transformation zu einer echten
17 Eine
Vorform dieses Arguments, die für die Newton’sche Raumzeit formuliert war, wurde von Howard Stein 1977 präsentiert – vgl. dazu Earman (1989, S. 55 f.). 18 Hier
wird vorausgesetzt, dass das Urbildmodell m zu einer besonderen Klasse von Modellen der ART gehört, den global-hyperbolischen Modellen, die Cauchy-Flächen enthalten. Diese Flächen repräsentieren räumliche Schnitte durch die Raumzeit, die ähnlich wie in einer Newton’schen Raumzeit als Klasse gleichzeitiger Punkte in Bezug auf eine „kosmische Zeit“ interpretiert werden können. „Vergangenheit“ und „Zukunft“ haben dann hinsichtlich einer solchen Schnittfläche eine objektive, nicht bezugssystemabhängige Bedeutung.
26
2 Raum
Verschiebung der Felder auf der Punktmenge führen. Dies bedeutet, dass im Bildmodell m′ die entsprechenden Feldgrößen jeweils an anderen Raumzeitpunkten „festgemacht“ sind als im Urbildmodell m. Die Symmetrie hat zu einer Neuanordnung der Felder auf der Punktmenge geführt – jeder Punkt erhält neue metrische Eigenschaften –, ohne dass damit ein physikalisch beobachtbarer Unterschied der Modelle verbunden wäre.19 Mit dem Urbildmodell m ist auch das Bildmodell m′ ein zulässiges Modell der ART, das deren Feldgleichungen erfüllt.20 Anders als im Kontext des klassischen Leibniz-Arguments genügt es zur Verteidigung der Realität, also der unabhängigen Existenzweise der Raumzeitpunkte, nicht mehr einfach, ins Feld zu führen, dass die Belegung eines Raumzeitpunktes mit einer neuen, metrischen Feldgröße im Bildmodell m' einen physikalisch relevanten Unterschied ausmache, während nach relationalistischer Auffassung eben nur physikalisch Beobachtbares relevant sei. Denn die Neuanordnung des metrischen Feldes auf der Punktmenge hat aus Sicht des Raumzeit-Substanzialismus die Konsequenz, dass das Modell m im Zeitpunkt t = 0 auf verschiedene Weise in die Zukunft fortgesetzt werden kann, nämlich mit dem Zukunftsbereich von m oder jenem von m’, ohne dass die Theorie eine der beiden möglichen Fortsetzungen bevorzugen würde. Das Urbildmodell m „spaltet“ also in t = 0 in zwei verschiedene mögliche Zukunftsmodelle auf, was auf einen Indeterminismus im Zeitpunkt t = 0 hinausläuft. Da dieser Indeterminismus physikalisch unbegründet ist, weil er inmitten einer vollkommen deterministischen Theorie auftritt, liegt der Schluss nahe, dass es die Annahme der Realität der Raumzeitpunkte ist, die zu dieser unmotivierten und daher unannehmbaren Konsequenz führt. Die Annahme der Realität der Raumzeit gerät also durch das moderne Loch-Argument in Schwierigkeiten, die über jene des klassischen Arguments weit hinausgehen: Während der Substanzialismus durch das klassische Argument lediglich zur Verteidigung theoretischer, nicht beobachtbarer Entitäten herausgefordert war, scheint nun ein Konflikt mit dem üblichen (deterministischen) Verständnis einer etablierten Theorie unvermeidlich. Das Loch-Argument zwingt uns daher, den Raumzeit-Substanzialismus zu überdenken. Was genau sind Raumzeitpunkte und was bedeutet es, ihnen Realität zuzusprechen? Eine erste, naheliegende Reaktion auf das oben geschilderte Dilemma, die auch die physikalische Standardliteratur dominiert (z. B. Wald 1984, S. 438),
19 Die
scheinbare Unvereinbarkeit mit dem Postulat der eindeutigen Bestimmtheit des metrischen Feldes durch die Materieverteilung resultierte aus Einsteins Sicht daraus, dass die Verschiebung der Felder auf der Punktmenge einer nach Kovarianzprinzip zulässigen Koordinatentransformation entspricht, die nichts an der physikalischen Situation ändern sollte. Aber die Verschiebung des metrischen Feldes auf der Punktmenge scheint die physikalische Situation zu ändern, sie führt zu einem neuen metrischen Feld mit der Folge, dass die Materieverteilung außerhalb des Lochs das metrische Feld innerhalb des Lochs offenbar nicht eindeutig bestimmt.
20 Würde
man dagegen Leibniz’ Spiegelung der Materie im Rahmen der ART ausführen, so wäre das Resultat im Allgemeinen nicht mit Einsteins Feldgleichungen verträglich.
2.5 Ein neues Leibniz-Argument
27
wird häufig als Leibniz-Äquivalenz bezeichnet. Sie lässt sich nicht auf einen möglichen Indeterminismus ein, den sie als Folge einer unangemessenen Auffassung der Realität von Raumzeitpunkten betrachtet. Die Modelle m und m’, die sich nur durch die Anordnung des metrischen Feldes auf der Punktmenge unterscheiden, sind nach dieser Interpretation äquivalente Darstellungen ein und derselben physikalischen Realität (ganz im Sinne von Leibniz’ klassischer Argumentation); die Mannigfaltigkeitspunkte, die in den Modellen verwendet werden, sind bloße Darstellungsmittel, die nicht etwa einzeln als Repräsentanten realer Raumzeitpunkte missverstanden werden dürfen. Der Antirealismus wendet sich hier nicht gegen die Realität von Raumzeitpunkten im Allgemeinen, sondern nur gegen einen Realismus in Bezug auf Mannigfaltigkeitspunkte (vgl. u. a. Earman 1986; Earman und Norton 1987): Missversteht man Mannigfaltigkeitspunkte als Repräsentanten individueller Raumzeitpunkte, kann die Tatsache ihrer Belegung durch verschiedene Werte des metrischen Feldes das Missverständnis hervorrufen, es handele sich um verschiedene physikalische Situationen. In gewisser Weise zieht die Leibniz-Äquivalenz Lehren aus Leibniz’ klassischem Argument. Aber, wie schon in Abschn. 2.3 erwähnt, hatte Leibniz keine Antwort auf die empirische Realität von Rotationsbewegungen – diese deuten ebenso wie Vakuummodelle der ART oder die Existenz von eigenständigen raumzeitlichen Objekten wie schwarzen Löchern darauf hin, dass die Raumzeit eben doch eine kausal wirksame Entität darstellt.21 Mit der Annahme der Leibniz-Äquivalenz kann daher das Kapitel der Realität der Raumzeit noch nicht geschlossen werden. Jeremy Butterfield (1989)22 hat seine Reaktion auf das Loch-Argument auf David Lewis’ Konzeption möglicher Welten gestützt. In möglichen Welten existieren qualitativ ähnliche Gegenstücke (Counterparts) der Gegenstände unserer aktuellen Welt. Das Loch-Argument handelt nach Butterfields Auffassung von solchen möglichen raumzeitlichen Welten, in denen z. B. ein bestimmter Ereignispunkt23 p unserer Welt (dargestellt durch Modell m) ein Gegenstück p’ in einer möglichen Welt besitzt, die sich durch eine Neuanordnung des metrischen Feldes unterscheidet (dargestellt durch Modell m’). Das Gegenstück p’ von p in der durch m’ dargestellten Welt ist ein verschiedener Ereignispunkt, an dem das metrische Feld aber dieselben Werte annimmt, die es in der durch m dargestellten Welt an Ereignispunkt p besitzt. Modell m’ führt uns eine Welt vor Augen, in
21 Die
Wirksamkeit der Raumzeit drückt sich in der ART ganz grundsätzlich dadurch aus, dass die Metrik an einem Raumzeitpunkt (bzw. in einem Raumzeitgebiet) Materieteilchen beeinflusst – sowohl durch die von der Metrik abhängige Geodätenstruktur als auch durch die Raumzeitkrümmung, die zu Deformationen von Materieteilchen führt.
22 Vgl. 23 Ich
auch die Darstellung in Maudlin (2012, S. 150).
spreche hier von Ereignispunkten, um deutlich zu machen, dass von Raumzeitpunkten in einem physikalischen Sinn die Rede ist, also von Punkten, an denen physikalische Eigenschaften auftreten.
28
2 Raum
der die qualitativen raumzeitlichen Eigenschaften von Ereignispunkten unserer Welt für andere Ereignispunkte auftreten. Damit ist aber klar, dass alle raumzeitlichen Relationen, die für Ereignispunkte p und q in unserer Welt gegeben sind, in der durch m’ dargestellten Welt dupliziert werden, wenn auch durch die entsprechenden Bildereignispunkte p’ und q’. Wenn beispielsweise p und q in unserer Welt zeitartig miteinander verbunden sind (d. h. ein physisches Signal kann q von p aus erreichen), dann gilt dasselbe auch für ihre Gegenstücke p’ und q’ in der durch m’ dargestellten Welt. Der Determinismus sollte nun, so Butterfield, von einer Raumzeittheorie nicht mehr fordern, als die Struktur der Theorie hergibt; dies bedeutet für die ART, dass die raumzeitlichen Relationen zu einem früheren Zeitpunkt die raumzeitlichen Relationen zu einem späteren Zeitpunkt eindeutig festlegen sollten, ohne zugleich die Ereignispunkte zu fixieren, an denen diese Relationen realisiert werden. Nach Butterfields relationalistischem Verständnis der ART führt das Loch-Argument also zu keinem Indeterminismus. Auch Tim Maudlin (1988, 1990, 2012) interpretiert die verschiedenen Modelle des Loch-Arguments als Darstellungen verschiedener Welten. Nehmen wir an, Modell m stellt die Ereignispunkte p und q als zeitartig miteinander verbunden dar. Anders als Butterfield sieht aber Maudlin im Modell m’ nicht qualitativ identische Gegenstücke von p und q (die wir p’ und q’ genannt haben). Stattdessen nimmt er an, dass m’ (aufgrund der Neuanordnung des metrischen Feldes) dieselben individuellen Ereignispunkte p und q mit anderen metrischen Eigenschaften repräsentiert als m. Während alle metrischen Relationen, in denen p und q stehen, durch die Neuanordnung auf die Bildpunkte p’ und q’ übertragen werden, bleiben sie für p und q selbst nicht erhalten. Die Verschiebung der Metrik hat z. B. zur Folge, dass p und q in m’ nicht mehr zeitartig miteinander verbunden sind. Aber p und q beziehen sich auf wirkliche Ereignispunkte unserer Welt, die bestimmte Relationen erfüllen, also z. B. tatsächlich zeitartig miteinander verbunden sind. Wenn m’ nun p und q als nicht zeitartig miteinander verbunden darstellt, dann repräsentiert m’ eine Welt, wie sie tatsächlich nicht ist. Dies würde nun zunächst nicht dagegen sprechen, m’ als Repräsentation einer möglichen Welt zu betrachten, als eine Version, wie unsere Welt sein könnte (aber nicht tatsächlich ist). Aber nicht alle abweichenden Versionen unserer Welt müssen wir als mögliche Welten akzeptieren. Wenn z. B. eine abweichende Version unserer Welt den aktuellen Bundeskanzler als Primzahl repräsentiert, dann stellt diese Version keine mögliche Welt dar – es ist eine essentielle Eigenschaft des aktuellen Bundeskanzlers, ein Mensch zu sein. Anderenfalls kann es sich eben nicht um eine Repräsentation dieser Person handeln. In derselben Weise sind Relationen wie die zeitartige Verbundenheit essentiell für die Identität von Ereignispunkten: Wenn p und q tatsächlich zeitartig miteinander verbunden sind, dann könnte es unmöglich der Fall sein, dass sie es nicht sind. Das Modell m’ zeigt uns also nicht unsere Welt, wie sie auch sein könnte, sondern eine Welt, wie sie nicht sein könnte: m’ repräsentiert eine unmögliche Welt. Daraus folgt, dass wir nur das Modell m, nicht aber m’ physikalisch ernst nehmen müssen, wodurch der Determinismus gerettet wird.
2.5 Ein neues Leibniz-Argument
29
Die Überzeugungskraft dieser Argumentation hängt davon ab, ob wir die Essentialität24 jener metrischen Relationen akzeptieren, die zwischen den Raumzeitpunkten unserer Welt existieren. Mit anderen Worten: Wir müssen akzeptieren, dass die Identität eines Raumzeitpunktes durch die metrischen Relationen gegeben ist, in denen er zu anderen Raumzeitpunkten steht. Ein bestimmter individueller Raumzeitpunkt, z. B. in der Nähe unserer Erde, hätte nicht mit anderen metrischen Eigenschaften und Relationen auftreten können als jenen, mit denen er tatsächlich auftritt. Nachdem ein naiver Realismus, der die bloßen Punkte der Mannigfaltigkeit mit realen Raumzeitpunkten identifiziert, wie gesehen, das Dilemma eines unmotivierten Indeterminismus erzeugt, scheint dies ein plausibler Ausweg zu sein: Erst wenn wir die Punkte der Mannigfaltigkeit mit spezifischen metrischen Eigenschaften und Relationen anreichern, können wir sie als Repräsentanten individueller Raumzeitpunkte auffassen. Dies ist die Auffassung des metrischen Essentialismus (vgl. u. a. Maudlin 1989; Bartels 1996; Esfeld 2009; Lam und Esfeld 2012). Wenn man sich dieser Sichtweise anschließt, verliert allerdings Maudlins Antwort auf das Loch-Argument ihre Plausibilität. Denn die Punkte p und q im Modell m’ besitzen aufgrund der Neuanordnung der Metrik im Allgemeinen nicht mehr jene metrischen Eigenschaften, die sie zu Repräsentanten von Raumzeitpunkten unserer Welt machen (dies ist ja nach Maudlin gerade der Grund dafür, sie als Repräsentanten von Gegenständen einer möglichen Welt auszuschließen). Wenn man nach den Punkten im Modell m’ sucht, die in diesem Modell dieselben Raumzeitpunkte repräsentieren, die durch p und q im Modell m dargestellt werden, so findet man sie in Gestalt der Punkte p’ und q’ – denn diese Punkte sind es in m’, die die metrischen Eigenschaften von p und q in m besitzen. Der metrische Essentialismus legt also den Schluss nahe, dass beide Modelle, m und m’, im Sinne der Leibniz-Äquivalenz dieselbe Welt darstellen, wobei der Unterschied in der Darstellung darin besteht, dass jeweils verschiedene Mannigfaltigkeitspunkte zur Repräsentation eines (durch seine metrischen Eigenschaften charakterisierten) Raumzeitpunktes verwendet werden. Diese Auflösung erklärt auch, weshalb Einstein die Verwirrung, die er durch die Loch-Betrachtung bei sich selbst ausgelöst hatte, bald überwinden konnte: Die „Verschiebung“ der Metrik auf der Punktmenge erzeugt eben nicht ein verschiedenes metrisches Feld, sondern stellt nur wieder dasselbe Feld dar, mit vertauschten Mannigfaltigkeitspunkten als Basismenge. Der metrische Essentialismus gibt eine Antwort auf die Frage, wodurch ein Raumzeitpunkt zu etwas „Realem“ wird. Das in der modernen Auffassung physikalischer Erkenntnis dominierende Kriterium der Realität ist das Kriterium der kausalen Wirksamkeit. Raumzeitpunkte können kausal wirksam werden – dies erscheint nur vor dem längst überholten Hintergrund eines starren Raumes
24 Eine
Eigenschaft oder Relation gilt als essentiell für einen Gegenstand, wenn dieser Gegenstand nicht existieren würde, ohne diese Eigenschaft zu besitzen bzw. diese Relation zu erfüllen.
30
2 Raum
als Arena des physikalischen Geschehens paradox. Die kausale Wirksamkeit von Raumzeitpunkten ergibt sich aber erst aufgrund ihrer metrischen Eigenschaften und Relationen, nicht schon aus ihrer Zugehörigkeit zur Menge der Mannigfaltigkeitspunkte: Der Metriktensor an einem Punkt bestimmt die Komponenten des Krümmungstensors, die ihrerseits festlegen, welche messbaren Verformungen ein Körper in einer bestimmten Raumzeitregion erleidet. Ein Astronaut kann aufgrund solcher messbaren Wirkungen feststellen, an welchem raumzeitlichen „Ort“ er sich gerade befindet. Die kausale Identität eines Raumzeitpunktes, d. h. die Identität, die er aufgrund seiner kausalen Wirksamkeit besitzt, wird also in erster Linie durch die Werte des metrischen Feldes an diesem Punkt bestimmt. Dies erinnert an Aristoteles’ Konzeption von Einzeldingen als Substanzen in seiner Metaphysik25. Substanzen, unabhängig existierende Einzeldinge, besitzen nach Aristoteles ihre Identität aufgrund der ihnen innewohnenden und ihr Verhalten bestimmenden essentiellen Eigenschaften – ohne die sie nicht die Gegenstände wären, die sie sind. Die Konzeption von Substanz als Substrat, als Basismaterial, aus dem konkrete Einzeldinge „gemacht“ sind, stellt dagegen nach Aristoteles eine gedankliche Abstraktion dar, in der nur die „Materie“ eines Einzeldings, nicht aber seine spezifische „Form“ erfasst wird, die es erst zu dem macht, was es ist.
2.6 Ontologische Optionen des RaumzeitSubstanzialismus Das Ergebnis von Abschn. 2.5 war, dass es die metrischen Eigenschaften und Relationen sind, die Raumzeitpunkte zu realen Einzeldingen machen. Dies eröffnet verschiedene ontologische Optionen für einen modernen Substanzialismus der Raumzeit. Die leitende Fragestellung kann dabei wie folgt formuliert werden: Gibt es zwei unabhängige Substanzen, Raumzeit und Materie (Dualismus), oder nur eine, Raumzeit oder Materie (Monismus)? – Und, sollte der Dualismus zutreffen, wie sind dann Raumzeit und Materie aufeinander bezogen, mit der Raumzeit als Basisstruktur für die Materie oder „hierarchiefrei“ als Nebeneinander verschiedener Felder, des metrischen Feldes und der materiellen Felder? Untersuchen wir zunächst diese letzte Frage nach der Beziehung zwischen Raumzeit und Materie unter Voraussetzung des Dualismus. Es ist weiterhin möglich, die Raumzeit, so wie früher Raum und Zeit, als fundamentalen Träger für materielle Teilchen und Felder zu verstehen – wobei freilich die Metrik die Punkte der Raumzeit erst individuiert und ihnen eine aktive
25 Vgl.
Aristoteles, Metaphysik Z. Eine ausführlich kommentierte Neuausgabe, die besonders die Aktualität der Aristotelischen Metaphysik für moderne wissenschaftliche Fragestellungen unterstreicht, ist Frede und Patzig (1988).
2.6 Ontologische Optionen des Raumzeit-Substanzialismus
31
Rolle im physikalischen Geschehen verleiht. Eine zweite Option besteht darin, die Trägerfunktion von Raum und Zeit aufzugeben und die Raumzeit als gleichberechtigtes physikalisches Feld neben den materiellen Feldern zu betrachten. Da das metrische Feld Energieinhalt besitzt – es vermittelt Gravitationswirkungen –, steht es in dieser Hinsicht auf einer Stufe mit materiellen Feldern, wodurch die tradierte Unterscheidung zwischen Raum und Zeit auf der einen und Materie auf der anderen Seite ihre Schärfe verliert. Ein Problem der ersten Version, Manifold Plus Metric Substantivalism (vgl. Hoefer 1996), besteht darin, dass Raumzeitpunkte nicht vollständig individuiert werden können, sobald eine Raumzeit irgendwelche Symmetrien aufweist: Eine qualitative Unterscheidung verschiedener Raumzeitpunkte mittels ihrer metrischen Eigenschaften ist dann nämlich nicht in jedem Fall möglich. Wenn man eine primitive Identität für Raumzeitpunkte ausschließt,26 bleibt noch ein Pfeil im Köcher: die numerische Identität. Zwei qualitativ identische Raumzeitpunkte können verschiedene Punkte sein, obgleich wir die „Welcher-ist-welcher“Frage in diesem Fall nicht beantworten können: Es handelt sich eben um zwei Punkte, nicht um einen Punkt – Leibniz’ Principium identitatis indiscernibilium zum Trotz. Die Auffassung von Raumzeitpunkten als physikalische Individuen, deren qualitative Identität durch essentielle metrische Eigenschaften bestimmt ist, kann damit aufrechterhalten bleiben. Die zweite Version des Dualismus identifiziert die Raumzeit mit dem metrischen Feld, das aber nicht als Träger materieller Felder fungiert, sondern vielmehr neben den materiellen Feldern existiert. Da das metrische Feld eine relationale Struktur darstellt, wird der Raumzeit-Substanzialismus hier zum Anwendungsfall eines ontologischen Strukturenrealismus (vgl. Bartels 2012, S. 39). Diese Form des Realismus, der ganze Strukturen als eigenständige Entitäten auffasst, zieht eine Konsequenz aus der Tatsache, dass in der ART – ebenso wie in der Quantenmechanik – keine intrinsisch27 individuierten Gegenstände vorkommen. Eine radikale Version des Strukturenrealismus läuft auf die Elimination individueller Objekte, in diesem Fall Raumzeitpunkte, hinaus: „Structure is all there is“ (vgl. French und Ladyman 2003). Diese Version hat mit dem Vorwurf zu kämpfen, dass kaum verständlich ist, wie Relationen ohne Relata existieren sollen. Ein moderater Strukturenrealismus, der diese unerwünschte Konsequenz vermeidet, besteht darin, die Relata als relational individuierte Objekte zu verstehen – als Objekte, deren Identität durch alle Relationen bestimmt ist, in denen sie zu den anderen Elementen derselben Struktur stehen (vgl. Esfeld und Lam 2008; Lam und Esfeld 2012).
26 Gemeint
ist eine Identität, die durch den Besitz der exklusiven Eigenschaft zustande kommt, genau dieser Punkt zu sein. Ein raffinierter Raumzeit-Substanzialismus sollte eine solch brachiale Methode der Individuierung ausschließen (vgl. Pooley 2006, S. 101). 27 Die Individuierung eines Punktes durch seine metrischen Eigenschaften ist keine intrinsische Individuierung, weil durch die Metrik ausschließlich Relationen zu Punkten in ihrer unmittelbaren Umgebung spezifiziert werden.
2 Raum
32
Ein dualistischer Substanzialismus lässt sich also in beiden der oben erläuterten Versionen vertreten. Es ist aber auch ein monistischer Substanzialismus denkbar, ein Super-Substanzialismus, nach dem es nur eine Substanz in der Welt gibt, die Raumzeit28 (vgl. Lehmkuhl 2012, 2018). Eine solche Auffassung wäre im Rahmen der klassischen Physik nur im Sinn eines leeren absoluten Raums denkbar gewesen – aber da wir offenbar nicht in einem leeren Universum leben, ist dies nur eine fiktive Möglichkeit. Im Rahmen der ART dagegen stellt eine Welt, die (nur) aus Raumzeit „besteht“, mehr als nur eine Fiktion dar. Natürlich wird hier nicht einfach die offensichtliche Existenz der Materie geleugnet. Behauptet wird vielmehr eine Abhängigkeit der Materie von der Substanz Raumzeit – abhängige Entitäten sind selbst keine Substanzen. Für eine Abhängigkeit in dieser Richtung spricht die Existenz von Vakuumwelten als zulässige Lösungen der Feldgleichungen: Es ist zwar Raumzeit ohne Materie, aber nicht Materie ohne Raumzeit möglich; die Raumzeit genießt also gewissermaßen ontologischen Vorrang: [The theory] allows for spacetime to exist without matter, but not for matter to exist without spacetime. Furthermore … in GR [General Relativity] it is in general not possible to assign the property of possessing mass-energy, essential for a field to be a matter field, without reference to the spacetime metric. (Lehmkuhl 2018, S. 33)
Unter einer „Abhängigkeit“ der Materie von der Raumzeit können nun aber ganz verschiedene Dinge verstanden werden. Descartes beispielsweise identifizierte materielle Objekte mit Raumzeitgebieten, was voraussetzt, dass die materiellen Eigenschaften auf räumliche Ausdehnung reduzierbar sind (vgl. Schaffer 2009). Diese Art der Reduktionsbeziehung findet in der ART sicher keine Entsprechung – wie Materiefelder sich entwickeln, kann nicht darauf reduziert werden bzw. steht nicht dadurch bereits fest, wie das metrische Feld sich verhält (vgl. Lehmkuhl 2018, S. 36). Man könnte eine Abhängigkeit der Materie von der Raumzeit auch darin begründet sehen, dass anstelle materieller Objekte den Raumzeitgebieten materielle Eigenschaften wie Masse oder Ladung zugeschrieben werden können. Aber gibt es dafür auch gute physikalische Gründe? Nur wenn es solche Gründe gäbe, könnte diese Option der „Zuschreibung“ einen Erkenntniswert besitzen. Ein physikalisches Programm, das Zuschreibungen materieller Eigenschaften zu Raumzeitgebieten einen zwingenden physikalischen Grund verleiht, ist von John Archibald Wheeler in seiner „Geometrodynamik“ durchgeführt worden (Wheeler 1966). Nach diesem Programm sollten verschiedene materielle Eigenschaften durch raumzeitliche Eigenschaften, im Besonderen durch Krümmungseigenschaften entsprechender Raumzeitgebiete, physikalisch erklärt werden: gekrümmte leere Raumzeit als Baumaterial der Welt. Allerdings ist Wheelers Programm aus physikalischen Gründen gescheitert (unter anderem konnte die Stabilität materieller
28 Der
klassische Relationalismus behauptet, dass sich alle räumlichen und zeitlichen Bestimmungen auf materiell realisierte Relationen reduzieren lassen. Dies entspricht einem Monismus, der als einzige Substanz in der Welt die Materie betrachtet. Die absoluten Eigenschaften der Raumzeit geben dieser Auffassung im Rahmen der ART allerdings keine Chance.
2.7 Geometrische versus dynamische Interpretation der Raumzeit
33
Teilchen nicht ausreichend rekonstruiert werden). Auch die jüngste Entwicklung der Physik scheint nicht in Richtung eines Super-Substanzialismus zu weisen: Die Quantenfeldtheorien der Materie gelten heute als die fundamentalen Theorien der Welt, während die ART als klassische, nicht quantisierte Theorie nur für niedrige Energien (bzw. für kosmologische Dimensionen) begrenzte Gültigkeit zu besitzen scheint. Materietheorien repräsentieren die fundamentalen Bestandteile der Welt und es stellt sich die Frage, wie daraus raumzeitliche Strukturen gewonnen bzw. verständlich gemacht werden können. In Abschn. 2.7 werden wir uns daher mit Harvey Browns neorelationalistischer Deutung der Relativitätstheorien beschäftigen, dem dynamischen Ansatz (Brown 2005), in dem die geometrische Bedeutung der Eigenschaften des metrischen Feldes nicht als „intrinsisch“ gegeben, sondern als abhängig von Eigenschaften der Materie verstanden wird.
2.7 Geometrische versus dynamische Interpretation der Raumzeit Wie schon früher erwähnt, unterstützt schon die spezielle Relativitätstheorie kein relationalistisches Verständnis der Raumzeit: Die Konstanz der Lichtgeschwindigkeit erscheint von einem Standpunkt, von dem aus nur relative Bewegungen objektiv sind, rätselhaft. Schließlich spiegelt sich die relative Bewegung zur Lichtquelle in keiner Weise in der objektiven Beschreibung der Lichtausbreitung wider. Dieses Rätsel verschwindet, sobald man auf die von Hermann Minkowski gefundene vierdimensionale Beschreibung der geometrischen Struktur von Raum und Zeit zurückgreift. Diese Struktur enthält eine absolute, der Raumzeit eigentümliche Unterscheidung zwischen inertialen (kräftefreien) und nicht-inertialen Trajektorien. Ein Lichtsignal, das von einem Raumzeitpunkt p ausgeht, breitet sich auf einer inertialen Trajektorie auf der Außenfläche des in p zentrierten „Zukunftslichtkegels“ aus, und zwar gleichgültig, in welchem Bewegungszustand sich die Lichtquelle an p befindet. Die Lichtausbreitung ist in diesem Sinn ein „absoluter“, in der Sprache objektiver geometrischer Strukturen ausdrückbarer Vorgang. Er folgt einer intrinsischen, von Bezugssystemen unabhängigen Struktur der Raumzeit. Die Prinzipien der speziellen Relativitätstheorie, Konstanz der Lichtgeschwindigkeit und Relativitätsprinzip, haben keineswegs zur Elimination absoluter raumzeitlicher Strukturen geführt. Ebenso wenig wie die Prinzipien der speziellen Relativitätstheorie hat das Äquivalenzprinzip – das zentrale Prinzip der ART – den Relationalismus begünstigt. Für Einstein bedeutete dieses Prinzip zunächst, dass Gravitation und Trägheit „wesensgleich“ sind (vgl. Lehmkuhl 2021, S. 125 f.). Dies wird dadurch dokumentiert, dass ein Beobachter grundsätzlich nicht zwischen dem Zustand gleichförmiger Beschleunigung außerhalb von Gravitationsfeldern und dem „Ruhezustand“ innerhalb eines Gravitationsfeldes unterscheiden kann. Er wird in beiden Fällen eine gleich große Kraft bemerken, die ihn „nach unten“ zieht, z. B. gegen den Boden des Kastens, in dem er sich gerade befindet; diese Kraft kann er entweder als Trägheitswirkung interpretieren, die aufgrund der Beschleunigung des Kastens „nach
34
2 Raum
oben“ auftritt, oder als Wirkung eines Gravitationsfeldes auf den „ruhenden“ Kasten. Während Einstein das Äquivalenzprinzip im Jahr 1922 als den „glücklichsten Gedanken seines Lebens“ bezeichnete, gesteht John L. Synge (1960) im Vorwort seines Buches über die ART, er sei nie in der Lage gewesen, Einsteins Äquivalenzprinzip zu verstehen. Soll dieses Prinzip bedeuten, so fragt Synge, dass die Wirkungen eines Gravitationsfeldes ununterscheidbar von den Wirkungen der Beschleunigung des Beobachters seien? Wenn dies seine Bedeutung ist, dann sei das Prinzip einfach falsch. In Einsteins Theorie, so Synge weiter, gibt es entweder ein Gravitationsfeld oder es gibt keines, je nachdem, ob eine „Krümmung“ der Raumzeit vorhanden ist oder nicht. Es handelt sich dabei um eine objektive Tatsache, die unabhängig von allen Perspektiven besteht oder nicht besteht. Das ursprüngliche Äquivalenzprinzip, so wie Einstein es verstanden hat, habe, so Synge, seine Hebammenfunktion für die ART erfüllt und könne nun in Ehren beerdigt werden. Synges scharfe Kritik unterminiert nicht die fruchtbare Rolle des Äquivalenzprinzips (seine „Hebammenfunktion“): Es hat den entscheidenden Anstoß dazu gegeben, Gravitation und Trägheit in einer gemeinsamen Raumzeitstruktur zu verschmelzen. Damit ist aber keine Eliminierung objektiver geometrischer Strukturen der Raumzeit verbunden gewesen: Solche objektiven geometrischen Strukturen sind die raumzeitliche Länge zwischen zwei Raumzeitpunkten, gemessen durch die Eigenzeit einer mitbewegten idealen Uhr, die Geodäten der Raumzeit, relativ zu deren lokalem Verlauf z. B. die Erde ihre tägliche Rotation ausführt, und die Gezeitenkräfte oder allgemein die Wirkungen von Gravitationsfeldern. Diese Einsicht hat eine geometrische Interpretation der ART befördert, die ab den 1960er Jahren dominierend wurde: Geometrische Strukturen übernehmen darin die Rolle der Erklärung aller mit der Raumzeit zusammenhängenden physikalischen Phänomene. So gab Graham Nerlich (1994) seinem einflussreichen Werk zur Interpretation der ART den Titel What Spacetime Explains. Ein Beispiel geometrischer Erklärung stellen Newtons rotierende Kugeln dar: Die Spannung in der verbindenden Schnur resultiert aus der Bewegung der Kugeln relativ zur objektiven und intrinsischen geometrischen Struktur der Raumzeit – sie würde folglich auch dann auftreten, wenn die beiden Kugeln die einzigen materiellen Objekte im Universum wären (vgl. Maudlin 2012, S. 126). Ein anderes Beispiel geometrischer Erklärungen bietet das mit Rätseln behaftete sogenannte Zwillingsparadoxon: Zwillinge A und B, die an einem Punkt der Raumzeit getrennte Wege einschlagen, bis sie schließlich wieder an einem Punkt zusammentreffen, werden auf ihren Wegen unterschiedlich stark altern. Diese erstaunliche Tatsache – die inzwischen mit auf verschiedenen Wegen transportierten Uhren auch experimentell bestätigt worden ist – scheint schlecht damit vereinbar zu sein, dass der unterschiedliche Gang von Uhren, den die spezielle Relativitätstheorie für gleichförmig bewegte Bezugssysteme vorhersagt, ein symmetrisches Phänomen ist. Nehmen wir an, Zwilling A befinde sich auf seinem ganzen Weg in „Ruhe“, während Zwilling B gegen A gleichförmig bewegt ist (diese Beschreibung verwendet den Körper von A als Bezugssystem). Wenn Zwilling A die Uhr des gleichförmig bewegten Zwillings B langsamer gehen sieht, muss auch Zwilling B, aus dessen Sicht A mit gleichförmiger Geschwindigkeit
2.7 Geometrische versus dynamische Interpretation der Raumzeit
35
bewegt ist, die Uhr von A langsamer gehen sehen. Das Rätsel besteht nun darin, dass diese völlig symmetrische Situation offenbar zu einem asymmetrischen Ergebnis führt (A ist stärker gealtert als B). Eine höchst einfache und überzeugende Auflösung des Rätsels kann mit geometrischen Mitteln erfolgen: Wenn Zwilling B einen raumzeitlichen Weg zurückgelegt hat, der näher an der Außenfläche der jeweiligen Lichtkegel gelegen ist (Wege auf der Außenfläche des Lichtkegels entsprechen der Lichtausbreitung mit raumzeitlicher Länge 0), dann hat er den kürzeren raumzeitlichen Weg zurückgelegt – seine Uhr, die die Eigenzeit auf diesem Weg misst, zeigt eine kürzere Zeitspanne an. Das Zwillingsparadoxon, das häufig zu komplizierten Überlegungen unter Verwendung verschiedener Bezugssysteme Anlass gegeben hat, kann also mit dem einfachen Hinweis auf eine objektive geometrische Eigenschaft der Raumzeit, die absoluten Längen raumzeitlicher Wege, erklärt werden. Während in der Frühphase der ART der Relationalismus dominierte, ist die geometrische Interpretation der ART seit den 1960er Jahren zur Standardauffassung geworden. In den meisten Lehrbüchern, aber auch in populären Darstellungen der Theorie, wird das metrische Feld, die auf alle Punkte der Raumzeit erstreckte Metrik, als Träger intrinsischer geometrischer Strukturen präsentiert. Dass Schwarze Löcher als durch ihre intrinsische Geometrie definierte Objekte kausale Wirkungen auf Materie ausüben können, gehört inzwischen zum Allgemeinwissen – so wie sich im 19. Jahrhundert der Gedanke durchgesetzt hat, dass das elektromagnetische Feld ein eigenständiges kausales Agens darstellt. Problematisch ist dabei nicht, dass der Metriktensor selbst als geometrisches Objekt verstanden wird – schließlich beschreibt dieser Tensor räumliche und zeitliche Abstände. Aber es versteht sich keineswegs „von selbst“, dass das raumzeitliche Verhalten materieller Objekte dieser geometrischen Struktur folgt: Wenn die Geometrie der Materie „vorschreibt“, wie sie sich zu bewegen hat, wie nimmt die Materie diese Vorschrift überhaupt wahr und weshalb befolgt sie diese Vorschrift? Wie kommt es, dass Uhren und Maßstäbe, deren Teile durch materielle Wechselwirkungen und nicht etwa durch die Gravitationswechselwirkung zusammengehalten werden, Zeitintervalle und räumliche Abstände ausmessen, wie sie durch die Metrik vorgegeben werden? Diese Fragestellung steckt auch hinter dem scheinbar natürlichen Übergang von einem schwachen zu einem starken Äquivalenzprinzip. Während das schwache Äquivalenzprinzip nur besagt, dass in kleinen Umgebungen eines Raumzeitpunktes – in denen aufgrund der annähernden Homogenität des Gravitationsfeldes Gezeitenkräfte vernachlässigt werden können – die Raumzeit die Struktur der speziellen Relativitätstheorie annimmt und die Gravitation auf die Bewegung eines Materieteilchens keinen messbaren Einfluss besitzt,29 unterscheidet sich das starke Äquivalenzprinzip dadurch, dass die lokale speziell relativistische Struktur hinsichtlich aller physikalischen Prozesse, also auch
29 Eine
häufig verwendete Formulierung für diesen Umstand ist, dass die Gravitationswirkungen „lokal wegtransformiert“ werden können.
36
2 Raum
hinsichtlich anderer Wechselwirkungen als der Gravitation, gelten soll – in kleinen Umgebungen folgt das Verhalten der Materie den dynamischen Gesetzen der speziellen Relativitätstheorie (vgl. Read et al. 2018, S. 14). Weshalb sind die anderen physikalischen Prozesse an die Geometrie der Raumzeit in der Weise angepasst, dass auch an ihnen prinzipiell kein Unterschied zwischen homogenen Gravitationsfeldern und gleichförmig beschleunigten Bezugssystemen erkennbar ist? Weshalb wird jedes Experiment, ausgeführt in einem Labor, das in einem homogenen Gravitationsfeld frei fällt, dasselbe Resultat liefern, wie wenn es in einem kräftefreien Labor im leeren Raum ausgeführt würde? Wir haben oben gesehen, dass die Geometrie viele raumzeitliche Erscheinungen erklärt, aber sie erklärt nicht, dass alle physikalischen Wechselwirkungen sich gegenüber dem Gravitationsfeld in exakt gleicher Weise verhalten mit dem Resultat, dass die Gravitation alle Wechselwirkungen „unterschiedslos“ behandelt und Unterschiede ignoriert, die sich z. B. aus der Besonderheit der Konstitution verschiedener Sorten von Materie ergeben. Aus Sicht von Harvey Brown (2005) kann die etablierte geometrische Interpretation der ART für diese „Passung“ zwischen der Metrik der Raumzeit und dem Verhalten der verschiedenen Sorten der Materie nur eine Scheinerklärung bieten: Die Materie, in allen ihren Formen, befolgt eben die vorgegebene Geometrie der Raumzeit. Aber weshalb ist das so? Weshalb bestimmen die geometrischen Strukturen der Raumzeit Zeitintervalle und Abstände, wie sie durch Uhren und Maßstäbe – wodurch auch immer materiell realisiert – ausgemessen werden? Da es schwer vorstellbar ist, dass freie Teilchen, die den Geodäten der Raumzeit folgen, mit Raumzeitfühlern ausgestattet sind, liegt es nahe, den Grund dafür, dass die Materie der Raumzeitstruktur „folgt“, in allgemeinen Gesetzen, die das Verhalten der Materie regieren, zu suchen. Sind es vielleicht solche Gesetze, die erst die „chronogeometrische“ Struktur – Zeitintervalle und Abstände – festlegen? Diese kritischen Fragen fordern die gängige geometrische Interpretation der ART heraus und sie haben in jüngster Zeit zu einem neuen interpretativen Ansatz geführt, der dynamischen Interpretation. Auf den ersten Blick scheint mit diesem Ansatz eine Art Kehrtwende zurück zu einem Raumzeit-Relationalismus verbunden zu sein. Gegenüber dem klassischen Relationalismus bestehen aber gravierende Unterschiede: Der klassische Relationalismus zielte darauf, räumliche und zeitliche Strukturen auf Eigenschaften und Relationen materieller Dinge zu reduzieren. Im Gegensatz dazu geht es der dynamischen Interpretation nicht darum, die Eigenständigkeit raumzeitlicher Strukturen zu bestreiten. Es wäre auch aussichtslos, an den Belegen für die kausale Realität der Raumzeit und ihrer Strukturen zu rütteln.30 Die Zielrichtung
30 Allerdings
vertritt Harvey Brown (2005, S. 24/25) die Auffassung, dass die raumzeitlichen Strukturen der speziellen Relativitätstheorie (bzw. der Minkowski-Raumzeit) lediglich als Kodifizierung des Lorentz-invarianten Verhaltens aller Materiearten und Materiewechselwirkungen zu verstehen sind, also selbst keine eigenständige physikalische Realität repräsentieren: Da
2.7 Geometrische versus dynamische Interpretation der Raumzeit
37
der dynamischen Interpretation ist subtiler: Der Ansatz verfolgt das Ziel, deutlich zu machen, dass die chronogeometrische Bedeutung dieser Strukturen des metrischen Feldes nicht sui generis existiert, sondern nur unter Bezug auf das gesetzmäßige Verhalten der Materie: Das metrische Feld ist eine unabhängige Entität (eine „Substanz“), aber die Tatsache, dass seine Strukturen maßgeblich für das raumzeitliche Verhalten der Materie sind, basiert auf Eigenschaften der Materie selbst. Wenn man die dynamische Interpretation als eine Art „Neorelationalismus“ verstehen möchte, sollte man daher im Blick behalten, dass in ihr sowohl relationalistische als auch substanzialistische Anteile enthalten sind. Die dynamische Interpretation ist nach dem initialen Werk von Harvey Brown (2005) in einer Reihe von Aufsätzen weiterentwickelt worden (vgl. u. a. Brown und Pooley 2006; Read 2019; Brown und Read 2021). Angelpunkt der Argumentation ist dabei stets die empirische Tatsache, dass alle bekannten materiellen Wechselwirkungen in Form der lokalen Lorentz-Invarianz dieselben Symmetrieeigenschaften besitzen. Diese Gleichartigkeit drückt sich darin aus, dass alle Materiefelder unterschiedslos an das Gravitationsfeld ankoppeln – die Gravitation ist „blind“ für den Unterschied zwischen verschiedenen Materiesorten und Wechselwirkungen. Es ist diese empirische Tatsache, die durch das starke Äquivalenzprinzip ausgedrückt wird. Man sieht an dieser Gewichtung, dass die ART in der dynamischen Interpretation nicht mehr isoliert betrachtet wird, sondern im Zusammenhang mit den neueren Quantentheorien der Materie – der Blick geht auf ein einheitliches Bild der physikalischen Welt, für das die Beziehung zwischen Gravitationsfeld und Materiefeldern das zentrale Problem darstellt. Die dynamische Interpretation zeichnet sich nicht so sehr dadurch aus, neue Antworten auf alte Fragen zu liefern, vielmehr richtet sie unsere Aufmerksamkeit auf Tatsachen, deren Erklärungswürdigkeit bisher nicht ausreichend erkannt wurde: Es stellt eine Art „Wunder“ der ART dar, dass die Gesetze aller nicht-gravitativen Wechselwirkungen Lorentz-invariant sind, und ein weiteres „Wunder“, dass diese Symmetrieeigenschaft der Gesetze nichtgravitativer Wechselwirkungen mit jener der gravitativen Wechselwirkung (also des metrischen Feldes) koinzidiert (vgl. Read et al. 2018, S. 19 f.). Diese beiden „Wunder“ lassen sich in einer einzigen Frage zusammenfassen: Weshalb gilt eigentlich das starke Äquivalenzprinzip? Eine Antwort auf diese Frage können wir wohl erst von einer zukünftigen Gesamttheorie von Gravitation und Materie erwarten.
die Kräfte, die einen zum Ausmessen räumlicher Abstände verwendeten materiellen Maßstab zusammenhalten, Lorentz-invariant sind, müssen nach Brown auch die durch ihn ausgemessenen Abstände der Lorentz-Invarianz genügen. Ein bewegter Maßstab wird kontrahiert und eine bewegte Uhr geht verlangsamt aufgrund ihrer inneren Konstitution („because of how it is made of“).
38
2 Raum
2.8 Zeichnen die Relativitätstheorien ein Bild der Welt? Für unser Bild der Welt sind solche Merkmale einer naturwissenschaftlichen Theorie relevant, die geeignet sind, uns dazu zu bringen, vertraute Erscheinungen in einen neuen, erweiterten Rahmen einzuordnen. Die frühe Interpretation der ART als Vollendung einer relationalen Auffassung des Raums, die neben Hans Reichenbach auch von Ernst Cassirer und Moritz Schlick vertreten wurde, hatte zu dem Ergebnis geführt, dass das kopernikanische System seine theoretische Auszeichnung verliert. So hatte Cassirer betont, dass die ART den Standpunkt Leibniz’ bestätige, nach dem es „völlig dasselbe“ sei, „ob man zur Darstellung der kosmischen Bewegungserscheinungen den Koordinatenmittelpunkt in die Sonne oder die Erde verlegt“ (Cassirer 1904, S. 109). Für die Auszeichnung des kopernikanischen Systems könne danach höchstens die größere Einfachheit sprechen. Der Abstieg, den das kopernikanische System aus dieser Sicht hinsichtlich seiner theoretischen Bedeutung von der Newton’schen zur Einstein’schen Theorie vollzieht, ist umso drastischer, wenn man sich vor Augen führt, dass Kant das kopernikanische System noch mit dem Status epistemischer Notwendigkeit ausstatten wollte (vgl. Friedman 1992). Mit der Interpretation der ART im Sinne einer „absoluten“ Theorie des Raums erhält das kopernikanische System seinen ausgezeichneten Status zurück. Newtons „ruhendes“ Bezugssystem mit dem Ursprung im Schwerpunkt des Sonnensystems ist wirklich „in Ruhe“ – relativ zur Orientierung eines mitgeführten lokal-geodätischen Inertialsystems, das an jedem Punkt zu bestimmen erlaubt, ob das System ein frei fallendes System ist (d. h. sich auf einer Geodäten bewegt) und ob es gegenüber den entlang seiner Kurve parallel verschobenen räumlichen Achsen rotiert ist oder nicht. Dieses mitgeführte System wird auch als Trägheitskompass31 bezeichnet. Ein mit der Erde starr verbundenes Bezugssystem führt eine räumliche Rotation relativ zum lokalen Trägheitskompass aus und raumzeitlich beschreibt das Bezugssystem Erde eine Schraubenlinie um die ausgezeichneten Richtungen des Trägheitsfeldes. Deswegen und in diesem Sinn ist es berechtigt, zu sagen, dass die Erde relativ zur Sonne rotiert (und nicht umgekehrt) und dass die Erde sich um die Sonne dreht (und nicht umgekehrt). Die beiden Situationen sind zwar jeweils kinematisch, aber nicht dynamisch gleichberechtigt. Die naturphilosophisch relevante Aussage der ART ist aber nun nicht einfach, dass sie, gegen dem ersten Anschein, das kopernikanische System rehabilitiert. Der entscheidende Unterschied zwischen Newton und Einstein kommt vielmehr darin zum Ausdruck, wie die Auszeichnung des kopernikanischen Systems in der Gesetzesstruktur der Welt verankert ist. Für Newton ist diese Auszeichnung noch
31 Das
Foucault-Pendel realisiert einen räumlichen Trägheitskompass; die scheinbare Drehung der Pendelebene zeigt die „absolute“ Erdrotation an.
Literatur
39
eine direkte Konsequenz der fundamentalen Naturgesetze.32 Newtons dynamische Gesetze bilden den Grund für die Unterscheidung zweier kinematisch gleichberechtigter Situationen. Bei Einstein verwandelt sich die durch fundamentale Gesetze gestützte kopernikanische Welt in eine kontingente Newton'sche Insel innerhalb eines Meeres ganz unterschiedlich gearteter raumzeitlicher Strukturen, die ihre Existenz den konkreten, aus heutiger Sicht kontingenten Bedingungen der Evolution unseres Kosmos verdankt. Dass unsere lokale Welt genügend Struktur enthält, um das kopernikanische System wahr zu machen, ist keineswegs aus den Bewegungsgesetzen der ART zu entnehmen. Im Gegenteil, diese Bewegungsgesetze sind gegenüber unseren lokalen raumzeitlichen Erfahrungen ganz indifferent, weil sie einen weit größeren Rahmen von Möglichkeiten umfassen. Was uns das Problem der Auszeichnung des kopernikanischen Systems vor Augen führt, ist, dass die vertrauten raumzeitlichen Tatsachen in sehr hohem Maß durch kontingente Randbedingungen des Universums und nicht etwa vollständig durch fundamentale Gesetze festgelegt sind. Während alle früheren Konzeptionen von Materie in Bewegung versuchten, die aktuale Welt möglichst umfassend und vollständig aus Gesetzen verstehbar zu machen, zeigt uns die viel allgemeinere Struktur der ART, wie wenig von den vertrauten raumzeitlichen Tatsachen aus fundamentalen Gesetzen folgt. Was wir vor uns haben, wenn wir die raumzeitliche Struktur des Sonnensystems und die lokalen Bewegungen seiner Teilsysteme beschreiben, ist keine durch fundamentale Gesetze verbürgte, sondern eine in einem einmaligen evolutionären Prozess entstandene, veränderbare und instabile Welt. Um zu verstehen, warum die Welt, die wir erfahren, so ist, wie sie ist, müssen wir versuchen, die konkrete Entwicklung unseres Universums nachzuzeichnen. Aus der kosmischen Evolution sind jene Randbedingungen hervorgegangen, die unsere alltägliche Erfahrung so maßgeblich prägen.
Literatur Bartels, Andreas (1996). Modern essentialism and the problem of individuation of spacetime points. Erkenntnis 45, 25–43. Bartels, Andreas (2012). Der ontologische Status der Raumzeit in der allgemeinen Relativitätstheorie. In: Michael Esfeld (Hg.), Philosophie der Physik, 32–49. Berlin: Suhrkamp. Brown, Harvey (2005). Physical relativity. Space-time structure from a dynamical perspective. Oxford: Oxford University Press. Brown, Harvey und Oliver Pooley (2006). Minkowski space-time: A glorious non-entity. In: Dennis Dieks (Hg.), The ontology of spacetime, 67–89. Amsterdam: Elsevier.
32 Newtons
Ziel, dies zu zeigen, wird nicht ganz erreicht, weil er nicht begründen kann, weshalb der Schwerpunkt des Sonnensystems sich in Ruhe gegenüber dem absoluten Raum befindet.
40
2 Raum
Brown, Harvey und James Read (2021). The dynamical approach to spacetime theories. In: Eleanor Knox und Alastair Wilson (Hg.), The Routledge companion to philosophy of physics, 70–85. London: Routledge. Butterfield, Jeremy (1989). The hole truth. British Journal for the Philosophy of Science 40, 1–28. Cassirer, Ernst (1904). G.W. Leibniz, Hauptschriften zur Grundlegung der Philosophie, Band 1: Schriften zur Phoronomie und Dynamik. Einleitung. Hamburg: Meiner. Clarke, Samuel (1715/16; 1990). Der Briefwechsel mit G. W. Leibniz von 1715/1716. Hamburg: Meiner. Descartes, René (1644/1992). Die Prinzipien der Philosophie. Hamburg. Meiner. Earman, John (1986). Why space is not a substance (at least not to first degree). Pacific Philosophical Quarterly 67, 225–244. Earman, John (1989). World enough and spacetime. Cambridge Mass.: MIT-Press. Earman, John und John Norton (1987). What price spacetime substantivalism? The hole story. British Journal for the Philosophy of Science 38, 515–525. Einstein, Albert (1916). Die Grundlage der allgemeinen Relativitätstheorie. Annalen der Physik 49, 769–822. Einstein, Albert (1920). Äther und Relativitätstheorie. Berlin: Springer. Esfeld, Michael (2009). The modal nature of structures in ontic structural realism. International Studies in the Philosophy of Science 23, 179–194. Esfeld, Michael und Vincent Lam (2008). Moderate structural realism about space-time. Synthese 160, 27–46. Frede, Michael und Günther Patzig (1988). Aristoteles ‚Metaphysik Z‘. Text, Übersetzung und Kommentar. München: Beck. French, Steven und James Ladyman (2003). Remodelling structural realism: quantum physics and the metaphysics of structure. Synthese 136, 31–56. Friedman, Michael (1983). Foundations of space-time-theories. Princeton: Princeton University Press. Friedman, Michael (1992). Kant and the exact sciences. Cambridge Mass.: Harvard University Press. Galilei, Galileo (1982). Dialog über die beiden hauptsächlichsten Weltsysteme, Roman Sexl und Karl von Meyenn (Hg.). Darmstadt: Wissenschaftliche Buchgesellschaft. Hoefer, Carl (1996). The metaphysics of space-time substantivalism. Journal of Philosophy 93, 5–27. Lam, Vincent und Michael Esfeld (2012). The structural metaphysics of quantum theory and general relativity. Journal for General Philosophy of Science 43, 243–258. Lehmkuhl, Dennis (2012). Super-Substanzialismus in der Philosophie der Raumzeit. In: Michael Esfeld (Hg.), Philosophie der Physik, 50–67. Berlin: Suhrkamp. Lehmkuhl, Dennis (2018). The metaphysics of super-substantivalism. Noûs 52, 24–46. Lehmkuhl, Dennis (2021). The equivalence principle(s). In: Eleanor Knox und Alastair Wilson (Hg.), The Routledge companion to philosophy of physics, 125–144. London: Routledge. Maudlin, Tim (1989). The essence of space-time. In: Arthur Fine und Jarrett Leplin (Hg.), Proceedings of the 1988 Biennial Meeting of the Philosophy of Science Association, Volume 2, 82–91. East Lansing: Philosophy of Science Association. Maudlin, Tim (1990). Substances and space-time: What Aristotle would have said to Einstein. Studies in the History and Philosophy of Science 21, 531–561. Maudlin, Tim (2012). Philosophy of physics: space and time. Princeton: Princeton University Press. Nerlich, Graham (1994). What spacetime explains. Cambridge. Cambridge University Press. Norton, John (1987). Einstein, the hole argument and the reality of space. In: John Forge (Hg.), Measurement, realism and objectivity, 153–188. Boston: Reidel.
Literatur
41
Pooley, Oliver (2006). Points, particles, and structural realism. In: Dan Rickles, Steven French und Juha Saatsi (Hg.), The structural foundation of quantum gravity, 83–120. Oxford: Clarendon Press. Read, James (2019). On miracles and spacetime. Studies in History and Philosophy of Modern Physics 65, 103–111. Read, James, Harvey Brown und Dennis Lehmkuhl (2018). Two miracles of general relativity. Studies in History and Philosophy of Modern Physics 64, 14–25. Riemann, Bernhard (1854/2013). Über die Hypothesen, welche der Geometrie zu Grunde liegen. Berlin: Springer. Ryckman, Thomas (1992). P(oint)-c(oincidence)-thinking: the ironical attachment of logical empiricism to general relativity (and some lingering consequences). Studies in History and Philosophy of Science 23, 471–497. Schaffer, Jonathan (2009). Spacetime the one substance. Philosophical Studies 145, 131–148. Schlick, Moritz (1919). Raum und Zeit in der gegenwärtigen Physik. Berlin: Springer. Sklar, Lawrence (1974). Space, Time and Spacetime. Berkeley: University of California Press. Stein, Howard (1977). Some pre-history of general relativity. In: John Earman, Clark Glymour, John Stachel (Hg.), Foundations of space-time theories, 3–49. Minneapolis: University of Minnesota Press. Synge, John. L. (1960). Relativity. The general theory. Amsterdam: North Holland Publ. Wald, Robert (1984). General relativity. Chicago. University of Chicago Press. Wheeler, John Archibald (1966). Curved empty space-time as the building material of the physical world: an assessment. Studies in Logic and the Foundations of Mathematics 44, 361–374.
3
Zeit
3.1 Einleitung: Zum Begriff der Zeit „Zeit“ wird philosophisch in den unterschiedlichsten Kontexten thematisiert: als Zeiterfahrung in ihrer phänomenologischen Struktur (Husserl, McTaggart) und hinsichtlich ihrer neurobiologischen Basis (Pöppel), als Zeitlichkeit in ihrer anthropologischen und lebensweltlichen Dimension (Bergson, Heidegger), als zeitlicher Diskurs im Kontext der sprachlichen Verwendung temporaler Ausdrücke (Dummett, Prior) und schließlich als physikalische Zeit. In dem letztgenannten Kontext wird die Struktur der Zeit als Gegenstand empirischer Forschung angesehen. Ihm wenden wir uns in diesem Kapitel zu. Wie der Begriff des „Raums“ gehört auch der Begriff der „Zeit“ zu den fundamentalen Begriffen unserer Naturbeschreibung. So scheint es kaum möglich, auszudrücken, was wir mit „Veränderung“, „Bewegung“ oder „Kausalität“ meinen, ohne den Zeitbegriff zu verwenden. Merkmale des Zeitbegriffs wie die Zeitordnung (die Früher-später-Relation) lassen sich zwar formal mithilfe der Kausalrelation explizieren (wie in Ansätzen einer „kausalen Theorie der Zeit“, vgl. z. B. Winnie 1977), kausale Beziehungen ihrerseits aber sind nur in einer Welt denkbar, die zeitlich strukturiert ist. Woraus aber besteht diese fundamentale zeitliche Struktur der Welt? Sind es Ereignisse, Veränderungen oder Prozesse, an denen zeitliche Eigenschaften und Relationen auftreten, oder existiert ein davon unabhängiges System von Zeitpunkten mit einer inneren Anordnung und metrischen Struktur? Nach der ersten Auffassung stellt Zeit einen ordnenden Rahmen zur Beschreibung materieller Veränderungen dar, analog zum relationalistischen Verständnis des Raums, nach der zweiten Auffassung existieren Zeit bzw. zeitliche Strukturen auch unabhängig von Veränderungen; eine Abfolge von Zeitpunkten könnte es dann auch in einer Welt geben, in der keine Veränderungen stattfinden, analog zur absoluten Raumauffassung (vgl. Newton-Smith 1980). © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 A. Bartels, Grundprobleme der modernen Naturphilosophie, https://doi.org/10.1007/978-3-662-67126-9_3
43
44
3 Zeit
Diese grundsätzlichen Fragen bleiben zunächst auch dann offen, wenn man Zeit im physikalischen Kontext diskutiert. Physikalische Theorien geben uns auf die Frage nach der relationalen oder absoluten Natur der Zeit keine ausdrückliche Antwort; sie bilden vielmehr nur die Basis, um darauf philosophische Antwortversuche zu stützen. Naturphilosophie der Zeit wird deshalb auch dann nicht entbehrlich, wenn man Zeit als empirischen Gegenstand betrachtet. In Abschn. 3.2 werden wir die Zeitmessung diskutieren, die Zeit erst zu einem physikalischen Gegenstand macht. Wie kann ein objektiver Maßstab zur Messung der Zeit gewonnen werden? Abschn. 3.3 beschäftigt sich mit den spezifischen Strukturen in einer relativistischen Welt, die zeitliche Bedeutung besitzen, wie mit der Koordinaten- und Parameterzeit sowie mit der Möglichkeit von Zeitreisen. Dies evoziert die Frage, in welchem Sinn wir es hier noch mit einer „objektiven“ Zeit zu tun haben bzw. welche Korrekturen an unserem gewohnten Verständnis von Zeit erforderlich sind. Nachdem Kap. 2 sich ausführlich mit der Struktur der Raumzeit beschäftigt hat, stellt sich die Frage, ob Zeit überhaupt noch als eigenständige Struktur betrachtet werden kann. Ist nicht durch ihre „Vereinigung“ mit dem Raum die Autonomie der Zeit verschwunden? In Abschn. 3.4 werden als Antwort auf diese Frage wesentliche Unterschiede zwischen Raum und Zeit thematisiert, die trotz ihrer Vereinigung zur Raumzeit erhalten geblieben sind. Abschn. 3.5 blickt auf den (vermeintlichen) Beweis der Irrealität der Zeit von McTaggart zurück und erörtert die Frage, die einen erheblichen Teil der jüngeren Zeitphilosophie dominiert hat: Können wir dem Phänomen der Zeit mit datierenden Ausdrücken, die Ereignisse innerhalb eines Zeitkontinuums anordnen, in jeder Weise gerecht werden (B-Reihe)? Oder ist der modale Zeitbegriff („vergangen“, „gegenwärtig“, „zukünftig“), die sogenannte A-Reihe, ontologisch bedeutsam oder sogar von fundamentaler Bedeutung? Abschn. 3.6 widmet sich ontologischen Auffassungen der Zeit, die aus der Bevorzugung der A-Reihe bzw. der B-Reihe zu folgen scheinen: Nach dem Präsentismus, der sich an der A-Reihe orientiert, existiert nur Gegenwärtiges, während die Zukunft „offen“, d. h. nicht festgelegt ist. Die berühmte Putnam-Stein-Debatte hat gezeigt, dass diese Auffassung zu Problemen mit der speziellen Relativitätstheorie führt. Die Auffassung der Zeit, die sich an der B-Reihe orientiert, favorisiert dagegen einen Eternalismus, nach dem alle Ereignisse, wo auch immer in der Raumzeit lokalisiert, als real gelten. Diese Auffassung scheint zu implizieren, dass wir in einem Parmenides-Universum leben, einer Blockwelt, die in gewisser Weise simultan „alles in einem“ enthält und in der zeitlicher Wandel nur eine Illusion ist. Wir gehen der Frage nach, ob diese Auffassung tatsächlich von der allgemeinen Relativitätstheorie (ART) nahegelegt wird. Schließlich behandelt Abschn. 3.7 das größte und noch immer ungelöste naturphilosophische Rätsel der Zeit: Weshalb ist die Zeit eine gerichtete Größe, woher kommt der Unterschied zwischen Vergangenheit und Zukunft, wenn Naturgesetze keine Richtung der Zeit auszeichnen?
3.2 Zeitmessung und physikalische Zeit
45
3.2 Zeitmessung und physikalische Zeit Zum empirischen Gegenstand wird uns Zeit in der Zeitmessung. Was kann uns ein Verständnis der Zeitmessung für die Frage nach der Natur der Zeit erbringen? Zunächst scheint die Ausgangslage, in der wir vor jeder Zeitmessung stehen, eine relationale Auffassung der Zeit zu begünstigen. Was wir messen können, wenn wir „Zeit“ messen wollen, sind natürliche Prozesse. Genauer gesagt: Jede Zeitmessung läuft auf einen Vergleich zwischen natürlichen Prozessen hinaus, nämlich jenem, dessen Zeit gemessen werden soll, und jenem, mit dessen Hilfe die Zeitmessung vorgenommen wird (also unsere „Uhr“). Die Korrelation, die zwischen diesen Prozessen hergestellt werden soll, überträgt die Metrisierung (den „Zeittakt“), die zuvor für die Uhr eingeführt worden ist, auf den zu messenden Prozess. Ein Beispiel ist die Sonnenuhr, bei der die Metrisierung, durch die wiederkehrenden Positionen der Sonne gegeben und durch den Zeiger der Sonnenuhr auf einer Skala markiert, auf die Lebensprozesse des Menschen übertragen wird, der die Sonnenuhr bedient. Ein zeitmessender Prozess wird aber nur dann als eine Uhr angesehen, wenn die Übertragung der Metrisierung adäquat ist, d. h., wenn er eine Unterteilung des gemessenen Prozesses in gleich lange Zeitintervalle liefert. Als Uhren sind daher nicht beliebige Prozesse geeignet. So wird die wiederkehrende Gewohnheit im Leben irgendeines Menschen, sich frühmorgens die Zähne zu putzen, eine Art von „Zeittakt“ ergeben; als Maßstab, den man zur zeitlichen Metrisierung anderer Prozesse verwenden könnte, ist dieser Zeittakt aber sicher nicht genau genug. Offensichtlich muss man aus der großen Zahl natürlicher Prozesse eine Auswahl jener Prozesse treffen, die sich als Uhren eignen; in der kulturellen Tradition der Zeitmessung sind dies v. a. irdische und astronomische Prozesse mit wiederkehrenden, „gleichförmigen“ Abläufen gewesen. Gleichförmigkeit eines Prozesses bedeutet nichts anderes als die Tatsache, dass bei diesem Prozess in gleichlangen Zeitintervallen jeweils gleiche Ereignismengen1 stattfinden. So wie man einen starren Maßstab verwenden kann, um damit räumliche Kongruenz festzulegen, so kann man „gleichartige“ Ereignismengen verwenden, um zeitliche Kongruenz zu bestimmen. Das Problem dabei ist, dass wir über keinen Begriff der Gleichförmigkeit von Prozessen verfügen, in dem der Zeitbegriff nicht schon enthalten wäre. Jede Form der Zeitmessung muss daher auf ein Postulat zurückgreifen, in dem die Gleichförmigkeit eines Naturprozesses gefordert wird. Solche Postulate sind in Naturgesetzen enthalten. So zeichnet das Trägheitsgesetz die Trägheitsbewegung einer rollenden Kugel auf einer glatten Oberfläche
1 Die Ereignisse, die jeweils die verschiedenen Intervalle ausfüllen, können natürlich nicht identisch, müssen aber „vom selben Typ“ sein, um vergleichbar zu sein. Ein numerischer Vergleich von Ereignismengen ist zunächst nur bei diskreten Ereignissen, z. B. bei atomaren Schwingungen, möglich. Bei kontinuierlichen Bewegungen benötigt man ein von der Zeitmessung unabhängiges Maß, z. B. kann das Zurücklegen gleich langer räumlicher Strecken als Realisierung gleicher Ereignismengen angesehen werden.
46
3 Zeit
als eine gleichförmige Bewegung aus, d. h. als eine solche, bei der gleiche Ereignismengen (das Überstreichen gleich langer räumlicher Intervalle) in gleichen Zeitintervallen stattfinden. Das Trägheitsgesetz führt also zur Auszeichnung einer Klasse von Uhren. Auch Galileis Fallgesetz kann zur Grundlage einer Uhr werden. Nach diesem Gesetz ist die Fallbeschleunigung konstant; deshalb entspricht der Sukzession gleich langer Zeitintervalle eine Folge jeweils quadrierter Fallstrecken. Die Fallstrecken können daher als Maßstab für die Kongruenz von Zeitintervallen verwendet werden. Ein anderes Beispiel ist die Einstein-Langevin-Uhr: Ein Lichtstrahl wird zwischen zwei Spiegeln hin und hergeworfen. Das Zurücklegen gleich langer Lichtwege wird als Standard für die Kongruenz der entsprechenden Zeitintervalle verwendet. Voraussetzung dieser Festlegung ist das Postulat, dass die Ausbreitung des Lichtes gleichförmig verläuft, die Lichtgeschwindigkeit also konstant bleibt – in gleichen Zeiten, so wird postuliert, legt der Lichtstrahl stets gleich lange Wege zurück. Dies ist nichts, was wir aufgrund irgendeines übergeordneten Maßstabes schon wüssten, sondern stellt die Festlegung eines Maßstabes der Gleichförmigkeit anhand eines elementaren Naturprozesses dar. Alle fundamentalen Naturprozesse, also solche Prozesse, deren Verhalten vorhergesagt werden kann, ohne eine Vielzahl möglicher Störgrößen in Betracht ziehen und kontrollieren zu müssen, eignen sich zur Auszeichnung von Uhren, gleichgültig, ob diese Prozesse zyklisch verlaufen oder nicht. Der Zeitparameter, der in den Gesetzen vorkommt, die solche fundamentalen Prozesse beschreiben, wird zwar üblicherweise durch irgendwelche „von außen“ kommenden Uhren gemessen. Der Inhalt des Gesetzes selbst kann aber – via Gleichförmigkeitspostulat – zur Eichung des Zeitparameters verwendet werden, wie am Beispiel von Fallgesetz und Trägheitsgesetz erläutert. Wollte man die tägliche Rotation der Erde zur Basis der Zeitmessung machen, müssten Gezeitenbewegungen, Wetterbedingungen, das Verhalten des Erdmantels und andere Störgrößen mit einberechnet und kontrolliert werden. Die Erdrotation ist ein komplexer, kein fundamentaler Prozess. Ähnliches gilt z. B. für biologische Prozesse. Selbst die sehr wenig störanfälligen Planetenbewegungen sind noch zu „unregelmäßig“, um ein wirklich exaktes Zeitmaß zu begründen. Als die am wenigsten „gestörten“ Prozesse betrachtet man heute atomare Prozesse; so wird seit 1964 die Sekunde durch eine bestimmte Anzahl von Perioden der Strahlung eines Caesium-133-Übergangs geeicht. Aus den begrifflichen Voraussetzungen, unter denen Zeitmessungen stehen, lassen sich drei naturphilosophisch wichtige Einsichten für den physikalischen Zeitbegriff gewinnen: a) Uhren werden durch fundamentale Naturprozesse ausgezeichnet. Als fundamental werden dabei Prozesse angesehen, deren Ablauf nicht (oder nur sehr gering) durch äußere Faktoren gestört wird. Der ungestörte Prozess gilt als die bestmögliche empirische Realisation unserer intuitiven Idee des „gleichförmigen“ Prozesses.
3.3 Zeit in der relativistischen Welt
47
b) Ein physikalisches Zeitmaß kann nur soweit als Maß der wirklichen Zeit gelten, wie die Annahme der Ungestörtheit des zugrunde liegenden Naturprozesses und des Zutreffens seiner theoretischen Beschreibung gerechtfertigt ist. Die Auswahl eines Zeitmaßes ist ebenso revidierbar wie das theoretische Wissen über Naturvorgänge, auf dem sie basiert. c) Der Vielzahl von Naturvorgängen und Naturgesetzen entspricht eine Vielzahl möglicher physikalischer Uhren. Unser Wissen über die Ungestörtheit von Prozessen rechtfertigt eine Art Hierarchie von Uhren. Fundamentale Uhren können zur Korrektur weniger fundamentaler Uhren verwendet werden, z. B. eine Atomuhr zur Korrektur einer Sanduhr. Wesentlich ist, dass die Zeitmaße, die sich auf gleichermaßen fundamentale Prozesse stützen, untereinander kohärent sind. Die durch die verschiedenen Uhren definierten Kongruenzrelationen für Zeitintervalle (Isochronie) müssen identisch sein. Dieses regulative Prinzip drückt das Ideal der Einheit der Zeit aus (vgl. Mittelstaedt 1989, S. 36–40). Logisch möglich wäre natürlich auch die Existenz verschiedener, nicht isochroner „Zeiten“. Die bisherige Erfahrung legt aber nahe, an die Existenz einer einheitlichen Zeit zu glauben. Ausgehend von den Bedingungen der Zeitmessung, in der Zeit stets als ein „Maß der Veränderung“ aufgefasst wird, gelangen wir durch die Annahme der Einheit der Zeit zur Idee einer unabhängig von Prozessen existierenden Zeit.
3.3 Zeit in der relativistischen Welt Die Relativitätstheorien haben unseren Begriff der Zeit in vielfältiger Weise verändert. Zunächst scheint, aufgrund des Verlustes einer „absoluten“, d. h. von Bezugssystemen unabhängigen Gleichzeitigkeit, die Einheit der Zeit in Gefahr. Wir werden aber sehen, dass die Forderung nach der Einheit der Zeit sich auf den relativistischen Begriff der Eigenzeit beziehen lässt, der bezugssystemunabhängig ist. Allerdings führt die Relativität der Gleichzeitigkeit dazu, dass eine umfassende, globale Unterscheidung von Vergangenheit, Gegenwart und Zukunft unmöglich wird, was einschneidende Konsequenzen für die alte naturphilosophische Frage nach der Realität der Zukunft mit sich bringt (mehr dazu in Abschn. 3.5). Kompliziert wird die Situation schließlich dadurch, dass in einigen Modellen der ART wieder eine globale, „kosmische“ Zeit eingeführt werden kann, die für das gesamte Universum maßgeblich ist, während in anderen Modellen, z. B. den Gödel-Welten, sogar sehr grundlegende Eigenschaften der Zeit wie die „Offenheit“ der Zukunft verloren gehen. Im Folgenden sollen die naturphilosophischen Konsequenzen der Relativität der Gleichzeitigkeit, der Existenz von Eigenzeit und kosmischer Zeit und der Möglichkeit „paradoxer“ Zeitstrukturen erörtert werden. Am Anfang stehen Einsteins Überlegungen zur Definition der Gleichzeitigkeit, weil sie den Ausgangspunkt der hier diskutierten Veränderungen des Zeitbegriffs bilden. Gleichzeitigkeit zu definieren, so Einstein (1905/1974, S. 27 f.), bereitet keine Schwierigkeiten, solange man Ereignisse miteinander vergleicht, die in unmittel-
48
3 Zeit
barer räumlicher Nachbarschaft stattfinden, etwa das Zeigen des kleinen Zeigers meiner Uhr auf 7 und das Ankommen des Zuges. Wollen wir jedoch Ereignisse an verschiedenen Orten A und B miteinander zeitlich vergleichen, können wir uns nicht mehr auf wahrnehmbare Koinzidenzen stützen. Die jeweiligen Beobachter A und B an diesen Orten können zwar, indem sie sich auf Koinzidenzen berufen, zeitliche Ordnungen für die bei ihnen stattfindenden Ereignisse, also eine Beobachter-abhängige A-Zeit und B-Zeit2, einführen. Um diese Zeiten aber miteinander in Bezug zu setzen, um also anzugeben, welchem Zeitpunkt der A-Zeit welcher Zeitpunkt der B-Zeit entspricht, benötigen wir einen zwischen A und B verlaufenden Prozess, z. B. den Austausch von Lichtsignalen. Die für A und B gemeinsame Zeit kann nun, so Einstein, „definiert werden, indem man durch Definition festsetzt, dass die ‚Zeit‘, welche das Licht braucht, um von A nach B zu gelangen, gleich ist der ‚Zeit‘, welche es braucht, um von B nach A zu gelangen“ (vgl. Einstein 1905/1974, S. 28). Für Beobachter an entfernten Punkten kann man zu einer gemeinsamen Gleichzeitigkeitsdefinition also überhaupt nur gelangen auf dem Weg eines konstruktiven Postulats, in dem gefordert wird, dass die Ausbreitung des Lichtes, gemessen in der noch zu definierenden(!) gemeinsamen Zeit, ein Vorgang mit konstanter Geschwindigkeit ist. Dieses Postulat ist entscheidend an der Konstruktion des Begriffs der gemeinsamen Zeit beteiligt. Zwei Dinge sind an dieser Überlegung Einsteins naturphilosophisch bemerkenswert: Einmal wird im Gegensatz zum Begriff der Zeit in Newtons Principia die Zeit nicht unabhängig von den physikalischen Prozessen, inklusive einer vorgegebenen inneren Struktur, vorausgesetzt, sondern so eingeführt, dass eine bestimmte Beschreibung eines physikalischen Prozesses (Lichtausbreitung mit konstanter Geschwindigkeit) möglich wird. Die Zeit wird also begrifflich von vorneherein in Hinblick auf ihre Rolle in der Beschreibung physikalischer Prozesse aufgefasst. Zum anderen wird festgestellt, dass es keinen „natürlichen“ Begriff eines räumlich unbegrenzten „Jetzt“ gibt. Um ein „Jetzt“ von unserem Präsenzpunkt auf entfernte Punkte auszudehnen, müssen wir eine Konstruktion vornehmen, die zwar indirekt durch die Forderung der Konsistenz und Einfachheit der daraus resultierenden Beschreibung der Naturvorgänge eingeschränkt, nicht aber direkt durch die Tatsachen selbst bestimmt ist. Vor der eigentlichen Konsequenz der Relativität der Gleichzeitigkeit, die aus seinen Überlegungen schließlich folgt, wenn man sie auf zueinander bewegte Bezugssysteme überträgt, hat sich Einstein bereits gedanklich von der intuitiven Vorstellung einer globalen Bedeutung des erlebten „Jetzt“ gelöst.3 2 „A-Zeit“
und „B-Zeit“ bezeichnen hier die Zeiten der Beobachter A und B; sie beziehen sich nicht auf die A-Reihe bzw. B-Reihe, von denen in Abschn. 3.1 die Rede war.
3 Deswegen
ist es nach Stein (1991) nicht gerechtfertigt, davon zu sprechen, dass sich aus Perspektive eines besonderen Bezugssystems jeweils eine besondere „Ansicht“ der Welt (als der Menge gleichzeitiger Weltpunkte) biete. Es gibt nach Einsteins Überlegungen überhaupt keine „von Natur gegebene“ ausgedehnte Gegenwart, auch nicht eine solche, die auf Bezugs-
3.3 Zeit in der relativistischen Welt
49
Die Relativität der Gleichzeitigkeit besagt, dass zueinander bewegte Beobachter, die ganggleiche Uhren mit sich führen, zu unterschiedlichen Urteilen über die Gleichzeitigkeit von Ereignissen kommen müssen. Gesehen vom Bezugssystem des einen Beobachters erscheint dadurch die Uhr des relativ zu ihm bewegten Beobachters in ihrem Gang „verlangsamt“. Die Zeitmetrik wird also bezugssystemabhängig.4 Die einheitliche Zeit erscheint ersetzt durch eine Vielzahl nicht konkordanter Bezugssystemzeiten. Diese Relativierung der Zeit vermindert aber nicht ihre Objektivität. Im Gegenteil: Die Relativierung ist ein Mittel der Objektivierung, weil sie eine zuvor verborgene Perspektivabhängigkeit der zeitlichen Beschreibung eliminiert: Nicht räumliche oder zeitliche Abstände (dx, dy, dz und dt) für sich genommen sind objektiv, sondern raumzeitliche Abstände, repräsentiert durch die Invariante ds2 = dx2 + dy2 + dz2− c2 dt2 (c ist die Lichtgeschwindigkeit). Diese Invariante ist zugleich die Zeit, deren Wert ein Beobachter auf einer Uhr abliest, die er auf seinem raumzeitlichen Weg mitführt, die Eigenzeit5 seiner Weltlinie. Mit der Eigenzeit existiert auch im Rahmen der relativistischen Welt ein objektiver und universeller Zeitbegriff. Messen alle ausgezeichneten physikalischen Uhren dieselbe isochrone Eigenzeit, so kann wie in der klassischen Physik von einer Einheit der Zeit die Rede sein. Der wesentliche Unterschied zwischen der Eigenzeit der speziellen Relativitätstheorie und der absoluten Zeit Newtons besteht darin, dass die zwischen zwei Punkten der Raumzeit verfließende Eigenzeit nicht von der verbindenden Weltlinie unabhängig ist. Newtons absolute Zeit ist „integrabel“, die Zeitdifferenz steht für zwei Punkte der Welt unabhängig vom Verbindungsweg fest; deswegen kann
systeme relativiert ist. Den „intuitiven“ Begriff einer globalen Gleichzeitigkeit führt Stein auf eine anthropologische Tatsache zurück, nämlich darauf, dass wir in unserer Erfahrungswelt eine räumlich unbegrenzte Gemeinschaft des Austausches von Kommunikation und kausalem Einfluss erleben. Aufgrund der hohen Ausbreitungsgeschwindigkeit des Lichtes stehen wir in praktisch simultaner – innerhalb eines erlebten „Jetzt“ sich vollziehender – kausaler Gemeinschaft selbst mit räumlich weit entfernten Punkten. 4 Dagegen wird die Früher-später-Relation zwischen Ereignissen von allen Bezugssystemen aus in gleicher Weise beurteilt, wenn es sich um kausal verbindbare Ereignisse handelt, die durch zeitartige Weltlinien, etwa durch Signale, miteinander verbunden werden können. Ist ein Ereignis A für einen Beobachter die Ursache von Ereignis B, so auch für alle anderen Beobachter. 5 Hier wird der Unterschied zwischen Koordinatenzeit und Parameterzeit wichtig. Eine Koordinate ist eine Abbildung der Mannigfaltigkeit in die reellen Zahlen, ein Parameter ist eine Abbildung eines Intervalls der reellen Zahlen in die Mannigfaltigkeit. Die Koordinatenzeiten, die in den verschiedenen Bezugssystemen eingeführt werden können, machen unterschiedliche Aussagen darüber, ob zwei Ereignisse zur selben Zeit oder zu verschiedenen Zeiten stattfinden. Es steht also nicht mehr eindeutig fest, was als „dieselbe“ Zeit und was als „verschiedene“ Zeiten zu gelten hat. Zeitpunkte verlieren, denkt man nur an Koordinatenzeiten, ihre Identität. Mit der Eigenzeit existiert aber eine Parameterzeit, die in universaler Weise definiert ist. Zeitpunkte auf einer Weltlinie, die mithilfe dieser Parameterzeit festgelegt werden, sind eindeutig bestimmt (vgl. Kroes 1985).
3 Zeit
50
in Newtons Welt das Zeitkontinuum in eindeutiger Weise vom Raumkontinuum getrennt werden; im Unterschied zur relativistischen Welt bilden Newtons Raum und Zeit Unterräume der vierdimensionalen Raumzeit. Die Nicht-Integrabilität der Eigenzeit bietet auch eine Erklärung für das sogenannte Zwillingsparadoxon (vgl. Abschn. 2.7). Im Jahr 1917 entdeckte der holländische Astronom Willem de Sitter eine Lösung von Einsteins Feldgleichungen, die eine Welt ohne Materie vorstellte, in der es aber gleichwohl Bewegung gab. Bringt man – per Gedankenexperiment – Materieteilchen in dieses Universum ein, so beginnen sich diese Teilchen voneinander zu entfernen. Diese Bewegung erfahren die Teilchen „unwillkürlich“, ohne die Annahme irgendwelcher Kräfte zwischen ihnen; die Bewegung der Teilchen – in unserer Welt wären solche „Teilchen“ die Galaxien – ist Ausdruck der Ausdehnung des Raums selbst. Das De-Sitter-Universum ist ein leeres expandierendes Universum.6 Expandierende Universen sind für die Naturphilosophie der Zeit aus zwei Gründen von besonderem Interesse: Sie zeigen, dass die Raumzeit einer inneren Dynamik fähig ist und daher als etwas physikalisch Reales anzusehen ist. Der zweite Punkt ist für die Diskussion der relativistischen Zeit noch wichtiger: Die Expansion des Universums führt in die relativistische Welt wieder ein globales Zeitmaß ein, die kosmische Zeit. Die kosmische Zeit ist die Zeit von Bezugssystemen, die an der gleichförmigen Expansionsbewegung teilnehmen. Alle Uhren, die auf irgendeiner der mit der Expansion auseinanderstrebenden Galaxien installiert sind, messen dieselbe kosmische Zeit. Da neuere Daten über die Rotverschiebung der Galaxien darauf hindeuten, dass wir in einem expandierenden (sogar beschleunigt expandierenden) Universum mit einer kosmischen Zeit leben, stellt sich somit die Frage, ob für unser Universum wieder die eine maßgebliche Zeit existiert. Hat die ART das ausgezeichnete Äthersystem, das in der speziellen Relativitätstheorie überwunden war, wieder zurückgebracht? Diese Frage hat einige Ähnlichkeit mit der Diskussion über die Auszeichnung des kopernikanischen Systems durch die ART (vgl. Abschn. 2.8) und die Antwort wird ähnlich ausfallen wie dort: Für uns ist die Tatsache der Auszeichnung einer kosmischen Zeit von Bedeutung, denn sie ermöglicht uns, eine Zeitskala zu konstruieren, die die Ereignisse im Universum in eine wohlbestimmte Vergangenheit und Zukunft trennt und z. B. objektive Angaben über das „Alter“ des Universums ermöglicht. Fragt man aber allgemeiner nach der Natur der Zeit in der relativistischen Welt, müssen ebenso wie die Welten mit kosmischer Zeit auch solche „paradoxen“ Zeitstrukturen betrachtet werden, wie sie z. B. die GödelUniversen präsentieren. Eine von Kurt Gödel (1949) veröffentlichte Lösung von Einsteins Feldgleichungen zeigte zum ersten Mal eine Welt, in der die Materie eine globale Rotation relativ zum Trägheitskompass ausführt. In dieser Lösung treten
6 Vgl.
zu expandierenden Universen Harrison (1981, Kap. 10).
3.4 Unterschiede zwischen Raum und Zeit
51
geschlossene zeitartige Weltlinien (Closed Timelike Curves, CTC) auf, d. h., die Zeit nimmt für hypothetische Beobachter auf diesen Weltlinien eine geschlossene Struktur an. Dies bedeutet, dass die Früher-später-Relation, deren Asymmetrie gewöhnlich zu den definierenden Merkmalen der Zeit gerechnet wird, eine symmetrische Form erhält: Auf einer geschlossenen Weltlinie ist ein beliebiges Ereignis A, verglichen mit einem beliebigen anderen Ereignis B, jeweils zugleich früher und später – je nachdem, welches Teilstück der Weltlinie man betrachtet. Geschlossene zeitartige Weltlinien eröffnen die Möglichkeit von Zeitreisen (vgl. z. B. Ray 1991), auf denen ein Beobachter seinem früheren Ich wiederbegegnen kann. Die „paradoxen“ Situationen, die dadurch – jedenfalls im Prinzip – entstehen könnten, führen jedoch nicht etwa, wie häufig behauptet, zu logischen Widersprüchen, sondern sie demonstrieren, dass in einem Universum mit sehr speziellen physikalischen Bedingungen einige Weltlinien für bestimmte physikalische Systeme „verboten“ sein können (vgl. Bartels 1986). Gödel selbst hat die Möglichkeit von Zeitreisen in Modellen der ART als Beleg dafür interpretiert, dass die Zeit nicht Bestandteil der physikalischen Realität sein könne (vgl. Gödel 1955). Wenn die Zeit etwas Reales wäre, so argumentiert Gödel, dann müsste es einen objektiven Zeitverlauf geben, d. h., Vergangenheit und Zukunft müssten in eindeutiger Weise voneinander getrennt sein. Zeitreisen bieten einem Beobachter aber gerade die Möglichkeit, die Vergangenheit „in seiner eigenen Zukunft“ zu erleben. Daher haben, so Gödel, jene Philosophen recht, die wie Parmenides oder Kant, „die Objektivität des Wechsels leugnen und diesen als eine Illusion oder als eine Erscheinung betrachten, die wir unserer besonderen Art der Wahrnehmung verdanken“ (Gödel 1955, S. 406). Wir sollten Gödel in dieser Interpretation nicht folgen. Die Realität der Zeit – dies zeigen gerade die Zeitstrukturen in einer relativistischen Welt – ist nicht an das Vorhandensein eines „objektiven Zeitverlaufs“, also einer kosmischen Zeit, gebunden. Die Abhängigkeit zwischen dem Verhalten der Materie und den raumzeitlichen Strukturen, die durch die ART eingeführt worden ist, zeigt vielmehr, dass die allgemeine Natur der Zeit nicht durch apriorische Begriffsanalyse festgelegt werden kann, sondern eine Vielzahl möglicher Strukturen umfasst. Die für unsere Welt maßgebliche, durch spezifische Rand- und Anfangsbedingungen mitgeprägte zeitliche Struktur zu entdecken, ist Aufgabe empirischer Forschung.
3.4 Unterschiede zwischen Raum und Zeit Bisher haben wir nicht weiter problematisiert, dass zwar durch die Relativitätstheorien Raum und Zeit durch die inklusive Raumzeit abgelöst worden sind, gleichwohl aber weiterhin von Raum und Zeit als eigenständigen Kategorien gesprochen werden kann. Es gilt in diesem Fall ein „Sowohl-als-auch“: Die „Union“ von Raum und Zeit in der speziellen Relativitätstheorie, und erst recht in der ART, ist nicht lediglich eine Konjunktion zweier unabhängiger Größen. „Räumliche“ Teilmengen enthält die Minkowski-Raumzeit der speziellen Relativitätstheorie nur in Bezug auf beliebig gewählte Bezugssysteme, die es erlauben,
52
3 Zeit
Koordinatenzeiten mit einer relativen Gleichzeitigkeit einzuführen. Verschiedene Bezugssysteme entsprechen verschiedenen räumlichen Teilmengen, sodass kein eindeutig bestimmter Unterraum der Minkowski-Raumzeit existiert, der „den Raum“ darstellte. Entsprechendes gilt auch für „die Zeit“. Die Raumzeit bildet ein Ganzes, das abhängig von verschiedenen Bezugssystemen in jeweils unterschiedlicher Weise in „Raum“ und „Zeit“ aufgespalten werden kann. In der ART verschärft sich diese Situation noch, weil hier nicht einmal mehr global ausgedehnte Bezugssysteme existieren. Nur für eine besondere Untermenge von Lösungen der Einstein-Feldgleichungen, die „global hyperbolischen“ Raumzeiten, in denen eine kosmische Zeit definiert ist (vgl. Abschn. 3.3), erlaubt die Raumzeit eine eindeutig definierte Aufspaltung in „Raum“ und „Zeit“, die jener der Newton’schen Welt analog ist (vgl. Callender 2017, S. 67 f.). Raum und Zeit sind also einerseits in der Raumzeit miteinander verschmolzen, andererseits gibt es weiterhin unterschiedliche räumliche und zeitliche Aspekte der Raumzeit. Dies wird schon deutlich, wenn man die Form der Metrik des Minkowski-Raums betrachtet. Im Gegensatz zu den räumlichen Koordinatenausdrücken wird der Ausdruck für die zeitliche Koordinate gewöhnlich mit einem Minuszeichen versehen.7 Dieser formale Unterschied hat erhebliche inhaltliche Konsequenzen: Raumartige und zeitartige Vektoren spielen sehr unterschiedliche Rollen in einer Raumzeit: Die zeitartigen Richtungsvektoren weisen in Richtungen innerhalb des Vorwärts- bzw. Rückwärtslichtkegels, also in Richtungen, in denen kausale Prozesse stattfinden können; kein Prozess kann in eine raumartige Richtung verlaufen. Die Unterscheidung zwischen Raum und Zeit ist dadurch auf elementarer Ebene in die geometrische Darstellung „eingebaut“ (vgl. Callender 2017, S. 124). Weiter existiert, wie schon in Abschn. 3.3 erwähnt, eine „Eigenzeit“, die ein Beobachter auf seiner Armbanduhr ablesen kann und die die objektive raumzeitliche Länge seiner Weltlinie, d. h. der durch ihn auf seinem Weg durch die Raumzeit beschriebenen Kurve, bestimmt; aber es gibt eben keinen entsprechenden „Eigenraum“. Ein Eigenraum würde einem Bezugssystem entsprechen, in dem die Änderung der zeitlichen Koordinate verschwindet; ein solches Bezugssystem aber kann es nicht geben – die Zeitkoordinate „wächst“ in jedem möglichen Bezugssystem, ob lokal oder global. Die Zeit behält also in jedem Fall die auch naturphilosophisch bedeutsame Besonderheit, nicht „stillstehen“ zu können, sondern zu „fließen“. Die Zeitkoordinate bleibt diejenige Koordinate, der ein Beobachter in Richtung wachsender Werte folgen muss – dies entspricht der Alltagserfahrung, dass die Zeit uns zwangsläufig „mit sich zieht“ und wir dem zeitlichen Wandel nicht entkommen können. Unter sehr besonderen Bedingungen einer Raumzeit – wie sie etwa in einem Gödel-Universum (vgl. Abschn. 3.3) oder im Außenraum schwarzer Löcher
7 Das
Minuszeichen ist dabei nicht entscheidend, signifikant ist jedoch die Verschiedenheit des Vorzeichens. Sie ist Ausdruck dafür, dass die Metrik eine bestimmte Form der Signatur besitzt, die sogenannte Lorentz-Signatur (vgl. Callender 2017, S. 123).
3.5 McTaggarts Argument der Irrealität der Zeit
53
gegeben sind – können die Lichtkegel in eine „räumliche“ Koordinatenrichtung „umkippen“; im Gödel-Universum führt dies zur Möglichkeit von Zeitreisen, die einen Beobachter zurück an einen schon früher eingenommenen Raumzeitpunkt führen. Gödel’sche Zeitreisende sind in der zeitlichen Richtung mobil, so wie gewöhnliche Reisende nur in den räumlichen Richtungen. Im Fall von schwarzen Löchern erfahren Beobachter im Außenraum einen unwiderstehlichen Zug in Richtung auf den Innenraum, in dem sie letztlich auch verschwinden. Die Mobilität, die gewöhnlich nur hinsichtlich der Zeitkoordinate eingeschränkt ist, wird hier hinsichtlich einer radialen räumlichen Koordinatenrichtung eingeschränkt – in dieser radialen Richtung erfahren Beobachter einen Zug, den wir sonst als den „Zug der Zeit“ kennen (vgl. Callender 2017, S. 130 f.). Von einer „Verräumlichung“ der Zeit in der Relativitätstheorie kann also nicht die Rede sein, wohl aber davon, dass unter bestimmten Umständen Raum und Zeit ihre wohldefinierten Rollen tauschen können. Letztlich drückt sich in allen Unterschieden von Raum und Zeit, die auch in den Relativitätstheorien erhalten bleiben, das Phänomen der Richtung der Zeit aus: Alle Prozesse in der Welt sind in dem Sinne asymmetrisch, dass es für sie zu jedem Zeitpunkt eine Vergangenheits- und eine Zukunftsrichtung gibt – in der einen sind sie abgeschlossen, in die andere sind sie „offen“ (diesem Phänomen der Richtung der Zeit werden wir in Abschn. 3.7 nachgehen).
3.5 McTaggarts Argument der Irrealität der Zeit Bisher haben wir das Thema „Zeit“ fast ausschließlich aus Sicht der Eigenschaften physikalischer Zeit behandelt. Dies impliziert aber sicher eine gewisse Einseitigkeit. Solange man von physikalischer Zeit spricht, lassen sich Zeitpunkte stets in einem Kontinuum lokalisieren – entweder durch eine Koordinatenzeit oder durch eine Parameterzeit – und mittels der Früher-später-Relation zueinander anordnen: Größeren Werten der Koordinatenzeit oder Parameterzeit entsprechen spätere Zeitpunkte, kleineren Werten entsprechen frühere Zeitpunkte. Das eindimensionale Zeitkontinuum existiert dabei in unproblematischer Weise „in beide Richtungen“, ohne einer dieser Richtungen irgendeinen Vorzug zu geben, auch wenn wir konstatieren, dass physikalische Prozesse offenbar eine Richtung bevorzugen; der Grund dafür – worin er auch immer bestehen mag – ist aber sicher nicht in der Struktur des Kontinuums selbst zu suchen. Obgleich das Zeitkontinuum zunächst eine mathematische Konstruktion darstellt, die auf die physikalische Wirklichkeit erst angewendet werden muss, wird es häufig mit ontologischen Assoziationen befrachtet: Das Zeitkontinuum stehe für ein „statisches“ Sein, für ein fiktives „Nebeneinander“ von Zeitpunkten, in dem jeder Bezug auf das veränderliche Sein und den Wechsel der Zeiten ausgeblendet sei. Kann die Darstellung durch ein Kontinuum überhaupt der Natur der Zeit gerecht werden, wenn Zeit doch geradezu ein Synonym für Veränderung ist? ‚The times they are A-changin‘. Die Frage, ob der Aspekt des Wechsels der Zeiten in einer physikalischen Theorie der Zeit eingefangen werden kann oder sich notwendig dem
54
3 Zeit
objektivierenden physikalischen Zugang entzieht, wird Gegenstand der folgenden Abschnitte sein. Benötigen wir einen „dynamischen“ Zeitbegriff, in dem der „Wechsel der Zeiten“ eine Hauptrolle spielt? Zunächst werfen wir einen Blick zurück auf McTaggarts „Beweis“ der Irrealität der Zeit, der von einer solchen dynamischen (bzw. modalen) Zeitauffassung seinen Ausgang nimmt. Erstaunlicherweise sind Gödel und McTaggart aus fundamental verschiedenen Blickwinkeln auf Zeit zu einem gleichlautenden Ergebnis gekommen: Zeit ist irreal – sie ist kein Bestandteil der objektiven Welt. Nach McTaggart lassen sich zwei Aspekte von Zeit unterscheiden, die man als den „physikalischen“ Aspekt und den „phänomenologischen“ Aspekt von Zeit bezeichnen könnte. Der physikalische Aspekt wird durch ein Kontinuum von Positionen in der Zeit („Ereignissen“ oder „Zeitpunkten“) repräsentiert, die durch die Früher-später-Relation geordnet sind. McTaggart verwendet hierfür den Ausdruck „B-Reihe“. Der phänomenologische Aspekt drückt sich darin aus, dass jede Position in der Zeit als „vergangen“, „gegenwärtig“ oder „zukünftig“ aufgefasst werden kann. Die mithilfe dieser Attribute gekennzeichneten Modi der Zeit bilden die „A-Reihe“. Die Unterscheidungen der B-Reihe sind, so McTaggart, obgleich sie permanent bestehen, nicht objektiver oder wesentlicher für die Natur der Zeit als jene der A-Reihe. Im Gegenteil, die Unterscheidung von „vergangen“, „gegenwärtig“ oder „zukünftig“ ist in gewissem Sinne fundamentaler als die zwischen „früher“ und „später“ (vgl. McTaggart 1908/1993, S. 68). Fundamentaler ist sie deswegen, weil sie den für Zeit zentralen Begriff der Veränderung in irreduzibler Weise zum Ausdruck bringt. Die statische Ordnung der B-Reihe erlaubt es dagegen nicht, von Veränderung zu sprechen. Was in der B-Reihe sollte es sein, das sich verändert? Ein Ereignis kann nicht aufhören, dieses Ereignis zu sein, um etwa in ein anderes Ereignis „überzugehen“. Die einzige Möglichkeit, angesichts einer Reihe von Ereignissen von „Veränderung“ zu sprechen, besteht, so McTaggart, darin, dass es Charakteristika von Ereignissen gibt, die „sich verändern können, und dennoch das Ereignis dasselbe Ereignis sein lassen“ (vgl. McTaggart 1908/1993, S. 70); diese Charakteristika sind die Vergangenheit, Gegenwart und Zukünftigkeit eines Ereignisses. Auf die A-Reihe kann man also nicht verzichten, wenn man Zeit in ihrem zentralen Aspekt der Veränderung thematisieren will, d. h., jedes Ereignis muss die Eigenschaften haben, „vergangen“, „gegenwärtig“ und „zukünftig“ zu sein. Andererseits ist ein Ereignis, das gegenwärtig ist, weder vergangen noch zukünftig. Ein Ereignis, das vergangen ist, ist nicht gegenwärtig und nicht zukünftig und ein zukünftiges Ereignis weder gegenwärtig noch vergangen (vgl. dazu die Darstellung in Sieroka 2018, S. 21 f.). Die Unterscheidung zwischen „vergangen“, „gegenwärtig“ und „zukünftig“ ist eben anders als die Früher-später-Relation flüchtiger Natur. Das „Werden“, der Wechsel der Zeiten, ist gerade dadurch ausgezeichnet, dass „zukünftige“ Ereignisse zu einem späteren Zeitpunkt zu „vergangenen“ Ereignissen werden. Diese Flüchtigkeit ist unvermeidlich, nur so können wir von Veränderung sprechen. Aber, indem wir dies tun, wenden wir, so jedenfalls McTaggart, unvereinbare Prädikate auf dasselbe Ereignis an. Ein Ereignis kann nicht im selben Atemzug
3.5 McTaggarts Argument der Irrealität der Zeit
55
als „vergangen“ und als „zukünftig“ charakterisiert werden, ohne einen Widerspruch zu produzieren. Jeder Versuch, diese zunächst fast trivial und harmlos erscheinende „Widersprüchlichkeit“ der Kennzeichnung aufzulösen, muss, so versucht McTaggart zu zeigen, scheitern: Wenn wir ausdrücken wollen, ein Ereignis sei zwar „zukünftig“, aber eben nicht jetzt, sondern irgendwann in der Vergangenheit, so müssen wir von „zukünftig in der Vergangenheit“ sprechen, was im Sinne der A-Reihe nur bedeuten kann: „vergangen zukünftig“.8 Auf diese Weise erhalten wir eine Menge zweistelliger A-Prädikate wie „gegenwärtig vergangen“, „gegenwärtig gegenwärtig“, „gegenwärtig zukünftig“, „vergangen vergangen“, „vergangen gegenwärtig“, „vergangen zukünftig“ usw. Für jedes Ereignis gilt: Da es irgendwann einmal in der Zukunft lag, gegenwärtig war oder vergangen ist, kann auch jedes dieser zweistelligen Prädikate zu Recht auf dieses Ereignis angewendet werden. Aber ein Ereignis, das gegenwärtig vergangen ist, ist z. B. nicht gegenwärtig zukünftig; wir haben das Ereignis erneut widersprüchlich charakterisiert. Die Auflösung dieser Widersprüche scheint nun auf einer Stufe dreistelliger Prädikate möglich, auf der aber wieder die bekannten Schwierigkeiten auftreten und so ad infinitum. Aus dem Dilemma, dass Ereignisse in legitimer Weise durch unterschiedliche modalzeitliche Prädikate gekennzeichnet werden können, diese Kennzeichnungen sich anderseits aber als miteinander unvereinbar erweisen, kommen wir nicht heraus.9 Gödel und McTaggart sind zu demselben Ergebnis gelangt: Unser Begriff der Zeit – die Art, wie wir uns Zeit legitimerweise denken – lässt sich nicht auf eine Realität außerhalb unseres Denkens beziehen. Beide unterstellen in ihren Argumenten eine apriorische Struktur des Zeitbegriffs. Für Gödel setzt Zeit notwendig eine eindeutige Unterscheidung von Vergangenheit und Zukunft voraus. Eine physikalische Realität, die Zeitreisen und damit eine Verletzung dieser Struktur zulässt, kann nicht als Realisation des apriorisch strukturierten Zeitbegriffs gelten. Auch McTaggart unterstellt eine apriorische (modale) Struktur des Zeitbegriffs, die aber nach McTaggart bereits mit internen Paradoxien behaftet ist und schon aus diesem Grund nicht die Struktur einer realen Zeit sein kann. Trotz der von McTaggart aufgezeigten Probleme bietet unsere alltägliche Erfahrung Belege dafür, dass die A-Reihe einen wichtigen Aspekt berührt, den Zeit für uns besitzt: Nachdem die Prüfung um 12 Uhr beendet ist, ruft der Prüfling
8 Verwenden wir dagegen für „zukünftig in der Vergangenheit“ eine Datierung, z. B. „zukünftig am 01.03.2021“, dann können wir damit zwar ausdrücken, dass am 01.03.2021, also an einem Zeitpunkt in der Vergangenheit, ein bestimmtes Ereignis zukünftig war – z. B. die Bundestagswahl 2021 –, aber dann haben wir auf Kennzeichnungen der B-Reihe zurückgegriffen, die nach Voraussetzung der Natur der Zeit nicht gerecht werden. 9 Präsentisten können gegenüber McTaggart kritisch einwenden, dass sein Argument keinen Unterschied in der Gewichtung der Zeitmodi gelten lässt. Vergangenes und Zukünftiges existieren laut Präsentismus nicht – im Gegensatz zu Gegenwärtigem. Daher ist die vergangene Gegenwart eines Ereignisses fiktiv, während die gegenwärtige Vergangenheit in Form von aktuellen Spuren der Vergangenheit „real“ sein kann. Aber McTaggart argumentiert eben nicht ontologisch, sondern phänomenologisch.
56
3 Zeit
aus: „Bin ich froh, dass die Prüfung vorbei ist.“ Die Erleichterung des Prüflings bezieht sich plausiblerweise nicht auf die Uhrzeit des Prüfungsendes – er ist nicht darüber erleichtert, dass die Prüfung um 12 Uhr endete. Auch die Tatsache, dass das Ende der Prüfung zeitlich vor seinem Ausruf lag, ist nicht der Grund für seine Erleichterung. Der Grund ist einfach, dass die Prüfung nun vorüber ist. A-zeitliche Ausdrücke spielen, wie Sieroka feststellt, eine „wichtige Rolle in unserem Erfahren und Erleben“ (Sieroka 2018, S. 25), die nicht immer adäquat mit B-zeitlichen Ausdrücken wiedergegeben werden kann. Die Änderung des modalen Status von Ereignissen – zuerst in der Zukunft zu liegen, dann gegenwärtig zu werden und schließlich vergangen zu sein – hat für uns unbestreitbar eine lebenspraktische Bedeutung. Sieroka weist aber zu Recht darauf hin, dass diese wichtige praktische Rolle nicht den Schluss zulässt, dass „Modalzeiten metaphysisch grundlegend sind“ (Sieroka 2018, S. 26). Andererseits sollte jede gelungene Zeittheorie, die sich auf die Natur der Zeit unabhängig von uns bezieht, auch eine Erklärung für die praktische Rolle modaler Zeitbestimmungen für uns enthalten.
3.6 Präsentismus und Eternalismus Aus der lebenspraktischen Bedeutsamkeit der Modalzeiten folgen, wie in Abschn. 3.5 erwähnt, keine unmittelbaren metaphysischen Konsequenzen. Gleichwohl kann dadurch eine metaphysische Position motiviert werden, die den unterschiedlichen ontologischen Status von Ereignissen betont, abhängig davon, ob sie in der Vergangenheit, in der Gegenwart oder in der Zukunft liegen. Wenn wir im Alltag aus der Perspektive unseres „Jetzt“ verschieden auf Vergangenes, Gegenwärtiges und Zukünftiges blicken, so könnte dies damit zusammenhängen, dass in der Welt selbst eine solche Unterscheidung der Zeitmodi existiert, die auf einer ausgezeichneten Position der Gegenwart beruht. Der Präsentismus versteht den Ausdruck „Gegenwart“ nicht als Bezeichnung eines flüchtigen, subjektiven Phänomens unserer Erfahrung, sondern sieht in der ausgezeichneten Position der Gegenwart eine signifikante objektive Eigenschaft unserer Welt. Aufgrund dessen existiert ein ontologischer Unterschied zwischen der Zukunft auf der einen Seite sowie der Gegenwart und Vergangenheit auf der anderen Seite: Die Zukunft ist „offen“, noch unbestimmt und jedenfalls nicht real; aber wenn die noch unbestimmten zukünftigen Ereignisse sich in gegenwärtige und schließlich in vergangene Ereignisse verwandeln, werden sie aktual und bestimmt. Der Realitätsstatus von Ereignissen ändert sich also – als Ergebnis dessen, was man den „Fluss der Zeit“ nennen kann – vom Zustand der Unbestimmtheit und Nicht-Realität zum Zustand der Bestimmtheit und Realität. Die präsentistische Auffassung der Zeit ist keineswegs exzentrisch oder kapriziös. Hilary Putnam hat sie sogar als den „man on the street’s view“ bezeichnet (vgl. Putnam 1967, S. 240). Schließlich glauben wir alle, dass die Gegenstände und Geschehnisse, die jetzt in unserem unmittelbaren Umfeld vorhanden sind oder stattfinden, in höchstem, paradigmatischem Sinn „real“ sind. Was auch immer sonst real sein mag – die Enttäuschungen des letzten Jahres
3.6 Präsentismus und Eternalismus
57
oder das bevorstehende Weihnachtsfest –, es kann doch höchstens in geringerer Weise real sein als das, was uns jetzt geradewegs „vor Augen steht“. Verstehen wir den Präsentismus also ruhig als die „übliche“ Auffassung der Zeit. Für diese Auffassung ist ein bestimmtes Kriterium der „Realität“ von Ereignissen grundlegend, das mit den eben schon verwendeten Ausdrücken der „Bestimmtheit“ oder „Aktualität“ einhergeht und neben gegenwärtigen (in abgestuftem Sinn) auch vergangene Ereignisse miteinschließt: Ereignisse, die gegenwärtig oder vergangen sind – relativ zu meinem „Hier und Jetzt“ –, teilen miteinander einen wesentlichen epistemischen Vorzug, den zukünftige Ereignisse nicht besitzen. Gegenwärtige (und in geringerem Maß vergangene) Ereignisse sind, jedenfalls prinzipiell, epistemisch und praktisch zugänglich relativ zu meinem „Hier und Jetzt“ (vgl. Bartels 1997, S. 204). Es ist möglich, mit dem, was an gegenwärtigen bzw. vergangenen Zeitpunkten geschieht (oder geschehen ist), zu interagieren bzw. davon beeinflusst zu werden, und wir können ihr So-Sein jedenfalls für unser weiteres Handeln in Rechnung stellen. Dies gilt zum Teil auch für schon länger vergangene Zeitpunkte, wenn wir z. B. ungeduldig die Reaktion auf einen schon vor längerer Zeit von uns abgeschickten Brief erwarten. Im Kontrast dazu betrachten wir Zukünftiges als „noch nicht vorhanden“ – jedenfalls nicht jetzt, ganz gleichgültig, ob wir die Geltung des Determinismus unterstellen oder nicht. Wir können mit Zukünftigem weder interagieren noch werden wir davon beeinflusst. In einer nicht-relativistischen Welt reicht die Bedeutung meines „Hier und Jetzt“ über meine eigene Person hinaus; sie gewinnt allgemeinere ontologische Bedeutung aus der Tatsache, dass es eine eindeutig bestimmte Untermenge aus der Gesamtheit von Zeitpunkten gibt, die gleichzeitig mit meinem „Hier und Jetzt“ sind – der Zeitpunkt, der durch mein „Hier und Jetzt“ gegeben ist, bildet ein Element einer objektiven Gleichzeitigkeitsklasse von Zeitpunkten. Wenn irgendein Zeitpunkt t (bzw. das an diesem Zeitpunkt stattfindende Ereignis) bestimmt ist – relativ zu meinem „Hier und Jetzt“ –, dann ist er auch bestimmt relativ zu allen anderen Elementen dieser Gleichzeitigkeitsklasse. Die Gesamtheit der Zeitpunkte wird dadurch in eindeutiger Weise zerteilt in zwei verschiedene disjunkte Untermengen: die Menge aller Zeitpunkte, die relativ zu einem Zeitpunkt t bestimmt sind, und die Menge der Zeitpunkte, die relativ zu t (noch) nicht bestimmt sind. Die Zugehörigkeit zu einer dieser Klassen ist im Besonderen unabhängig davon, in welchem momentanen Bewegungszustand ich mich am „Hier und Jetzt“ befinde. Die Relation der Bestimmtheit für Zeitpunkte (relativ zu einem vorgegebenen „Hier und Jetzt“) ist daher eine objektive Relation unabhängig von allen Bezugssystemen. Sie wird durch ganze Gleichzeitigkeitsklassen von Zeitpunkten erfüllt. Wenn das „Hier und Jetzt“ durch die Raumzeit wandert, werden neue Zeitpunkte zu bestimmten Zeitpunkten, die zuvor nicht-bestimmt waren. Zu jedem Moment, der einem „Hier und Jetzt“ entspricht, wechselt die Gleichzeitigkeitsklasse, die die Relation der Bestimmtheit relativ zum „Hier und Jetzt“ erfüllt. Es entsteht das Bild eines durch die Raumzeit wandernden Saums von Zeitpunkten, die jeweils bestimmt und real sind. Diese von Moment zu Moment sich wandelnde Realität von Zeitpunkten kann einerseits als Ausdruck des Werdens
58
3 Zeit
verstanden werden – das Werden besteht ja gerade darin, dass Zukünftiges, das (noch) nicht real ist, zu Gegenwärtigem wird, das real ist. Andererseits spiegelt diese „wandernde“ Realität nicht einfach eine subjektive Perspektive wider, sondern sie ist Ausdruck der Zeitordnung der Welt. Was wir erhalten, ist also eine objektive Interpretation der Zeit, die den Aspekt des Werdens einschließt. Es lässt sich kaum bestreiten, dass ein Verständnis von Zeit, in dem die Veränderung und das Werden einen Platz haben, einer Konzeption von Zeit überlegen ist, die in dem Sinne „statisch“ ist, dass sie ausschließlich Datierungen und Zeitverhältnisse auszudrücken erlaubt (B-Reihe). Man denke etwa an Zenons Pfeil (vgl. Sieroka 2018, S. 35 f.), der zu jedem Zeitpunkt seiner Bewegung wie „eingefroren“ erscheint. Das „statische“ Punktkontinuum bietet lediglich die Möglichkeit, eine dichte Abfolge solcher eingefrorener Pfeilbilder mit sukzessiv in Flugrichtung verschobenem Pfeil zu konstruieren, um aus deren Zusammenhang die Bewegung des Pfeils zu rekonstruieren. Aber keine dieser Momentaufnahmen zeigt uns wirklich einen bewegten Pfeil. Sind Modalzeiten wirklich die einzige Möglichkeit, Veränderung und Werden einzufangen? Eine Alternative besteht darin, wenigstens den Aspekt der Veränderung (wenn schon nicht den des Werdens) einzufangen, indem physikalische Prozesse dem raumzeitlichen Kontinuum eine ausgezeichnete Richtung des Zeitverlaufs aufprägen oder diese Richtung selbst schon ein intrinsisches Merkmal von Raumzeiten darstellt (vgl. Abschn. 3.7). Ein Beispiel für die Implementierung des Werdens im Rahmen eines raumzeitlichen Kontinuums kann man in Aristoteles’ Physik (Buch IV, Kap. 10–14) finden. Aristoteles fasst das Kontinuum nicht als fertig vorgegebene Realität auf, sondern lässt es in einem Prozess des Werdens erst entstehen (vgl. die in diesem Abschnitt noch zu besprechende Konzeption des Growing Block). Zukünftige Ereignisse existieren nicht schon immer – als Elemente eines fertigen Kontinuums –, sie werden in dessen Entwicklung erst geschaffen. Aristoteles’ Theorie ist eine Theorie der offenen Zukunft: Zukünftige Zeitpunkte sind nicht real, sie werden erst real. Im Folgenden soll untersucht werden, ob es eine plausible Form der Theorie der offenen Zukunft auch vor dem Hintergrund der speziellen Relativitätstheorie geben kann. Das präsentistische Realitätskriterium ist, wie schon erwähnt, in einer klassischen Newton’schen Welt – trotz seines Bezugs auf meinen Präsenzpunkt – ein objektives Kriterium. Realität können danach genau jene Ereignisse beanspruchen, die in Wechselwirkungsgemeinschaft mit mir stehen (bzw. gestanden haben), und dies sind jene Ereignisse, die relativ zu meinem Präsenzpunkt gleichzeitig oder früher sind. Mit Punkten in meiner Zukunft kann ich jetzt nicht wechselwirken; daher sind sie jetzt noch nicht real. Solange mein Hier und Jetzt nicht nur den subjektiven Zustand einer willkürlichen Person widerspiegelt, sondern in eindeutiger Weise eine objektive Gleichzeitigkeitsklasse für Ereignisse im vierdimensionalen Kontinuum, handelt es sich um ein objektives Kriterium. Die Menge der Ereignisse wird durch meinen Präsenzpunkt unterteilt in jene, die schon real, und in jene, die noch unbestimmt sind. Wie überzeugend eine Theorie der offenen Zukunft ist, hängt von der physikalischen Beschaffenheit der Welt
3.6 Präsentismus und Eternalismus
59
ab. In der speziellen Relativitätstheorie existieren keine objektiven Gleichzeitigkeitsklassen, damit verliert mein Präsenzpunkt seine intersubjektive Bedeutung; die Unterscheidung der Ereignisse in „real“ und „noch nicht real“ wird bezugssystemabhängig und scheint sich infolgedessen völlig aufzulösen. Sehen wir uns ein berühmtes Gedankenexperiment an, das von Hilary Putnam 1967 präsentiert wurde: Nennen wir ein Ereignis „real“ relativ zum Präsenzpunkt eines Beobachters (der durch seinen Bewegungszustand ein Bezugssystem auszeichnet) genau dann, wenn es relativ zum Präsenzpunkt nach dem Urteil des Beobachters gleichzeitig oder vergangen ist. Angenommen, E sei ein Ereignis, das relativ zu meinem Präsenzpunkt P für das durch mich selbst realisierte Bezugssystem B „real“ ist. Ein anderes Ereignis E*, das relativ zu P nach Urteil von B „in der Zukunft“ liegt, ist laut der Theorie der offenen Zukunft noch nicht real. Aber dieses Urteil über E* hängt eben nun vom verwendeten Bezugssystem ab, d. h. vom Bewegungszustand des Beobachters. Ein anderer Beobachter als ich selbst mag sich ebenfalls an Punkt P aufhalten, sich aber in einem anderen Bewegungszustand befinden, d. h. ein anderes Bezugssystem B* darstellen. Man kann den Bewegungszustand dieses anderen Beobachters und mit ihm das Bezugssystem B* nun immer so einrichten, dass aus Sicht von B* das Ereignis E* gleichzeitig relativ zu E ist. Für die Theorie der offenen Zukunft ist also E real relativ zu P (aus Sicht von B) und E* real relativ zu E (aus Sicht von B*, aber nicht aus Sicht von B). Wie wollen wir diese unterschiedlichen Urteile über die Realität von Ereignissen bewerten, die von verschiedenen Bezugssystemen aus getroffen werden? Eine Möglichkeit besteht darin, dem Urteil über die Realität von Ereignissen starkes Gewicht zuzumessen, selbst dann, wenn es aus Perspektive unterschiedlicher Bezugssysteme erfolgt ist. Wenn E* real relativ zu E ist und E real relativ zu P, dann sollte auch E* real relativ zu P sein – wobei die Relation der relativen Realität von Ereignissen als transitiv betrachtet wird. Diese Annahme der Transitivität erscheint angesichts des „definitiven“ Charakters von „Realität“ – etwas ist real oder eben nicht – sehr natürlich. Wir sind geneigt, „real relativ zu x“ als „in gleichem Maße real wie x“ zu verstehen, und diese Relation sollte transitiv sein. Aber die natürliche Annahme der Transitivität führt sofort zu einer paradoxen Konsequenz. Wir haben ja angenommen, dass E*, von meinem Präsenzpunkt P aus gesehen, in der Zukunft liegt und daher nicht real ist. Nun aber müssen wir akzeptieren, dass E* relativ zu P doch real ist. Da E* ganz willkürlich gewählt war, gilt diese Konsequenz für alle zukünftigen Ereignisse: Meine gesamte Zukunft ist real – und zwar jetzt, von meinem Präsenzpunkt aus gesehen. Die Unterscheidung von realer Gegenwart und offener Zukunft scheint sich vor dem Hintergrund einer relativistischen Welt von selbst aufzulösen. Eine Alternative ist es, auf die Annahme der Transitivität zu verzichten und damit die Bezugssystemabhängigkeit der Realität von Ereignissen zu akzeptieren. „Realität“ kommt dann Ereignissen nur relativ zu einzelnen Beobachtern mit ihrem jeweiligen Bewegungszustand an einem bestimmten Ort zu. Ereignisse in meiner Zukunft sind für mich nicht real, obgleich sie möglicherweise für einen
60
3 Zeit
mir benachbarten Beobachter, der sich relativ zu mir bewegt, real sind. Die Konsequenz dieser alternativen Sichtweise ist eine Art Zersplitterung des Realitätsbegriffs, die in Richtung einer solipsistischen Auffassung der Welt weist. Können wir angesichts dieses Dilemmas – Inkonsistenz oder Solipsismus – noch an der Grundidee der offenen Zukunft festhalten? Howard Stein hat (1991) auf das von Putnams Gedankenexperiment aufgeworfene Dilemma reagiert. Er zieht zunächst eine radikale Konsequenz: Was in Putnams Gedankenexperiment Schiffbruch erleidet, ist der vermeintliche begriffliche Zusammenhang von Realität und Gegenwärtigkeit von Ereignissen. Die Annahme dieses Zusammenhangs hat dazu geführt, die Frage, ob ein Ereignis real ist, mit der anderen Frage zu verknüpfen, ob es gegenwärtig (im Sinne von gleichzeitig) ist. Es ist dieser Zusammenhang, der in das Dilemma führt und der nun aufgegeben werden muss. An einer Theorie der offenen Zukunft kann man dennoch festhalten und man sollte es tun – schon, weil diese Theorie unserer Alltagserfahrung gerecht wird. Man muss diese Alltagserfahrung nur richtig in ein relativistisches Bild der Welt einpassen. Zunächst besteht ja kein Zweifel daran, dass unser Präsenzpunkt als real zu betrachten ist. Wir existieren hier und jetzt in der Raumzeit – so wie andere Wesen an anderen Raumzeitpunkten existieren. Die Realität im Ganzen ist also zunächst die Gesamtheit der jeweils eigenen instantanen Realität an jedem (besetzten) Raumzeitpunkt. Aber die Welt ist durchaus nicht „solipsistisch“: Wir stehen im Austausch mit vielen anderen Wesen, indem wir Wirkungen in unseren Zukunftslichtkegel aussenden und Spuren und Signale aus unserem Vergangenheitslichtkegel empfangen – aufgrund des relativ hohen Wertes der Lichtgeschwindigkeit umfassen diese Bereiche große Teile der umgebenden Raumzeit. Die in meinem Zukunftslichtkegel liegenden Punkte sind für mich zukünftig und noch nicht real – mit ihnen konnte ich noch nicht wechselwirken und sie konnten also keinen Einfluss auf mich ausüben. Die Ereignispunkte des Vergangenheitslichtkegels stellen dagegen Ereignisse dar, mit denen ich habe wechselwirken können; sie sind für mich bestimmt und abgeschlossen und in diesem Sinne real – auch wenn sie jetzt nur noch durch ihre möglichen Spuren für mich präsent sind. Alle raumartig zu P liegenden Punkte bilden dagegen eine „verbotene Zone“ für kausale Einflüsse und sind daher weder „real“ noch gehören sie zur offenen Zukunft. Kurz: Als „real relativ zu einem Raumzeitpunkt P“ können wir nach Stein genau jene Punkte auffassen, die im Vergangenheitslichtkegel von P liegen (einschließlich P selbst), die also kausalen Einfluss auf P gehabt haben (können). Für einen Beobachter, der sich auf seiner Weltlinie in die Zukunft „bewegt“, erweitert sich sukzessiv der Vergangenheitslichtkegel und damit der Bereich dessen, was für ihn real ist. Die Erfahrung, die den Motivationshintergrund für die Theorie der offenen Zukunft bildet, kann damit für jeden Einzelnen eingefangen werden. Aber dafür ist ein Preis zu zahlen: Unser naturphilosophisches Bild der Welt soll ja nicht nur einfangen, wie die Welt für jeden Einzelnen, sondern wie die Welt für uns alle ist. Aber betrachten wir einen bestimmten Ereignispunkt E. Relativ zum Präsenzpunkt P liege E im Vergangenheitslichtkegel; E ist also für P real. Gehen wir nun zu einem anderen Präsenzpunkt Q über, in dessen Ver-
3.6 Präsentismus und Eternalismus
61
gangenheitslichtkegel E nicht liegt, so ist E für Q nicht real. Der Realitätsstatus von E hängt also davon ab, aus Perspektive welcher Beobachter in der Raumzeit er betrachtet wird: Für P ist E real, für Q nicht. Der Realitätsbegriff wird also in jedem Fall in einer relativistischen Welt fragmentiert. Wir können nur wählen, ob wir bereit sind, unsere gesamte Zukunft als schon bestimmt (und in diesem Sinne real) anzusehen oder in Kauf zu nehmen, dass es für jeden einzelnen Beobachter einen eigenen und – von Bereichen der Überschneidung der Vergangenheitslichtkegel abgesehen – verschiedenen Bereich des Realen gibt. Kehren wir noch einmal zu dem durch Putnams Gedankenexperiment aufgeworfenen Dilemma zurück.10 Was bedeutet dieses Dilemma für den Präsentismus? Der Präsentismus behauptet, dass der Gegenwart eine ausgezeichnete Rolle in Hinsicht auf die Realität von Ereignissen zukommt: Nur Gegenwärtiges (und eventuell Vergangenes) kann real sein. Putnams Gedankenexperiment zeigt, dass – unter Verwendung der naheliegenden Interpretation von „Gegenwart“ als „Gleichzeitigkeit“ – diese Position entweder in eine Inkonsistenz mündet oder dazu zwingt, dem Bezugssystem eines Beobachters eine spezielle Rolle für die Realität von Ereignissen zuzusprechen. Relativ zu dem Bezugssystem, das mit dem Beobachter mitbewegt, also letztlich durch seinen eigenen Körper definiert ist, kann die präsentistische Position aufrechterhalten werden: Nur die durch dieses Bezugssystem ausgezeichnete Gegenwart (eventuell inklusive der Vergangenheit) ist real – wobei andere Beobachter ihre Gegenwart anders festlegen. Ein auf Bezugssysteme relativierter Präsentismus dieser Art bleibt also möglich – und kann die ontologische Grundlage für ein Verständnis der Zeit im Sinne der A-Reihe bieten, indem meine modalzeitlichen Aussagen, wie z. B. „die Prüfung ist vorüber“, durch modalzeitliche Tatsachen wie, „dass die Prüfung relativ zu meinem ausgezeichneten Bezugssystem vergangen ist“, wahr gemacht werden. Wir sehen daran, dass die relativistische Raumzeit nicht zwingend eternalistisch interpretiert werden muss. Ihre Struktur legt einer präsentistischen Interpretation lediglich starke Beschränkungen auf. Wie sieht nun dagegen eine eternalistische Interpretation der relativistischen Raumzeit aus? Für den Eternalismus ist die Zukunft ebenso real wie Gegenwart und Vergangenheit. Der Realitätsstatus von Ereignissen hängt also nicht von ihrer Gegenwärtigkeit ab – und damit entfällt jede Motivation dafür, einen spezifischen Begriff von „Gegenwärtigkeit“ vor dem Hintergrund der relativistischen Raumzeit zu retten. Die eternalistische Position scheint aber zu wenig plausiblen Konsequenzen zu führen: Will man wirklich behaupten, der ferne Ereignispunkt, an dem der Wasserstoffvorrat der Sonne aufgebraucht sein wird, sei jetzt schon genauso real wie mein gegenwärtiges Tippen auf der Laptoptastatur? Dies zu behaupten scheint doch ebenso verfehlt zu sein wie zu behaupten, dass die Dinosaurier jetzt die Erde bevölkern. Eternalisten möchten sicher nicht sagen, dass alle Zeitpunkte der Welt auf einen einzigen zusammenfallen.
10 Für
das Folgende vgl. die Darstellung in Friebe (2012).
62
3 Zeit
Um klarer zu sehen, was der Eternalismus stattdessen impliziert, betrachten wir zunächst einen Existenzbegriff, der sich an der Sprachlogik orientiert und gegenüber besonderen ontologischen Annahmen „neutral“ ist. Nach W.V.O. Quine besitzt ein Gegenstand dann Existenz, wenn er als möglicher Wert einer Variablen unserer wissenschaftlichen oder Alltagstheorien über die Welt vorkommt – kurz: wenn er Gegenstand unseres Universe of Discourse ist. Auf spezielle Realitätskriterien (wie es z. B. ein Kausalitätskriterium darstellen würde) wird dabei verzichtet – bis auf das Identitätskriterium, das die Möglichkeit eines eindeutigen Bezugs auf diesen im Unterschied zu allen anderen Gegenständen verlangt. Alle Raumzeitpunkte – auch jene, die mit dem Auftreten von Dinosauriern oder mit dem Endzustand der Sonne verbunden sind – erfüllen dieses neutrale Existenzkriterium. In diesem Sinn sind alle Raumzeitpunkte gleichermaßen real. Aber der Eternalismus möchte mehr aussagen als nur diese neutrale Existenzweise: So wie der mathematische Realismus die Menge der natürlichen Zahlen als ein Objekt unserer Welt betrachten möchte, das „zu jeder Zeit“ (und somit zeitlos) als ein Ganzes existiert, behauptet der Eternalismus, dass unser Universum (alle Ereignisse, an welchem Raumzeitpunkt auch immer) „zu jeder Zeit“ (also zeitlos) als ein Ganzes (ein „Block“) existiert.11 Damit existieren auch einzelne Ereignispunkte als Bestandteile des Universums in zeitloser Weise. Eine neutrale Existenzauffassung im Sinne von Quine verpflichtet nicht zu dieser Annahme der zeitlosen Existenz des Universums als Ganzes und ebenso wenig verpflichtet die Relativitätstheorie darauf. Andererseits impliziert die Behauptung der zeitlosen Existenz des Universums keine offensichtlich falschen Aussagen, wie „die Dinosaurier leben jetzt“ oder „die Sonne hat jetzt ihren Wasserstoffvorrat erschöpft“. Während das Universum zeitlos existiert, wird unsere Existenz im Universum – wie die anderer Objekte – durch eine spezifische Weltlinie realisiert und bezogen auf einen Punkt dieser Weltlinie (bzw. relativ zu den für diesen Punkt definierten Lichtkegeln) sind bestimme Ereignisse eben jetzt noch nicht (bzw. jetzt nicht mehr), sondern liegen in der Zukunft (bzw. in der Vergangenheit) dieses Punktes. Man kann also – vor dem Hintergrund einer relativistischen Welt – den Präsentismus oder den Eternalismus vertreten, ohne dadurch jeweils zu paradoxen Aussagen gezwungen zu sein. Werfen wir zum Schluss dieses Abschnitts noch einmal einen Blick auf den Zusammenhang zwischen Präsentismus/Eternalismus auf der einen und A- bzw. B-Reihe auf der anderen Seite. Wer die Zeit im Sinne der A-Reihe versteht, also Zeit als wesentlich durch den Wandel gekennzeichnet, für den besitzen Modalzeiten ontologische Priorität. Diese Sichtweise begünstigt den Präsentismus (nur Gegenwärtiges ist real), erzwingt ihn aber nicht. Die ontologische Priorität der Gegenwart kann auch durch Hinzufügen eines transitorischen Jetzt rekonstruiert werden, das vor dem Hintergrund eines „statischen“, im Ganzen zeit-
11 Die
Tatsache, dass Raum und Zeit als Bestandteile der Raumzeit „miteinander verschmolzen“ sind, also nicht in eindeutiger Weise voneinander getrennt werden können (vgl. Abschn. 3.4), begünstigt es, die Raumzeit als ein Ganzes zu verstehen.
3.7 Die Richtung der Zeit
63
los existierenden und daher eternalistisch verstandenen Universums operiert (vgl. Dieks 1988). Umgekehrt ist die ontologische Priorität der B-Reihe zwar in bevorzugter Weise, aber nicht zwingend mit einem Eternalismus verbunden. So hatte Howard Stein in seiner Reaktion auf Putnam die Konzeption einer ausdehnungslosen Gegenwart vertreten, die nur im Hier und Jetzt eines einzelnen Beobachters existiert. Für die verschiedenen Beobachter in der Welt existieren verschiedene Gegenwarten und auch verschiedene Mengen schon bestimmter und daher realer Ereignispunkte (die Inhalte der jeweiligen Vergangenheitslichtkegel). Alle diese zeitlichen Begriffe sind Begriffe der B-Reihe, es geht stets um raumzeitliche Verhältnisbestimmungen, nicht etwa um ein primäres Gegenwärtig-Sein oder Zukünftig-Sein. Aber diese Sicht führt Stein keineswegs zu einem Eternalismus. Die Welt ist für ihn kein zeitlos vorliegender „Block“; für jeden Beobachter existieren nur eine spezifische Vergangenheit und Gegenwart, aber keine schon fertig vorgegebene Zukunft. Die Zukunft ist stattdessen „offen“, indem die Welt sich erst in die Zukunft hinein entwickelt: Dies ist die Konzeption eines Growing Block, eines Universums als eines dynamischen Ganzen, das im Werden begriffen ist.12 Ein Verständnis der Zeit im Sinne der B-Reihe verpflichtet also ebenso wenig zu einer „statischen“ Auffassung der Zeit wie die Bevorzugung der A-Reihe zu einer „dynamischen“ Auffassung der Zeit verpflichtet.
3.7 Die Richtung der Zeit Es bleibt das Problem, wie das Werden in der Natur in unser physikalisches Weltbild integriert werden kann. Ein auf einzelne Beobachter relativierter Präsentismus und eine dynamische Version des Blockuniversums (Growing Block) haben sich als Möglichkeiten herausgestellt, an der Idee des „Real-Werdens“ von Ereignissen auch vor dem Hintergrund einer relativistischen Welt festzuhalten. Ein anderer Ansatzpunkt für eine Theorie des Werdens sind die physikalischen Prozesse und die Naturgesetze, denen die Prozesse „folgen“. Da unsere Existenz an physikalische Prozesse gebunden ist, liegt die Vermutung nahe, dass die asymmetrische Struktur unserer Zeitwahrnehmung, die für unser Leben zentrale Verschiedenheit der Erfahrung von Vergangenheit und Zukunft, auf ein genuines Merkmal der Asymmetrie in den physikalischen Prozessen unserer Welt zurückgeht. Der Versuch, die psychologische auf eine physikalische Richtung der Zeit zurückzuführen, stößt aber auf ein grundsätzliches Problem: Die fundamentalen Gleichungen der Mechanik, der Elektrodynamik und anderer physikalischer
12 Im
Rahmen der ART kann diese Konzeption nur mit global hyperbolischen Raumzeiten in Einklang gebracht werden, die eine kosmische universelle Zeit besitzen. Nur sie können sozusagen „simultan“ in die Zukunft hineinwachsen. Ohne Auszeichnung globaler Gleichzeitigkeitsebenen einer kosmischen Zeit bleibt der Begriff eines in die Zukunft „wachsenden“ Universums unbestimmt.
64
3 Zeit
Theorien sind sämtlich zeitumkehrbar, d. h., zu jedem Prozess, der durch diese Gesetze zugelassen wird, existiert ein zeitgespiegelter, „umgekehrter“ Prozess, der durch die Gesetze ebenso zugelassen wird. Diese Symmetrie der Naturgesetze scheint der erlebten Asymmetrie der Prozesse entgegenzustehen: Wir sehen Kaffeetassen vom Tisch fallen und in viele Stücke zerspringen; umgekehrt aber fügen sich die Scherben nie wieder von selbst zu einer intakten Kaffeetasse zusammen, obgleich die Gesetze der Mechanik dies zulassen würden. Das Problem der zeitlichen Asymmetrie der Natur spitzt sich also zu auf die Frage: Weshalb findet von den durch Naturgesetze zugelassenen Prozessen nur der eine Teil tatsächlich statt? Darauf kann die Antwort zunächst lauten: Weil der Verlauf von Naturprozessen nicht allein durch Gesetze, sondern ebenso durch Rand- und Anfangsbedingungen bestimmt wird. Damit ein Prozess stattfindet, muss er nicht nur durch Gesetze zugelassen, sondern auch durch das Eintreffen der richtigen Rand- und Anfangsbedingungen realisiert werden. Die Anfangsbedingungen für den Prozess der „regenerierten“ Kaffeetasse treten offenbar nie (oder nur sehr selten) ein. Weshalb? In dem geschilderten Fall liegt der Grund darin, dass die Energie, die die Kaffeetasse vor dem Aufprall besitzt, zwar erhalten geblieben, aber in viele kleine Anteile zerstreut worden ist. Die im Fallen noch gleichgerichteten Impulse der Teile der Tasse sind in Deformations- und Wärmeenergie übergegangen, also in viele ungleich gerichtete molekulare Impulse. Um den Vorgang umzukehren, müssten alle diese Impulse wieder in einer einheitlich gerichteten Weise zusammenwirken. „Von selbst“ wird es zu einer solchen „Verschwörung der Anfangsbedingungen“ praktisch niemals kommen. Deswegen ist das Herunterfallen der Kaffeetasse ein „unumkehrbarer“ (irreversibler) Prozess. Die Zerstreuung (Dissipation) von Energie in viele verschiedene, nicht kooperierende Anteile (Freiheitsgrade) wird durch die Größe Entropie beschrieben. Nach dem Zweiten Hauptsatz der Thermodynamik kann die Entropie eines abgeschlossenen Systems, also der Grad der Zerstreuung seiner Energie, nur zunehmen.13 Der Zustand, in dem die vorhandene Energie stärker zerstreut ist, kann durch eine größere Zahl von Mikrozuständen (das sind z. B. Verteilungen von Impulsen auf einzelne Moleküle) realisiert werden, ihm entspricht daher eine größere Wahrscheinlichkeit. In vielen Fällen geht die Zerstreuungstendenz der Energie eines Systems mit einem Verlust dessen einher, was wir einen
13 Stellt
man den mikroskopischen Zustand eines physikalischen Systems durch einen Punkt in einem Zustandsraum (Phasenraum) dar, so entspricht einem makroskopischen Zustand niedriger Entropie ein kleines Volumen des Zustandsraums. Den makroskopischen Zuständen hoher Entropie entsprechen große Volumina des Zustandsraums. Startet das System in einer der kleinen Parzellen des Zustandsraums (niedrige Entropie), so ist es sehr wahrscheinlich, dass es, wenn es sich selbst überlassen wird (alle Mikrozustände sind gleich wahrscheinlich), schließlich in der größten Parzelle des Zustandsraums zu finden ist (Gleichgewichtszustand). Der Grund dafür ist, dass es astronomisch viel mehr Mikrozustände gibt, die den Gleichgewichtsmakrozustand erfüllen, als Mikrozustände, die einen Nicht-Gleichgewichtsmakrozustand realisieren.
3.7 Die Richtung der Zeit
65
„geordneten“ Zustand des Systems nennen. Daher wird die Tendenz zur Entropiezunahme auch oft mit einer Tendenz zur Unordnung gleichgesetzt.14 Da der Zweite Hauptsatz der Thermodynamik universell gültig ist, sind streng genommen alle Prozesse in der Natur irreversibel15 – ihre Umkehrungen existieren nicht, denn die Herstellung jener Rand- und Anfangsbedingungen, die einer Umkehrung entsprechen, wäre nur unter Entropiezunahme möglich. Die Auszeichnung der „einen Hälfte“ der Prozesse, nämlich jener, die unter Entropiewachstum verlaufen, kann nun als Auszeichnung einer Richtung der Zeit verstanden werden. Wir erleben einen gerichteten Zeitverlauf, d. h. einen qualitativen Unterschied zwischen vergangenen und zukünftigen Zuständen, weil alle Prozesse in der Natur, einschließlich unserer eigenen Lebensprozesse, in Richtung wachsender Entropie verlaufen. Dies ist der entropische Zeitpfeil. Ein gravierendes Problem bleibt. Die zeitliche Asymmetrie kommt nach dem entropischen Argument nur dadurch zustande, dass ein System in einem relativ niedrigen Entropiezustand startet, um zu späteren Zeiten zu einem Zustand höherer Entropie überzugehen. Ebenso gut könnten wir aber ein System betrachten, das sich jetzt in einem relativ niedrigen Entropiezustand befindet, und fragen, wie aufgrund des Zweiten Hauptsatzes der Thermodynamik die Zustände ausgesehen haben müssen, die dem jetzigen Zustand zeitlich vorausgingen (vgl. Penrose 1989, S. 315). Das Resultat muss sein, dass auch die „in die Vergangenheit“ gerichteten Trajektorien statistisch gesehen zu Zuständen höherer Entropie, also größerer Wahrscheinlichkeit führen. Ludwig Boltzmann, auf den die statistische Interpretation der Thermodynamik mit ihrer Erklärung der Tendenz zum Entropiewachstum zurückgeht, hatte in seiner Reaktion auf Loschmidts berühmten Umkehreinwand16 erkannt, dass die Implikationen seiner statistischen Überlegungen symmetrisch, d. h. in beide zeitlichen Richtungen gültig sind: Wir sollten, so Boltzmann, eine Entropiezunahme (eine Tendenz in Richtung auf ein thermodynamisches Gleichgewicht) sowohl in Richtung der Vergangenheit als auch in Richtung der Zukunft erwarten.
14 Entropiewachstum
ist nicht in jedem Fall mit der Zunahme von Unordnung verbunden. So beschreibt z. B. Penrose (1989), wie durch Zusammenballungen von Materie im Universum die Entropie eines gravitierenden Systems wächst, gleichzeitig aber der räumliche Ordnungscharakter des Systems zunimmt. Ein Problem der Gleichsetzung von Entropiewachstum und wachsender Unordnung liegt in der Aspektabhängigkeit des Ordnungsbegriffes; ein Prozess, dessen Ordnung sich in einer Hinsicht erhöht, kann in anderer Hinsicht zu einer Abnahme von Ordnung führen (vgl. Denbigh 1989). 15 Reversible
Prozesse sind entweder „idealisierte“ Prozesse wie das reibungsfreie Pendel oder solche Prozesse, die einen Energieaustausch mit der Umgebung des Systems erfordern. Ein solcher Energieaustausch führt aber zu einem Entropiewachstum in der Umgebung, d. h., der Gesamtprozess ist wieder irreversibel. 16 Loschmidt
hatte argumentiert, dass eine Umkehrung aller Teilchenbewegungen eines Systems zu einem bestimmten Zeitpunkt, d. h. die Ersetzung des positiven Vorzeichens aller Zeitkoordinaten durch ein negatives Vorzeichen, dazu führen würde, dass das System zu seinem Anfangszustand zurückkehrt.
3 Zeit
66
Eine rein naturgesetzliche Auszeichnung der Zeitrichtung kann daher mithilfe des Zweiten Hauptsatzes der Thermodynamik nicht gelingen. Was für die Auszeichnung einer Zeitrichtung zusätzlich benötigt wird, sind, so argumentierte Boltzmann, kontingente Anfangs- und Randbedingungen unseres Universums: „Da die Entropie abnehmen würde, wenn das System diese Folge [von Zuständen] in umgekehrter Richtung durchläuft, erkennen wir, daß die Tatsache, daß die Entropie in Wahrheit bei allen physikalischen Prozessen unserer eigenen Welt zunimmt, nicht allein aus der Natur der zwischen den Teilchen wirkenden Kräfte hergeleitet werden kann, sondern eine Folge der Anfangsbedingungen zu sein scheint“. (Boltzmann 1877/1970, S. 240)
Eine statistische Zufallsfluktuation könnte, so Boltzmanns Spekulation, dazu geführt haben, dass die Region des Universums, in der wir leben und unsere Beobachtungen machen, gegenläufig zur globalen Entropietendenz lokal in einen relativ niedrigen Entropiezustand versetzt wurde, mit dem Resultat, dass wir uns nun auf einem lokalen Zweig wachsender Entropie vorfinden. Eine ähnliche Überlegung kann man auch im Rahmen der modernen BigBang-Kosmologie anstellen: Um die gegenwärtige Tendenz zum Entropieanstieg in unserem Universum zu erklären, müssen wir voraussetzen, dass der Anfangszustand des Universums (kurz nach dem Big Bang) ein Zustand extrem niedriger Entropie war. Unter dieser Voraussetzung kann die Tendenz zum Entropiewachstum zur gewünschten Auszeichnung einer Zeitrichtung, d. h. zu einem „natürlichen“ Verlauf aller Prozesse in eine bevorzugte zeitliche Richtung (die „Zukunftsrichtung“) führen. Alle physikalischen Systeme haben in einem Zustand extrem niedriger Entropie begonnen, deswegen ist es statistisch hoch wahrscheinlich, dass wir nun eine globale Tendenz zum Entropiewachstum in Richtung der Zukunft beobachten. Aber wodurch ist die Voraussetzung eines Anfangszustands niedriger Entropie gerechtfertigt? Die Verteilung der Galaxien, die wir gegenwärtig im Universum beobachten, lässt zwingend auf einen sehr „glatten“ Anfangszustand des Universums schließen, die Materie muss sehr homogen verteilt, seine Materiedichte muss sehr gleichmäßig gewesen und allgemein die vorhandene Energie maximal auf die verschiedenen Freiheitsgrade verteilt gewesen sein.17 Anderenfalls hätte die Wirkung der Gravitation zu einer stärkeren „Klumpenbildung“ im Universum geführt, die in riesigen schwarzen Löchern geendet hätte (vgl. Price 1996, Kap.
17 Eine
gewisse, wenn auch nicht zu starke Inhomogenität war andererseits erforderlich, damit sich überhaupt Galaxien bilden konnten. Die Entdeckung der Hintergrundstrahlung in den 1960er Jahren hat dies zunächst auch empirisch bestätigt, weil diese vom Ursprung des Universums stammende Strahlung kleine Inhomogenitäten aufweist, wie sie für die Galaxienentstehung notwendig waren. Es erwies sich jedoch, dass die tatsächliche Inhomogenität der Materieverteilung im Universum stärkere Temperaturfluktuationen in der Hintergrundstrahlung erfordert, als sie die Messungen ergeben hatten. Diese Nichtübereinstimmung konnte mithilfe der Hypothese der Existenz „dunkler“, nicht elektromagnetisch wechselwirkender Materie beseitigt werden (vgl. Bartelmann 2013, S. 15).
3.7 Die Richtung der Zeit
67
4). Aber ein glatter Anfangszustand sollte – wenn man sich das Beispiel eines gleichmäßig verteilten Gases vor Augen führt – mit hoher Entropie verbunden sein. Penrose (1989) hat ein Szenario entworfen, das diesen scheinbaren Widerspruch auflösen soll: Durch das Zusammenspiel von Gravitation und Entropie ist im Verlauf der kosmischen Evolution die Schranke der maximalen Entropie ständig angehoben worden: Indem die Expansion das Universum räumlich ausdehnt, haben die „Wirkungsmöglichkeiten“ der Gravitation zugenommen, durch Materiezusammenballungen (Sterne) dafür zu sorgen, dass niedrig-entropische Energie in hoch-entropische Formen (durch Sterne ausgesandte Strahlung18) übergehen kann. Die Gravitation wirkt danach als treibende Kraft in der Produktion von Entropie im Universum. Die höchste erreichbare Entropie existiert nach diesem Bild in Form von schwarzen Löchern. Deshalb ist der Endzustand des Universums nach einer möglichen Rekontraktion, in dem schließlich alle Materie in ein einziges schwarzes Loch kollabiert ist, im Gegensatz zum Anfangszustand ein Zustand höchster Entropie. Der australische Philosoph Huw Price hat darauf aufmerksam gemacht, dass die Versuche, mithilfe spezifischer Anfangsbedingungen des Universums eine Richtung der Zeit auszuzeichnen, an einem notorischen argumentativen Defekt leiden. Sie unterliegen, so Price, unbemerkt einem doppelten argumentativen Standard, indem nicht realisiert wird, dass Argumente, die in Hinsicht auf eine Zeitrichtung zentral sein sollen, mit demselben Recht auch in Hinsicht auf die andere Zeitrichtung gelten müssen (vgl. Price 1996, S. 80). So müsste z. B. Penrose erklären können, weshalb die von ihm beschriebene spezifische physikalische Beschaffenheit des Anfangszustandes – welche dessen relativ niedrige Entropie garantieren soll – nicht auch aus denselben Gründen eine Beschaffenheit des Endzustandes des Universums sein kann – sodass ein Zurückrechnen des Universums von diesem Endzustand aus ebenso zu Zuständen höherer Entropie führen würde, wie es für die Extrapolation vom Anfangszustand aus der Fall ist. Der entropische Zeitparameter (der in Richtung steigender Entropie wächst) würde vom Anfangs- wie vom Endzustand aus anwachsen mit dem Resultat, dass nun gar nicht mehr klar ist, was hier als „Anfangszustand“ bzw. „Endzustand“ gelten soll. Um zu einer eindeutigen Auszeichnung der Richtung der Zeit zu gelangen, müssten wir schon wissen, welcher Zustand der Anfangs- bzw. der Endzustand ist, d. h., die Richtung der Zeit selbst, die doch als Konklusion des Argumentes gewonnen werden sollte, müsste bereits vorausgesetzt werden.19 18 In
der Photosynthese und im menschlichen Stoffwechsel wird diese Energieform teils zum Erhalt von organischen Strukturen verwendet, teils in Energie noch höherer Entropie (Wärmestrahlung) verwandelt. 19 Price hat in seinen Argumenten das von dem Kosmologen Thomas Gold in den 1960er Jahren konzipierte, nach ihm benannte Universum vor Augen. Im rekontrahierenden Gold-Universum nimmt die Entropie nach dem Rekollaps ab, bis sie im Endzustand einen dem Anfangszustand analogen niedrig-entropischen Zustand erreicht. Dieses Universum ist vollständig symmetrisch. Die Frage ist: Welche Richtung ist hier die Zukunfts- und welche die Vergangenheitszeitrichtung?
68
3 Zeit
Nun kann man versuchen, physikalische Eigenschaften zu postulieren, die (nur) für den möglichen rekollabierten Endzustand20 des Universums, nicht aber für den Anfangszustand charakteristisch sein sollen – ein solches Argument ist, dass alles andere als eine extreme Zusammenballung der Materie, die letztlich ein großes schwarzes Loch erzeugt und daher hoch entropisch ist, für das Ende eines rekollabierten Universums extrem unwahrscheinlich wäre. Aber weshalb kann dann das Zurückrechnen der Materie-Trajektorien in Richtung auf den Anfangszustand auf einen niedrig-entropischen Zustand führen? Was hier lauert, ist wieder der von Price apostrophierte „Doppelstandard“, eine unbegründete argumentative Ungleichbehandlung von Anfangs- und Endzustand. Penrose hat aus dieser Situation den Schluss gezogen, dass die Besonderheit des Anfangszustandes nicht durch spezifische Rand- und Anfangsbedingungen, sondern nur mithilfe eines Naturgesetzes begründet werden kann; dieses Gesetz hat nach Penrose die Form, dass ein bestimmter Tensor, die Weyl-Krümmung, bei Annäherung an die Extremzustände des Universums nur in einer der zeitlichen Richtungen den Wert Null annimmt (vgl. Price 1996, S. 94). Es bleibt aber offen, ob es tatsächlich gelingt, auf diese Weise ein Naturgesetz zu etablieren, das den Anfangszustand des Universums gegenüber seinem (möglichen) Endzustand auszeichnet. Alle Ansätze, die Richtung der Zeit mithilfe einer globalen Entropietendenz des Universums zu begründen, leiden daran, dass die Übertragung des Entropiebegriffs und überhaupt thermodynamischer Begriffe auf das Universum im Ganzen bis heute spekulativ bleibt. Besitzt das Universum im Ganzen überhaupt einen definiten Entropiezustand? Welche physikalischen Prozesse sind entropisch relevant und in welcher Gewichtung? Welche entropische Rolle spielt die dunkle Energie und die durch sie vermutlich angetriebene beschleunigte Expansion des Universums? Und ist es wirklich plausibel, dass – wie etwa Huw Price vermutet21 – eine Umkehr des Entropiegradienten dazu führen würde, dass wir einen umgekehrten Zeit-Sinn erleben? Etwas bescheidener ist die Version einer Erklärung der zeitlichen Asymmetrie, die Price mit der Perspektive von Handelnden in einer typischen Umgebung unseres Universums verbunden sieht: Die zeitliche Asymmetrie drückt danach kein invariantes Merkmal aus, das dem Universum als Ganzem zukommt, sondern stellt eine perspektivische Deutung dar, die intelligente Wesen sich zu eigen machen, wenn sie die erlebte asymmetrische kausale Struktur ihrer Hand-
20 Alle
diese Überlegungen stellen einen möglichen Rekollaps des Universums in Rechnung. Zu einem solchen Rekollaps kommt es aber nicht zwangsläufig, sondern nur, wenn die Materie des Universums eine notwendige „kritische Dichte“ erreicht. Die Frage aus heutiger Sicht ist, ob die Gravitationswirkung der im Universum vorhandenen Materie (inklusiver dunkler Materie) die beschleunigte Expansion des Universums abzubremsen und einen Rekollaps einzuleiten vermag.
21 „…
in regions in which the entropy gradient is reversed intelligent creatures would have a time-sense reversed relative to ours“ (Price 2007, S. 273).
3.7 Die Richtung der Zeit
69
lungen reflektieren (vgl. Price 2007, S. 277). Der asymmetrische Aspekt unserer Handlungserfahrung kann nach Price zu einem Prinzip verallgemeinert werden: dem Fixed Past Principle – während die Vergangenheit feststeht, ist die Zukunft nicht festgelegt. Der Geltungsbereich dieses Prinzips ist jedoch immer nur lokal und die Art seiner Geltung kontingent. Die asymmetrischen Erfahrungen von Handelnden resultieren daraus, wie sie in ihre spezifische entropische Umgebung eingebettet sind – so ist die spezifische Umgebung, in der wir gerade leben, durch einen wachsenden Entropiegradienten geprägt. Die erlebten kausalen und zeitlichen Asymmetrien können aus Sicht von Price nicht auf eine universelle Zeitasymmetrie zurückgeführt werden, sie beruhen auf einem lokalen „Zeitpfeil“, der unsere (gegenwärtige) menschliche Perspektive bestimmt. In diesem Sinne sind kausale und zeitliche Asymmetrien perspektivisch. Eine Auffassung, die jener von Price in mancher Hinsicht ähnelt, hat Mathias Frisch (2014) vertreten. Auch Frisch postuliert keinen globalen Zeitpfeil unabhängig von menschlichen Erfahrungen, epistemischen Interessen und Praktiken. Die Modelle der Physik, so Frisch, tragen ihre kausale Interpretation nicht als intrinsisches Merkmal an sich; vielmehr prägen wir ihnen eine kausale Interpretation auf. Diese Interpretation orientiert sich daran, dass unsere Erfahrungen eine asymmetrische Gabelstruktur aufweisen: Wir präferieren in unseren Erklärungen verschiedener Ereignisse gemeinsame Ursachen, die in der Vergangenheit liegen, gegenüber möglichen Ursachen in der Zukunft. Der Grund dafür ist, dass Korrelationen, wie wir sie z. B. in Hinsicht auf verschiedene Stellen des elektromagnetischen Feldes feststellen, sich durch die von einem Stern ausgesandte Strahlung erklären lassen – der Stern ist dann eine „gemeinsame vergangene Ursache“ dieser Korrelationen; dagegen würde eine entsprechende Erklärung mithilfe einer in der Zukunft liegenden Ursache eine nichtlokale Koordination von Endbedingungen des Strahlungsprozesses erfordern. Eine gemeinsame Ursache in der Vergangenheit erfüllt die Initial Randomness Condition – die Bedingung, dass Anfangsbedingungen eines Prozesses nicht miteinander korreliert, d. h. „zufällig“ verteilt sein sollen –, während dies für eine gemeinsame Ursache in der Zukunft nicht gelten würde. Der Begriff der „zeitlichen Asymmetrie“ spiegelt also eine epistemische Annahme wider, die für unsere Praxis der Erklärung von Korrelationen in der Natur zentral ist. Gemeinsam ist den Erklärungsansätzen von Price und Frisch die Überzeugung, dass die fundamentalen Theorien der Physik nicht die Grundlage für die zeitliche Asymmetrie der Welt darstellen können. Dieser Überzeugung kann man jedoch entgegenhalten, dass trotz der symmetrischen Struktur der fundamentalen Gleichungen der Physik ihre konkreten Modelle, die spezielle physikalische Situationen bzw. die Welt für spezielle Rand- und Anfangsbedingungen beschreiben, asymmetrisch sein können.22 Tatsächlich lässt sich zeigen, dass trotz der symmetrischen Struktur der Grundgleichungen der ART
22 Auf
diese Möglichkeit hatte auch Price hingewiesen: „… it is possible for a symmetric theory to have only (or mostly) asymmetric models“ (Price 1996, S. 96).
70
3 Zeit
fast alle relativistischen Raumzeiten (Modelle der Theorie), die bestimmte realistische Bedingungen erfüllen (u. a. global hyperbolisch sind), zeitlich asymmetrisch sind (vgl. Castagnino et al. 2003; Wohlfarth 2012). Dieser Umstand ist für die Erklärung des Zeitpfeils besonders vorteilhaft, verschafft er uns doch die Möglichkeit, lokale zeitliche Asymmetrien direkt auf eine fundamentale zeitliche Asymmetrie des Universums zurückzuführen, ohne den Umweg über thermodynamische Asymmetrien nehmen zu müssen: Die Prozesse der Natur zeichnen eine zeitliche Richtung aus, weil sie der Zeitstruktur der Raumzeit folgen, die eine Richtung sui generis vorgibt, in den Worten von Tim Maudlin: „[T]he passage of time is an intrinsic asymmetry in the temporal structure of the world“ (Maudlin 2007, S. 108). Während aber Maudlin für sein Postulat der intrinsischen zeitlichen Richtung wieder auf eine globale entropische Asymmetrie zurückgreift (die Annahme einer intrinsischen zeitlichen Richtung ist nach seiner Auffassung erforderlich, um die entropische Asymmetrie der Welt zu erklären), plädieren Castagnino et al. (2003) für einen ganz eigenständigen kosmologischen Zeitpfeil. Da ein kosmologischer Zeitpfeil den Bezug auf eine universelle kosmische Zeit voraussetzt, kann dieser Ansatz nur für die Klasse der global hyperbolischen Raumzeiten (vgl. Abschn. 3.4) greifen. Für diese Klasse von Raumzeiten, in die unsere Welt allerdings mit großer Wahrscheinlichkeit fällt, kann nun gezeigt werden, dass fast alle23 von ihnen asymmetrische24 Raumzeiten in Bezug auf einen kosmischen, d. h. auf die gesamte Raumzeit anwendbaren Zeitparameter sind (vgl. Castagnino et al. 2003; Wohlfarth 2012; Bartels und Wohlfarth 2014). Damit ist zwar ein globaler Zeit-Sinn, eine Verschiedenheit zeitlicher Richtungen, aber noch keine Identifikation von Vergangenheit und Zukunft gegeben. Bisher haben wir die globale zeitliche Asymmetrie auch noch nicht mit dem zeitlichen Verhalten lokaler Prozesse verbunden – d. h., es ist noch nicht gezeigt, dass die zeitlich asymmetrischen Modelle das Potenzial besitzen, asymmetrische kausale Prozesse auszuzeichnen. Aber dieser Mangel lässt sich beheben: Es ist bekannt (vgl. Earman 1974), dass ein kontinuierliches zeitartiges Vektorfeld auf zeitlich orientierbaren Raumzeiten definiert werden kann, um mit dessen Hilfe über die gesamte Raumzeit hinweg die beiden lokalen Lichtkegelstrukturen voneinander zu unterscheiden – dies verschafft uns einen lokalen Zeit-Sinn auf der gesamten Raumzeit, wenn auch noch keine lokale Identifikation von Vergangenheits- und Zukunftsrichtung. Dafür benötigt man eine Festlegung, welche der globalen kosmischen Zeitrichtungen in die Zukunft zeigt (vorzugsweise die Richtung der Expansion). Mithilfe dieser Festlegung kann dann die globale Identifikation
23 Die
asymmetrischen Mitglieder bilden eine Unterklasse vom Maß 1 bezüglich des LebesgueMaßes auf der Lösungsklasse.
24 Eine
Raumzeit mit kosmischer Zeit ist zeitlich symmetrisch in Bezug auf eine Hyperfläche, wenn die Raumzeit in beiden Richtungen relativ zu dieser Hyperfläche „gleich aussieht“ – dieselbe intrinsische geometrische Struktur besitzt. Asymmetrische Raumzeiten sind solche, für die eine solche Hyperfläche nicht existiert.
Literatur
71
von Vergangenheit und Zukunft auf die lokalen zeitlichen Richtungen übertragen werden. Die lokale Zukunft ist jeweils die Richtung, die durch die globale kosmische Zukunft vorgegeben ist.
Literatur Bartelmann, Matthias (2013). Cosmology – The largest possible model. In: Ulrich Gähde et al. (Hg.), Models, simulations, and the reduction of complexity, 9–22. Berlin: De Gruyter. Bartels, Andreas (1986). Kausalitätsverletzungen in allgemeinrelativistischen Raumzeiten. Berlin: Duncker & Humblot. Bartels, Andreas (1997). Do Times Exist? In: Jan Faye et al. (Hg.), Perspectives on Time, 203– 213. Alphen: Kluwer. Bartels, Andreas und Daniel Wohlfarth (2014). How fundamental physics represents causality. In: Maria C. Galavotti et al. (Hg.), New Directions in the Philosophy of Science, 485–500. Cham: Springer. Boltzmann, Ludwig (1877/1970). Über die Beziehung eines allgemeinen mechanischen Satzes zum zweiten Hauptsatze der Wärmetheorie. Sitzungsberichte der Akademie der Wissenschaften in Wien, Math.-Naturwiss. 75, 67–73. Nachdruck in Stephen G. Brush (Hg.), Kinetische Theorie II, 240-247. Braunschweig: Vieweg. Callender, Craig (2017). What makes time special? Oxford: Oxford University Press. Castagnino, Mario, Olimpia Lombardi und Luis Lara (2003). The cosmological origin of the time asymmetries. Classical and Quantum Gravity 20, 369–391. Denbigh, Kenneth G. (1989). Note on entropy, disorder and disorganization. British Journal for the Philosophy of Science 40, 323–332. Dieks, Dennis (1988). Discussion: special relativity and the flow of time. Philosophy of Science 55, 456–460. Earman, John (1974). An attempt to add a little direction to ‘the problem of the direction of time’. Philosophy of Science 41, 15–47. Einstein, Albert (1905/1974). Zur Elektrodynamik bewegter Körper. In: Das Relativitätsprinzip. Eine Sammlung von Abhandlungen, 26–53. Darmstadt: Wissenschaftliche Buchgesellschaft. Friebe, Cord (2012). Zeit – Wirklichkeit – Persistenz. Paderborn: Mentis Frisch, Mathias (2014). Causal reasoning in physics. Cambridge: Cambridge University Press. Gödel, Kurt (1949). An example of a new type of cosmological solutions of Einstein’s field equations of gravitation. Reviews of Modern Physics 21, 447–450. Gödel, Kurt (1955). Eine Bemerkung über die Beziehungen zwischen der Relativitätstheorie und der idealistischen Philosophie. In: Paul Arthur Schilpp (Hg.), Albert Einstein als Philosoph und Naturforscher, 406–412. Stuttgart: Kohlhammer. Harrison, Edward (1981). Cosmology. Cambridge: Cambridge University Press. Kroes, Peter (1985). Time: Its structure and role in physical theories. Dordrecht: Reidel. Maudlin, Tim (2007). The metaphysics within physics. Oxford: Oxford University Press. McTaggart, John (1908/1993). Die Irrealität der Zeit. In: Walther Zimmerli und Mike Sandbothe (Hg.), Klassiker der modernen Zeitphilosophie. Darmstadt: Wissenschaftliche Buchgesellschaft. Mittelstaedt, Peter (1989). Der Zeitbegriff in der Physik. Mannheim: Bibliographisches Institut. Newton-Smith, William H. (1980). The structure of time. London: Routledge. Penrose, Roger (1989). The emperor’s new mind. Oxford: Oxford University Press. Price, Huw (1996). Time’s arrow and Archimedes’ point. Oxford: Oxford University Press. Price, Huw (2007). Causal Perspectivalism. In: Huw Price and Richard Corry (Hg.), Causality, physics and the constitution of reality: Russell’s republic revisited. Oxford: Oxford University Press. Putnam, Hilary (1967). Time and physical geometry. Journal of Philosophy 64, 240–247.
72
3 Zeit
Ray, Christopher (1991). Time, space and philosophy. London: Routledge. Sieroka, Norman (2018). Philosophie der Zeit. München: Beck. Stein, Howard (1991). On relativity theory and openness of the future. Philosophy of Science 58, 147–167. Winnie, John (1977). The causal theory of space-time. In: John Earman, Clark Glymour und John Stachel (Hg.), Foundations of Space-Time Theories, 134–205. Minneapolis: University of Minnesota Press. Wohlfarth, Daniel (2012). A new view of ‘fundamentality’ for time asymmetries in modern physics. In: Proceedings of the EPSA 11 conference in Athens 2011. New York: Springer.
4
Materie
4.1 Einleitung: Revision des Materiebegriffs Jeder Versuch, eine Welt zu verstehen, die durch die Quantentheorien beschrieben wird, so Lawrence Sklar, verlangt von uns eine viel radikalere Revision unseres Verstehens der Natur, als sie von den Relativitätstheorien nahegelegt wurde (vgl. Sklar 1992, S. 157). Im Besonderen betrifft diese Revision den Begriff der Materie. Die Vorstellung individueller Körper (oder materieller Teilchen), deren Verhalten allein aus ihren inneren Eigenschaften und lokalen Wechselwirkungen verständlich ist und nicht etwa von Ereignissen in entfernten Raumzeitregionen abhängt, kollidiert nicht nur mit bestimmten Aussagen dieser Theorien – vielmehr haben diese Theorien den Blick auf experimentelle Tatsachen gelenkt, die nicht mit dieser Vorstellung in Einklang stehen. Die Quantentheorien werfen aber nach wie vor auch viele offene Fragen auf, vor allem die Frage, wie der sogenannte Messprozess zu verstehen ist, der neben der deterministischen Schrödinger-Gleichung einen Indeterminismus in die Natur einzuführen scheint. Die Interpretationen der klassischen Quantenmechanik1 stellen allesamt Versuche dar, zu verstehen, wie der Messprozess in unser Bild der Natur passt. Dass der „Beobachter“ oder das „Subjekt“ aufgrund des Messprozesses eine zentrale Rolle im Bild der Natur erhält, stellt dabei nur eine mögliche Interpretation dar. Schließlich wirft die Quantenmechanik in ihrer klassischen Form auch Fragen für die Vereinbarkeit mit der speziellen Relativitätstheorie auf, die in die Richtung vereinheitlichter Theorien (relativistische Quantenfeldtheorien) weisen.
1 Unter „Quantenmechanik“ ist hier die von Bohr, von Neumann, Schrödinger, Heisenberg u. a. in den ersten Jahrzehnten des 20. Jahrhunderts entwickelte Theorie zu verstehen. In der darauffolgenden Epoche sind weitere Quantentheorien entstanden, v. a. die relativistischen Quantenfeldtheorien.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 A. Bartels, Grundprobleme der modernen Naturphilosophie, https://doi.org/10.1007/978-3-662-67126-9_4
73
74
4 Materie
In Abschn. 4.2 werden zunächst experimentelle Tatsachen vorgestellt, die den Hintergrund des Welle-Teilchen-Dualismus bilden, der die Diskussion vor allem in der frühen Phase der Quantenmechanik dominiert hat. Eine Konsequenz aus diesen Tatsachen stellt die Beschreibung von Quantenobjekten durch Superpositionen dar. Abschn. 4.3 erläutert die begrifflichen Probleme, die mit dem Messprozess der Quantenmechanik verbunden sind: Wie sind die Wahrscheinlichkeiten für das Auftreten exakter Messwerte zu verstehen, was bedeutet der sogenannte Kollaps der Wellenfunktion im Messprozess und wodurch zeichnen sich Messungen gegenüber „gewöhnlichen“ physikalischen Wechselwirkungen aus? In Abschn. 4.4 werden verschiedene Interpretationen der Quantenmechanik erörtert, die Antworten auf diese Fragen zu geben versuchen. Abschn. 4.5 beschäftigt sich mit dem berühmten Beweis von John Bell, nach dem alle Theorien, die den experimentell nachgewiesenen quantentheoretischen Korrelationen gerecht werden , der Lokalität materieller Teilchen widersprechen müssen. Quantenobjekte zeigen – im Gegensatz zu den Forderungen, die Einstein, Podolsky und Rosen in ihrem „EPR“-Aufsatz formuliert hatten – unvermeidlich ein miteinander „verschränktes“ Verhalten, das nicht auf raumzeitlich lokale Wechselwirkungen zurückführbar ist. Wir diskutieren, welche physikalischen und naturphilosophischen Konsequenzen sich aus Bells Beweis ergeben. Eine dieser Konsequenzen betrifft die (problematische) Vereinbarkeit mit der speziellen Relativitätstheorie. Schließlich thematisiert Abschn. 4.6 die Folgen für unser Verständnis der Individualität, d. h. der synchronen Identifizierbarkeit und der diachronen Persistenz von Quantenobjekten, die sich aus Quantentheorien ergeben.
4.2 Interferenzen und der Welle-Teilchen-Dualismus Nachdem im 17. Jahrhundert die Wellen- und Teilchentheorie des Lichts2 miteinander konkurriert hatten, setzte sich im 18. und 19. Jahrhundert die Wellentheorie durch. Ein wesentlicher Grund dafür war die Entdeckung von Interferenzphänomenen. Spaltet man z. B. einen Lichtstrahl in zwei Teile auf, schickt diese durch zwei Schlitze in einer Wand und führt sie danach wieder zusammen, so ergibt sich auf einem Schirm, auf den der wiedervereinigte Strahl fällt, ein typisches Interferenzmuster, eine periodische Abfolge hoher und niedriger Amplituden, die naheliegend durch eine Überlagerung von Wellenbergen und -tälern zweier Wellenzüge erklärt werden kann. James C. Maxwell integrierte das Licht schließlich in seine elektromagnetische Theorie, indem er zeigte, dass das Licht eine elektromagnetische Wellenerscheinung ist.
2 Newton
glaubte, dass Licht aus einem Strom von Teilchen besteht, die von einer Quelle ausgesandt und von beleuchteten Objekten reflektiert werden. Huyghens ging dagegen davon aus, dass das Licht, ähnlich wie der Schall, ein Wellenphänomen ist, das sich in einem Medium ausbreitet.
4.2 Interferenzen und der Welle-Teilchen-Dualismus
75
Das beginnende 20. Jahrhundert korrigierte die Entscheidung für die Wellentheorie des Lichts, und zwar so, dass die Unterscheidung zwischen „Welle“ und „Teilchen“ selbst ins Wanken geriet. Seitdem ist die Korpuskular-Auffassung der Materie erschüttert, die Vorstellung von „harten, undurchdringlichen Teilchen“, die das Bild der materiellen Natur so lange geprägt hat. Max Planck hatte im Jahr 1900 eine Formel für das Frequenzspektrum der Strahlung gefunden, die von Körpern in Abhängigkeit von ihrer Temperatur ausgesandt (bzw. absorbiert) wird. Diese Formel wurde von Planck später mit der Annahme erklärt, dass die ausgetauschte Energie nur in diskreten „Energiepaketen“ auftritt. Die Energie jedes solchen „Paketes“ ist gleich einer Konstanten, dem Planck’schen Wirkungsquantum, mal der Frequenz der emittierten bzw. absorbierten Strahlung. Nach der Wellentheorie müsste man dagegen erwarten, dass Energie zwischen Materie und Licht bei jeder beliebigen Frequenz um jeden Betrag ausgetauscht werden kann. „Energiepakete“ traten auch bei einem anderen Effekt in Erscheinung, dem 1905 von Albert Einstein erklärten photoelektrischen Effekt (Einstein 1905): Trifft hochenergetisches Licht auf eine Metallplatte, so werden Oberflächenelektronen aus der Metallplatte herausgelöst. Es hat sich experimentell erwiesen, dass die Energie der abgelösten Elektronen nicht von der Intensität, sondern von der Frequenz der Strahlung abhängt. Dagegen ist die Zahl der abgelösten Elektronen proportional zur Intensität der Strahlung. Es ist, als werde die Strahlungsenergie von Lichtteilchen in Form von „Energiepaketen“ an die Elektronen abgegeben, wobei die Zahl der abgelösten Elektronen von der Zahl der auslösenden Strahlungsteilchen abhängt. Wie schon in der Strahlungsformel von Planck scheint das Licht „Teilchen“-Charakter zu besitzen. Ausgehend von einer Vermutung von Louis de Broglie wurde später klar, dass man umgekehrt auch Teilchen, z. B. Elektronen, eine Frequenz (proportional zur Energie) und eine Wellenlänge (umgekehrt proportional zu ihrem Impuls) zuordnen kann. Dass es nicht nur mathematisch nahegelegt ist, sondern auch einen physikalischen Sinn hat, von der „Wellenlänge“ eines materiellen Teilchens zu sprechen, zeigt sich daran, dass Interferenzphänomene auch bei Elektronen auftreten. Wird z. B. ein Strahl von Elektronen (mit einer bestimmten De-BroglieWellenlänge) an der Oberfläche eines Kristalls gestreut und fängt man auf einem Schirm die gestreuten Elektronen auf, so erhält man ein Interferenzmuster. Dieses Muster entspricht genau jenem, das entsteht, wenn eine Welle mit derselben DeBroglie-Wellenlänge auf ein Beugungsgitter trifft und der Gitterabstand gleich dem Abstand der Atome im Kristallgitter ist. Austausch von Energie in diskreten Portionen ist ein für klassische Teilchen charakteristisches Verhalten (man denke etwa an Billardkugeln). Interferenz ist ein Phänomen, das für klassische Wellen typisch ist. Klassische Teilchen können keine Welleneigenschaften zeigen, klassische Wellen verhalten sich niemals wie Teilchen. Teilchen- und Welleneigenschaften schließen sich gegenseitig aus. Aber sowohl Licht (Photonen) als auch Elektronen zeigen jeweils in speziellen Umgebungen Züge, die für klassische Teilchen bzw. für klassische Wellen charakteristisch sind.
76
4 Materie
Das Interferenzverhalten von Quantenobjekten weist eine Besonderheit auf, die mit klassischen Vorstellungen materieller Objekte nicht vereinbar ist: Die Interferenz betrifft einzelne Objekte, und zwar so, dass zwischen solchen einzelnen Objekten latente – aktuell nicht manifestierte – Relationen bestehen können: Die Objekte sind miteinander verschränkt, sie besitzen eine Art Systemgedächtnis. Wir betrachten diese Besonderheit zunächst am sogenannten Doppelspalt-Experiment: Man lässt Licht (Photonen) durch zwei Schlitze in einer Wand treten und hinter der Wand auf einen Schirm treffen. Es zeigt sich, dass die Häufigkeit, mit der Photonen an einem bestimmten Punkt des Schirms auftreffen, wenn beide Schlitze offen sind, nicht der Summe der Häufigkeiten des Auftreffens an diesem Punkt entspricht, die sich ergeben, wenn jeweils nur einer der Schlitze geöffnet ist. An bestimmten Stellen des Schirmes ist die Wahrscheinlichkeit für den Nachweis des Auftreffens eines Teilchens für die Situation, in der beide Schlitze geöffnet sind, sogar geringer als für die Situation, in der nur jeweils einer der Schlitze geöffnet ist. Das Bild, das man auf dem Schirm erhält, wenn viele Photonen die Experimentalanordnung durchlaufen haben, ist ein Interferenzmuster, wie es für Wellenphänomene typisch ist. Photonen verhalten sich offenbar ganz anders, als man es für eine Anzahl kleiner solider Kügelchen erwarten würde, die man sukzessive in Richtung der Schlitze wirft. Das Auftreten des Interferenzmusters hat nichts damit zu tun, dass die einzelnen Photonen in der Apparatur sich etwa gegenseitig beeinflussen würden. Es entsteht auch dann, wenn man die Photonen einzeln und in ausreichend großen Abständen durch die Anordnung schickt, sodass eine wechselseitige Beeinflussung ausgeschlossen ist. Photonen interferieren miteinander offenbar nicht aufgrund physischer Wechselwirkung, sondern sie scheinen „mit sich selbst“ zu interferieren. Dass Quantenobjekte die Fähigkeit zu systematischen Korrelationen unabhängig von aktuellen Wechselwirkungen besitzen, zeigt ein Experiment, das 1922 von den Physikern Otto Stern und Walther Gerlach durchgeführt wurde (für eine ausführliche Darstellung vgl. Sklar 1992, S. 168 f.). Stern und Gerlach erzeugten einen Strahl von Silberatomen, der anschließend durch ein inhomogenes Magnetfeld geleitet wurde. Hinter dem Magnetfeld wurden die Silberatome wieder mit einem Schirm aufgefangen. Die klassischen elektromagnetischen Eigenschaften von Silberatomen (elektrisch neutrale Atome, Bahndrehimpuls 0 des „freien“ Valenzelektrons) lassen keine Aufspaltung des Strahls der Silberatome im inhomogenen Magnetfeld (magnetischer Nord- und Südpol) erwarten. Dennoch beobachteten Stern und Gerlach eine solche Aufspaltung, manifestiert durch zwei getrennte Silberflecken auf dem Schirm, die auf eine bisher unbekannte Eigenschaft, ein magnetisches Moment hindeutete, den Spin, der (hinsichtlich beliebig gewählter, zueinander orthogonaler räumlicher Richtungen x, y und z) nur jeweils zwei mögliche Werte hat: Spin-up und Spin-down. Angenommen, wir haben in einer Stern-Gerlach-Apparatur mit einem Magnetfeld, das in x-Richtung inhomogen ist, einen Teilchenstrahl durch eine Messung in die zwei Komponenten Spin-up und Spin-down aufgespalten und schicken anschließend nur die Teilchen des Strahls, die mit Spin-up gemessen wurden, in eine weitere Stern-Gerlach-Apparatur für die zu x orthogonale y-Richtung. Was
4.2 Interferenzen und der Welle-Teilchen-Dualismus
77
sich ergibt, ist erneut eine Aufspaltung in einen Spin-up- und einen Spin-downAnteil (jeweils 50 %), nun hinsichtlich der y-Komponente. Führt man aber diese beiden in der Apparatur entstandenen Teilströme wieder zusammen (ohne dass eine Messung ihres y-Spins vorgenommen wurde) und lässt sie als vereinigten Strom wieder durch eine x-Apparatur gehen, so scheint es, als „erinnerten“ sich die Teilchen, auch nach dem Durchlaufen der y-Apparatur, noch an ihre frühere Spin-up-Ausrichtung: Alle diese Teilchen zeigen bei der erneuten Messung Spinup in x-Richtung. Das „Gedächtnis“ für die frühere Spin-up-Messung in x-Richtung wird gelöscht, wenn man durch Detektoren auf beiden Seiten der Apparatur in y-Richtung eine Messung vornimmt und anschließend nur die mit Spin-up bzw. nur die mit Spin-down gemessenen Teilchen wieder in eine Apparatur in x-Richtung schickt. In diesem Fall wird der Strahl jeweils hälftig in eine Spin-upund eine Spin-down-Komponente in x-Richtung aufgespalten. Durch die Messung des Spins in abweichender Richtung ist die Information über die frühere SpinMessung in x-Richtung verloren gegangen (vgl. Sklar 1992, S. 169). Dies ist auch der Fall, wenn man eine Situation herstellt, die analog zu den zwei räumlich getrennten und später wieder zusammengeführten Teilströmen ist, wobei die Teilströme nun aber durch Messung als Spin-up- bzw. Spindown-Anteil in y-Richtung ausgewiesen sind. Das Zusammenführen beider Teilströme erzeugt in diesem Fall keine innere Kohärenz, der Gesamtstrom enthält keine Information hinsichtlich des Spins in x-Richtung. Wir sprechen hier von einem gemischten Zustand, bestehend aus einer Spin-up- und einer Spindown-Komponente in y-Richtung. Dagegen bildete die Gesamtheit aus den noch ungemessenen Teilchenströmen eine Superposition der Zustände Spin-up und Spin-down in y-Richtung. In einer Superposition liegen für jedes einzelne Teilchen jeweils definite Wahrscheinlichkeiten vor, als Spin-up bzw. Spin-down in y-Richtung gemessen zu werden. In einem gemischten Zustand liegt für jedes Teilchen ein definiter Messwert vor (vgl. Sklar 1992, S. 169). Der Unterschied zwischen gemischtem Zustand und Superposition drückt sich bei einer Messung der jeweiligen Messgröße (hier des Spins in y-Richtung) nicht aus: In beiden Fällen würde eine Messung in der Gesamtheit jeweils zur Hälfte Spin-up und Spin-down ergeben. Der Unterschied zeigt sich erst, wenn die in der Superposition enthaltene Zusatzinformation abgerufen wird, in unserem Fall bei einer erneuten Spin-Messung in x-Richtung. In der Quantenmechanik wird dieses charakteristische Verhalten von Quantenobjekten dadurch wiedergegeben, dass Zustände, die durch die Messung einer Messgröße A gewonnen wurden, als Superpositionen von Zuständen in Bezug auf eine andere, von der ersten unabhängigen Messgröße B dargestellt werden. Die in der Superposition „enthaltenen“ Zustände werden mit einer – durch die Superposition bestimmten – Wahrscheinlichkeit bei einer Messung von B realisiert. Ist ein Messresultat für B eingetreten, so ist die Information über den Zustand hinsichtlich der Messgröße A gelöscht. Aber solange keine Messung von B erfolgt ist, bleibt die Information über den früheren A-Messwert in der Superposition latent vorhanden. Gegenüber einer klassischen Beschreibung materieller Systeme
78
4 Materie
fällt auf, dass Messungen an Systemen nicht mehr nur die Rolle spielen, das Vorliegen bestimmter Eigenschaften an ihnen zu konstatieren. Sie spielen vielmehr eine wesentliche dynamische Rolle in der Entwicklung der Zustände von Systemen, indem sie darüber entscheiden, mit welchen Wahrscheinlichkeiten für das Vorliegen von Eigenschaften wir bei späteren Messungen an dem System zu rechnen haben. Messungen verwandeln einen Zustand, in dem der Messwert einer bestimmten Größe indefinit gewesen ist, in einen solchen, in dem sie definit ist. Dabei zerstören sie die vorher vorhandenen Interferenzen, wie sie für Superpositionen typisch sind. Ein Elektron, dessen Ortszustand vorher über den ganzen Raum „verstreut“ war, wird durch eine Ortsmessung auf eine kleine räumliche Region festgelegt. Ein Photon im Doppelspalt-Experiment, das sich in einer Superposition der Zustände „geht durch Schlitz 1“ und „geht durch Schlitz 2“ befindet, wird durch die Aktivität eines Detektors an Schlitz 1 auf den definiten Zustand „geht durch Schlitz 1“ festgelegt (vgl. Sklar 1992, S. 182/183). Aber wenn Messungen einen so wesentlichen Einfluss auf den Zustand eines Systems haben, dann kann nicht jede Wechselwirkung eines Systems mit seiner Umgebung als Messung gelten. Beispielsweise hat der bloße Durchgang durch eine Stern-Gerlach-Apparatur – ohne Detektoren – die Kohärenz der Teilchen nicht gelöscht, also den Zustand nicht verändert, obwohl doch unzweifelhaft eine Wechselwirkung mit dem in der Umgebung vorhandenen Magnetfeld stattgefunden hat. Nicht jede Wechselwirkung ist eine Messung – was also unterscheidet eine Messung von einer gewöhnlichen Wechselwirkung? In der formalen Ausgestaltung der Quantenmechanik, die Anfang der 1930er Jahre mit John von Neumann, Max Born u. a. beginnt, erhält der „Messprozess“ zwar eine klar definierte funktionale Rolle. Er spielt die Rolle einer „zweiten Dynamik“3 der Theorie neben der „ersten Dynamik“, die der deterministischen SchrödingerGleichung4 folgt. Aber es bleibt durchaus unklar, wodurch physikalische Wechselwirkungen imstande sind, genau diese funktionale Rolle zu erfüllen, oder kurz: Es bleibt eine offene Frage, was genau physikalisch bei einer Messung geschieht. Dies ist die Frage, deren Beantwortung bis heute das Ziel der verschiedenen Interpretationen der Quantenmechanik ist: Sie stellen Versuche dar, die Natur des Messprozesses zu verstehen (vgl. Abschn. 4.4).
3 Eine
Messung, die Bestimmung einer Messgröße eines Systems, wird formal durch die Anwendung eines bestimmten Operators auf einen Zustandsvektor beschrieben, der den Zustand des Systems vor der Messung beschreibt. Durch die Messung wird der Zustandsvektor diskontinuierlich und indeterministisch auf einen Eigenzustand mit definitem Messwert reduziert. In diesem Kontext der „zweiten Dynamik“ tritt also der „Indeterminismus“ der Quantenmechanik in Erscheinung.
4 Die
Entwicklung eines Quantensystems in der Zeit für bestimmte Potenziale und Randbedingungen, die auf das System wirken, wird durch die Schrödinger-Gleichung beschrieben. Diese von Erwin Schrödinger 1926 gefundene Gleichung liefert eine deterministische Beschreibung von Systemen; sind der Anfangszustand des Systems und die auf das System einwirkenden Faktoren gegeben, so lässt sich daraus der Zustand des Systems zu einem späteren Zeitpunkt eindeutig errechnen.
4.3 Das Rätsel des Messprozesses
79
Die Frage nach der Natur des Messprozesses bezieht sich auch auf die Rolle, die Wahrscheinlichkeiten in der Beschreibung von Quantensystemen spielen. Spiegeln diese Wahrscheinlichkeiten die Begrenztheit unseres Wissens von dem zu messenden System (epistemische Wahrscheinlichkeiten) oder handelt es sich um eine innere Indeterminiertheit des Systems in Hinsicht auf das Resultat einer bestimmten Messung (objektive Wahrscheinlichkeiten)? Das unterschiedliche Verhalten von Superpositionen und gemischten Zuständen, das wir am Beispiel der Stern-Gerlach-Experimente kennengelernt haben, lässt es von vorneherein zweifelhaft erscheinen, dass Wahrscheinlichkeiten, wie sie in Superpositionen auftreten (z. B. die Wahrscheinlichkeit ½ für Messwerte Spin-up bzw. Spin-down), als Ausdruck unseres Wissens (bzw. Unwissens) über Systeme interpretiert werden können. Die zwei kohärenten Teilströme, die nach Durchgang durch die Apparatur in y-Richtung wieder zusammen geführt wurden, waren dadurch ausgezeichnet, dass jedes Teilchen in ihnen eine eindeutige Information über einen künftigen Spin-Messwert in x-Richtung trug (nämlich Spin-up), aber keine Information über einen definiten Spin-Messwert in y-Richtung. Teilchen eines gemischten Zustands (Mischung aus einem Spin-up- und einem Spin-down-Anteil) besitzen dagegen definite Spin-Werte in y-Richtung. Während wir hinsichtlich des gemischten Zustandes tatsächlich nur nicht wissen, welcher der beiden möglichen Messwerte bei der Messung eines Teilchens in y-Richtung auftreten wird, liegt in der Superposition gar kein definiter Spin-Wert in y-Richtung vor. Die Wahrscheinlichkeiten haben hier also nichts mit unserem Wissen (bzw. Unwissen) zu tun (vgl. Sklar 1992, S. 169).
4.3 Das Rätsel des Messprozesses Erwin Schrödingers ursprünglicher Gedanke, Quantenobjekte seien raumzeitlich ausgebreitete Wellen, erwies sich schon bald als trügerisch. Zwar gibt es Lösungen der von Schrödinger gefundenen fundamentalen Bewegungsgleichung, die eine Analogie zu klassischen Wellen nahelegen, z. B. die „Wellenfunktion“ eines freien Elektrons, die als physikalische Welle in Raum und Zeit verstanden werden kann, oder die diskreten Lösungen für gebundene Elektronen, die sich um einen Atomkern herum bewegen und dabei „stehende Wellen“ ausbilden. Aber die von Werner Heisenberg, Max Born, Paul Jordan u. a. entwickelte formale Theorie legt weder ein Wellenbild der Materie noch irgendein anderes anschauliches Bild der Quantenobjekte nahe. Als Lösung für Vielteilchen-Systeme ergibt sich beispielsweise eine „Welle“ in einem abstrakten, höherdimensionalen Raum. Das klassische Bild raumzeitlicher Wellen stellt sich als nur in Spezialfällen zulässige Veranschaulichung einer abstrakten Theorie heraus. Max Borns bis heute maßgebliche Interpretation quantenmechanischer Zustände (Lösungen der Schrödinger-Gleichung) bricht mit dem klassischen raumzeitlichen Wellenbild: Die Wellenfunktion ist als eine Wahrscheinlichkeitswelle zu verstehen, die als Funktion verschiedener Variablen (Messgrößen), wie z. B. Ort und Impuls, dargestellt werden kann. In jeder dieser Darstellungen
80
4 Materie
repräsentiert das Betragsquadrat der Wellenfunktion die Wahrscheinlichkeit, mit der man an dem Quantenobjekt einen gegebenen Wert der entsprechenden Messgröße messen wird. So gibt z. B. in der Impulsdarstellung die Verteilung der Intensität über die verschiedenen Impulsbereiche jeweils die Wahrscheinlichkeit dafür an, das System in einem dieser Impulsbereiche anzutreffen. Mit der Wahrscheinlichkeitsinterpretation – die noch offen lässt, wie der Begriff der Wahrscheinlichkeit selbst zu verstehen ist – wird der Indeterminismus, der bereits durch Prozesse wie den radioaktiven Zerfall vertraut war, zu einem charakteristischen Merkmal der Quantenobjekte. Danach reicht im Allgemeinen auch das beste verfügbare Wissen über den Zustand eines Quantensystems zu einem bestimmten Zeitpunkt nicht aus, um den Wert jeder beliebigen Messgröße an diesem System zu einem späteren Zeitpunkt festzulegen.5 Dieser Indeterminismus hat, wie am Ende von Abschn. 4.2 festgestellt, einen objektiven Charakter; er lässt sich nicht auf unser mangelndes Wissen von Quantenobjekten zurückführen (wie Max Born zunächst vermutete). Aber gerade die objektive Natur der quantenmechanischen Wahrscheinlichkeiten macht den Messprozess zu einem Rätsel. Das Rätsel besteht darin, dass ein Zustand, der eine Überlagerung (eine Superposition) zwischen zwei oder mehr Zuständen mit definiten messbaren Eigenschaften darstellt, an einer bestimmten Stelle in einen überlagerungsfreien „Eigenzustand“ mit definitem Messwert übergeht. Wir haben schon gesehen, dass es alles andere als klar ist, wodurch die Art von Eingriff in ein System ausgezeichnet sein soll, die diesen Übergang zustande bringt (die bloße Tatsache der Wechselwirkung scheint nicht zu genügen). Weder versteht man, welcher entscheidende Faktor den Übergang bewerkstelligt, noch, an welcher Stelle der – doch immerhin notwendigen – Wechselwirkung er wirksam wird. Das ganz und gar Rätselhafte und Unbefriedigende dieser Situation ist von Erwin Schrödinger 1935 an einem berühmten Gedankenexperiment („Schrödingers Katze“) verdeutlicht worden, das den Kern des Problems, das Bestehen eines Überlagerungszustands, auf ein makroskopisches System überträgt, mit dem wir klassische physikalische Intuitionen verbinden – v. a. die Intuition, es befinde sich zu jedem Zeitpunkt in einem wohldefinierten Zustand. Schrödinger führt uns dadurch das Rätsel des Messprozesses wie durch eine Karikatur vergröbert vor Augen (vgl. dazu die Darstellung in Näger und Stöckler 2018, S. 119 f.). Ausgangspunkt des Gedankenexperimentes ist eine radioaktive Substanz, die sich nach einer gewissen Zeit in einem Zustand der Überlagerung zwischen den möglichen definiten Zuständen „noch kein Atom zerfallen“ und „ein Atom zerfallen“ befindet. Schrödinger nimmt nun an, dass der Zerfall eines Atoms durch
5 Eine
Ausnahme stellt die Situation dar, in der gerade ein bestimmter Wert einer Messgröße an einem System bestimmt worden ist. Nach dem berühmten Projektionspostulat (John von Neumann) geht das System dadurch in einen „Eigenzustand“ der entsprechenden Messgröße über, für den – solange das System nach der Messung wechselwirkungsfrei bleibt – mit Sicherheit vorausgesagt werden kann, dass eine Wiederholung der Messung exakt denselben Messwert (Eigenwert) an dem System ergeben wird.
4.3 Das Rätsel des Messprozesses
81
einen Geigerzähler detektiert wird, der seinerseits im Fall der Detektion ein Gift freisetzt, das eine Katze in der Umgebung dieser Apparatur sofort tötet. Dies alles findet in einem geschlossenen Kasten statt und ist daher vor den Augen einer Person außerhalb des Kastens verborgen. Natürlich kann man sagen, dass, nachdem eine gewisse Zeit verstrichen ist, entweder ein Atom zerfallen sein und daher die Katze tot oder kein Atom zerfallen und daher die Katze noch lebendig sein muss. Die makroskopische Vergröberung ruft diese „natürliche“ Erwartung hervor: Während wir hinsichtlich der radioaktiven Substanz für sich genommen vielleicht die Existenz eines überlagerten Zustands als „real“ hinzunehmen bereit sind, gilt dies für ein makroskopisches System wie die Katze sicher nicht: Es muss so sein, dass die Katze zu einem bestimmten Zeitpunkt entweder tot oder lebendig ist. Die Person außerhalb des Kastens muss allerdings zur Beschreibung der Situation auf die Beschreibungsmittel der Quantenmechanik zurückgreifen und dies bedeutet, dass sie den Gesamtzustand von radioaktiver Substanz, inklusive Geigerzähler, Gift und Katze, als Überlagerung beschreiben muss, nämlich als Überlagerung aus den Zuständen „ein Atom zerfallen und Katze tot“ und „kein Atom zerfallen und Katze lebendig“. Die Quantentheorie zwingt dieser Person offenbar eine Beschreibung auf, die unmöglich der Wirklichkeit entsprechen kann: Die Katze ist doch sicher zu keinem Zeitpunkt in einem „Überlagerungszustand“ zwischen tot und lebendig. Würde man nun quantentheoretische Überlagerungszustände und die entsprechenden Wahrscheinlichkeiten rein epistemisch interpretieren, also als Ausdruck mangelnden Wissens über das System, wäre das Paradoxe der Situation schnell aufgelöst: Die Person außerhalb des Kastens, so würde man sagen, kann eben nicht in den Kasten hineinsehen und muss sich daher mit der ungenügenden Information, die ihr die quantentheoretische Beschreibung liefert, begnügen, während doch „in Wirklichkeit“ ein definiter Zustand vorliegt. Aber wir hatten schon gesehen, dass diese epistemische Interpretation nicht haltbar ist. Geht man dagegen von einem objektiven Verständnis der quantenmechanischen Beschreibung aus, so stellt sich die Frage, wie unter dieser Voraussetzung zu verstehen ist, dass zu einem beliebig gewählten Zeitpunkt t nach Einrichtung der Apparatur die Katze tatsächlich tot oder lebendig sein muss (dass dies so ist, wollen wir immer noch annehmen). Was hat dazu geführt, dass der Übergang der Superposition zum definiten Zustand erfolgt ist – nachdem doch die Person außerhalb des Kastens an einer aktiven Beobachtung (die als „Messung“ des Zustands gelten könnte) gehindert war? Die Person außerhalb des Kastens kann mit diesem Übergang nichts zu tun haben, aber vielleicht ein innerhalb des Kastens platzierter Freund6, der den Vorgang tatsächlich beobachten konnte. Dann war also die Beobachtung durch den Freund der entscheidende Messvorgang, der den Übergang zum definiten Zustand bewirkt hat? Ist denn überhaupt
6 Diese Überlegung, die von Eugene Wigner in die Diskussion eingeführt wurde, ist in die Literatur als „Wigners Freund“ eingegangen.
82
4 Materie
ein Beobachter, die Anwesenheit eines menschlichen Subjektes, dafür erforderlich oder geschieht der Übergang vielmehr schon innerhalb der physikalischen Wechselwirkung zwischen radioaktiver Substanz und Katze? Wo genau liegt der „Schnitt“ zwischen dem Überlagerungszustand und dem definiten Zustand? Diese Frage wird offenbar nicht durch die Quantentheorie selbst beantwortet und der Antwort darauf haftet daher eine gewisse Willkür an. Schrödingers Gedankenexperiment der Katze suggeriert, dass die Quantentheorie uns kein vollständiges Wissen über die Natur vermittelt. Zwar sollte man von keiner Theorie erwarten, dass sie über jeden nur möglichen Aspekt der Wirklichkeit Auskunft gibt. In diesem Sinn ist sicher keine Theorie „vollständig“. Aber die Unvollständigkeit scheint hier doch einen zentralen Sachverhalt zu betreffen, über den die Theorie unbedingt Rechenschaft geben muss: Wenn in der Natur Zustände mit definiten Eigenschaften vorliegen, so sollte die Theorie, wenn sie denn als objektive Beschreibung der Natur gelten soll, sie als Zustände mit definiten Eigenschaften darstellen. Im selben Jahr, in dem Schrödinger sein Gedankenexperiment formulierte, veröffentlichten Albert Einstein, Boris Podolsky und Nathan Rosen (1935) den Aufsatz Can Quantum–Mechanical description of physical reality be considered complete? in dem sie die Vollständigkeit der Quantentheorie in Zweifel zogen. Die Autoren formulieren zu Beginn des Aufsatzes eine Forderung, die aus ihrer Sicht „vollständige“ Theorien erfüllen müssen: „[J]edes Element der physikalischen Realität muss seine Entsprechung in der physikalischen Theorie haben“ (Einstein et al. 1935, dt. Übers. in Baumann und Sexl (1987), S. 81). Die Autoren plädieren mit dieser Forderung offenbar dafür, dass eine wohlbestimmte physikalische Realität mit jederzeit definiten Eigenschaften existiert (metaphysischer Realismus) und dass die Ausdrücke einer physikalischen Theorie sich auf die „Elemente“ dieser wohlbestimmten Realität – Objekte und deren definite Eigenschaften – beziehen (semantischer Realismus). Die Quantentheorie, so die Autoren, beschreibt aber nicht alle (und im Besonderen nicht alle relevanten) in der physikalischen Realität vorhandenen Eigenschaften und kann daher nicht als in vollständiger Weise realistische Beschreibung der Natur verstanden werden. Woher wissen wir nun, dass die Realität bestimmte „Elemente“ enthält, die durch die Theorie nicht erfasst werden? Nach Ansicht der Autoren geben uns Theorien Instrumente in die Hand, über solche wohlbestimmten Elemente der Realität Kenntnis zu erlangen: „Wenn wir, ohne auf irgendeine Weise ein System zu stören, den Wert einer physikalischen Größe mit Sicherheit (d. h. mit der Wahrscheinlichkeit gleich eins) vorhersagen können, dann gibt es ein Element der physikalischen Realität, das dieser physikalischen Größe entspricht“. (Einstein et al. 1935, dt. Übers. in Baumann und Sexl (1987), S. 81)
Das hier angegebene Rezept, Kenntnis von „Elementen“ der Realität zu gewinnen, wirkt durchaus überzeugend: Wenn eine Theorie es erlaubt, ohne Störung eines Systems, exakte Werte bestimmter Eigenschaften dieses Systems vorherzusagen, wir die Korrektheit der Theorie unterstellen und uns sowohl den oben skizzierten metaphysischen als auch den semantischen Realismus zu eigen machen, dann
4.3 Das Rätsel des Messprozesses
83
können wir zu Recht annehmen, dass die entsprechenden Eigenschaften mit den vorhergesagten Werten tatsächlich existieren. Problematisch ist hingegen, ob die in der eben zitierten Passage genannte Bedingung, an die die Erlangung der fraglichen Kenntnis geknüpft ist, wirklich erfüllbar ist: Lässt die Natur von Quantensystemen „ungestörte“ Vorhersagen der Eigenschaften eines Systems zu? Um zu sehen, wie es um diese Bedingung steht, müssen wir nun das von den Autoren präsentierte Gedankenexperiment näher betrachten (wir verändern die Argumentation insofern, als wir verschiedene Spin-Größen und nicht, wie die Autoren, die Größen Ort und Impuls verwenden)7: Ausgangspunkt ist der Zerfall eines Quantensystems, z. B. eines Moleküls in zwei Atome, deren Spin durch den Zerfall jeweils den Wert ½ annimmt. Die Atome entfernen sich anschließend so weit voneinander, dass eine wechselseitige Beeinflussung ausgeschlossen ist, wenn man die Lichtgeschwindigkeit als maximale Geschwindigkeit akzeptiert, mit der physikalische Wirkungen sich ausbreiten können. Nimmt man nun an dem einen Atom eine Messung in einer beliebig gewählten Spin-Richtung x vor mit dem Ergebnis Spin-up (Spin-down), so sagt die Theorie voraus, dass das entfernte Atom „auf der anderen Seite“ der Experimentanordnung den Wert Spin-down (Spin-up) in x-Richtung annehmen wird (eine Vorhersage, die durch Messungen bestätigt wird). Bis hierhin kann dem von den Autoren angegebenen Rezept problemlos gefolgt werden. Der entscheidende Schritt ist nun, zu argumentieren, dass man an dem ersten Atom ebenso gut auch eine Spin-Messung in einer zur x-Richtung orthogonalen y-Richtung vornehmen könnte. Mit demselben Schluss wie eben würde dann folgen, dass mit dieser Messung eine Vorhersage des exakten Spin-Wertes in y-Richtung an dem zweiten Atom verbunden ist. Wenn beide Vorhersagen glaubwürdig sind und daher „Elemente der Realität“ festlegen, wie oben angenommen, dann ist es folglich möglich, Werte für zwei verschiedene Größen an einem System zu bestimmen, für die nach Aussage der Theorie nicht gleichzeitig exakte Werte an einem System vorliegen können: Ein Zustand mit exaktem Spin-Wert in x-Richtung ist, wie wir schon gesehen haben, eine Superposition hinsichtlich des Spins in y-Richtung, also kein Zustand mit exaktem Spin-Wert in y-Richtung (vgl. Abschn. 4.2 zum Stern-Gerlach-Experiment). Die Vorhersagen, die die Quantentheorie ermöglicht, machen also, so sehen es die Autoren, ihre eigene Aussage zunichte, dass nicht gleichzeitig exakte Werte zu orthogonalen (komplementären) Messgrößen an einem System vorliegen können. In diesem Sinn ist nach ihrer Ansicht die Quantentheorie „unvollständig“: Es gibt wichtige Aspekte der Natur, die durch die Theorie nicht wiedergegeben werden. Wie schon angedeutet, ist der entscheidende Punkt, den die Autoren in ihrer Argumentation ausblenden, die Tatsache, dass die quantentheoretische Beschreibung tatsächlich eine Art von „Störung“ des Zustands des zweiten Atoms
7 Die Autoren selbst haben in ihrer Arbeit den komplizierteren Fall verschränkter Zustandsvektoren im Ortsraum beschrieben und beziehen sich auf Orts- bzw. Impulsmessungen an den getrennten Teilchen (vgl. Näger und Stöckler 2018, S. 111).
4 Materie
84
durch Messung an dem ersten Atom impliziert: Durch Messung des Spins in x-Richtung an Atom 1 geht der Zustand des Gesamtsystems, bestehend aus Atom 1 und Atom 2, (instantan!) in eine Superposition hinsichtlich des y-Spins über, die aus zwei Komponenten besteht, und , d. h., vor der Messung des Spins von Atom 1 in y-Richtung, durch die der entsprechende Spin von Atom 2 vorhersagbar wird, liegt dieser vorhergesagte Spin-Wert an Atom 2 gar nicht vor. Atom 2 hat gar keinen individuellen Zustand unabhängig von Atom 1 und daher kann eine Messung an Atom 1 tatsächlich den für Atom 2 maßgeblichen Zustand beeinflussen, also eine „Störung“ darstellen. Der Versuch der Autoren, die Unvollständigkeit der Quantentheorie zu zeigen, scheitert daran, dass sie eine wesentliche Revision in unserem Verständnis der Materie nicht berücksichtigen, die durch die Theorie erzwungen wird, die Aufgabe der folgenden Lokalitätsannahme (vgl. Näger und Stöckler 2018, S. 115): Physikalische Systeme haben ihre Eigenschaften unabhängig von Ereignissen in raumzeitlich von ihnen getrennten Regionen, mit denen sie nicht in Wechselwirkung stehen. Dass die Autoren in entscheidender Weise an der Lokalitätsannahme festgehalten haben, wird deutlich, wenn man sich die folgende Passage aus ihrem Aufsatz vor Augen hält: „Da … die beiden Systeme zum Zeitpunkt der Messung nicht mehr miteinander in Wechselwirkung stehen, kann nicht wirklich eine Änderung in dem zweiten System als Folge von irgendetwas auftreten, das dem ersten System zugefügt werden mag“. (Einstein et al. 1935, dt. Übers. in Baumann und Sexl (1987), S. 84 )
4.4 Interpretationen der Quantenmechanik Die Interpretationen der Quantenmechanik stellen Versuche dar, dem Rätsel des Messprozesses auf die Spur zu kommen. Wir werden sehen, dass keine dieser Interpretationen das Rätsel vollständig auflösen kann, jedenfalls nicht, ohne neue Rätsel aufzuwerfen; gewissermaßen haben wir nur die Wahl, welche Art der Revision unserer gewohnten klassischen Auffassung von der Natur der Materie wir akzeptieren wollen. Dabei lässt sich aber schon an dieser Stelle festhalten, dass die zentrale Einsicht der Quantentheorie, die den nicht-lokalen Charakter von Quantenzuständen betrifft, durch keine dieser Interpretationen aufgehoben werden kann; wie wir in Abschn. 4.5 sehen werden, wird die Nicht-Lokalität (an der letztlich auch das Argument von Einstein, Podolsky und Rosen gescheitert ist) durch experimentelle Tatsachen gestützt, die nicht nur von speziellen Interpretationen, sondern auch von der Quantentheorie selbst unabhängig sind. Das Rätsel des Messprozesses besteht, wie schon früher erläutert, im Auftreten exakter Messwerte an Quantensystemen, die auf irgendeine Weise schon in den verschränkten Zuständen (Superpositionen) in Form von Wahrscheinlichkeiten „enthalten“ sind. Das Problem ist, zu verstehen, was diese Wahrscheinlichkeiten genau bedeuten, in welcher Weise aktuelle Messwerte in Superpositionen bereits enthalten sind und wie diese im Messprozess „aktualisiert“ werden (vgl. Stöckler
4.4 Interpretationen der Quantenmechanik
85
1986). Die Ensemble-Interpretation (Blochinzew 1972) beantwortet diese Fragen so, dass der Zustandsvektor, der quantenmechanische Zustände darstellt, sich selbst dann, wenn nur ein einzelnes Teilchen vorhanden ist, nicht auf den Zustand dieses Teilchens bezieht, sondern eine Aussage trifft über die relative Häufigkeit des Auftretens der verschiedenen möglichen Messwerte für ein Ensemble (eine gedachte Menge identischer Kopien), zu dem das betrachtete Teilchen gehört. Das Wahrscheinlichkeitsgewicht, mit dem z. B. die Eigenschaft „lokalisiert am Punkt x“ bei einer ebenen Welle (einer Eigenfunktion des Impulses) versehen wird, repräsentiert danach die relative Häufigkeit, mit der Mitglieder des Ensembles am Ort x auftreten, wenn man sie derselben Ortsmessung unterziehen würde. In Bezug auf ein einzelnes Teilchen verschwindet damit das Problem, wie sein Zustand bei einer Messung auf einen definiten Messwert „reduziert“ wird – die im Zustandsvektor enthaltene Information bezieht sich ja gar nicht auf das einzelne Teilchen vor der Messung. Die Ensemble-Interpretation bringt das Problem des Messprozesses zum Verschwinden, indem sie quantenmechanische Wahrscheinlichkeiten analog zur statistischen Mechanik als relative Häufigkeiten auffasst. Der Nachteil dieser Interpretation ist, dass sie den Unterschied zwischen Superpositionen und gemischten Zuständen nicht zu erklären vermag. Weshalb verhalten sich Teilchen in Superpositionszuständen anders als Teilchen in einem gemischten Zustand (vgl. das in Abschn. 4.2 erläuterte „Systemgedächtnis“ in Superpositionszuständen), obwohl die in Messreihen ermittelten relativen Häufigkeiten für sie übereinstimmen? Die Besonderheit quantenmechanischer Zustände, ihre Fähigkeit zur „Verschränkung“, wird durch die Ensemble-Interpretation nicht aufgeklärt, sondern unterschlagen. Darüber hinaus stellt sich die Frage, was ein „hinreichend großes“ Ensemble sein soll. Je größer das Ensemble, desto größer die Wahrscheinlichkeit, dass die tatsächlich festgestellten Häufigkeiten mit den quantenmechanischen Wahrscheinlichkeiten übereinstimmen. Aber für jedes endliche, noch so große Ensemble werden die Häufigkeiten in der Regel nicht exakt die quantenmechanischen Wahrscheinlichkeiten abbilden. Damit handelt sich die Ensemble-Interpretation ein Problem ein, das allen Häufigkeitsinterpretationen von Wahrscheinlichkeiten anhaftet: Jeder Grad an Übereinstimmung zwischen Wahrscheinlichkeitswert und relativer Häufigkeit wird in konkreten Messreihen wieder nur mit einer gewissen Wahrscheinlichkeit realisiert, d. h., der Wahrscheinlichkeitsbegriff kann in der Erklärung der Wahrscheinlichkeiten selbst nicht eliminiert werden. Eine subjektivistische Interpretation des Messprozesses wurde u. a. von Eugene Wigner und Roger Penrose vertreten (vgl. Wigner 1967; Penrose 1989). Die Zustandsreduktion wird hier durch den bewussten Wahrnehmungsakt eines Subjekts hervorgebracht, das den Messvorgang registriert.8 Zur Motivation dieses
8 Eine unbewusste Wahrnehmung oder die bloße Registrierung durch eine technische Vorrichtung (die z. B. eine Videoaufzeichnung der Messung erstellt) würde nicht genügen, da hier aus Sicht der Theorie nur ein weiteres physikalisches System ins Spiel kommt, das wieder als Komponente der Superposition in die Beschreibung eingehen müsste.
86
4 Materie
Vorschlags sei noch einmal an das Gedankenexperiment von Schrödingers Katze erinnert: Das Problem bestand darin zu akzeptieren, dass ein makroskopischer Sachverhalt (Katze tot bzw. Katze lebendig), der nach klassischer Vorstellung nur erfüllt oder nicht erfüllt sein kann, aus Sicht einer Person, die nur auf die quantentheoretische Beschreibung zurückgreifen kann, weder erfüllt noch nicht erfüllt ist. Der Grund für diese unbefriedigende Situation ist, so der Gedankengang dieser Interpretation, dass die Person, die den Prozess theoretisch beschreibt, nicht zugleich bewusster Beobachter des Prozesses ist. Die Besonderheit quantentheoretischer Prozesse liegt danach genau in dem Auseinanderfallen dessen, was klassisch unproblematisch vereint zu sein scheint: der Rolle der theoretischen Beschreibung und der Rolle der Beobachtung. Dies ist gemeint, wenn behauptet wird, die Quantentheorie zeige, dass es aufgrund der irreduziblen Rolle des menschlichen Bewusstseins keine wirklich objektive Naturbeschreibung geben kann. Nur das Bewusstsein sei in der Lage, Superpositionen in definite Messresultate zu verwandeln. Dabei wird, den Regeln der Theorie zufolge, der Messprozess zunächst durch eine komplexe Superposition von Quantenobjekt und Messgerät beschrieben und erst durch das Hinzutreten eines menschlichen Bewusstseins ein „Schnitt“ zwischen diesen Faktoren erzeugt, der zur Auswahl eines definiten Messresultates führt. Dies alles ist natürlich keinesfalls zwingend, es „folgt“ nicht „aus der Theorie“, sondern nur, wenn man sich eine besondere, subjektivistische Interpretation der Theorie zu eigen macht. In Ermangelung einer allgemein akzeptierten „objektiven“ Standardinterpretation der Theorie lässt sich die subjektivistische Deutung aber auch nicht einfach ausschließen. Allerdings kann man auf einige Schwachstellen dieser Deutung hinweisen: Zunächst ist die Voraussetzung problematisch, das menschliche Bewusstsein stelle eine nicht weiter objektiv erfassbare Eigenschaft von Organismen dar, die aus der physikalischen Natur „herausfällt“ (vgl. dazu Kap. 8). Wenn das Bewusstsein eine Rolle im Messprozess spielt, weshalb sollte dann sein Einfluss nicht grundsätzlich als physikalische Wechselwirkung zu verstehen sein? Wenn aber das Bewusstsein im Gegenteil nicht zu den physikalischen Eigenschaften der Welt gehört, wie kann diese Eigenschaft dann in der physikalischen Welt wirksam werden? Und schließlich bleibt offen, wie der Mechanismus aussehen soll, mithilfe dessen das Bewusstsein – ob nun physikalisch oder nicht – angeblich Quantenzustände reduzieren kann, und weshalb nur das menschliche Bewusstsein (oder auch jenes von höheren Tieren?), aber sonst nichts in der Natur, diese Fähigkeit besitzen soll. Die Kopenhagener Interpretation der Quantenmechanik, die v. a. auf den dänischen Physiker Niels Bohr zurückgeht und noch in aktuellen Lehrbuchdarstellungen der Theorie häufig unterstellt wird, kommt ohne eine besondere Rolle des Bewusstseins oder des Subjekts aus. Stattdessen wird die Objektivität der in der Zustandsbeschreibung auftretenden Wahrscheinlichkeiten betont, aber in einem wesentlichen Sinn auf Messungen relativiert: Quantenmechanische Wahrscheinlichkeiten charakterisieren ein physikalisches System nur jeweils in Hinblick auf eine spezifische Messanordnung. Damit möchte Bohr dem Umstand Rechnung tragen, den wir anhand des Arguments von Einstein, Podolsky und Rosen in Abschn. 4.3 diskutiert haben und auf den Bohr in seiner Antwort auf
4.4 Interpretationen der Quantenmechanik
87
dieses Argument hingewiesen hat: Quantenzustände besitzen ihre Eigenschaften nicht „absolut“, unabhängig von ihrer Messung, sondern jeder Messvorgang schafft erst einen spezifischen Kontext, innerhalb dessen der Quantenzustand bestimmte seiner möglichen Eigenschaften annimmt. Wie soll man die behauptete Kontextabhängigkeit von Quantenobjekten nun näher verstehen? Bohr beruft sich hier auf eine Art Zwei-Welten-Theorie: Es gibt eine Welt der mikroskopischen Quantenobjekte, deren innere Eigenschaften der Physik verschlossen bleiben. Die Physik selbst „lebt“ in einer makroskopischen Welt: Sie ist notwendig auf klassische makroskopische Messbegriffe (Ort, Impuls, Polarisation etc.) angewiesen und kann daher Quantenobjekte nur dadurch beschreiben, dass sie ihr makroskopisches Verhalten in den verschiedenen klassischen Messkontexten spezifiziert – mithilfe quantenmechanischer Wahrscheinlichkeiten. Die verschiedenen Kontexte sind dabei nicht alle gleichzeitig realisierbar, sondern „komplementär“ zueinander,9 die Gesamtheit der durch sie vermittelten perspektivischen Darstellungen von Quantenobjekten stellt die maximal verfügbare Information über sie dar. Die Repräsentation von Quantenobjekten im Sinn eines „direkten“ Realismus ist unerreichbar – alle Eigenschaften von Quantenobjekten sind als relationale Eigenschaften zu verstehen, als Wahrscheinlichkeiten, hinsichtlich einer bestimmten Messvorrichtung diesen oder jenen Messwert zu realisieren. Bohrs Verständnis der Quantenmechanik spiegelt eine breite empiristisch geprägte erkenntnistheoretische Strömung zu Beginn des 20. Jahrhunderts: … in our description of nature the purpose is not to disclose the real essence of the phenomena but only to track down, so far as it is possible, relations between the manifold aspects of our experience. (Bohr 1934, S. 18)
In Bohrs Auffassung, nach der Quantenobjekte durch eine strikte Erkenntnisgrenze von der „klassischen“ Welt, der Welt unserer Erfahrung, getrennt sind, ist allerdings auch ein Einfluss der Philosophie von Kant zu erkennen (vgl. Murdoch 1987, S. 229 f.). Was im Messprozess selbst geschieht, d. h., wie einer der möglichen Messwerte ausgewählt wird, kann nach Bohr nicht selbst als physikalischer Vorgang aufgefasst werden – der Versuch einer Analyse stößt an die zwischen Mikro- und Makrowelt liegende Erkenntnisgrenze. Auch die Messgeräte kommen, da sie in makroskopischen Begriffen beschrieben werden müssen, als Gegenstände der quantenmechanischen Beschreibung nicht infrage. Messungen geben den Begriffen der Quantenmechanik, v. a. dem „Zustandsvektor“, überhaupt erst physikalische Bedeutung und können daher nicht selbst mithilfe von Begriffen der Theorie analysiert werden. Die Rolle, die Bohr Messungen in der Theorie
9 So führt eine Ortsmessung an einem freien Elektron zu einem Zustand, der maximal unbestimmt hinsichtlich seines Impulses ist. Orts- und Impulsmessung bilden komplementäre Messkontexte. Eine Konsequenz davon ist, dass völlig unbestimmt ist, in welche Richtung sich das Elektron nach der Ortsmessung bewegt – der klassische Bahnbegriff wird unanwendbar.
4 Materie
88
zuweist, ist also eine semantische, keine kausale Rolle: Die quantenmechanischen Eigenschaften werden durch Messanordnungen nicht erzeugt, sondern definiert. Deshalb können sie durchaus in objektiver Weise verstanden werden: als innere, aber relationale Eigenschaften von Quantenobjekten. Dies eröffnet andererseits die Möglichkeit, die quantenmechanischen Wahrscheinlichkeiten im Sinn der Propensitätsauffassung der Wahrscheinlichkeit zu deuten, als Dispositionen von Quantenobjekten, in Messkontexten bestimmte Messwerte zu manifestieren (vgl. Ballentine 198610; Dorato 2005, S. 116). Die Propensitätsauffassung gibt quantenmechanischen Wahrscheinlichkeiten den Status theoretischer Eigenschaften, die durch experimentell bestimmte relative Häufigkeiten getestet (nicht definiert) werden. Die Kopenhagener Interpretation in der Version von Bohr beantwortet nicht die Frage, was denn beim quantenmechanischen Messvorgang geschieht – die Messung wird, wie schon oben festgestellt, nicht in ihrer kausalen Rolle analysiert. Werner Heisenberg, der ebenfalls als Vertreter der Kopenhagener Interpretation gilt, thematisierte, anders als Bohr, den Messvorgang selbst. Messungen, so Heisenberg, finden nicht isoliert, sondern immer in einer Umgebung statt, in der wesentlich auch ein Beobachter auftritt: Denn die Messanordnung verdient diesen Namen ja nur, wenn sie in enger Berührung steht mit der übrigen Welt, wenn es eine physikalische Wechselwirkung zwischen der Messanordnung und dem Beobachter gibt. (Heisenberg 1959, S. 41)
Der Übergang der Superposition zum definiten Messwert (der sogenannte Kollaps der Wellenfunktion) ist kein physikalischer Vorgang in der Welt, sondern er „findet … statt durch den Akt der Registrierung; denn hier handelt es sich um die unstetige Änderung unserer Kenntnis im Moment der Registrierung“ (Heisenberg 1959, S. 38). Dies wirft dann aber wieder die Frage auf, wo denn genau der „Schnitt“ zwischen Mikrosystem und registrierendem Makrosystem anzusetzen ist (vgl. Friebe 2018, S. 55 f.) – und worauf, wenn schon der Schnitt durch ein menschliches Bewusstsein zustande kommen soll, diese besondere Fähigkeit eines Bewusstseins beruht. Wir stehen also wieder vor den Problemen, die schon die subjektivistische Interpretation aufgeworfen hatte. Die geschilderten Probleme epistemischer Interpretationen haben das Bedürfnis nach einem physikalisch realistischen Verständnis des Messprozesses wachsen lassen. Der Dekohärenz-Ansatz (vgl. dazu Zeh 1970; Zurek 1981; Schlosshauer 2005) berücksichtigt die Wechselwirkungen, denen ein Gesamtsystem aus Quantenobjekt und Messgerät in seiner Umgebung ausgesetzt ist. Man kann
10 Ballentine
betont, die Propensitätsauffassung sei für die Interpretation der Quantenmechanik besonders gut geeignet, da hier Wahrscheinlichkeiten als Charakteristika einer Gesamtsituation aus Quantenobjekt und Messanordnung aufgefasst werden, die Anlass für Folgen von Messereignissen geben, aber nicht die Ereignisfolgen selbst charakterisieren, wie dies bei einer Häufigkeitsinterpretation der Fall ist (vgl. Ballentine 1986, S. 884).
4.4 Interpretationen der Quantenmechanik
89
zeigen, dass die große Zahl dieser mikroskopischen Wechselwirkungen die typischen quantenmechanischen Kohärenzen wenigstens lokal so stark reduziert, dass damit erklärt werden kann, dass in der Alltagswahrnehmung keine Superpositionen erscheinen (vgl. Friebe 2018, S. 64). Dies ist aber nur ein Problem des Messprozesses, ein anderes bleibt ungelöst: Weshalb tritt bei Messungen ein bestimmter definiter Messwert auf? Der Dekohärenz-Ansatz kann hier nur die Antwort geben, dass der Gesamtzustand idealerweise in einen gemischten Zustand übergeht – es liegt ein bestimmter Eigenwert des Systems vor, aber die Theorie gibt keine Auskunft darüber, welcher Eigenwert dies ist (vgl. Friebe 2018, S. 65). Auf diese letzte Frage gibt die Viele-Welten-Interpretation (Everett 1957; DeWitt und Graham 1973) eine überraschende Antwort: Jeder der möglichen Messwerte wird realisiert, allerdings nicht in unserer Welt. Die Welt spaltet – bei jedem Messvorgang – in viele durch definite Messwerte charakterisierte Zweige auf, und zwar gerade mit jener Gewichtung, die durch die Wahrscheinlichkeiten in der Zustandsfunktion angegeben wird. Dadurch wird eine diskontinuierliche Zustandsänderung beim Messprozess (ein „Kollaps der Wellenfunktion“) vermieden. Auch der Zustand des Beobachters eines Messprozesses spaltet in verschiedene Zustände auf: In jeder der „vielen Welten“ befindet der Beobachter sich in einem der möglichen Zustände, die der Registrierung jeweils eines der möglichen Messwerte entsprechen. Die vielen „Zweige“, in die die Welt zu jedem Zeitpunkt einer Messung aufspaltet, existieren simultan „nebeneinander“ – ohne die Möglichkeit einer Wechselwirkung zwischen ihnen. Diese Lösung für das Problem des Messprozesses ist zwar ontologisch sehr aufwendig, aber daraus folgt kein Apriori-Einwand; schließlich muss jede Interpretation der Quantenmechanik entweder Abstriche an der Vollständigkeit der Theorie machen oder wesentliche naturphilosophische Annahmen revidieren. Die Probleme der Viele-Welten-Interpretation sind vielmehr in der formalen Umsetzung ihres Programms zu suchen: Einmal setzt dieses Programm voraus, dass eine bestimmte Eigenbasis quantenmechanischer Zustände für jeden einzelnen Messvorgang ausgezeichnet wird; für eine Auffassung wie jene von Bohr, nach der die Bedeutung der quantenmechanischen Beschreibung durch den Messvorgang selbst definiert wird, stellt dies kein Problem dar, wohl aber für eine Deutung, die das gesamte physikalische Geschehen, inklusive Messvorgang, als Folge der Entwicklung der Zustände nach der Schrödinger-Gleichung erklären möchte. Zum anderen bleibt unklar, wie die exakten quantenmechanischen Wahrscheinlichkeiten sich in der Anzahl von möglichen Welten widerspiegeln sollen, die jeweils einen bestimmten Messwert realisieren – die Anzahl bzw. die Häufigkeit, mit der sie im Ensemble der vielen Welten auftreten, müsste in jedem einzelnen Fall genau auf die entsprechenden Wahrscheinlichkeiten abgestimmt sein. Wenn Gott schon nicht würfeln muss, so hätte er hier immerhin einiges zu rechnen. Zuletzt soll kurz eine Interpretation zur Sprache kommen, die den „Kollaps der Wellenfunktion“ als realen Vorgang in unserer Welt zu rekonstruieren versucht, die GRW-Interpretation (Ghirardi et al. 1986). Diese Interpretation stellt im Grunde eine neue Theorie dar, denn die lineare Schrödinger-Gleichung wird
90
4 Materie
ersetzt durch eine neue nicht-lineare Dynamik. Hierdurch wird die Möglichkeit für einen objektiven Indeterminismus geschaffen, der bereits in der Zustandsentwicklung angelegt ist (vgl. Friebe 2018, S. 66 f.). Die indeterministische Entwicklung findet an Zustandsvektoren in Ortsdarstellung statt, d. h., sie soll so verstanden werden können, wie wir es aus der klassischen Physik gewohnt sind: als Entwicklung von Systemen in Raum und Zeit. Die Grundidee ist, dass eine Vielteilchen-Wellenfunktion von Zeit zu Zeit spontan und indeterminiert kollabiert – nicht hervorgerufen durch eine externe Wechselwirkung, auch nicht durch eine Messung. Das Eintreten eines Kollapses der Wellenfunktion soll bei wenigen Teilchen relativ unwahrscheinlich, aber bei vielen Teilchen hoch wahrscheinlich sein – und daher für makroskopische Systeme, die eine sehr große Anzahl von Teilchen enthalten (z. B. für Messgeräte), instantan stattfinden (vgl. Friebe 2018, S. 68). Die Wahrscheinlichkeit für den Kollaps der Wellenfunktion bei einem Teilchen ist dabei als objektiv zu verstehen, sie stellt eine inhärente Eigenschaft des Quantensystems dar. Ein speziell eingeführter Operator, der auf die Zustandsfunktion angewendet wird, gibt an, wann, wo und mit welcher Wahrscheinlichkeit es zu einer Lokalisation des Systems kommt. Im Beispiel von Schrödingers Katze soll damit nachvollzogen werden können, dass aufgrund der Tatsache, dass die Katze aus einer riesigen Zahl von Teilchen besteht, der Kollaps der Wellenfunktion sofort und unvermeidlich eintritt, wodurch die Superposition von Mikrozuständen in einen lokalisierten definiten Makrozustand übergeht.11 Aus naturphilosophischer Perspektive ist der Anspruch der GRW-Interpretation, sich einer anschaulich klassischen Darstellung von Quantenprozessen zumindest anzunähern, mit Skepsis zu betrachten: Die Vielteilchen-Zustandsfunktion „lebt“ in einem hochdimensionalen, keineswegs anschaulichen „Konfigurationsraum“. Da auch der Kollaps in diesem Raum stattfindet, erhalten wir auf diese Weise jedenfalls keine klassisch anschauliche Vorstellung davon, was beim Messprozess geschieht. Allerdings versucht die von John Bell entwickelte Auffassung der Local Beables (vgl. Bell 1987, S. 52–62) den Kollaps im Konfigurationsraum mit lokalen Ereignissen (Flashes) im Anschauungsraum zu verbinden, die als spontane Lokalisationen von Materie in Raum und Zeit auftreten. Friebe weist zu Recht darauf hin, dass Bells Flashes von Wellenfunktionen im Konfigurationsraum abhängig bleiben und daher durch nichts in unserer raumzeitlichen Welt Existierendes erklärt werden können (vgl. Friebe 2018, S. 72). Um diesen Hiatus zu überbrücken, haben Dorato und Esfeld (2010) die Lösung vorgeschlagen, Superpositionen im Konfigurationsraum selbst als Repräsentationen dispositionaler Eigenschaften in der physikalischen Raumzeit aufzufassen, die sich spontan manifestieren, indem sie Flashes hervorrufen.
11 Dies ist allerdings nur plausibel unter der Voraussetzung, dass die makroskopisch verschiedenen Zustände jeweils mit verschiedenen Ortszuständen gekoppelt sind. Tod oder Leben der Katze werden durch unterschiedliche physiologische Zustände charakterisiert und es ist eine offene Frage, ob die Verschiedenheit dieser Zustände sich in Ortswellenfunktionen widerspiegelt (vgl. Friebe 2018, S. 70).
4.5 Bell’sche Ungleichung und Nicht-Lokalität
91
4.5 Bell’sche Ungleichung und Nicht-Lokalität Wie wir in Abschn. 4.4. gesehen haben, gelingt es den verschiedenen Interpretationen der Quantenmechanik, Probleme für unser Verständnis von Quantensystemen aufzulösen, aber jeweils nur um den Preis der Erzeugung neuer Probleme. Sich für eine dieser Interpretationen zu entscheiden, bedeutet letztlich, jene Zumutungen für unser klassisches Bild der Materie zu wählen, die wir glauben noch eher akzeptieren zu können als andere. Ganz anders liegen die Dinge im Fall eines von John Bell gefundenen Theorems, das sich in der sogenannten Bell’schen Ungleichung ausdrückt (vgl. Bell 1964). Dieses Theorem besagt nicht nur, dass die Quantenmechanik verbietet, zu einer Beschreibung von Quantenobjekten zurückzukehren, die der klassischen Lokalitätsannahme genügt. Es besagt vielmehr, dass auch keine mögliche zukünftige Theorie die Lokalität wiederherstellen kann, wenn sie nur die experimentell festgestellte Verletzung der Bell’schen Ungleichung respektiert. Wir stehen hier vor dem seltenen Fall, dass uns die empirischen Tatsachen zur Revision unseres klassischen Verständnisses von Naturprozessen zwingen. Bells Gedankengang setzt an bei der Kritik von Einstein, Podolsky und Rosen (EPR) an der Quantenmechanik (vgl. Abschn. 4.3). Zwei miteinander korrelierte Teilchen, die zum Zeitpunkt ihrer Messung so weit voneinander getrennt sind, dass kein kausaler Einfluss durch eine Messung an dem einen Teilchen auf den Zustand des anderen Teilchens ausgeübt werden kann, sollten nach den Annahmen von EPR jeweils definite Werte hinsichtlich zweier komplementärer Größen, z. B. ihres Spins in x- und y-Richtung besitzen. Die Lokalitätsannahme von EPR forderte, dass „nicht wirklich eine Änderung in dem zweiten System als Folge von irgendetwas auftreten kann, das dem ersten System zugefügt werden mag“. (Einstein et al. 1935, dt. Übers. in Baumann und Sexl 1987, S. 84). Die Teilchen müssen ihre definiten Werte des Spins in beide Richtungen also bereits tragen, sobald sie voneinander getrennt werden – jede spätere Wechselwirkung, durch die diese Werte erzeugt werden könnten, ist ja ausgeschlossen. Bell startet seinen Beweis mit der Voraussetzung, dass beide Teilchen am Punkt ihrer Trennung voneinander mit Werten lokaler verborgener Parameter ausgestattet werden, die ihre Spin-Werte in allen möglichen Richtungen eindeutig festlegen.12 Auf Basis dieser Voraussetzung wird ein Gedankenexperiment ausgeführt, das in einer langen Reihe von Messungen an einer großen Gesamtheit von Teilchen besteht, die in derselben Weise präpariert sind, wobei jeweils die Richtungen in zufälliger Weise variiert werden, in denen der Spin-Wert der Teilchen gemessen wird. Wir erhalten daraus eine große Liste, in der die Ergebnisse (Spin-up bzw. Spin-down) für alle möglichen Kombinationen von Spin-Messungen in die verschiedenen Richtungen für beide Teilchen aufgeführt sind. Die Messresultate für
12 Die
verborgenen Parameter werden nur „funktional“ charakterisiert, also nur dadurch, dass sie zur eindeutigen Festlegung der Eigenschaften der Teilchen führen – wie auch immer dies physikalisch bewerkstelligt werden könnte.
92
4 Materie
ein Teilchen sollen, wie von EPR angenommen, unabhängig davon sein, welche Richtung bei dem anderen Teilchen gemessen worden ist. Die Wahrscheinlichkeit, dass ein bestimmter Wert bei einer Messung an einem Teilchen in einer spezifischen Richtung gemessen wird, sollte daher nur von jener Wahrscheinlichkeit abhängen, die sich aus der Verteilung der verschiedenen Werte der verborgenen Parameter für jedes Teilchen ergibt (vgl. Sklar 1992, S. 219). Nehmen wir an, dass der Spin in drei verschiedenen Richtungen A, B und C gemessen wird (wir folgen für das Weitere der Darstellung in Sklar 1992, S. 219 f.). Für alle drei Richtungen werden durch die verborgenen Parameter Messwerte + (Spin-up), – (Spin-down) oder 0 (entweder Spin-up oder Spindown – konsistent mit den übrigen Messwerten) festgelegt. Da die Teilchen als Quantenobjekte perfekt korreliert sind, muss ein + für das eine Teilchen einem – für das andere Teilchen entsprechen, wenn es sich um Messungen in derselben Richtung handelt. Ist z. B. der Messwert für Teilchen 1 in A-Richtung als + festgelegt und der für Teilchen 2 in C-Richtung ebenfalls als + , dann muss Teilchen 1 in C-Richtung den Messwert – und Teilchen 2 in A-Richtung den Messwert – besitzen; nur die Messwerte in B-Richtung sind dann jeweils noch nicht festgelegt; in einer langen Messreihe sollten die beiden möglichen Kombinationen für die B-Richtung (Teilchen 1 mit +/ Teilchen 2 mit − sowie Teilchen 1 mit − und Teilchen 2 mit +) gleich häufig auftreten, d. h., die Gesamthäufigkeit (bzw. die Gesamtwahrscheinlichkeit) für Situationen, in denen Teilchen 1 mit + und Teilchen 2 mit − in A-Richtung sowie Teilchen 1 mit − und Teilchen 2 mit + in C-Richtung gemessen wird, sollte sich additiv aus den Häufigkeiten (Wahrscheinlichkeiten) für die Fälle zusammensetzen, in denen zusätzlich Teilchen 1 mit + und Teilchen 2 mit − bzw. Teilchen 1 mit − und Teilchen 2 mit + in B-Richtung vorliegen. Wenn man für die Richtungen A und B sowie B und C analoge Überlegungen anstellt, erhält man zwei weitere Gleichungen, deren rechte Seiten jeweils einen Ausdruck enthalten, der auch in der Gleichung für die Richtungen A und C auftritt. Daraus (und aufgrund der Positivität von Wahrscheinlichkeiten) folgt, dass die Summe der linken Seiten der Gleichungen für A und B bzw. B und C größer oder gleich der linken Seite der Gleichung für A und C ist. Diese Ungleichung, die lediglich aus der Annahme hergeleitet wurde, dass die Ergebnisse für Messungen bei den Teilchen unabhängig voneinander nur durch die lokalen Parameterwerte festgelegt werden, sowie aus elementaren Eigenschaften von Wahrscheinlichkeiten, gilt analog nun für alle möglichen Richtungen. Es stellt sich heraus, dass es Richtungen gibt, für die diese Ungleichung durch die Wahrscheinlichkeiten verletzt wird, die durch die Quantenmechanik vorhergesagt werden. Da außer der Lokalitätsannahme, die dadurch realisiert wird, dass lokale Parameter die Spin-Werte in die verschiedenen Richtungen an den Teilchen unabhängig voneinander im Moment ihrer Trennung festlegen, keine weiteren anspruchsvollen physikalischen Annahmen in Bells Gedankengang einfließen, folgt daraus, dass die Quantenmechanik nicht mit der Lokalitätsannahme vereinbar ist. Die Quantenmechanik scheint zu fordern, dass die Tatsache einer bestimmten Messung an dem einen Teilchen doch einen bestimmenden Einfluss auf die Verteilung der Wahrscheinlichkeiten für Messausgänge an dem anderen
4.5 Bell’sche Ungleichung und Nicht-Lokalität
93
Teilchen hat. Nun sind die Vorhersagen der Quantenmechanik über die Verletzung der Bell’schen Ungleichung tatsächlich auch experimentell immer wieder mit großer Genauigkeit bestätigt worden (vgl. u. a. Aspect et al. 1982). Nicht nur die Quantenmechanik sagt Verletzungen der Bell’schen Ungleichung voraus, die Natur selbst produziert offenbar solche Verletzungen.13 Damit ist der Schluss unausweichlich, dass lokale verborgene Parameter (Parameter, die in lokaler Weise wirken), die raumzeitlich separierte Quantenobjekte unabhängig voneinander mit definiten Eigenschaften zu beliebigen Messgrößen ausstatten könnten, nicht existieren. Die EPR-Korrelationen zwischen raumzeitlich getrennten Quantenobjekten sind real. Das Ergebnis von Bell sollte nicht so verstanden werden, als folge daraus unmittelbar eine Unvereinbarkeit mit der speziellen Relativitätstheorie. NichtLokalität bedeutet ja zunächst nur, dass die Korrelationen zwischen den entfernten Teilchen nicht durch lokal-kausale Einflussnahme an ihrer Quelle erklärt werden können – sie bedeutet nicht, dass eine kausale Wirkung durch eine Messung an Teilchen 1 auf das Messergebnis an Teilchen 2 ausgeübt würde, die sich mit Überlichtgeschwindigkeit („raumartig“) ausbreitet. Aus empirischen Gründen kann sogar ausgeschlossen werden, dass eine Signalübertragung14 mit Überlichtgeschwindigkeit zwischen den zwei Flügeln eines EPR-Experiments stattfindet: Die Messresultate variieren zufällig von Durchgang zu Durchgang, das Messergebnis an dem zweiten Flügel ist nicht durch Festlegung der Messeinstellung am ersten Flügel kontrollierbar (vgl. Näger und Stöckler 2018, S. 153). Um zu unterstreichen, dass es sich nicht um einen direkten Konflikt mit der speziellen Relativitätstheorie handelt, kann man die Nicht-Lokalität im Sinne einer NichtSeparabilität interpretieren: Die beiden EPR-Flügel bilden danach keine trennbaren Systeme, die jeweils für sich einen vollständig bestimmten Zustand annehmen (sie werden ja in der Tat nicht durch eigenständige Zustandsvektoren dargestellt), sondern lediglich Teile eines Systems, das nur im Ganzen einen Zustand besitzt. Die Besonderheit der quantenmechanischen Situation besteht danach darin, dass Systeme existieren, deren Eigenschaften nicht auf die Eigenschaften ihrer Teilsysteme reduzierbar sind. Dies kann als Hinweis auf die zentrale Rolle von Relationen und insgesamt als Bestätigung eines holistischen Verständnisses der Natur aufgefasst werden (vgl. Esfeld 2002, 2004, 2008, Kap. 3). Selbst wenn man die Nicht-Lokalität von EPR-Korrelationen im Sinne der Nicht-Separabilität deutet, scheint aber ein Konfliktpunkt mit der speziellen
13 Selbst
die De-Broglie-Bohm-Theorie (vgl. Näger und Stöckler 2018, S. 188 f.), die ähnlich wie die GRW-Interpretation eine eigenständige Quantentheorie darstellt und das klassische Bild von Teilchenbahnen wiederherstellt, muss an anderer Stelle eine Nicht-Lokalität in Form eines nicht-lokal wirkenden Quantenpotenzials in Kauf nehmen, durch das die Trajektorien der Teilchen bestimmt werden. 14 Signalübertragung
stellt nur eine Art kausaler Beziehungen dar. So können kausale Relationen z. B. auch durch kontrafaktische Abhängigkeiten definiert werden: A verursacht B genau dann, wenn gilt: Wäre A nicht eingetreten, so wäre auch B nicht eingetreten.
94
4 Materie
Relativitätstheorie bestehen zu bleiben. So sprechen Paul Näger und Manfred Stöckler davon, dass die Nicht-Lokalität „einerseits die Tendenz hat, das Bezugssystem auszuzeichnen, in dem sie simultan ist, andererseits das Relativitätsprinzip fordert, dass alle Bezugssysteme gleichwertig sein müssen“ (Näger und Stöckler 2018, S. 166). Um genau zu verstehen, was hier gemeint ist, muss man sich die Situation der zwei Flügel eines EPR-Experiments noch einmal vergegenwärtigen. Wenn eine Physikerin eine Messung an Teilchen 1 vornimmt, liest sie auf einer mitgeführten Uhr eine bestimmte Uhrzeit ab, sagen wir 12 Uhr. Am anderen Flügel, so nehmen wir an, nimmt „zur selben Zeit“ eine andere Person an Teilchen 2 ebenfalls eine Messung vor, d. h., auf der Uhr dieser Person ist es in diesem Moment auch 12 Uhr. Diese „Simultanität“ der Messungen ist aber bezugssystemabhängig, d. h., nur in einem bestimmten Bezugssystem, an das die beiden Uhren „adaptiert“ sind, finden die beiden Messungen „gleichzeitig“ statt. In anderen Bezugssystemen findet Messung 1 entweder vor oder nach Messung 2 statt – da die beiden Messpunkte raumartig zueinander liegen, gibt es Bezugssysteme, die unterschiedliche Aussagen darüber treffen, welche Messung früher bzw. später war. Jedes dieser Bezugssysteme zeichnet eine objektive Struktur in der Raumzeit aus, nämlich eine Familie von „Hyperflächen“; jede solcher Hyperflächen ist eine Gesamtheit von Raumzeitpunkten, die die Eigenschaft teilen, relativ zu einem bestimmten Bezugssystem „gleichzeitig“ zu sein. Hyperflächen sind in diesem Sinn „Gleichzeitigkeitsflächen“ in der Raumzeit. Nun kann man folgende Frage stellen: Entlang welcher Hyperfläche findet der Kollaps der Wellenfunktion statt – d. h., auf welcher Hyperfläche liegen die beiden Raumzeitpunkte, die die Messereignisse an den beiden Flügeln repräsentieren (vgl. Maudlin 2011, S. 185)? Diese Frage hat eine eindeutige Antwort: Die Messereignisse liegen auf einer bestimmten Hyperfläche, nämlich der, die durch die Bedingung der „Gleichzeitigkeit“ der Messereignisse definiert ist. In diesem Sinn zeichnen die Messereignisse die Hyperfläche aus, auf der sie beide liegen – und damit auch das Bezugssystem, relativ zu dem diese Hyperfläche definiert ist. Von dieser Art der „Auszeichnung“ war also in obigem Zitat die Rede. Wie kann es nun sein, dass in einer relativistischen Welt bestimmte Hyperflächen gegenüber anderen eine physikalische Sonderrolle spielen? Dafür kommen verschiedene mögliche Gründe infrage (siehe Maudlin 2011, S. 185): Einmal könnte es der Fall sein, dass eine bevorzugte Familie von Hyperflächen in der Struktur der Raumzeit selbst verankert ist. Eine solche intrinsische Auszeichnung wäre aber genau das, was der speziellen Relativitätstheorie widerspricht. Wenn es überhaupt eine physikalisch akzeptable Auszeichnung gibt, d. h. eine Auszeichnung, die nicht mit der speziellen Relativitätstheorie kollidiert, dann muss dies eine externe Auszeichnung sein, die durch ein kontingentes Merkmal unserer Welt hervorgebracht wird. Dafür kommen folgende Faktoren infrage: der Bewegungszustand der Quelle von EPR-Teilchen, der Bewegungszustand der Teilchen bzw. der Detektoren und schließlich eine bestimmte Disposition der gesamten Materie des Universums. Gegen alle diese möglichen Faktoren können Gegengründe ins Feld geführt werden, die wir hier nicht im Einzelnen diskutieren können (vgl. dafür Maudlin 2011, S. 185 f.) – für die dritte Version sprechen
4.5 Bell’sche Ungleichung und Nicht-Lokalität
95
immerhin gegenwärtige Befunde, nach denen wir in einer Welt leben, in der eine Familie von Cauchy-Hyperflächen durch die großräumige Verteilung der Materie ausgezeichnet ist (siehe Kap. 3). Aber im Fall dieser „Auszeichnung“ würde immer noch ein Argument dafür benötigt, weshalb der „simultane“ Kollaps von Wellenfunktionen genau auf diesen Hyperflächen stattfindet. Stattdessen kann man aber noch einmal an den Ausgangspunkt zurückkehren und die Frage aufwerfen, weshalb der Kollaps im EPR-Fall denn überhaupt „simultan“ sein soll. Wird nicht schon durch diese Forderung der Konflikt mit der speziellen Relativitätstheorie (in unnötiger Weise) produziert? Schließlich ist Simultanität – Gleichzeitigkeit – aufgrund der speziellen Relativitätstheorie in keinem Fall eine objektive Eigenschaft: Die beiden Messereignisse eines EPRExperiments sind in keiner Weise zeitlich objektiv zueinander geordnet, weil für raumartig zueinander liegende Ereignisse eine solche Zeitordnung schlicht nicht existiert. Das erste Messereignis kann als zeitlich vor, nach oder gleichzeitig mit dem zweiten Messereignis beschrieben werden, je nachdem welche Hyperfläche wir wählen. Die verschiedenen Hyperflächen liefern dann allerdings verschiedene Antworten auf die Frage nach dem Zustand der Teilchen vor der Messung: Wählt man eine Hyperfläche, die nach der Messung an Teilchen 1 liegt und vor der Messung an Teilchen 2, so erhält man die Auskunft, dass Teilchen 1 schon gemessen wurde und Teilchen 2 sich daher in einem definiten Zustand befindet, noch bevor es gemessen wird; wählt man dagegen eine Hyperfläche, die nach der Messung an Teilchen 2 liegt und vor der Messung an Teilchen 1, so ist die Aussage, dass Teilchen 2 schon gemessen wurde und Teilchen 1 sich daher in einem definiten Zustand noch vor seiner Messung befindet: Die Zustandsbeschreibung von Teilchen wird also relativ zu Hyperebenen. Dieser Umstand wurde von Gordon Fleming (1986) zur Grundlage einer eigenen Theorie erhoben: Es gibt keine unabhängigen Quantenzustände, vielmehr hängt der Quantenzustand eines Teilchens davon ab, welche Hyperebene man betrachtet, so wie in der speziellen Relativitätstheorie räumliche und zeitliche Abstände vom Bezugssystem abhängig sind. Tim Maudlin hat Zweifel gegenüber dieser Auffassung angemeldet: Wenn man z. B. danach fragt, wie der Polarisationszustand eines Photons kurz vor seiner Messung ist, so wird die Antwort nach Flemings Theorie von der Hyperfläche abhängen, auf die sich die Frage bezieht. Kann es aber wirklich physikalisch sinnvoll sein, zu sagen, dass das Photon sich in einem definiten Polarisationszustand relativ zu der einen, aber in keinem definiten Polarisationszustand relativ zu der anderen Hyperfläche befindet, wenn beide Hyperflächen die Weltlinie des Photons am selben Raumzeitpunkt schneiden? In Flemings Theorie, so Maudlin, vervielfältigt sich der Kollaps der Wellenfunktion in unendlicher Weise: Es gibt Kollapsereignisse entlang einer unendlichen Menge von Hyperflächen, die sich in dem Ereignis schneiden, an dem ein Teilchen detektiert wird. Dies führt, wie Maudlin konstatiert, zu einer unglaubwürdigen Vieldeutigkeit von Zustandsbeschreibungen: „Has Nature really been so profligate with collapse events? …. Indeed, one has the strong intuition that whether or not a photon is polarized should be a matter purely
96
4 Materie
of the intrinsic state of it, independent of any considerations about hyperplanes“ (Maudlin 2011, S. 192). Unsere klassischen Vorstellungen der materiellen Welt lassen uns glauben, dass alle Relationen in der Welt auf intrinsische Eigenschaften von Objekten zurückgehen; aber dies ist sicher falsch: Der Polarisationszustand für ein Photonenpaar in einer EPR-Situation ist offenbar nicht durch die individuellen, lokalen Polarisationszustände der Photonen bestimmt und somit „mehr als die Summe der Teile“ – der Schluss aber, dass Zustände eines Systems vom gewählten Kontext abhängen (wie vom Kontext der Hyperebene in Flemings Theorie), geht deutlich darüber hinaus und folgt nicht aus der Quantenmechanik.
4.6 Sind Quantenobjekte Individuen? Quantenobjekte besitzen manche ihrer Eigenschaften auf intrinsische Weise. Der Besitz intrinsischer Eigenschaften entscheidet aber noch nicht die Frage, ob einzelne Elektronen oder Photonen als individuelle15 Objekte aufzufassen sind. So besitzen z. B. Elektronen Ladung, Masse und Spin als intrinsische Eigenschaften, aber einzelne Elektronen unterscheiden sich nicht hinsichtlich der Werte, die diese Eigenschaften annehmen. Die Individualität einzelner Elektronen muss sich auf unterscheidende Merkmale stützen; die genannten intrinsischen Eigenschaften kommen dafür nicht infrage. Als unterscheidende Merkmale scheinen zunächst die verschiedenen Eigenschaften („Quantenzahlen“) infrage zu kommen, die in einem Atom gebundene Elektronen annehmen. Nach dem von Wolfgang Pauli gefundenen „Ausschließungsprinzip“16 können zwei Elektronen in einem Atom nicht durch dieselben Quantenzahlen charakterisiert sein. Dies erweckt den Eindruck, dass Elektronen Leibnizʼ Prinzip der Identität des Ununterscheidbaren (PII) erfüllen17 – also das Prinzip, nach dem Objekte, die verschieden sind, in irgendeiner Hinsicht unterscheidbar sein müssen (umgekehrt also ununterscheidbare Objekte sich als in Wirklichkeit ein und dasselbe Objekt herausstellen müssen). Die Unterscheidbarkeit von Fermionen äußert sich z. B. in ihrem Verhalten in Teilchen-Streuexperimenten (vgl. Lyre 2018, S. 81/82). Man könnte nun vermuten, dies liefere ausreichenden Grund dafür, Fermionen als Individuen aufzu-
15 Wir
verwenden hier den Ausdruck Individualität, nicht, wie es in diesem Kontext häufig der Fall ist, Identität. Streng genommen ist die Identität als die Relation definiert, in der ein Objekt nur zu sich selbst steht und sonst zu keinem anderen Objekt. 16 Dieses Prinzip gilt nicht nur für Elektronen, sondern für alle Fermionen, also z. B. auch für Photonen. 17 Bosonen
erfüllen das PII aus dieser Sichtweise nicht, da beliebig viele Bosonen ein und denselben Quantenzustand einnehmen können, ohne dass daraus folgen würde, dass nur ein Boson in der Welt existiert.
4 Materie
97
fassen. Aber das Ausschließungsprinzip liefert nur eine Unterscheidbarkeit von Fermionen-Zuständen. Daraus lässt sich nicht ableiten, dass es individuelle, in der Zeit persistierende Objekte gibt, die diese Zustände realisieren. Die fehlende Individualität (im Sinne der Persistenz) von Quantenobjekten – Fermionen wie Bosonen – geht auf Ergebnisse der Quantenstatistik zurück.18 Die Maxwell-Boltzmann-Statistik der klassischen statistischen Mechanik muss „im Übergang zur Quantenstatistik durch eine neue Statistik ersetzt werden, die das Ununterscheidbarkeits-Postulat berücksichtigt“ (vgl. Lyre 2018, S. 79). Vereinfacht ausgedrückt, muss bei der quantenmechanischen Beschreibung von Vielteilchen-Systemen entschieden werden, ob Zustände, die auseinander durch Vertauschung von Teilchen hervorgehen – z. B. Teilchen 1 nimmt Zustand B, Teilchen 2 Zustand A ein, während vorher Teilchen 1 Zustand A und Teilchen 2 Zustand B einnahmen –, als verschieden gegenüber dem Ausgangszustand zu zählen sind. Als empirisch adäquat stellten sich dabei zwei Zählweisen heraus: Der Gesamtzustand bleibt unverändert, wenn man zwei Teilchen vertauscht (Permutations-Invarianz), dies führt zur Bose-Einstein-Statistik, die für Bosonen gilt, oder der Gesamtzustand erhält durch die Vertauschung ein negatives Vorzeichen, dies charakterisiert die Fermi-Dirac-Statistik, die für Fermionen gilt. Die Teilchenindizes, die in der Darstellung von quantenmechanischen Vielteilchen-Zuständen vorkommen, spielen in beiden Fällen nur die Rolle einer willkürlichen Abzählung, d. h., sie sollten nicht als Benennungen von Individuen missverstanden werden. Daraus lässt sich generell schließen: Die Naturgesetze rechtfertigen nicht die Auffassung, dass eine Vertauschung von Teilchen auf die von ihnen eingenommenen Zustände zu einem faktischen Unterschied in der Natur führt. Die Erwartungswerte aller Operatoren sind für einzelne Fermionen in einem Vielfermionen-Zustand dieselben – ganz analog zum Fall von Bosonen: „Durch keine physikalische Messung kann eine Unterscheidung zwischen einzelnen Fermionen oder Bosonen vorgenommen werden“ (Lyre 2018, S. 98). So kann z. B. den Teilchen, die einen Spin-Singulett-Zustand in einem EPR-Experiment bilden, jeweils kein Einteilchen-Zustand zugeordnet werden – die beiden Teilchen gehen sozusagen im Gesamtzustand auf. Dennis Dieks hat diesen Umstand so ausgedrückt: [T]he concept of individual particles is not appropriate and … the quantum mechanical states should literally be construed as descriptions of the different states the world can be in. (Dieks 1990, S. 134)
18 Die
aus der Heisenberg’schen Unschärferelation für den Orts- und Impulsoperator folgende Unmöglichkeit, eine exakte Teilchenbahn von Quantenobjekten zu bestimmen (jede exakte Ortsmessung zu einem Zeitpunkt macht den Impuls eines Teilchens für den darauffolgenden Moment völlig unbestimmt), schließt aus, Teilchen raumzeitlich zu identifizieren und dadurch voneinander zu unterscheiden. Allerdings sind fehlende Teilchenbahnen kein ausschlaggebendes Argument gegen die diachrone Individualität (Persistenz) von Teilchen (vgl. Dieks 1990, S. 138).
98
4 Materie
Trotz ihrer Ununterscheidbarkeit bleiben Elektronen oder Photonen zählbare Gegenstände. Innerhalb der Quantenfeldtheorie wird der frühere „Vielteilchen“Zustand jetzt charakterisiert durch eine Folge von Besetzungszahlen für die verschiedenen Anregungszustände (Feldmoden) des Quantenfeldes. An die Stelle der „Teilchen“ sind voneinander ununterscheidbare Vorkommnisse verschiedener Feldmoden getreten. An die Stelle der undurchdringlichen und unwandelbaren Teilchen der Korpuskular-Philosophie des 17. Jahrhunderts sind sehr flüchtige Gegenstände, nicht-individuierbare Besetzungen der Zustände eines Feldes getreten – die Frage, wie viele Euro auf meinem Konto liegen, ist sinnvoll, die Frage, welche einzelnen Euro sich auf dem Konto befinden, ist dagegen sinnlos. Eine andere Sicht auf das Problem der Individualität in der Quantenphysik ergibt sich, wenn man den klassischen Maßstab der Individualität selbst infrage stellt. Wenn Quantenobjekte keine klassischen Individuen sind, sind sie dann vielleicht Individuen in einem schwächeren Sinn? Der klassische Begriff des Individuums orientiert sich an inneren Eigenschaften eines Gegenstands, an Eigenschaften, die dem Gegenstand unabhängig von seiner „Umgebung“, also von anderen Gegenständen und der Beziehung zu ihnen, zukommen. Individualität wird dem Gegenstand dann zugesprochen, wenn eine oder mehrere seiner inneren Eigenschaften ihn aus der Menge von Gegenständen „herausragen“ lassen, den Gegenstand also von anderen unterscheidbar machen. Genau dieses Merkmal des „Herausragens“ aufgrund innerer Eigenschaften kommt für die elementaren Gegenstände der Quantentheorie nicht infrage. Dieselbe Situation kennen wir aber auch schon von anderen Objekten im Rahmen der klassischen Physik. Auch die Raumpunkte der Newton’schen Physik sind voneinander durch keine inneren Eigenschaften unterschieden (ein Umstand, der Leibniz dazu führte, die Realität der Raumpunkte zu bestreiten). Dennoch ziehen wir daraus nicht etwa die Konsequenz, dass diese Mannigfaltigkeit von Raumpunkten – gemäß strenger Anwendung von Leibnizʼ PII – in Wirklichkeit nur aus einem einzigen Punkt besteht. Es gibt eine Vielheit der Raumpunkte, auch wenn sich ein einzelner Raumpunkt durch keine innere Eigenschaft von den anderen unterscheidet. Worin besteht der Grund dafür, eine Vielheit zu konstatieren? Raumpunkte ebenso wie Zeitpunkte sind dadurch verschieden, dass sie innerhalb eines Ordnungsgefüges verschiedene Stellen einnehmen und entsprechende Ordnungsrelationen erfüllen: Ein Raumpunkt liegt von einem willkürlich gewählten Nullpunkt aus weiter in westlicher Richtung als ein anderer, ein Zeitpunkt ist früher als ein anderer. Raum- und Zeitpunkte sind daher zwar nicht absolut unterscheidbar, aber relativ unterscheidbar (vgl. Lyre 2018, S. 98). Für ihre Unterscheidung muss jeweils auf andere gleichartige Objekte und auf Ordnungsrelationen Bezug genommen werden. Als Kriterium für die Individualität elementarer Quantenobjekte kommt auch die relative Unterscheidbarkeit nicht infrage. Schließlich bilden Elektronen in der Welt keine Reihe oder irgendwie sonst geordnete Mannigfaltigkeit. Der von Simon Saunders (2003, 2006) eingeführte Begriff der schwachen Unterscheidbarkeit bietet hier einen Ausweg. Wie schon relativ unterscheidbare Objekte sind schwach unterscheidbare Objekte ausschließlich mithilfe von Relationen unterscheidbar,
Literatur
99
aber es wird jetzt nur noch verlangt, dass es wenigstens eine Relation in Bezug auf andere gleichartige Objekte gibt, die irreflexiv ist, d. h. eine Relation, in der kein Objekt zu sich selbst steht – irreflexiv ist z. B. die Relation „früher als“ oder die Relation R(x, y): = „x ist um einen Abstand d entfernt von y“ (d > 0). Für die berühmten zwei qualitativ identischen Kugeln gilt eine schwache Unterscheidbarkeit: Zeigt man auf eine der beiden Kugeln, so erfüllt diese Kugel die Relation, um einen bestimmten Abstand von der anderen Kugel entfernt zu sein, und diese Relation erfüllt die Kugel nicht relativ zu sich selbst. Ein Pferdefuß scheint aber auch hier wieder aufzutauchen: Muss nicht eine Vielheit von Objekten schon vorausgesetzt werden, um irreflexive Relationen überhaupt formulieren zu können, und war es nicht gerade das Ziel der Anwendung des Begriffs „schwache Unterscheidbarkeit“, einen Grund für die Annahme einer solchen Vielheit, auch ohne absolute Unterscheidbarkeit von Objekten, zu liefern? Vielleicht müssen wir angesichts dieses Einwands letztlich damit leben, dass Leibnizʼ PII für Quantenobjekte in keiner möglichen Version erfüllt werden kann. Die Quantentheorie, so können wir resümieren, zwingt uns zur Revision vieler klassischer Annahmen über die Natur der materiellen Welt. Für einige dieser Annahmen gilt, dass wir sie aufrechterhalten können, wenn auch nur um den Preis des Verzichts auf andere zentrale Annahmen – dies hat v. a. der Abschn. 4.4 über Interpretationen der Quantenmechanik gezeigt. Aber es gibt auch solche Bestandteile des klassischen Bildes der materiellen Welt, die – angesichts experimenteller Tatsachen und nicht allein aufgrund theoretischer Interpretation – definitiv revidiert werden müssen: Dies gilt in erster Linie für die Lokalitätsannahme (vgl. Abschn. 4.5) und, vielleicht etwas weniger definitiv, für die Annahme der Individualität elementarer Teilchen.
Literatur Aspect, Alain et al. (1982). Experimental realization of Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: A new violation of Bell’s Inequalities. Physical Review Letters 49, 91–94. Ballentine, Leslie E. (1986). Probability theory in quantum mechanics. American Journal of Physics 54, 883–889. Bell, John S. (1964). On the Einstein-Podolsky-Rosen paradox. Physics 1, 195–200. Bell, John S. (1987). Speakable and unspeakable in Quantum Mechanics: Collected Papers on Quantum Mechanics. Cambridge: Cambridge University Press. Blochinzew, Dmitri I. (1972). Grundlagen der Quantenmechanik. Frankfurt: Harri Deutsch. Bohr, Niels (1934). Atomic theory and the description of nature. Cambridge: Cambridge University Press. DeWitt, Bryce S. und Neil Graham (Hg.). (1973). The Many-Worlds Interpretation of Quantum Mechanics. Princeton: Princeton University Press. Dieks, Dennis (1990). Quantum statistics, identical particles and correlations. Synthese 82, 127– 155. Dorato, Mauro (2005). The software of the universe. Aldershot: Ashgate. Dorato, Mauro und Michael Esfeld (2010). GRW as an ontology of dispositions. Studies in History and Philosophy of Modern Physics 41, 41–49.
100
4 Materie
Einstein, Albert (1905). Über einen die Erzeugung und Verwandlung des Lichts betreffenden heuristischen Gesichtspunkt. Annalen der Physik 17, 132–148. Einstein, Albert, Boris Podolsky und Nathan Rosen (1935). Can Quantum-Mechanical description of physical reality be considered complete? Physical Review 47, 777–780. Esfeld, Michael (2002). Holismus in der Philosophie des Geistes und in der Philosophie der Physik. Frankfurt: Suhrkamp. Esfeld, Michael (2004). Quantum entanglement and a metaphysics of relations. Studies in History and Philosophy of Modern Physics 35, 601–617. Esfeld, Michael (2008). Naturphilosophie als Metaphysik der Natur. Frankfurt: Suhrkamp. Everett III, Hugh (1957). „Relative state“ formulation of quantum mechanics. Review of Modern Physics 29, 454–462. Fleming, Gordon (1986). On a Lorentz invariant quantum theory of measurement. In: Daniel Greenberger (Hg.), New techniques and ideas in quantum measurement theory, 574–575. New York: New York Academy of Sciences. Friebe, Cord (2018). Messproblem, Minimal- und Kollapsinterpretationen. In: Cord Friebe et al., Philosophie der Quantenphysik, 2. Aufl., 41–74, Berlin: Springer Spektrum. Ghirardi, GianCarlo, Alberto Rimini und Tullio Weber (1986). Unified dynamics for microscopic and macroscopic systems. Physical Review D34, 470–491. Heisenberg, Werner (1959). Die Kopenhagener Deutung der Quantentheorie. In: Werner Heisenberg, Physik und Philosophie, 27–42. Stuttgart: Hirzel. Lyre, Holger (2018). Quanten-Identität und Ununterscheidbarkeit. In Cord Friebe et al., Philosophie der Quantenphysik, 2. Aufl., 75–105, Berlin: Springer Spektrum. Maudlin, Tim (2011). Quantum non-locality & relativity, 3rd Edition. Oxford: Wiley-Blackwell. Murdoch, Dugald (1987). Niels Bohr’s Philosophy of Physics. Cambridge: Cambridge University Press. Näger, Paul M. und Manfred Stöckler (2018). Verschränkung und Nicht-Lokalität: EPR, Bell und die Folgen. In Cord Friebe et al., Philosophie der Quantenphysik, 2. Aufl., 107–185, Berlin: Springer Spektrum. Penrose, Roger (1989): The Emperor’s New Mind. Oxford: Oxford University Press. Saunders, Simon (2003). Physics and Leibniz’s principles. In: Katherine Brading und Elena Castellani (Hg.), Symmetries in Physics: Philosophical Reflections, 289–307. Cambridge: Cambridge University Press. Saunders, Simon (2006). Are quantum particles objects? Analysis 66, 52–63. Schlosshauer, Maximilian (2005). Decoherence, the measurement problem, and interpretations of quantum mechanics. Review of Modern Physics 76, 1267–1305. Sklar, Lawrence (1992). Philosophy of physics. Oxford: Oxford University Press. Stöckler, Manfred (1986). Philosophen in der Mikrowelt – ratlos? Zeitschrift für allgemeine Wissenschaftstheorie 17, 68–95. Wigner, Eugene P. (1967). Symmetries and reflections. Cambridge Mass.: MIT-Press. Zeh, Hans Dieter (1970). On the interpretation of measurement in quantum theory. Foundations of Physics 1, 69–76. Zurek, Wojciech H. (1981). Pointer basis of quantum apparatus: into what mixture does the wave packet collapse? Physical review D 24, 1516–1525. Baumann, Kurt und Roman U. Sexl (1987). Die Deutungen der Quantentheorie. 3. Aufl. Braunschweig: Vieweg.
5
Komplexität
5.1 Einleitung: Komplexität als Phänomen der Natur In den Kap. 2, 3 und 4 haben wir uns mit fundamentalen Strukturen und Bausteinen der Natur beschäftigt, die seit den ersten Anfängen wissenschaftlichen und philosophischen Nachdenkens über die Natur im Zentrum gestanden haben. Wie aus einfachen Strukturen der Formenreichtum der Natur, das vielfältige und doch geordnete Zusammenspiel einzelner Komponenten in komplexen Systemen entsteht – von der einzelnen Zelle bis zu den Funktionen eines Immunsystems –, auch dies war zwar seit den Vorsokratikern häufig Gegenstand mehr oder weniger fruchtbarer Spekulation, aber eine wissenschaftliche Auseinandersetzung mit dem Komplexen ist erst spät, im 18. Jahrhundert entstanden, etwa mit ersten Überlegungen zum Funktionieren von Märkten (Adam Smith) oder zu den Gesetzmäßigkeiten des Wachstums menschlicher Populationen (Thomas Robert Malthus). Inzwischen ist eine weitverzweigte interdisziplinäre Komplexitätsforschung entstanden. Sie hat zu einer Vielzahl neuer Einsichten über die Natur geführt, z. B. zur Entdeckung ähnlicher Muster und Prinzipien, die in komplexen Systemen über viele verschiedene Bereiche der Natur hinweg bis hin zum menschlichen Sozialverhalten auftreten und wirksam sind, aber auch zur Einsicht in überraschende Grenzen der Vorhersagbarkeit und der möglichen Kontrolle von Systemen: Die Natur organisiert sich selbst nach Prinzipien, die Ähnlichkeiten aufweisen – aber einer aus dem Verstehen der Natur resultierenden „Naturbeherrschung“ sind Grenzen gesetzt. Den Begriff der Komplexität wollen wir hier zunächst noch in recht allgemeiner Weise verstehen als Bezeichnung des Zusammenwirkens vieler einzelner Komponenten eines Systems, deren Beziehungen untereinander zum Auftreten neuer emergenter Eigenschaften führen, die noch nicht Eigenschaften der Komponenten waren. Dieses Phänomen wird häufig als „Kooperation“ oder „Selbstorganisation“ der Komponenten beschrieben, was nicht etwa als © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 A. Bartels, Grundprobleme der modernen Naturphilosophie, https://doi.org/10.1007/978-3-662-67126-9_5
101
102
5 Komplexität
Andeutung des Einflusses „geistiger“, nicht-materieller Prinzipien missverstanden werden sollte. Komplexität ist aber nicht notwendig an das Vorhandensein „vieler Komponenten“ gebunden. Es handelt sich um Merkmale der Dynamik von Systemen, die auch auftreten können, wenn nur einige wenige Komponenten vorhanden sind – wie bei dem zuerst von Henri Poincaré analysierten Problem eines gravitierenden Systems aus drei Körpern. Im Besonderen hat Komplexität daher begrifflich nichts mit der „Kompliziertheit“ eines Systems zu tun, der „Unübersichtlichkeit“ für uns. Viele komplexe Systeme folgen in ihrer Dynamik sehr einfachen Grundregeln, wie z. B. die logistische Gleichung der Populationsdynamik zeigt: Komplexität ist ein Phänomen der Natur, nicht der begrenzten menschlichen Erkenntnisfähigkeit. Der Begriff der Komplexität fällt auch nicht mit jenem des Chaos zusammen. Komplexe Systeme, die einer nicht-linearen Dynamik folgen, weil die Beziehungen, die zwischen ihren Komponenten bestehen, miteinander „verschränkt“ sind, zeigen phasenabhängiges Verhalten, einschließlich „chaotischer Phasen“, die in besonderer Weise „erratisch“, weil menschlicher Vorhersage unzugänglich sind. In chaotischen Systemen bzw. in chaotischen Phasen von Systemen tritt jene unendlich sensitive Abhängigkeit des Systemverhaltens von seinen Anfangsbedingungen auf, die Vorhersagen über den Zustand des Systems ausschließen – während Systeme, die geordneten „Endzuständen“ (Attraktoren) zustreben, gerade durch ein „Vergessen“ der Anfangsbedingungen, also durch die Unabhängigkeit ihres Verhaltens von den Anfangsbedingungen gekennzeichnet sind. Die Merkmale des (deterministischen) Chaos werden wir gesondert am Ende des Kapitels behandeln. Reduktive Strategien der Wissenschaft, die wir in Abschn. 5.2 diskutieren, sind Antworten auf die Komplexität von Systemen mit vielen Komponenten. Um das thermodynamische Verhalten eines Gases aus Millionen von Molekülen zu verstehen, die Faktoren, die die Ausbreitung einer Epidemie steuern, die Marktentwicklung als Resultat des Verhaltens unzähliger ökonomischer Agenten oder die Dynamik des Klimas in großen Zeitabschnitten, benötigen wir gemittelte Größen und vereinfachte idealisierende Annahmen über die Beziehungen dieser Größen – und wir abstrahieren von Faktoren, von denen anzunehmen ist, dass sie die Dynamik nur unwesentlich beeinflussen. Diese Strategie der begrifflichen Kompression werden wir am Beispiel von mathematischen Pandemiemodellen diskutieren. Die Strategie der mechanistischen Mikroreduktion komplexer Mechanismen wie des Tag-Nacht-Rhythmus von Organismen zielt dagegen darauf ab, Aufgaben und Funktionen zu identifizieren, die ein Mechanismus erfüllen muss, bevor die Frage nach den detaillierten ausführenden Mikroprozessen gestellt werden kann. Reduktive Strategien sind in gewissem Sinn durch die Natur der untersuchten Gegenstände nahelegt und ihr Erfolg oder Misserfolg hängt davon ab, ob sie der Natur dieser Gegenstände gerecht werden. Der zuweilen erhobene Einwand, reduktive Strategien der Wissenschaft müssten ihr Erkenntnisziel verfehlen – eben weil sie von Einzelheiten eines komplexen Systems abstrahieren –, geht von einem falschen Verständnis wissenschaftlicher Modelle als möglichst getreuen Abbildungen der Realität aus.
5.2 Reduktive Strategien der Wissenschaft
103
In Abschn. 5.3 werden philosophische Argumente pro und contra Reduktionismus diskutiert: ein grundlegendes naturphilosophisches Argument, das reduktive Strategien unterstützt („Schichtenaufbau“ der Natur), sowie antireduktionistische Gegenargumente, die sich ebenfalls auf die Natur selbst berufen. In der Wissenschaft führt die Akzeptanz des ontologischen Reduktionismus nicht notwendig dazu, dass überall reduktionistische Erklärungen (epistemologischer Reduktionismus) oder generell eine reduktionistische Methodologie verfolgt wird. Ein kurzer Exkurs zu Materialismus und Emergenzkonzepten in der Antike und der neuzeitlichen französischen Aufklärung ergänzt diesen Abschnitt. In Abschn. 5.4 wird an Beispielen wie dem Laser und der Benard-Instabilität verdeutlicht, was reduktive Erklärungen leisten: Sie erklären die überraschenden neuen Eigenschaften selbstorganisierender Systeme, indem sie zeigen, dass diese Eigenschaften in Einklang mit allgemeinen Naturgesetzen stehen; dabei machen sie in wesentlicher Weise von spezifischen Randbedingungen Gebrauch, deren Geltung sie aber nicht selbst „miterklären“ können. Abschn. 5.5 behandelt den Begriff des deterministischen Chaos, der eine Phase der Dynamik komplexer Systeme bezeichnet, die durch prinzipielle Nicht-Vorhersagbarkeit gekennzeichnet ist. Abschn. 5.6, Chaos in Aktion, widmet sich schließlich prominenten Beispielen chaotischer Systeme: Edward Lorenz’ bei der Analyse von Wetterdaten entdecktem Schmetterlingseffekt und der logistischen Gleichung der Populationsdynamik. Es zeigt sich, dass im Chaos wieder geordnete universelle Muster auftreten. Komplexität ist ein wesentliches, universell verbreitetes Phänomen der Natur. Es ruft reduktive wissenschaftliche Erkenntnisstrategien hervor: Wissenschaftliche Reduktion ist wesentlich Reduktion von natürlicher Komplexität. Der Versuch, die Natur reduktionistisch zu verstehen, verfälscht nicht das Bild der Natur, sondern erlaubt es erst, ihre Grundzüge zu erfassen.
5.2 Reduktive Strategien der Wissenschaft Die wissenschaftstheoretische Diskussion zur Reduktion ist ursprünglich auf Theorienreduktionen fokussiert gewesen. Ein paradigmatischer Fall ist die Reduktion der klassischen Thermodynamik auf die statistische Mechanik, die mit Physikern wie Rudolf Clausius und Ludwig Boltzmann verbunden ist. Die Begriffe einer Theorie, wie z. B. der Begriff der „Temperatur“ in der Thermodynamik, werden in Begriffe einer anderen Theorie, der statistischen Mechanik, übersetzt, sodass deren Anwendung auf die mikroskopischen Bestandteile eines makroskopischen Systems Verhaltenstendenzen des makroskopischen Systems reproduziert, die mit dem ursprünglichen Begriff – „Temperatur“ – beschrieben wurden. Aber in der Praxis der Wissenschaft, gerade dann, wenn es um das Verstehen komplexer Phänomene geht, stehen ausgearbeitete Theorien meist noch nicht zur Verfügung. Stattdessen versuchen Wissenschaftler und Wissenschaftlerinnen Modelle solcher komplexen Phänomene zu entwerfen – tentativ
104
5 Komplexität
und nicht nach schon fertigen Rezepten, aber etablierten reduktiven Strategien folgend. Eine dieser Strategien, die mechanistische Mikroreduktion, identifiziert makroskopische Rollen oder Funktionen, die ein System erfüllt, und sucht nach mikroskopischen Mechanismen, die diese Rollen ausführen können; eine andere Strategie der Modellierung zielt darauf ab, Komplexität durch begriffliche Kompression zu reduzieren: Die vielen Einzelereignisse eines komplexen Geschehens werden durch generalisierte „gemittelte“ Begriffe erfasst, die dann Gegenstand der mathematischen Modellierung werden. Komplexe biologische Steuerungsmechanismen sind paradigmatische Gegenstände mikroreduktiver Strategien. Das Beispiel der sogenannten circadischen Uhren (Circadian Clocks) wird durch William Bechtel (2011) erläutert: Die physiologischen Prozesse und Verhaltensaktivitäten vieler Organismen korrespondieren mit bestimmten Perioden des 24-stündigen Tag-Nacht-Rhythmus, ohne durch externe Signale, wie z. B. Veränderungen der Außentemperatur, gesteuert zu sein. Die Organismen verfügen offenbar über innere Uhren, die z. B. ihr Schlafverhalten steuern. Die zeitliche Steuerung der Lebensprozesse erfolgt endogen, indem die Organismen die Tageszeit durch interne Prozesse repräsentieren und mithilfe solcher Repräsentationen ihre Aktivitäten in systematischer Weise regulieren (vgl. Bechtel 2011, S. 143). Die Ausdrücke „innere Uhr“ und „Repräsentation der Tageszeit“ geben bereits das Ziel der reduktiven Erklärung vor: Die gesuchten internen Prozesse sollen zwei Aufgaben erfüllen: die Aufgabe der Repräsentation der Tageszeit sowie die Aufgabe der Umsetzung dieser Repräsentation in geeignete physiologische Kontroll- und Steuerungsvorgänge. Eine spezielle heuristische Annahme1, die verwendet wird, um die entsprechenden Repräsentationen zu identifizieren, ist die Lokalisationsannahme, nach der die „innere Uhr“ der Organismen durch einen lokalisierbaren Bestandteil des Organismus realisiert wird. Es hat sich herausgestellt, dass innere Uhren bei Säugetieren tatsächlich an einer bestimmten Stelle des Körpers, dem suprachiasmatischen Nukleus (SCN)2 des Hypothalamus lokalisiert sind. Auch der Mechanismus der Repräsentation konnte identifiziert werden: Es handelt sich um genetisch gesteuerte molekulare Prozesse im Inneren von Neuronen des SCN. Es existiert ein für diese Prozesse verantwortliches Gen (per): Versuche an Drosophila haben gezeigt, dass der circadische Rhythmus durch Manipulation dieses Gens verlängert oder verkürzt werden kann. Die durch per erzeugte mRNA und das entsprechende Protein (PER) können circadische Oszillationen hervorrufen, indem zunächst Konzentrationen von PER im Zytoplasma bis zu einem Maximum aufgebaut werden, wobei dieser Aufbau von einem gleichzeitigen Zerfall von PER-Molekülen begleitet ist.
1 Diese
Annahme ist keineswegs selbstverständlich und alternativlos. Die Repräsentation der Tageszeit könnte grundsätzlich auch durch körperlich verteilte Prozesse erfolgen.
2 Der
SCN befindet sich kurz oberhalb des Punktes, an dem die von den beiden Augen kommenden Nervenbahnen sich treffen, bevor sie sich anschließend wieder auf ihre verschiedenen Wege durch den Thalamus aufspalten (vgl. Bechtel 2011, S. 144).
5.2 Reduktive Strategien der Wissenschaft
105
Der Anteil an PER-Molekülen, die in den Nukleus selbst transportiert werden, inhibiert dort ab einer gewissen Konzentration weitere Transkriptionen von per mit dem Resultat einer Verminderung der Konzentration von PER im Zytoplasma. Der Prozess hat also Feedbackcharakter, die Aktivität von per erzeugt mittels Produktion und Selbstinhibierung den erforderlichen Oszillationsrhythmus.3 William Bechtel hat die hier zur Beschreibung verwendete mechanistischreduktive Strategie wie folgt zusammengefasst: Arriving at this proposed mechanistic explanation drew on the strategies common to most biological research: simple localization of the overall mechanism (for mammals, in the SCN); decomposition of that mechanism into its parts (per, per mRNA, PER) and their operations (transcription, transport, translation, inhibition, and breakdown); and recomposition of the component parts and operations into a complex mechanism capable of producing the phenomenon of interest. (Bechtel 2011, S. 145)
Eine zweite reduktive Strategie zielt darauf ab, die Einzelereignisse eines komplexen Geschehens durch begriffliche Kompression zu erfassen – wie im Beispiel der mathematischen Modellierung einer Pandemie4. Das Ziel der Modellierung kann, so Michael Meyer-Hermann, nicht darin bestehen, „die Realität einer Pandemie und deren dynamischen Verlauf detailgetreu abzubilden“, stattdessen liege „der Wert von mathematischen Modellen … gerade in der möglichst effektiven Vereinfachung und präzisen Fokussierung der komplexen Realität auf wenige Prinzipien“ (vgl. MeyerHermann 2022, S. 99). Meyer-Hermann weist darauf hin, dass Modelle, die im Verhältnis zu den verfügbaren Daten zu komplex sind, nicht an Aussagekraft gewinnen, sondern verlieren. Größen, die in der Modellierung einer Pandemie verwendet werden, sind z. B. Raten der Virusübertragung zwischen der Gruppe der Infizierten und der Gruppe der Nicht-Infizierten. Die Individuen und deren Übertragungswahrscheinlichkeiten werden also nicht explizit, sondern in generalisierter und „gemittelter“ Form erfasst.5 Die generalisierten Größen werden in deterministischen Ansätzen durch gekoppelte Differentialgleichungen erster Ordnung zueinander in Bezug gesetzt (vgl. Meyer-Hermann 2022, S. 100). Die Modelle können, je nach spezifischer Fragestellung, durch verschiedene Differenzierungen angereichert werden, z. B. durch eine Unterscheidung nach Altersgruppen, durch Berück-
3 Es gibt noch einen weiteren Prozess, in dem durch den Zerfall von PER-Molekülen im Nukleus die Rate der Inhibierung der per-Transkription vermindert wird. Daher kehren Transkription und Translation periodisch wieder zu ihrer maximalen Rate zurück und die Konzentration von PER im Zytoplasma erholt sich. Dieses negative Feedback wiederholt sich unendlich und führt zu Oszillationen der Konzentration von PER im 24-Stunden-Rhythmus (vgl. Bechtel 2011, S. 144/45). 4 Eine
Pandemie stellt einen komplexen Prozess dar, weil sie nicht nur aus sehr vielen Einzelereignissen besteht, sondern durch die Kooperation vieler Einzelereignisse neue Eigenschaften erzeugt werden, z. B. ein exponentielles Wachstum der Anzahl infizierter Personen. 5 Es gibt allerdings auch sogenannte agentenbasierte Modelle, bei denen nicht über Populationsgruppen gemittelt, sondern jedes Individuum explizit in einer Computersimulation abgebildet wird (vgl. Meyer-Hermann 2022, S. 103 f.).
106
5 Komplexität
sichtigung räumlicher Aspekte der Ausbreitung von Viren (z. B. im Außenbereich oder im Innenraum eines Restaurants) oder der unterschiedlichen Mobilität von Menschen. Stochastische Modelle eignen sich für Simulationen, durch die Wahrscheinlichkeiten für die möglichen zukünftigen Verläufe einer Pandemie (mit z. B. verschiedenen Hospitalisierungsraten) bestimmt werden können (vgl. MeyerHermann 2022, S. 102). Das Beispiel der Pandemiemodelle zeigt, dass reduktive Strategien im Sinne „komprimierter“, d. h. vereinfachter und generalisierter Beschreibung komplexer Prozesse es erleichtern, spezifische Fragen über den möglichen oder wahrscheinlichen Verlauf einer Pandemie zielgerecht zu beantworten. Die Variabilität der Modelle, die Möglichkeit der Anreicherung durch zusätzliche Faktoren und Unterscheidungen, verhindert es, dass die Anwendung reduktiver Strategien, wie zuweilen befürchtet, unvermeidlich zu Verzerrungen der Realität führt.
5.3 Pro und contra Reduktionismus Obwohl reduktive Strategien Teil des wissenschaftlichen Alltags sind, bleiben Argumente pro und contra Reduktionismus ein zentrales Thema der Naturphilosophie und markieren darüber hinaus ein ideologisch umkämpftes Feld. Ideologischer Streit profitiert stets von Begriffsverwirrungen. Aufgabe der Philosophie ist es hier nicht in erster Linie, „Stellung zu beziehen“, sondern behutsam das Knäuel der widerstreitenden Überzeugungen und Intuitionen zu entwirren. Eine dieser Intuitionen lautet: Die Naturwissenschaften verfolgen reduktionistische Strategien in der Erklärung der Natur, die spätestens bei den Lebensphänomenen, frühestens aber dort zu versagen beginnen, wo es um die Erklärung des Entstehens von Neuem in der Natur geht. Um den tatsächlichen Formenreichtum in der Natur, um Wachstumsprozesse und zielgerichtetes Verhalten, schließlich die Leistungen des menschlichen Geistes und die Institutionen des kulturellen Lebens zu verstehen, benötigen wir andere theoretische Instrumente als jene, die zur Erklärung der „toten“ Materie verwendet werden. Die Entstehung des Neuen in der Natur, das Phänomen der Emergenz, markiert daher eine Grenze des rein naturwissenschaftlich geprägten Bildes der Welt. Diese gegen den Reduktionismus gerichtete Haltung kann dabei mit Erfolg auch an emotionale Bedürfnisse appellieren. An der Eigenständigkeit und an dem Eigenwert der Phänomene des Lebendigen bis hin zu unseren persönlichen Gefühlen sind wir aus guten Gründen interessiert. Dies alles auf eine fundamentale, physikalische Ebene „reduzieren“ zu wollen, also letztlich auf Elementarteilchen und ihre Wechselwirkungen, scheint die Bedeutung der eigenen bewussten Lebensäußerungen zu negieren. Auch unsere außerwissenschaftliche Lebenserfahrung scheint dafür zu sprechen, dass auf jeder „Stufe“ der Wirklichkeit, vom Stein zum Einzeller, vom Einzeller zum Menschen, vom Menschen zur Gesellschaft tatsächlich neuartige Eigenschaften und Phänomene auftreten, die auf der jeweils tieferen Ebene noch nicht vorhanden und unter Rekurs auf die dort auftretenden Elemente auch nicht zu verstehen sind. Damit sind die Motive und
5.3 Pro und contra Reduktionismus
107
Einschätzungen genannt, die insgesamt eine „antireduktionistische“ Einstellung ausmachen: Die modernen Naturwissenschaften, so wird unterstellt, liefern ein notwendig eingeschränktes, lediglich für die instrumentelle Beherrschung materieller Systeme adäquates und daher für eine umfassende philosophische Deutung ungeeignetes Bild der Natur. Emergenzphänomene können aus dieser Sicht nur durch eine nicht-naturalistische Philosophie zur Geltung gebracht werden. Schon der Blick auf die in Abschn. 5.2 paradigmatisch behandelten reduktiven Strategien zeigt, dass einige dieser Motive und Einschätzungen unbegründet sind. So ignoriert die mechanistische Mikroreduktion keineswegs die makroskopischen emergenten Eigenschaften, deren Auftreten sie ja erklären möchte. Die Existenz innerer Uhren wird nicht etwa geleugnet oder in ihrer Bedeutung für Lebensvorgänge entwertet, stattdessen können – im Erfolgsfall – Mechanismen aufgewiesen werden, die deren Existenz und Bedeutung erst ermöglichen. Mikroreduktionen sind gerade in den Lebens- und Sozialwissenschaften präsent und erfolgreich und haben dazu beigetragen, Phänomene, die vorher nur vagen Spekulationen zugänglich waren, verstehbar zu machen. Es geht hier auch nicht in erster Linie um die „instrumentelle Beherrschung“ der Natur – wir können mit Dankbarkeit zur Kenntnis nehmen, dass „Mutter Natur“ uns mit inneren Uhren ausgestattet hat und wir deshalb auf künstliche Instrumente zur Steuerung unseres Schlafrhythmus, jedenfalls im Regelfall, verzichten können. Das „Neuartige“ auf „höheren“ Schichten der Natur wird – wie am Beispiel der Pandemiemodelle verdeutlicht – gerade dadurch sichtbar, dass generalisierte, abstrahierende Beschreibungen für eine unendlich detailreiche Menge von Ereignissen eingeführt werden und die Dynamik des Gesamtprozesses auf dieser „höheren“ Beschreibungsebene zugänglich gemacht wird. Die Praxis reduktionistischer Erklärungen in der Wissenschaft rechtfertigt also nicht den Vorwurf, der Reduktionismus verfälsche unser Bild der Natur. Neben diesem Verweis auf die Praxis gibt es aber auch ein systematisches naturphilosophisches Argument für eine reduktionistische Naturbeschreibung, wie es paradigmatisch von Paul Oppenheim und Hilary Putnam (1958) formuliert wurde: Die Natur stellt ein Ganzes dar, das aus ontologischen Schichten besteht, deren Elemente durch Teil-Ganzes-Beziehungen verbunden sind: Elementarteilchen sind Teile von Atomen, Atome Teile von Molekülen, aus Molekülen sind Zellen zusammengesetzt, Zellen bilden Organismen und so fort. Dieser Schichtenaufbau lässt es plausibel erscheinen, dass die Eigenschaften einer „höheren“ Ebene von Eigenschaften der Elemente einer jeweils „tieferen“ Ebene ontologisch abhängen: Die Eigenschaften auf der höheren Ebene wären nicht vorhanden (bzw. es wären dort andere Eigenschaften vorhanden), wären die Elemente der tieferen Ebene anders beschaffen.6 Die Annahme der ontologischen Abhängigkeit der Schichten
6 Dies ist natürlich nicht logisch notwendig – logisch möglich wäre eine Natur, in der die Beschaffenheit der Teile ontologisch von der Beschaffenheit des aus ihnen zusammengesetzten Ganzen abhängt. Tatsächlich scheint die Existenz verschränkter Zustände der Quantenmechanik (vgl. Kap. 4) für einen zumindest partiellen Holismus in der Natur zu sprechen.
108
5 Komplexität
der Natur „von unten nach oben“ wird durch eine „evolutionäre Kosmogonie“ unterstützt. Die höheren Schichten sind in der Evolution des Kosmos aus den tieferen Schichten hervorgegangen; die früher auftretenden tieferen Schichten können nicht ontologisch von den später auftretenden höheren Schichten abhängen – ontologische Abhängigkeiten kann es nur in Zukunftsrichtung geben: Das Spätere hängt ontologisch vom Früheren ab. Oppenheim und Putnam vervollständigen ihr Argument für den Reduktionismus, das bisher nur die ontologische Ebene betrifft, durch zwei Postulate, ein epistemologisches und ein methodologisches Postulat. Beide Postulate werden durch den ontologischen Teil der Argumentation nahegelegt – jedenfalls, wenn man der Auffassung ist, dass Epistemologie und Methodologie an die ontologische Ordnung der Natur „anschließen“ sollen: 1. Epistemologisches Postulat: Erklärungen von Eigenschaften natürlicher Systeme sollen mit der Teil-Ganzes-Beziehung verträglich sein: Das Verhalten komplexer Systeme soll durch das Zusammenwirken ihrer Bestandteile erklärt werden (im Sinne der Mikroreduktion). 2. Methodologisches Postulat: Die wissenschaftliche Praxis soll der Idee der Einheit der Wissenschaft auf Basis einer gemeinsamen physikalischen Beschreibungsebene folgen. Dass überall in der Natur erfolgreich von reduktiven Erklärungen Gebrauch gemacht werden kann, ist freilich nicht garantiert. Und es ist durchaus zweifelhaft und umstritten, ob die methodologische Strategie der Naturwissenschaften, der Idee der Einheit der Natur folgend, überall und in jedem Aspekt physikalistisch ist bzw. sein sollte.7 Letztlich handelt es sich bei der Frage, ob und wie viel Reduktionismus möglich und sinnvoll ist, auch um eine empirische Frage, die nicht apriorisch entschieden werden kann. Im Besonderen muss in jedem Einzelfall entschieden werden, welche „tiefere“ Ebene zur Erklärung von Eigenschaften auf einer höheren Ebene herangezogen werden kann – die Chemie kann letztlich auf physikalische Gesetze zurückgeführt werden, aber welches ist die „richtige“ reduktive Ebene für psychologische oder sozialwissenschaftliche Erklärungen? Auch wenn in der Evolution des Kosmos die Ebene der Organismen ontologisch aus jener der unbelebten Natur hervorgegangen ist, lässt sich nicht ausschließen, dass die Gesetze der Biologie (sofern man davon sprechen kann) nicht vollständig auf physikalische Gesetze zurückgeführt werden können. Der
7 So
hat beispielsweise Nancy Cartwright immer wieder eine antireduktionistische Methodologie der Physik verteidigt. Die Erklärungsstrategie der Physik sei zwar atomistisch (indem physikalische Systeme in der fundamentalen Physik so beschrieben werden, wie sie sich in Isolation von ihrer Umgebung verhalten würden), aber nicht reduktionistisch, wenn man an phänomenalistische Theorien und Modelle komplexer physikalischer Systeme denkt, die gerade nicht als „spezielle Anwendungen“ aus fundamentalen Gleichungen abgeleitet werden (vgl. Cartwright 1983, 2012).
5.3 Pro und contra Reduktionismus
109
ontologische Reduktionismus behauptet für die Reduktionsbeziehung zwischen Biologie und Physik nur, dass den Lebensprozessen keine anderen elementaren Substrate, Prinzipien oder Wechselwirkungen zugrunde liegen als den Prozessen der unbelebten Natur.8 Darin eingeschlossen ist keineswegs die Behauptung, dass alle biologischen Begriffe grundsätzlich mittels physikalisch-chemischer Begriffe definiert oder biologische Gesetze aus jenen der Physik abgeleitet werden könnten; eine solche umfassende und anspruchsvolle epistemologische Reduktionsthese wäre mit der gegenwärtigen Praxis der Biologie auch kaum zu vereinbaren. Erst recht „lebensfern“ wäre die Behauptung, die einzig legitime biologische Forschungsstrategie fokussiere sich auf die molekulare Ebene der Lebensvorgänge. Ein solch radikaler methodologischer Reduktionismus ist natürlich keine zwingende Konsequenz aus der Akzeptanz des ontologischen Reduktionismus. Letzterer behauptet ja nur, dass alle komplexen biologischen Prozesse, z. B. jene verwickelten Prozesse, die unser Immunsystem ausmachen, letztlich molekularer Natur sind. Aber daraus folgt eben nicht, dass ein funktionales Verständnis der verschiedenen Mechanismen des Immunsystems kein sinnvolles und notwendiges Forschungsziel wäre – vielmehr ist dieses Verständnis eine Voraussetzung molekularer Feinanalysen der entsprechenden Mechanismen.9 Der methodologische Reduktionismus sollte, im Fall der Lebenswissenschaften, daher besser als eine wissenschaftliche Einstellung aufgefasst werden, der zufolge durch Rückgang auf die „tiefste“ molekulare Ebene (falls forschungstechnisch überhaupt zugänglich) detaillierte Information über Mechanismen zur Beantwortung offener Forschungsfragen gewonnen werden kann. Welches jeweils eine fruchtbare und relevante „tiefste“ Ebene für Reduktionen in den verschiedenen Wissenschaften ist, hängt dabei von den jeweiligen Forschungsgegenständen ab. Die fundamentalste Ebene der Physik, die Ebene der Elementarteilchen, ist jedenfalls keine relevante Reduktionsebene in Bezug auf die Lebenswissenschaften. Ein kurzer historischer Exkurs wird im Folgenden zeigen, dass eine materialistische Philosophie der Natur mit der Wahrnehmung und Würdigung der Entstehung des Neuen in der Natur vereinbar ist – im Fall des Materialismus der neuzeitlichen französischen Aufklärung war dies sogar eines ihrer wesentlichen Motive. Schon die antiken Aufklärer und Atomisten Demokrit, Epikur und Lukrez waren sich der Tatsache bewusst, dass mit dem Auftreten des Neuen in der Natur ein philosophisches Problem verbunden ist. Sie waren Materialisten; die Welt, die sie beschrieben, bestand aus der unaufhörlichen, kontinuierlichen Bewegung
8 Dies
lässt sich auch mit dem Begriff der Supervenienz ausdrücken: Alle biologischen Eigenschaften supervenieren relativ zu den physikalischen Eigenschaften: Sind zwei Organismen (inklusive ihrer physikalischen Umgebung) in ihren physikalischen Eigenschaften identisch, so sind sie es auch in ihren biologischen Eigenschaften. 9 Ähnliches gilt natürlich für eine Vielzahl von Forschungsrichtungen: Lernpsychologie kann z. B. als Untersuchung der Voraussetzungen, von denen Lernprozesse abhängen, sinnvoll betrieben werden, ohne auf die heute höchstens partiell bekannten neurobiologischen Details von Lernprozessen einzugehen.
5 Komplexität
110
materieller Teilchen, der Atome. Wie aber sollte aus diesen Bewegungen voneinander unabhängiger einzelner Atome die Vielfalt der natürlichen Erscheinungen hervorgehen? Um dies zu erklären, erfand Demokrit kleine Häkchen, mit denen die Atome aneinander festhaken und größere Komplexe bilden konnten. Damit war eine Art der Wechselwirkung denkbar, durch die die Materie sich in größeren Einheiten organisieren konnte. Für denselben Zweck nahm Lukrez in seinem naturphilosophischen Poem De rerum natura eine spontane, unvorhersehbare Abweichung an, die den ewigen gleichmäßigen Fall der Atome durch den leeren Raum zu ungewissen Zeiten an ungewissen Orten stört, das Clinamen. Die Entstehung der verschiedenen Eigenschaften und Formen materieller und lebender Dinge aus einer atomaren Grundsubstanz der Welt zu erklären, blieb freilich lange ein utopisches Ziel. Das Problem der Entstehung des Neuen in der Natur wurde erst wieder in der französischen Aufklärung des 18. Jahrhunderts zu einem zentralen Thema der Philosophie. Hier gab es nicht nur Beispiele eines emphatischen Reduktionismus wie La Mettrie's (1748) Die Maschine Mensch, der die cartesianische Maschinenkonzeption der Tiere nun auch auf den Menschen ausdehnte, oder die Beiträge zu einer analytischen Mechanik von D’Alembert und Maupertuis, die Newtons Mechanik durch rationale Prinzipien zu begründen versuchten. Es entstand auch – in Opposition zur cartesianischen mathematisierend abstrakten Tradition der Naturphilosophie – ein wachsendes Interesse an Darstellungen der Natur in ihrer konkreten und historischen Vielfalt, also an Naturgeschichte. Materialisten wie Denis Diderot kritisierten die materialistischen Weltkonzeptionen Descartes’ und Newtons gerade wegen ihres Erklärungsdefizits hinsichtlich der Tatsache der permanenten Veränderung in der Natur, der Erzeugung komplexer Formen aus einfachen Elementen. Wie sollte aus einer einzigen Eigenschaft der homogenen Materie, ihrer Ausgedehntheit, wie aus einer einzigen universellen Anziehung, der Gravitationskraft, die Varianz und die Geschichtlichkeit natürlicher Phänomene erklärt werden können? In seinen Schriften zur Naturphilosophie wird Diderot nicht müde, die Aussichtslosigkeit dieser materialistischen Konzeptionen der Natur zu betonen, wenn es um ein umfassendes Verständnis der Natur geht, ohne damit jedoch den Materialismus selbst zu verwerfen (vgl. Diderot 1770/1989). Stattdessen muss, so Diderot, der Materialismus angereichert werden, d. h., der Formenreichtum der Natur muss schon in den Elementarbausteinen angelegt sein.10 Deshalb gibt es nach Diderot verschiedenartige Atome (Elemente), die mit jeweils charakteristischen Kräften ausgestattet sind sowie mit einer Art Protoempfindungsfähigkeit, die sie auf die Bedingungen ihrer Umwelt reagieren lässt. Die Materie ist nicht passiv, sie reagiert nicht nur auf äußere Kräfte, sondern enthält die Fähigkeit, sich zu organisieren. Im Unterschied zum Vitalismus gibt es aber keinen Elan vital, kein immaterielles Lebensprinzip, dessen Hinzutreten die
10 Ähnliche Auffassungen
vertrat auch Baron d’Holbach (1770/1978).
5 Komplexität
111
unbelebte von der lebenden Materie kategoriell trennen würde. Der Übergang ist stattdessen graduell, er vollzieht sich in Stufen zunehmender Organisiertheit der Materie: Ich richte meine Augen auf die allgemeine Anhäufung der Körper; ich sehe alles in Wirkung und Rückwirkung: ich sehe alles in Wirkung und Gegenwirkung: ich sehe, wie alles, wenn es in die eine Form kommt, zerstört wird, und wenn es in die andere Form kommt, wieder zusammengesetzt wird; ich sehe allerlei Sublimationen, Auflösungen und Verbindungen – Erscheinungen, die mit einer Homogenität der Materie unvereinbar sind. Daraus folgere ich, dass sie heterogen ist, dass es in der Natur unendlich viele verschiedene Elemente gibt, dass jedes dieser Elemente eben wegen seiner Verschiedenheit eine besondere, „angeborene“, unveränderliche, ewige, unzerstörbare Kraft besitzt, und dass diese dem Körper innewohnenden Kräfte auch ihre Wirkungen außerhalb des Körpers haben. Daher kommt die allgemeine Bewegung oder, besser gesagt, Gärung im Weltall. (Diderot 1770/1989, S. 151)
5.4 Selbstorganisation11 und die Rolle der Randbedingungen Diderots Reflexionen über Naturphilosophie verbinden das Ideal des Reduktionismus, einer Zurückführung aller Erscheinungen der Natur auf die Eigenschaften ihrer fundamentalen Bausteine, mit dem Motiv, den sinnlich erfahrbaren Qualitäten in der Natur, ihrer konkreten Vielgestaltigkeit und ihrem Formenwandel gerecht zu werden. Ein solches Programm ist, wie Karl Popper meinte, notwendig zum Scheitern verurteilt (vgl. Popper 1974, S. 260 ff.). Das cartesianische Projekt einer Reduktion der gesamten Physik auf die Materieeigenschaft der Ausdehnung ebenso wie später das Bestreben der Reduktion des Elektromagnetismus auf die Mechanik müssen, so Popper, schon deswegen scheitern, weil beispielsweise elektromagnetische Erscheinungen durch neue, eigenständige Entitäten hervorgerufen werden, die in der vermeintlichen Reduktionsbasis nicht vorkommen. Poppers epistemologischer (und methodologischer) Antireduktionismus basiert allerdings auf der Vorstellung, Reduktionsbeziehungen in der Wissenschaft seien notwendig auf Begriffs- und Gesetzesreduktionen angewiesen. Dass dies ein viel zu enger, selten realisierter Reduktionsbegriff ist, haben schon die Beispiele für reduktive Strategien in der Wissenschaft in Abschn. 5.2 gezeigt: Diese erfolgreichen reduktiven Strategien kommen ganz ohne Begriffs- und Gesetzesreduktionen aus. Selbst dort aber, wo wir höherstufige Phänomene mit den Begriffen einer reduzierenden Theorie erklären können, z. B. bei der Erklärung chemischer Bindungen mithilfe der Quantenmechanik, kann aus Poppers Sicht keine vollständige Reduktion gelingen. Was fehlt, ist die Möglichkeit, das Neue, den
11 Eine
Einführung in das weite Spektrum selbstorganisierender Systeme geben Dress, Hendrichs und Küppers (Hg.; 1986).
112
5 Komplexität
Formenreichtum der Natur, auf Basis der Kenntnis der reduzierenden Ebene zu antizipieren – eine solche Vorhersage des Neuen müsste doch möglich sein, wenn die Reduktionsebene das Neue schon „enthält“. Diese Annahme erscheint auf den ersten Blick plausibel, geht aber an einem wichtigen Aspekt wissenschaftlicher Erklärung vorbei. Sie vernachlässigt die zentrale Rolle, die Randbedingungen für wissenschaftliche Erklärungen spielen. So kann die Entstehung schwerer Kerne mit ihren spezifischen chemischen Eigenschaften letztlich nur durch die besonderen Randbedingungen in einer frühen Phase des Universums erklärt werden, unter denen sich aus leichteren Kernen durch Fusion schwerere Kerne bilden konnten. Zu diesen Randbedingungen zählten hohe Temperaturen und ein bestimmtes Verhältnis zwischen der Stärke der Kernkräfte und der Gravitation. Die Chemie schwerer Kerne ist daher nicht aus den physikalischen Gesetzen allein ableitbar, sondern nur unter Hinzunahme von kosmologischen Randbedingungen. Poppers Argument zeigt daher nicht die notwendige Unvollständigkeit von Reduktionen, sondern weist lediglich auf die Tatsache hin, dass die Randbedingungen, welche die zu reduzierenden Systeme charakterisieren und sogar deren Existenzbedingungen darstellen, durch gelungene reduktive Erklärungen nicht „miterklärt“ werden können (vgl. Hoyningen-Huene 1985, S. 281 f.). Chemische Bindungen sind ein Anwendungsfall der Quantenmechanik, aber dass dieser Anwendungsfall überhaupt existiert, kann nicht allein durch die Quantenmechanik, wenn auch nur in Übereinstimmung mit ihr, erklärt werden. Ein Wesen, das nur die Elementarbausteine der Materie und die Gleichungen der Quantenmechanik kennt, wäre nicht in der Lage, die Vielfalt der chemischen Erscheinungen vorherzusagen. Der Grund dafür ist aber nicht, dass „oberhalb“ der Konstituentenebene völlig neue Entitäten und Mechanismen auftreten, sondern dass ein solches Wesen ohne weitere Kenntnis der konkreten Entwicklungsphasen des Universums unter den möglichen komplexen Anwendungen der Quantenmechanik keine Auswahl treffen könnte. So können z. B. die Eigenschaften des DNS-Moleküls nicht schon aufgrund der Kenntnis einfacherer Modelle der Quantenmechanik vorhergesagt werden. Seine neuen Systemeigenschaften setzen sich nicht additiv aus Eigenschaften einfacherer quantenmechanischer Systeme zusammen und sind daher nicht aus deren Eigenschaften ableitbar. Was man zur Erklärung benötigt, sind Informationen über spezifische Randbedingungen, welche die Existenz stabiler DNS-Moleküle möglich machen. Noch in den 1930er Jahren hoffte Max Delbrück, der mit seinen Arbeiten zur Genmutation die moderne Molekularbiologie zu begründen half, dass die Frage nach der physikalischen Natur des Lebens zur Aufdeckung eines neuen physikalischen Prinzips führen würde. Dieses Prinzip sollte, wie zuvor schon das Komplementaritätsprinzip Bohrs, die klassische Physik revolutionieren. Erwin Schrödinger setzte dieser antireduktionistischen Hoffnung in seinem Buch Was ist Leben? (Schrödinger 1944/1987) eine reduktionistische Antwort entgegen. Lebende Systeme sind wesentlich offene Systeme. Sie ersetzen die in ihnen produzierte hochentropische Energie ständig durch niedrig-entropische
5 Komplexität
113
Energie12 aus ihrer Umgebung und verhindern damit die Auflösung ihrer geordneten Strukturen. Hinzu kommt, dass die „Schaltzentralen“ des Lebens, die Chromosomen in den Zellen, die Form eines „aperiodischen Kristalls“ besitzen, also ein Makromolekül bilden, dessen Struktur durch die Energieschwellen der chemischen Bindung vor einer zu hohen Rate von Zufallsmutationen geschützt ist. Dies alles ist in Übereinstimmung mit den Gesetzen der Quantenmechanik, ja es kann erst mit ihrer Hilfe verstanden werden. Das Leben beruht auf physikalischen Gesetzen und das von Delbrück gesuchte „neue Prinzip“ ist, wie Schrödinger feststellt, „ein echt physikalisches … Es ist meiner Meinung nach nichts anderes als wiederum das Prinzip der Quantentheorie“ (Schrödinger 1944/1987, S. 140). Schließlich vergleicht Schrödinger das Leben mit einem Uhrwerk, das, wie er freilich hinzufügt, „feinste Meisterstück, das jemals nach den Leitprinzipien von Gottes Quantenmechanik vollendet wurde“ (Schrödinger 1944/1987, S. 147). Schrödingers Skizze für die Umwandlung von Energie durch lebende Organismen wurde später durch eine Thermodynamik für offene Systeme ausgefüllt (vgl. Prigogine und Nicolis 1977; Prigogine 1979). Diese Theorie beschreibt, wie geordnete Strukturen fern vom Gleichgewicht entstehen und sich stabilisieren können. Ein Standardbeispiel ist die Ausbildung von Konvektionswalzen in einer Flüssigkeit. Dazu kommt es, wenn die in einem Gefäß eingeschlossene Flüssigkeit von unten erwärmt wird, während die oberen Schichten zunächst auf der ursprünglichen niedrigeren Temperatur gehalten werden. Übersteigt der Temperaturgradient eine bestimmte Schwelle, so wird der Ruhezustand der Flüssigkeit instabil, es tritt Konvektion auf (Bénard-Instabilität). Millionen von Molekülen setzen sich, wie aufeinander abgestimmt, in Bewegung und bilden hexagonale Konvektionszellen einer charakteristischen Größe aus. In der Flüssigkeit entsteht ein neuartiges kollektives und holistisches Verhaltensmerkmal. Das kohärente Verhalten der Teilchen kann als „Lösung“ des Systems für das Problem eines möglichst effizienten Wärmetransports von den unteren zu den oberen Schichten der Flüssigkeit interpretiert werden. Bei der Ausbildung dieses Verhaltens kommt es nicht auf die mikroskopischen Anfangsbedingungen der einzelnen Moleküle an – deren Anfangsbedingungen werden in der kohärenten Dynamik des Systems „vergessen“. Die Konvektionswalzen treten in Abhängigkeit von bestimmten makroskopischen Parametern wie der Temperatur auf, ohne noch auf den genauen mikroskopischen Zustand der einzelnen Moleküle Rücksicht zu nehmen. Das „ganzheitliche“ Verhalten des Systems kommt durch die (nicht-linearen) Wechselwirkungen seiner
12 Schrödinger
selbst spricht von „negativer Entropie“: „Wir sagten: ‚Er [der lebende Organismus, m. E.] nährt sich von negativer Entropie, indem er sozusagen einen Strom negativer Entropie zu sich hin zieht, um die Entropieerhöhung, welche er durch sein Leben verursacht, auszugleichen und sich damit auf einer gleichmäßigen und ziemlich tiefen Entropiestufe zu halten‘“ (Schrödinger 1944/1987, S. 128/29).
114
5 Komplexität
vielen Komponenten13 zustande, die einen neuartigen emergenten Ordnungszustand erzeugen (gemessen an makroskopischen Parametern) – genau dies sind die charakteristischen Merkmale selbstorganisierender Systeme. Ein weiteres Beispiel für Selbstorganisation im Rahmen der Physik ist der Laser. Die Elemente eines Lasers sind Atome irgendeiner Sorte, die in spontaner Weise Photonen emittieren und absorbieren. Wird in das System von außen Energie eingeführt, erfolgt die Emission von Photonen durch die verschiedenen Atome zunächst noch unabhängig voneinander; aber bei Erhöhung der Energiezufuhr fangen die Atome an, in „organisierter“ Weise abzustrahlen; es entsteht ein einziger kohärenter Lichtstrom. Der verstärkte Energiefluss in das System hat dazu geführt, dass immer mehr Atome zur Abstrahlung angeregt werden, das System dadurch zunächst instabil, aber schließlich eine Feldamplitude dominant wurde; diese Feldamplitude nimmt die gesamte zugeführte Energie auf und „versklavt“ so die anderen „konkurrierenden“ Feldamplituden mit dem Resultat der Kohärenz des Lichtstroms (vgl. Haken 1981, Kap. 5). Die zentrale Rolle der Randbedingungen für selbstorganisierende Systeme wird an dem von Manfred Eigen in den 1970er Jahren entwickelten Modell des Hyperzyklus besonders deutlich (vgl. Eigen 1971). Dieses Modell versucht die Frage zu beantworten, weshalb das Leben auf der Erde – trotz der Millionen von existierenden Spezies – durch eine universelle Art des genetischen Codes und einen grundlegenden molekularen Apparat der Zelle ausgezeichnet ist. Eigens Antwort ist, dass irgendwann in der präzellulären Evolution, in der eine „Ursuppe“ mit komplexen Makromolekülen vorhanden war, die Konkurrenz zwischen den verschiedenen, bereits replikationsfähigen Molekülen durch eine Phase der arbeitsteiligen Kooperation abgelöst wurde: RNA-Sequenzen bauen Proteine auf, die den Ablesevorgang anderer RNA-Sequenzen verbessern und zu einer optimierten Replikation dieser Sequenzen beitragen. Dadurch wird es möglich, leistungsfähigere Proteine (Enzyme) herzustellen, die auch solche RNA-Sequenzen fehlerfrei replizieren, die lang genug sind, um die für einfache Lebewesen benötigte Information zu kodieren. Jede RNA-Sequenz katalysiert – unter Einwirkung des von der „vorhergehenden“ Sequenz hergestellten Proteins – seine eigene Produktion. Es kommt so zu einem selbstverstärkenden hyperbolischen Wachstum von RNA-Sequenzen, wodurch alternative Sequenzen außerhalb des Hyperzyklus schnell aussterben (molekulare Selektion). Die Organisationsform des Hyperzyklus stellt selbst eine neuartige Randbedingung dar, die (unter den gegebenen physikalischen und chemischen Gesetzen) dazu beiträgt, eine biologische Dynamik der Optimierung und Selektion in Gang zu setzen. Randbedingungen stehen hier nicht als unabhängiges Datum neben der Dynamik, sondern mit ihr in einer Wechselbeziehung: Jeder Schritt der Dynamik
13 Deswegen
können die Gleichungen, mit denen die Dynamik des Systems beschrieben wird, nicht auf einzelne Moleküle Bezug nehmen, sondern müssen Größen verwenden, die das Verhalten der Moleküle in gemittelter Weise beschreiben – ähnlich wie dies z. B. für die Gleichungen gilt, welche die Dynamik einer Pandemie beschreiben (vgl. Abschn. 5.2).
5.5 Der Begriff des Chaos
115
verändert die Randbedingungen, die ihrerseits die Dynamik modifizieren. Genau diese Wechselbeziehung zwischen Dynamik und Randbedingungen ist, so BerndOlaf Küppers, das Muster der Selbstorganisation: Als Selbstorganisation kann jeder selbsttätig ablaufende Prozess bezeichnet werden, in dessen Verlauf die Gesetze der Physik und Chemie ihre zunächst unspezifischen Randbedingungen auf spezifische Weise transformieren (vgl. Küppers 1986, S. 98). Die Existenz emergenter Eigenschaften, die auf „höheren“ Organisationsstufen der Natur auftreten, spricht nicht, wie Popper meinte, gegen den epistemologischen Reduktionismus. Das Neuartige dieser Eigenschaften, die Unmöglichkeit, sie aus Perspektive eines Wesens zu antizipieren, das allein die „darunterliegende“ mikroskopische Schicht und deren Mechanismen kennt, resultiert daraus, dass die Randbedingungen, die zu dem neuartigen makroskopischen Verhalten führen, im Voraus nicht bekannt sind – so wie in Leibniz’ Mühlengleichnis eine Person, die das Spiel der Zahnräder im Inneren der Mühle registriert, niemals die Funktion der Mühle erraten wird, weil ihr die Randbedingungen des Systems unbekannt sind, d. h., weil sie nicht weiß, um welches System es sich, makroskopisch gesehen, handelt (vgl. Leibniz 1714/1979, § 17). Bei der Unvorhersagbarkeit von holistischen Systemeigenschaften handelt es sich um eine Unvorhersagbarkeit relativ zu unbekannten oder ignorierten Randbedingungen. Die emergenten Eigenschaften erscheinen uns als neuartig, weil wir die Randbedingungen, die für ihre Entstehung verantwortlich sind, nicht im Voraus kennen.
5.5 Der Begriff des Chaos Anders als der antike Begriff des Chaos, der einen ungeformten, strukturlosen Zustand der Welt bezeichnete, schließt der moderne Begriff des Chaos die Möglichkeit der Entstehung von Struktur ein. Dissipative chaotische Systeme, die Energie mit ihrer Umgebung austauschen, entwickeln im Zuge ihrer Dynamik ganzheitliche Ordnungsmuster und können daher als selbstorganisierende Systeme aufgefasst werden. Aber Chaos ist weder mit Selbstorganisation noch mit Komplexität gleichzusetzen. Die Besonderheit chaotischer Systeme liegt vielmehr darin, dass sie eine „nicht-klassische“ Form der Komplexität aufweisen, die nicht auf das Vorhandensein vieler Komponenten angewiesen ist. Systeme, die in ihrem Aufbau einfach sind, also durch eine geringe Anzahl von Variablen beschrieben werden, können diese nicht-klassische Form der Komplexität annehmen. Sie sind „komplex“ nicht aufgrund der Vielzahl von Wechselwirkungen ihrer Komponenten, sondern vielmehr durch innere Merkmale ihrer Dynamik: Chaotische Systeme folgen nicht-linearen Gleichungen.14 Die Nicht-Linearität
14 Zum
chaotischen Verhalten kommt es allerdings nicht allein schon durch die Nicht-Linearität der dynamischen Gleichungen; es tritt erst bei speziellen Werten bestimmter Systemparameter auf (siehe das parameterabhängige Verhalten der logistischen Gleichung, Abschn. 5.6).
5 Komplexität
116
der Dynamik spiegelt dabei Abhängigkeiten zwischen Beziehungen von Systemparametern, von denen das Verhalten des Systems abhängt. Dies lässt sich an einem einfachen Beispiel veranschaulichen: Ein Eishockeypuck bewegt sich auf der Eisfläche, seine Geschwindigkeit wird dabei durch die Reibungskraft verringert, die das Eis auf den Puck ausübt. Die Abnahme der Geschwindigkeit des Pucks verringert aber wiederum die auf ihn wirkende Reibungskraft, wodurch die Geschwindigkeitsabnahme geringer wird und so fort. Der Einflussfaktor Reibung wirkt auf das System ein und der von ihm hervorgebrachte Effekt wirkt auf ihn selbst zurück, indem er seinen Einfluss modifiziert. Ein ähnlich voneinander abhängiges Verhalten kausaler Faktoren charakterisiert auch die wechselseitige Gravitationsanziehung dreier Körper15: Jeder der Körper beeinflusst die Wechselwirkung zwischen den beiden anderen Körpern. Es ist daher nicht möglich, zunächst isoliert die Bewegung des ersten Körpers im Potenzial des zweiten zu bestimmen, um dann den „Störungsanteil“ des dritten Körpers an der Bewegung des ersten zu addieren. Die Variablen des Systems sind „ineinander verschlungen“. In diesem Sinn ist bei nicht-linearen Systemen das Ganze tatsächlich „mehr“ als die Summe seiner Teile (vgl. Mitchell 2011, S. 23). Schon Poincaré erkannte, dass die nicht-lineare Dynamik eines Systems zu einer sensitiven Abhängigkeit von den Anfangsbedingungen führen und damit Konsequenzen für die Möglichkeit der Vorhersage des Systemverhaltens haben kann. Die zeitliche Entwicklung des Systems kann nicht, wie in der gesamten klassischen Physik üblich, in einer idealisierenden Beschreibung „komprimiert“ werden. Es existieren keine geschlossenen mathematischen Lösungen, die es erlauben würden, zu berechnen, welchen Zustand ein chaotisches System, ausgehend von einem bestimmten Anfangszustand, zu irgendeiner vorgegebenen Zeit angenommen haben wird. Um die Dynamik des Systems zu verfolgen, wird das Gleichungssystem in ein System von Differenzengleichungen verwandelt, das dann „stückweise“ (iterativ) gelöst wird, d. h., man arbeitet sich schrittweise von einem Parameterwert zum nächsten vor. Statt das System durch eine geschlossene Lösung für alle Zeitpunkte zu beschreiben, wird seine Trajektorie im Phasenraum von Punkt zu Punkt verfolgt. Eine genaue Vorhersage des Langzeitverhaltens des Systems, ausgehend von bestimmten Anfangswerten, wird unmöglich.16 Die zeitliche Entwicklung des Systems wird „undurchschaubar“. Obwohl das System durch nur wenige Variablen beschrieben wird und seine fundamentale Dynamik (wie z. B. die Gravitationswechselwirkung) bekannt und gut verstanden ist, kann die Information über sein Langzeitverhalten nicht auf die Kenntnis eines kleinen
15 Dies
ist das Drei-Körper-Problem, das bereits 1887 von Henri Poincaré analysiert wurde.
16 Allerdings
kann bei dissipativen chaotischen Systemen das Langzeitverhalten mithilfe „seltsamer Attraktoren“ wiedergegeben werden. Seltsame Attraktoren sind Phasenraumkonfigurationen (sich nie wiederholende Kurven unendlicher Länge, die in ein endliches Volumen des Phasenraums eingeschlossen sind), denen sich jeweils ein Teil der möglichen Trajektorien des Systems in langen Zeiten annähert. Ein System kann ein oder mehrere solcher Attraktoren besitzen (vgl. Ruelle 1979/80).
5.5 Der Begriff des Chaos
117
zeitlichen Abschnittes „komprimiert“ werden. Im mathematischen Sinn sind chaotische Systeme nicht-integrabel17. Viele komplexe Systeme treten in eine chaotische Phase erst unter spezifischen Randbedingungen ein (vgl. die logistische Gleichung in Abschn. 5.6). Der Begriff der Nicht-Kompressibilität der Information über die zeitliche Entwicklung eines chaotischen Systems hat seinen Ursprung in der algorithmischen Komplexitätstheorie (vgl. Chaitin 1987). Um ihn verständlich zu machen, benötigt man den Begriff des Phasenraums. In der Phasenraumdarstellung eines Systems werden Systemzustände durch Punkte in einem abstrakten Raum dargestellt, der durch die Zustandsvariablen aufgespannt wird. Der Zustand eines einfachen Pendels wird z. B. durch einen Punkt (x, v) in einem zweidimensionalen Phasenraum dargestellt, wobei x die räumliche Auslenkung und v die Geschwindigkeit bedeutet. Die Geschichte eines Systems wird durch seine Trajektorie durch den Phasenraum wiedergegeben. Der Begriff der Nicht-Kompressibilität besagt nun, dass die Folge von Zellen des Phasenraums, die die Zustände eines Systems in seiner zeitlichen Entwicklung einnehmen, durch kein kürzeres Computerprogramm dargestellt werden kann als durch den expliziten Ausdruck der Folge selbst. Dies ist ein präziser Ausdruck dafür, was man intuitiv unter einer „Zufallsfolge“ versteht. Die zukünftige Entwicklung eines nicht-kompressiblen Systems ist nicht vorhersagbar, der Zustand des Systems zu einem beliebigen zukünftigen Zeitpunkt t ist in keiner Teilfolge der Geschichte des Systems vor t schon enthalten. Allerdings eignet sich Nicht-Kompressibilität (bzw. Nicht-Vorhersagbarkeit) nicht zu einer Definition des Chaos – chaotische Systeme sind nicht-kompressibel, aber die Umkehrung gilt nicht: Die Nicht-Kompressibilität ist eine epistemische Konsequenz der chaotischen Dynamik eines nicht-integrablen Systems. Unvorhersagbar können aber auch nicht-chaotische Systeme, wie z. B. das Roulette, sein, und zwar aufgrund mangelnder Information über die Anfangszustände des Systems. Würde man Unvorhersagbarkeit (im Sinn von NichtKompressibilität) als Definiens von „Chaos“ verwenden, müsste das Roulette, ein klassisches integrables System, als chaotisch gelten. Spezifisch für „Chaos“ ist vielmehr, dass die Unvorhersagbarkeit aus der inneren Dynamik des Systems zwangsläufig hervorgeht (vgl. Batterman 1993, S. 62 f.). Was ist neu an der Chaosforschung, die in den 1960er Jahren aus einer Reihe nur lose verbundener Forschungen entstand? Wodurch beeinflusst sie unser heutiges Bild der Natur? Eine wichtige Einsicht betrifft die begrenzte Kontrollierbarkeit von Systemen. Die chaotische Dynamik, die zur Unvorhersagbarkeit
17 Integrable
Systeme haben die Eigenschaft, dass ein kleiner Fehler in der Bestimmung der Anfangsbedingungen sich in höchstens linearer Weise fortpflanzen wird. Die benachbarte Trajektorie im Phasenraum, die den geringfügig veränderten Anfangsbedingungen entspricht, wird sich nur langsam von der ursprünglichen Trajektorie fortbewegen – und je kleiner der Fehler war, desto geringer wird die Abweichung der Trajektorie zu einem beliebig gewählten Zeitpunkt sein. Viele Systeme, die nicht durch geschlossene Lösungen darstellbar sind, sind nicht-integrable, chaotische Systeme; es gibt aber auch Systeme ohne geschlossene Lösungen, die integrabel und daher nicht chaotisch sind (vgl. Batterman 1993, S. 51).
118
5 Komplexität
führt, ist eine deterministische Dynamik (vgl. Koch 1994). Ein System heißt „deterministisch“, wenn seine Zustandsentwicklung – für jede Trajektorie, die einem möglichen Anfangszustand entspricht – unabhängig davon verläuft, ab welchem Anfangszeitpunkt wir das System betrachten, und unabhängig von der früheren Geschichte des Systems ist. Das Auftreten deterministischer Systeme in der Natur, die einfach und komplex zugleich sind, hat wesentliche Konsequenzen für unser Verständnis der Kontrollierbarkeit der Natur. Nach dem klassischen Verständnis schließt die Zurückführbarkeit neuer Systemeigenschaften auf eine fundamentale deterministische Dynamik die Möglichkeit ein, das System auch über längere Zeiträume hinweg zu kontrollieren: Eigenschaften, die als Resultat einer deterministischen Dynamik auftreten, sollten mithilfe der Gesetze dieser Dynamik vorhersagbar sein und damit unserer Kontrolle unterliegen. Aber Vorhersage erfordert die Existenz „abkürzender“ Beschreibungen für das dynamische Verhalten des Systems und genau dieses Merkmal fehlt bei chaotischen Systemen. In der chaotischen Phase eines Systems können beliebig benachbarte Anfangsbedingungen zu Trajektorien führen, die nach einer gewissen Zeit stark divergieren. Das Problem der „auseinanderlaufenden“ Trajektorien wiederholt sich für jede beliebige numerische Genauigkeit. Selbst wenn wir über ein Modell verfügen, in dem alle Parameter mit noch so großer Genauigkeit bestimmt wurden, ist damit Voraussagbarkeit über lange Zeiträume unmöglich (vgl. Mitchell 2011, S. 33). Dabei geht es nicht etwa darum, dass wir den Wert einer Variablen nur jeweils bis auf einen endlichen Messfehler genau bestimmen können, sondern vielmehr darum, dass wir die Zahlen, die dem exakten Zustand eines Systems entsprechen, nur mit begrenzter Genauigkeit wiedergeben können. Die Grenze der Vorhersagbarkeit existiert daher für alle Wesen, die in endlicher Zeit nur endlich viel Information verarbeiten können. Da wir die exakten Anfangsbedingungen nie bis auf unendlich viele Dezimalstellen genau kennen, handelt es sich nicht um eine praktische, sondern in strengem Sinn um prinzipielle Unvorhersagbarkeit (vgl. Mitchell 2011, S. 33). Die Existenz des deterministischen Chaos zeigt, dass eine exakte Kenntnis deterministischer Naturgesetze noch keine „Naturbeherrschung“ impliziert. Ein zweiter wichtiger Aspekt, aus dem die Chaosforschung ihre Faszination bezieht, ist die Wiederaufnahme des alten naturphilosophischen Problems der Vielfalt in der Natur (vgl. Abschn. 5.3). Der Begriff der Komplexität – und des Chaos als eine der Erscheinungsformen von Komplexität – hat sich als Schlüssel zum Verständnis der Vielfalt erwiesen. Die Chaosforschung hat die Behandlung komplexer Systeme auf jene Formen von Komplexität erweitert, die in der fundamentalen Dynamik eines Systems begründet liegen. Sie richtet den Blick vor allem auf die nicht-lineare Dynamik komplexer Systeme und auf die verblüffenden Ordnungsmuster, die nicht-lineare dynamische Systeme ausbilden. Durch die Einsicht, dass auch Systeme mit wenigen Konstituenten komplexes und im Besonderen chaotisches Verhalten aufweisen können, hat die Chaosforschung den Hintergrund geschaffen für eine philosophische Neubewertung der Vielfalt, die aus Komplexität entsteht. Komplexität ist kein „Vielteilchen-Problem“, sondern ein inneres Merkmal der Natur. Die Vielfalt möglicher Verlaufsformen,
5.6 Chaos in Aktion
119
welche die Dynamik komplexer Systeme zulässt, erlaubt uns, die Formenvielfalt in der Natur als notwendige Folge „einfacher“ dynamischer Gesetze zu verstehen. Dies bestätigt in gewissem Sinn die Annahme Diderots, dass die Vielfalt der Natur schon in ihren einfachen Bausteinen und Prinzipien angelegt sein muss. Die Formenvielfalt ist, wie schon Diderot geahnt hat, keine Illusion, sondern eine in den „einfachen“ Strukturen der Natur bereits enthaltene Realität. Die Tatsache, dass komplexes Verhalten aus scheinbar einfachen Dynamiken entstehen kann, rückt die Formenvielfalt, die immer schon unser vorwissenschaftliches Bild der Natur bestimmt hat, in das Zentrum des wissenschaftlichen Bildes der Natur.
5.6 Chaos in Aktion Eines der ersten Systeme, an denen chaotisches Verhalten in Erscheinung trat, war die Erdatmosphäre, die für unser Wetter verantwortlich ist. Das Wettergeschehen kann durch Differentialgleichungen beschrieben werden, die in deterministischer Weise meteorologische Daten an einem Punkt der Welt mit Daten an jeweils benachbarten Punkten verbinden. Dennoch lässt dieses Geschehen, unabhängig von der Genauigkeit der ermittelten Daten, keine Vorhersage über einen engen Zeitraum hinaus zu. Im Unterschied zum Glücksspiel gibt es hier keine Wissenslücke, die „im Prinzip“ geschlossen werden könnte – z. B. indem man beim Roulette die Bahn der Kugel mithilfe detaillierter Anfangsdaten vorausberechnet. Für ein immer enger gezogenes Netz von Wetterdaten konvergieren die Lösungen des Gleichungssystems nicht gegen eine „exakte“ Lösung. Bei einer Verfeinerung der Messdaten kann es stattdessen geschehen, dass der Trend der Vorhersage für ein zukünftiges Wetterdatum sich qualitativ völlig verändert. Die meteorologische Forschung hatte sich zunächst von der Analyse der lokalen Dynamik des Wettersystems versprochen, das Wettergeschehen über lange Zeiten und große Gebiete hinweg vorhersagbar und kontrollierbar zu machen. Damit war auch der alte Traum einer Beeinflussung oder gar Steuerung des Wettergeschehens verbunden. Ontologische und epistemologische Reduktion, Verstehen der dynamischen Gesetze und Kontrolle des Verhaltens sollten, so hoffte man, Hand in Hand gehen. Diese Hoffnung wurde enttäuscht: Das Verständnis der lokalen Dynamik des Wetters, der Einblick in das „Uhrwerk“ der Atmosphäre, bringt uns keinen Schritt in Richtung seiner möglichen Beherrschung voran. Die Intuition, dass ein Verständnis seiner Mechanismen auch zur möglichen Beherrschung eines Systems führt, ist mit einem naturphilosophischen Prinzip verbunden, das bis zur Entdeckung chaotischer Systeme das Selbstverständnis der Naturwissenschaften geprägt hat, das Prinzip der „starken Kausalität“: Kleine Ursachen – kleine Wirkungen. Dieses Prinzip bildet die Brücke, die vom Verstehen zur Kontrolle eines Systems führt. Bei chaotischen Systemen ist diese Brücke aber nicht vorhanden. Im Jahr 1960 hatte Edward N. Lorenz am Massachusetts Institute of Technology in Boston ein Wettermodell konstruiert, mit dem er die Dynamik von Wind-
120
5 Komplexität
strömungen sowie die Entwicklung von Tief- und Hochdrucksystemen simulieren konnte. Die Wetterdynamik hatte er in einem System von 12 nicht-linearen Differentialgleichungen zusammengefasst, die das Verhältnis von Temperatur und Luftdruck, von Luftdruck und Windgeschwindigkeit etc. ausdrückten. Er hatte das unendlich detailreiche Wettergeschehen mithilfe gemittelter Größen durch ein (relativ) „einfaches“ System ersetzt. Tatsächlich wiesen die Berechnungen, die Lorenz in seinem Wettermodell anstellte, Regelmäßigkeiten auf: Das Wetter wiederholte sich zwar nicht streng, aber ähnliche Anfangswerte führten zu ähnlichen Grundmustern, die Lorenz in graphischer Form durch den Computer ausdrucken ließ. An einem Wintertag des Jahres 1961 wollte Lorenz eine längere Datensequenz betrachten, begann aber zur Abkürzung mit Daten irgendwo in der Mitte der Entwicklung des Systems, die dem letzten Ausdruck entsprachen. Obgleich er fast genau dieselben Zahlenwerte eingegeben hatte, unterschied sich der neue Wetterverlauf gründlich von dem früheren, bis innerhalb eines Berechnungszeitraums, der wenigen Monaten entsprach, alle Ähnlichkeit verschwunden war (vgl. Gleick 1988, S. 28). Die Ursache dieser Abweichung war, dass Lorenz anstelle der exakten ursprünglichen Zahlenwerte drei Dezimalstellen eingespart hatte. Eine solch geringfügige Abweichung sollte einem leichten Windstoß entsprechen; und doch war sie für die grundsätzliche Änderung des Wetterverlaufs verantwortlich. Welche Konsequenz der von Lorenz entdeckte Effekt für die praktische Wettervorhersage hat, wird von James Gleick so veranschaulicht: … nehmen wir einmal an, die Erdoberfläche sei mit Sensoren [der Wetterbeobachtung, m. E.] bedeckt, die etwa einen halben Meter voneinander entfernt lägen, und in diesem Abstand bis in die höchsten Lagen der Erdatmosphäre reichten. Nehmen wir ferner an, jeder dieser Sensoren lieferte absolut präzise Daten bezüglich Temperatur, Luftdruck, Luftfeuchtigkeit und jedes anderen Wetterfaktors, den ein Meteorologe sich nur wünschen kann. Nun sollten genau zur Mittagszeit all diese Daten in einem unbegrenzt leistungsfähigen Computer eingespeichert werden, und dieser würde dann berechnen, was an jedem Punkt der Welt um 12:01, dann um 12:02, danach um 12:03 geschehen würde … Selbst dieser Computer wäre nicht imstande, eine Voraussage darüber zu treffen, ob es in Princetown/New Jersey an irgendeinem Tag einen Monat später regnen oder ob die Sonne scheinen würde. Bereits am Mittag würden die Zwischenräume der Sensoren Schwankungen verdecken, die der Computer nicht vorausberechnen konnte: geringfügige Abweichungen von den Durchschnittswerten. Um 12:01 hätten diese Abweichungen bei dem einen halben Meter weiter entfernten Sensor bereits zu geringfügigen Berechnungsfehlern geführt. Bald aber würden sich diese Fehler in der Größenordnung von fünf Metern vervielfältigt haben und schließlich zu Weltmaßstäben anwachsen. (Gleick 1988, S. 35/36)
Der von Lorenz entdeckte Effekt ist als Schmetterlingseffekt bekannt geworden – benannt nach Lorenz’ Vortrag am 29.12.1972 beim Treffen der American Association for the Advancement of Science in Washington D.C., der den Titel trug: Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas? (vgl. Lorenz 1995, Appendix 1). Der Effekt bedeutet nicht, dass eine Störung von der Größenordnung eines Schmetterlingsschlages in
5.6 Chaos in Aktion
121
Brasilien gravierende Auswirkungen auf unser lokales Wetter haben muss. Es gibt stabile Wetterlagen, die relativ gut prognostizierbar sind und durch kleine Störungen zunächst nicht aus dem Gleichgewicht gebracht werden. Ebenso gibt es labile Wetterlagen, die auf kleine Störungen auch in kurzen Zeiträumen sensibel reagieren. Kennzeichnend für die Chaotizität der Wetterdynamik ist jedoch, dass sich kleine Störungen in den Anfangsbedingungen, gleichgültig von welcher Wettersituation wir ausgehen und wie genau wir die Anfangsdaten festlegen, über längere Zeiträume stets in drastischen Änderungen des resultierenden Zustands niederschlagen werden. Das Wort „drastisch“ soll dabei ausdrücken, dass die zu erwartenden Änderungen von einer Größenordnung sind, die dem quantitativen Spektrum entspricht, in dem sich die Wettervariablen bewegen. Die Entdeckung von Lorenz zeigt, wie schon oben erwähnt, dass das alte naturphilosophische Prinzip Kleine Ursachen – kleine Wirkungen (oder allgemeiner: Ähnliche Ursachen – ähnliche Wirkungen, vgl. Hume 1748/1993, S. 92) nur begrenzt gültig ist. Sie erfüllt damit eine Prognose, die Henri Poincaré bereits 1903 geäußert hatte: … es kann der Fall eintreten, dass kleine Unterschiede in den Anfangsbedingungen große Unterschiede in den späteren Erscheinungen bedingen; ein kleiner Irrtum in den ersteren kann einen außerordentlich großen Irrtum für die letzteren nach sich ziehen. Die Vorhersage wird unmöglich und wir haben eine „zufällige Erscheinung“. (Poincaré 1903/1914, S. 57)
Sensitive Abhängigkeit von den Anfangsbedingungen ist ein zentrales Merkmal chaotischer Systeme. Aber nicht jede solche sensitive Abhängigkeit führt zu chaotischem Verhalten. Auch bei linearen Transformationen (x → cx, c eine Konstante) verstärkt sich ein Anfangsfehler in den folgenden Iterationen; die Veränderung, die der Anfangsfehler bewirkt, ist bei jedem Iterationsschritt von der Größe des konstanten linearen Faktors c abhängig. Eine solche lineare Fehlerfortpflanzung ist kontrollierbar: Fehler und wahrer Wert wachsen in einem „überschaubaren und harmonischen Verhältnis zueinander“ an (vgl. Peitgen et al. 1994, S. 42). Der relative Fehler, also die Beziehung zwischen wahrem Wert und Fehler, bleibt in der zeitlichen Entwicklung des Systems konstant. Für chaotische Systeme ist es dagegen typisch, dass „eine gegebene Abweichung im Lauf der Entwicklung so groß wird wie das ‚Bezugssignal‘ selbst“ (Peitgen et al. 1994, S. 41). In der chaotischen Dynamik werden „wahrer Wert“ und „Fehler“ letztlich voneinander ununterscheidbar. Zwar lässt sich die Vorhersagegenauigkeit für einen bestimmten Zeitpunkt t in der Zukunft dadurch beliebig steigern, dass man den Anfangszustand genügend genau bestimmt. Dieses Merkmal unterscheidet das deterministische Chaos wesentlich vom Verhalten indeterministischer Systeme. Aber selbst wenn man die praktische Realisierbarkeit einer extrem genauen Bestimmung des Anfangszustandes unterstellt, wird jetzt an den auf t folgenden Zeitpunkten dieselbe „Angleichung“ von Bezugssignal und Fehler auftreten wie zuvor zum Zeitpunkt t. Durch eine Verfeinerung der Werte für die Anfangsbedingungen kann man das Chaos „hinausschieben“, aber nicht beseitigen.
122
5 Komplexität
Die Art der sensitiven Abhängigkeit von den Anfangsbedingungen, die das Chaos kennzeichnet, kann ohne Übertreibung als „unendliche Sensitivität“ bezeichnet werden. Dies lässt sich an der sogenannten Mandelbrot-Menge veranschaulichen (vgl. Peitgen et al. 1994, S. 431 ff.): Die Mandelbrot-Menge wird mittels der nicht-linearen Iterationsvorschrift z → z2 + c für die Punkte z der komplexen Zahlenebene definiert. Für einen Teil der Punkte führt die Iteration zu einer Annäherung an einen bestimmten Punkt in der Zahlenebene, der andere Teil der Punkte „flieht“ bei Iteration ins Unendliche. Die erste Punktmenge bildet die Mandelbrot-Menge. Die unendlich sensitive Abhängigkeit von den Anfangsbedingungen zeigt sich darin, dass selbst für eine sehr feine Körnung der Mandelbrot-Menge (d. h., für sehr viele Punkte der Zahlenebene ist die Zugehörigkeit zur Menge schon überprüft worden) sich keine scharfe Grenzkurve der Menge abzeichnet: Verfeinert man die Körnung, so findet man zu jedem Punkt außerhalb der Mandelbrot-Menge in beliebig klein gewählten Umgebungen wieder Punkte, die zur Menge gehören. Wie bei Lorenz’ Wetterdaten kann daher jede beliebig kleine Änderung des Ausgangswertes zu einer qualitativen Änderung des Endzustandes führen. Führt die unendliche Sensitivität im Verhalten natürlicher Systeme, in der Physik der Atmosphäre, in der Entwicklung biologischer Populationen und in vielen anderen Systemen – wenn sie nur durch ähnliche nicht-lineare Gleichungen beschrieben werden – zu Konsequenzen in Fragen des Reduktionismus? Was den ontologischen Reduktionismus angeht, kann die Frage verneint werden. Deterministisches Chaos zwingt uns nicht dazu, die Vorstellung aufzugeben, dass das makroskopische Verhalten natürlicher Systeme der Sache nach auf stetige Trajektorien mikroskopischer Konstituenten zurückgeht. In der Realität folgt ja jedes „Teilchen“ einer wohlbestimmten Bahn im Phasenraum, die aus wohlbestimmten Zuständen hervorgeht. Aber wie steht es um den epistemologischen Reduktionismus? Hier kommt es ganz darauf an, welche Ansprüche an Reduktion im epistemologischen Sinn gestellt werden. Geht es (nur) um die Reduktion im Sinne reduktiver Erklärungen oder auch um eine Reduktion der Begriffe? Schließt epistemologische Reduktion die Vorhersagbarkeit von Systemen aufgrund der Kenntnis der Zustände ihrer mikroskopischen Konstituenten ein? Was den Aspekt der Vorhersagbarkeit betrifft, liegt nach den Überlegungen in diesem Abschnitt eine negative Antwort nahe. Wenn man menschliche Möglichkeiten der Kenntnis exakter Anfangsbedingungen zugrunde legt, bedeutet unendliche Sensitivität eines Systems, dass die zukünftigen Zustände des Systems nicht einmal näherungsweise vorhersagbar sind. Der Traum von der prinzipiellen Vorhersagbarkeit der Natur ist hier an eine definitive Grenze gestoßen. Chaotische Systeme stellen uns vor eine grundsätzlich neue Situation18 – verglichen mit der Situation selbstorganisierender, nicht-chaotischer Systeme: Bei Letzteren ist die
18 Allerdings
sind uns Grenzen der Vorhersagbarkeit schon in Form der Indeterminiertheit individueller Messergebnisse in der Quantenmechanik vertraut.
5.6 Chaos in Aktion
123
mangelnde Kenntnis von Randbedingungen der Grund mangelnder Vorhersagbarkeit (vgl. Abschn. 5.4). Würden wir die zutreffenden Randbedingungen kennen, stünde der Vorhersage nichts im Wege. Aber im Fall chaotischer Systeme hilft die Kenntnis der Randbedingungen nicht dabei, zukünftige Zustände vorherzusagen. Grenzen der Vorhersagbarkeit sind aber nicht zugleich Grenzen reduktiver Erklärbarkeit. Kann z. B. das von Lorenz untersuchte Wettersystem in seinem „sprunghaften“ Verhalten reduktiv erklärt werden? Ja, zumindest in demselben Sinn, in dem die Dynamik einer Pandemie (vgl. Abschn. 5.2) oder das makroskopische Verhalten eines Gases in der statistischen Mechanik reduktiv erklärt werden kann – wobei die Verwendung „gemittelter“ Größen (z. B. Verteilungsfunktionen) die Erklärung nicht weniger „reduktiv“ macht. Letztlich kommt es für „reduktive“ Erklärungen darauf an, dass das mikroskopische Geschehen die Basis für die Erklärung des Verhaltens des Gesamtsystems darstellt – auch wenn diese Basis mithilfe idealisierender und abstrahierender Annahmen repräsentiert wird. Die nicht-linearen Differentialgleichungen, die Lorenz zur Beschreibung des Wettersystems verwendete, erklären das Wettergeschehen19 in reduktiver Weise – auch wenn sie es nicht beliebig genau vorhersagbar machen. In methodologischer Hinsicht werden nicht-chaotische selbstorganisierende Systeme wie auch chaotische Systeme in nicht-reduktiver Weise beschrieben, nämlich mit Ausdrücken emergenter Systemeigenschaften und neuer Ordnungsparameter, die auf die Systemkonstituenten nicht anwendbar sind (ein Beispiel ist der Begriff des „Attraktors“). Die wissenschaftliche Beschreibung zielt gerade auf solche makroskopischen Aspekte, um auf diese Weise die Systeme klassifizieren zu können und um wenigstens eine grobe Vorhersagbarkeit – hinsichtlich solcher Systemeigenschaften und Ordnungsparameter – zu gewährleisten (siehe z. B. die Bénard-Instabilität in Abschn. 5.4 oder im Folgenden die logistische Gleichung der Populationsdynamik). Aber die Forderung nach Begriffsreduktionen, wie sie ein methodologischer Reduktionismus erheben muss, ist in der Wissenschaft nur selten erfüllbar. Das Auftreten neuer Ordnungsparameter in chaotischen Systemen lässt sich paradigmatisch an der logistischen Gleichung der Populationsdynamik beobachten (vgl. Mitchell 2011, S. 27 ff.). Diese Gleichung beschreibt ursprünglich die Entwicklung biologischer Populationen, ihre Merkmale haben aber universelle Bedeutung, weil sie allein durch die mathematische Struktur der Gleichung bestimmt werden, unabhängig davon, welche konkreten Prozesse mit dieser Gleichung beschrieben werden. Der wesentliche Parameter der logistischen Gleichung ist die Wachstumsrate R, in der Geburten- und Todesrate für eine Population kumuliert eingehen. Die Größe der Population entwickelt sich schrittweise jeweils von einer Anzahl xt zum Zeitpunkt t zur Anzahl xt+1 zum Zeitpunkt t + 1, wobei die Steigerung (oder Abnahme) der Population
19 Sie erklären z. B. die Entstehung riesiger Luftwirbel, die als Hurrikans Landstriche verwüsten können, auch wenn sie ihr Auftreten räumlich und zeitlich nicht präzise vorhersagen können.
124
5 Komplexität
sich in der Wachstumsrate R spiegelt. Wenn diese Beziehung linear ist, führt sie (bei R > 1) zu unbegrenztem Wachstum. Aber in realen Umwelten sind die verfügbaren Ressourcen endlich und sie begrenzen das mögliche Wachstum einer Population; diese „Populationsbremse“ wird durch einen Faktor (1 – xt) dargestellt, der wiedergibt, wie weit die Population von ihrer maximalen Größe (auf den Wert 1 normiert) entfernt ist: Für xt nahe 1 ist dieser Faktor nahe 0, d. h., die Populationsgröße wird stark gebremst. Für (relativ zur Maximalpopulation) sehr kleine Werte von xt nimmt der Faktor einen Wert nahe 1 an, die Population kann dann zunächst fast ungebremst aufgrund von R wachsen. Die Gleichung hat insgesamt folgende Form: xt+1 = R xt (1 – xt). Wachstumsparameter R