Wissenschaftstheorie der Naturwissenschaft 9783110835885, 9783110068115


187 49 89MB

German Pages 281 [284] Year 1981

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorbemerkung
I. Standpunkte der metatheoretischen Betrachtung
1. Das Erbe des logischen Empirismus
2. Der Eingriff der wissenschaftsgeschichtlichen Betrachtungsweise
3. Objektive Erkenntnis
4. Wissenschaftstheorie und Naturphilosophie
II. Historische Aspekte der Wissensgewinnung
1. Phänomene und Strukturen
2. Gesetze und Invarianzen
3. Die Idee des Feldes
4. Determinismus und klassische Physik
III. Raum und Zeit
1. Absolut versus relativ
2. Das Trägheitsproblem
3. Das Mach-Prinzip und die Natur der Raumzeit in der Relativitätstheorie
4. Die Richtung der Zeit
a) Die Natur des Problems
b) Die Rolle der Thermodynamik
c) Einwände gegen den Zeitpfeil der statistischen Mechanik
d) Die Hypothese der Zweigsysteme
e) Der kosmologische Zeitpfeil
IV. Die Welt im großen
1. Die Kosmologie als physikalische Disziplin
2. Theorie und Erfahrung
a) Der Kosmos als Gegenstand
b) Das Modellobjekt der Kosmologie
c) Die Operationalisierung theoretischer Größen
d) Die empirische Entscheidung
3. Die globale Zusammenhangsform der Welt
4. Das Rätsel der Frühzeit
5. Die kosmologischen Prinzipien
V. Die Welt der Quanten
1. Die begriffliche Revolution des Wirkungsquantums
2. Die Natur des Lichts
3. Modell und Anschauung in der älteren Quantentheorie
4. Der Korrespondenzgedanke
5. Die Idee der Komplementarität
6. Die Kopenhagen-Philosophie
7. Quantenmechanik der Messung und das Bewußtsein
8. Kausalität und Indeterminismus in der Quantenwelt
9. Die physikalische Logik der Mikrowelt
VI. Die Natur als Hierarchie von Strukturen
1. Der Einheitsgedanke und das Reduktionsproblem
2. Ungleichgewichtsthermodynamik und Strukturentstehung
3. Die Stabilität der Gestalten
4. Brücken zwischen den zwei Kulturen
Glossar
Anmerkungen
Recommend Papers

Wissenschaftstheorie der Naturwissenschaft
 9783110835885, 9783110068115

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Wissenschaftstheorie der Naturwissenschaft von

Bernulf Kanitscheider

w DE

G 1981

Walter de Gruyter · Berlin · New York

SAMMLUNG GÖSCHEN 2216

Dr. Bernulf Kanitscheider ist Professor für Philosophie der Naturwissenschaft an der Universität Gießen

CIP-Kurztitelaufnahme der Deutschen Bibliothek Kanitscheider, Bernulf:

Wissenschaftstheorie der Naturwissenschaft / von Bernulf Kanitscheider. - 1. Aufl. Berlin ; New York : de Gruyter, 1981. (Sammlung Göschen ; 2216) ISBN 3-11-006811-7 NE: GT

© Copyright 1981 by Walter de Gruyter & Co., vormals G. J. Göschen'sche Verlagshandlung, J.Guttentag, Verlagsbuchhandlung, Georg Reimer, Karl J.Trübner, Veit & Comp., l Berlin 30 - Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden - Printed in Germany - Satz: Tutte Drukkerei GmbH, Salzweg-Passau - Bindearbeiten: Lüderitz & Bauer, Buchgewerbe-GmbH, Berlin - Druck: Sala Druck, Berlin.

Vorwort Das vorliegende Buch stellt eine Einführung in die Wissenschaftsphilosophie dar, welche betont an den inhaltlichen Ergebnissen der heutigen Naturwissenschaft orientiert ist. Es wurde mit der Absicht verfaßt, Studenten der Anfangs- bis mittleren Semester, Lehrern von naturwissenschaftlichen Fächern, aber auch gut vorgebildeten Laien einen Einstieg in die philosophische Reflexion über die naturwissenschaftlichen Theorien zu ermöglichen. Darüberhinaus mag es auch manchem Dozenten der Philosophie eine gewisse Orientierungshilfe bei der Gestaltung von Lehrveranstaltungen bieten. Um den Zugang zu erleichtern, wird in den ersten zwei Kapiteln eine kritische Analyse der gegenwärtig sich bekämpfenden metatheoretischen Standpunkte durchgeführt und erst anschließend kommen in den Kapiteln III-IV, dem eigentlich materialen Teil des Buches, die erkenntnistheoretischen Fragen in den aktuell heute verwendeten faktischen Theorien zur Sprache. Zuletzt wird der Gedanke thematisiert, ob die Vielfalt der gegenwärtigen Ergebnisse der Naturwissenschaft sich in immer umfassenderen Rahmen einbetten lassen. Um Lesern, die in der wissenschaftstheoretischen und fachwissenschaftlichen Terminologie weniger bewandert sind, die Lektüre zu vereinfachen, wurde ein ausführliches Glossar angefügt. Für eine kritische Durchsicht der ersten beiden Kapitel danke ich besonders Prof. R. Kamitz (Berlin) und für lebendige Diskussionen in vielen Detailfragen sowie die Zusammenstellung des Glossars meinem Mitarbeiter Dr. M. Stöckler; für die sorgfältige Herstellung der Reinschrift des Manuskriptes bin ich wie immer Frau Chr. Dörr verpflichtet. Bernulf Kanitscheider

Inhalt Vorbemerkung

3

I.

7 7

Standpunkte der metatheoretischen Betrachtung 1. Das Erbe des logischen Empirismus 2. Der Eingriff der wissenschaftsgeschichtlichen Betrachtungsweise 3. Objektive Erkenntnis 4. Wissenschaftstheorie und Naturphilosophie

11 17 25

II.

Historische Aspekte der Wissensgewinnung 1. Phänomene und Strukturen 2. Gesetze und Invarianzen 3. Die Idee des Feldes 4. Determinismus und klassische Physik

31 31 37 41 44

III.

Raum und Zeit 1. Absolut versus relativ 2. Das Trägheitsproblem 3. Das Mach-Prinzip und die Natur der Raumzeit in der Relativitätstheorie 4. Die Richtung der Zeit a) Die Natur des Problems b) Die Rolle der Thermodynamik c) Einwände gegen den Zeitpfeil der statistischen Mechanik d) Die Hypothese der Zweigsysteme e) Der kosmologische Zeitpfeil

53 53 62

IV.

Die Welt im großen 1. Die Kosmologie als physikalische Disziplin 2. Theorie und Erfahrung a) Der Kosmos als Gegenstand b) Das Modellobjekt der Kosmologie c) Die Operationalisierung theoretischer Größen d) Die empirische Entscheidung 3. Die globale Zusammenhangsform der Welt 4. Das Rätsel der Frühzeit 5. Die kosmologischen Prinzipien

68 81 81 84 87 90 92 101 101 105 105 108 112 113 118 121 129

Inhalt V.

Die Welt der Quanten 1. Die begriffliche Revolution des Wirkungsquantums 2. Die Natur des Lichts 3. Modell und Anschauung in der älteren Quantentheorie . . . 4. Der Korrespondenzgedanke 5. Die Idee der Komplementarität 6. Die Kopenhagen-Philosophie 7. Quantenmechanik der Messung und das Bewußtsein 8. Kausalität und Indeterminismus in der Quantenwelt 9. Die physikalische Logik der Mikroweit

VI.

Die Natur als Hierarchie von Strukturen 213 1. Der Einheitsgedanke und das Reduktionsproblem 213 2. Ungleichgewichtsthermodynamik und Strukturentstehung . 221 3. Die Stabilität der Gestalten 228 4. Brücken zwischen den zwei Kulturen 233

Glossar Anmerkungen

138 138 144 148 163 169 174 180 194 204

239 253

I. Standpunkte der metatheoretischen Betrachtung 1. Das Erbe des logischen Empirismus Die gegenwärtige Situation in der Wissenschaftstheorie gleicht der eines Vielfrontenkrieges. Im Anschluß an den logischen Empirismus des Wiener Kreises, dessen relativ klare, aber zu einseitige Linie sich auf die Dauer nicht durchhalten ließ, faserte sich die Diskussionssituation zusehends auf. Der logische Empirismus, von den Gegnern meist mit dem eher pejorativ gemeinten Ausdruck „Positivismus" versehen, stützte sich auf eine Reihe von methodischen Prinzipien, die die metatheoretische Analyse und die Rekonstruktion der Wissenschaft leiten sollten.1 Die wichtigsten von diesen Grundsätzen sind folgende: 1) die Theorienkonstruktion muß immer den Ausgang vom Sinnlichen, in der Wahrnehmung Gegebenen nehmen; 2) die Verarbeitung der empirischen Daten erfolgt durch eine induktive Methode, wobei von einer endlichen Beobachtungsmenge in einem Generalisierungsschritt zu allgemeinen Gesetzen aufgestiegen wird; 3) theoretischeTerme müssen durch Reduktionsverfahren auf Beobachtungsbegriffe zurückgeführt werden; 4) metaphysische Elemente sollen aus der Wissenschaft gänzlich entfernt werden; 5) der Wissenschaftsgeschichte kommt keine entscheidende Rolle bei der systematischen Rekonstruktion einzelner wissenschaftlicher Theorien zu; 6) die Wissenschaft ist in ihrem Erkenntnisbelang auf Wachstum und Fortschritt angelegt; 7) zur Klärung der sprachlichen und logisch-semantischen Grundlagen der Wissenschaft ist eine Präzisierung der Aussagen unter Verwendung der axiomatischen Methode zu befürworten. Der logische Empirismus, der durch diese sieben Elemente nur knapp charakterisiert ist, war eine optimistische Wissenschaftsphilosophie, die sich, befreit vom Ballast der traditionellen Auseinandersetzungen, unter Verwendung des neuen Instrumentes der logischsemantischen Analyse sicher fühlte, eine am Fortschrittsideal der Einzelwissenschaften orientierte Disziplin aufbauen zu können und die endlich in der Lage war, den „Skandal" zu überwinden, daß die

8

I. Standpunkte der metatheoretischen Betrachtung

Philosophie nichts anderes sei als die Geschichte der sich ablösenden Konstruktionen von kognitiv unentscheidbaren Systemen. Im wesentlichen hatte sich der logische Empirismus die Aufgabe gestellt, eine durchsichtige Metatheorie von einzelwissenschaftlichen Entwürfen zu liefern. Nur gelegentlich machten sich einige Vertreter des Wiener Kreises auch anheischig, eine Art wissenschaftlicher Weltauffassung zu begründen, die man heute vielleicht unter dem Terminus „empiristischer Naturalismus" führen könnte.2 Dieses weltanschauliche Moment stand jedoch nicht im Brennpunkt des Interesses. Wenn auch in bezug auf die philosophische Grundeinstellung (Rationalität, intersubjektive Verständlichkeit, erfahrungsabhängige Kontrollierbarkeit) relative Einigkeit unter den Vertretern herrschte, so war man sich durchaus nicht völlig klar, wie weit der Kompetenzanspruch der erkenntnis-analytischen Philosophie zu gehen habe in bezug auf die Aufarbeitung und Einbeziehung materialer Details einzelner wissenschaftlicher Theorien. Es entstand die Frage: Hat der Wissenschaftstheoretiker nur das metatheoretische Instrumentarium zu schleifen, genauer gesagt, die strukturalen Begriffe wie „Definition", „Explikation", „Erklärung", „Prognose", „Retrodiktion", „Hypothese", „Gesetz", „Theorie", „empirische Signifikanz", „Testbarkeit", „faktische" und „empirische Bedeutung" zu präzisieren, oder sollte er auch unter Anwendung dieses Werkzeuges in die materiale Diskussion eingreifen? Ist es ihm gestattet, z.B. so etwas wie eine ganzheitliche Zusammenschau materialer Details der Naturwissenschaft zu erarbeiten, etwa ein Weltbild, das in diesem Fall wissenschaftlich fundierte Antworten aufprägen gibt, die in der traditionellen Philosophie von der speziellen Metaphysik formuliert worden sind? In der älteren Literatur des logischen Empirismus wurde ein solches Vorhaben zumeist abgelehnt3, im Einklang mit der antimetaphysischen Haltung und als Reaktion auf die überzogenen Erkenntnisansprüche in der Naturphilosophie, wie sie zur Zeit des deutschen Idealismus vertreten wurden. Einige Autoren mit der entsprechenden Vorbildung, wie etwa Moritz Schlick* und Hans Reichenbach 5, trugen die begrifflichen Analysen tief in die einzelwissenschaftlichen Theorien hinein, ohne damit aber ein synthetisches Erkenntnisideal zu verfolgen. Auf der anderen Seite wurde die Aufgabe der metatheoretischen

l. Das Erbe des logischen Empirismus

9

Durchdringung auch oft von Einzelwissenschaftlern selbst vorgenommen; Beispiele dafür sind die Arbeiten von Margenau6 und WeyV', die allerdings nicht immer von einem Begriffsapparat Gebrauch machten, wie er dem formalen Ideal der logischen Empiristen entsprach. Allenthalben zeigte sich eine Art Komplementaritätsverhältnis zwischen materialer Detailverarbeitung und begrifflicher Genauigkeit. Symptomatisch sind hier die Arbeiten von Hempel* und Carnap9, die zwar sehr eingehende Präzisierungen von den strukturalen Termen wie Gesetzesartigkeit, wissenschaftliche Erklärung, theoretischer Begriff, Ramsey-Satz und dergl. enthalten, aber bezüglich des einzelwissenschaftlichen Anwendungsmaterials dieser strukturalen Tenne immer nur einen exemplarischen Gebrauch von konkreten Zusammenhängen machen. Die Beispiele erfüllen die Rolle von Illustrationen, die zeigen sollen, daß die in den begrifflichen Analysen durchgeführten Rekonstruktionen und Explikationen nicht nur logisch einwandfrei, sondern auch material adäquat den einzelwissenschaftlichen Gebrauch der strukturalen Terme wiedergeben. Die Beispiele sind im allgemeinen auswechselbar; ihr materialer Aussagegehalt ist für den speziellen philosophischen (sprich: metatheoretischen) Zweck irrelevant. Die Abwendung von der Auffassung, daß Wissenschaftstheorie ausschließlich angewandte Logik sei und sich nur mit den allen Wissenschaften gemeinsamen strukturalen, erkenntnislogischen Eigenschaften abzugeben habe, wurde sicher durch Poppers Kritik des Positivismus eingeleitet, dessen Entwicklung letztlich dazu führte, der Metaphysik wieder eine feste Rolle innerhalb metawissenschaftlicher Betrachtungen einzuräumen, und zwar als heuristischer Vorläufer und philosophischer Rahmen für die Gewinnung testbarer Theorien. Die Auferstehung der Metaphysik - zwar nicht als eine objektgerichtete Alternative zur Wissenschaft, aber als wesentlicher Motor für die Dynamik der Forschung - kann als eine der interessantesten geistigen Wendungen der Philosophie der letzten Jahrzehnte angesehen werden. Poppers Anliegen schon in der Zeit vor dem zweiten Weltkrieg war es, eine klare Demarkation von Wissenschaft und Metaphysik zu liefern, ohne die letzte mit irgendwelchen pejorativen Termen wie „sinnlos" oder „unsinnig" zu belegen; dadurch war für ihn ohne wesentlichen gedanklichen Bruch das Tor offen für eine neue Rolle der Metaphysik. Es zeigte sich, daß man über metaphysi-

10

I. Standpunkte der metatheoretischen Betrachtung

sehe Voraussetzungen der Wissenschaft in einer rational (wenn auch nicht empirisch) kritisierbaren Weise argumentieren kann und daß sich eine vernünftig stützbare Trennlinie innerhalb des Bereiches metaphysischer Theorien ziehen läßt. Es gibt logische Argumente, welche zeigen, daß metaphysische Theorien wie Determinismus, Idealismus, Irrationalismus, Voluntarismus und Nihilismus ihre Probleme, die sie zu lösen vorgeben, schlechter bewältigen als andere, wie z.B. Indeterminismus, Realismus und Objektivismus10. Von hier ist es nur ein kleiner Schritt, der Metaphysik die Rolle eines Forschungsprogramms zuzuordnen, wobei aber solche Programme nicht nur die heuristische Anregungsfunktion haben, einen Forscher auf vorhandene ungenützte begriffliche Möglichkeiten aufmerksam zu machen; metaphysische Theorien stellen vielmehr empirisch noch nicht kontrollierbare Vorläufer von wissenschaftlichen Theorien dar, die sich aber in semantischer Hinsicht bereits auf den gleichen ontologischen Objektbereich beziehen. Man kann sich dies an einem Beispiel klar machen: Demokrits Atomtheorie enthält bereits den semantischen Bezug (Referenz) auf eine Klasse unsichtbarer Objekte, die, kombiniert durch spezielle räumliche Anordnung und verschiedenartige Verkettung, bestimmte Makrophänomene erklären soll. Die Koppelungen zwischen der Mikro- und der Phänomenebene sind aber noch so unscharf und so qualitativ gehalten, daß die Atomtheorie in der klassischen Form nicht widerlegbar ist. Ihr modernes Pendant, die Theorie Bohrs, kann Phänomene wie etwa den Seriencharakter von Spektrallinien mit einem genauen Bild der Elektronen und Energieniveaus verbinden und ist aufgrund dieser quantitativen Präzision auch empirisch testbar. Wenn der Bezugsbereich beider Theorien schon wegen der verschiedenen Aussagenreichweite natürlich nicht exakt zusammenfallen kann, so gibt es doch eine nichttriviale Klasse von Qualitäten, die das Bohrsche und das demokritische Atom teilen. Aufgrund dieser Gemeinsamkeit kann die eine Theorie der metaphysische Vorläufer der testbaren wissenschaftlichen Theorie genannt werden. In dieser Hinsicht steht die antike Vorform des modernen Atomismus nicht nur im Verhältnis eines trigger-Mechanismus, als psychologische Anregung für einfallsreiche Physiker, sondern sie besitzt einen eigenständigen Behauptungsanspruch, der aber empirisch nicht eingelöst werden konnte. „Metaphysical theories are views about the nature of things"11, sie sind

2. Der Eingriff der wissenschaftsgeschichtlichen Betrachtungsweise 11

Deutungsschemata der Natur sui generis, die sich zu testbaren Theorien entwickeln können, aber nicht müssen. Für konkurrierende Deutungen metaphysischer Art kann es keine empirische Entscheidung, kein experimentum crucis geben; aber dennoch wird die Entwicklung eines metaphysischen Forschungsprogramms zu einer voll durchgebildeten wissenschaftlichen Theorie, die sich empirisch bewährt, auf das konkurrierende Deutungsschema ein ungünstiges Licht weifen. Erfolgreiche Feldtheorien in allen Bereichen der Physik werden eine Kontinuumsauffassung von der Natur stärken. Die durchgehende Verwendung des Quantenprinzips wird die Auffassung bekräftigen, daß wir in einem indeterministischen Universum leben und daß dem Zufall eine konstitutive Rolle zukommt. In diesem Sinne spricht etwa P. Suppes von einer probabilistischen Metaphysik12, welche von den gegenwärtig bewährten Theorien gestützt wird. 2. Der Eingriff der wissenschaftsgeschichtlichen Be track tungsweise Im Rahmen der Neubewertung der Metaphysik ist nicht nur eine andersartige Abgrenzung derselben gegenüber der Wissenschaft gezogen worden, es sind auch einige sonderbare erkenntnistheoretische Konsequenzen zutage getreten. Die historische Verfolgung der frühen Forschungsprogramme hat jüngst bei einigen Philosophen zu einem dem Fortschrittsgedanken des logischen Empirismus völlig antagonistischen erkenntnistheoretischen Relativismus und Skeptizismus geführt, obwohl im Selbstverständnis der diachronen Wissenschaftstheoretiker diese Konsequenz abgelehnt wird. Seit Thomas Kuhns wissenschaftshistorischen Analysen13 hat sich in philosophischen Kreisen eine methodische Unsicherheit breit gemacht, die manche schwanken läßt, welchen Standpunkt zwischen Historismus und Irrationalismus sie einnehmen sollen. Ausgangspunkt für diese Richtung der Wissenschaftsphilosophie ist die Überzeugung, daß die Wissenschaftsgeschichte das einzige Entscheidungskriterium bilden kann, an dem konkurrierende Methodologien verglichen werden können. Hatte Popper noch trotz der Vorläufigkeit aller Erkenntnis betont, daß es übergreifend über alle wissenschaftlichen Konzeptionen einheitliche Maßstäbe gebe, worin die wissenschaftli-

12

I. Standpunkte der metatheoretischen Betrachtung

ehe Methode bestehe und auf welche Weise man wissenschaftliche Erkenntnis gewinnt, so glaubt Kühn dies in dem Sinne einschränken zu müssen, daß die Methoden, die den Wissenserwerb sichern sollen, nur relativ zu einer Epoche nichtrevolutionärer Forschung (innerhalb eines Paradigmas in der Diktion Kuhns) fixiert sind, jenseits derselben aber nicht übertragbar und damit dem historischen Wandel unterworfen sind. Auch der Wahrheitsanspruch einer Theorie kann demgemäß nicht über den Rahmen der innerparadigmatischen normalen Wissenschaft hinausgezogen werden. Obwohl Kühn seinen historischen Relativismus von einem expliziten Skeptizismus trennen möchte, ist es schwer einzusehen, wie der totale Verzicht auf einen transparadigmatischen Erkenntnisfortschritt letztlich zu etwas anderem führen kann. Wenn die Theorienansätze innerhalb eines Paradigmas in jeder historischen Epoche wirklich zu gänzlich neuen, logisch unabhängigen und material unvergleichbaren Ergebnissen führen, die bezüglich ihrer Realgeltung völlig gleichberechtigt nebeneinander anzusiedeln sind und kein einziger Standard für eine übergreifende kognitive Wertung existiert, dann bedeutet dies eben bezüglich des Wahrheitsanspruches einen Skeptizismus. Nur wenn man sich auf einen konsequenten Instrumentalismus im Erkenntnisvorgang zurückzieht, somit die pragmatische Aufgabe der technischen Anwendung von der epistemischen Aufgabe der ontologischen Darstellung radikal trennt, kann man noch davon sprechen, daß es zwar einen Fortschritt in der problemlösenden Kraft von Theorien geben kann, aber ohne daß wir tatsächlich in den sich ablösenden Hierarchien von begrifflichen Entwürfen mehr und genaueres über eine aspektinvariante Realität erfahren. Man muß sich klar sein, daß, wenn diese Art von Skeptizismus unwiderlegbar und unangreifbar bleibt, sie auch diejenigen Forschungsergebnisse, die innerhalb eines Paradigmas gewonnen werden, entwertet, denn sie stellen eben nur Resultate dar, die der Einzelwissenschaftler aufgrund seiner historischen Ignoranz, seiner Scheuklappen gegenüber der diachronen Betrachtungsweise für echte Fortschritte gegenüber früheren Zeiten hält. Wenn es keinen klaren explizierbaren Zustrom von Wissen zwischen Demokrit und Gell-Mann in bezug auf den elementaren Aufbau der Materie gibt, dann sind auch die gegenwärtigen Investitionen in die Hochenergiephysik wissenschaftspolitisch nicht zu verantworten, denn alle diejenigen, die durch ihre Steuern gegenwärtig diese Unternehmungen stützen, glauben daran, daß die Entdeckung des

2. Der Eingriff der wissenschaftsgeschichtlichen Betrachtungsweise 13

- oder F-Teilchens (Hadronen, die jeweils zu einer Erweiterung des Quark-Schemas führten) nicht nur einen rahmenabhängigen, sondern echten Fortschritt bedeutet. Spezieller stützen sich die Neorelativisten bei ihrer Inkommensurabilitätsthese auf die radikale Bedeutungsverschiebung aller Terme. Da Theorien, so wird argumentiert, die durch eine wissenschaftliche Revolution getrennt sind, die Ausdrücke grundsätzlich anders verwenden, ist nicht einmal ein logischer Vergleich zwischen beiden möglich. Sie sind nicht nur miteinander inkompatibel, unverträglich, sondern inkommensurabel, mit keinem gemeinsamen Maß meßbar. Aus der Inkommensurabilität folgt somit die Unmöglichkeit, überhaupt eine Aussage über Verträglichkeit oder Unverträglichkeit zu machen. Die Befürworter der Inkommensurabilitätsthese müßten sich damit jeder Behauptung über das logische Verhältnis von zwei Theorien aus verschiedenen Paradigmata enthalten, wenn sie sich nicht in ein widersprüchliches Urteil über den Diskontinuitätscharakter von Revolutionen verstricken wollen. Entscheidend ist es, ob man den Historikern die Behauptung von der Bedeutungsverschiebung überhaupt zugeben will. Die Stellungnahmen dazu sind verschieden. Während Cordig14 die semantische Verschiebung zwar zugesteht, aber die Veränderung nicht als radikal betrachtet, leugnet Krajewski dieselbe überhaupt 15 . Kuhns wichtigstes Beispiel in dieser Hinsicht ist die Verwendung des Terms „Masse" in der klassischen Mechanik und der speziellen Relativitätstheorie. Da „Masse" bei Newton als innere unveränderliche, bei Einstein aber als geschwindigkeitsabhängige Eigenschaft gefaßt ist, sind nach Kühn die beiden Begriffe unvergleichbar. Dabei wird allerdings vorausgesetzt, daß erst die Gesamtheit der Axiome und Theoreme in der Theorie die Bedeutung eines einzelnen Termes vollständig fixieren. Es ist sicher richtig, daß die Definitionen, wie sie in den Interpretationsannahmen der Axiome einer Theorie auftauchen, immer nur einen Kern der Intension eines Begriffes wiedergeben, die weiteren Eigenschaften des hypothetisch intendierten Objektes aber im Rahmen der deduktiven Ausarbeitung der Theorie gefunden werden müssen. Doch selbst wenn man diese Einteilung zugesteht, dann bleibt die zentrale Bedeutung des Masseterms, ein Maß für die Trägheit zu sein, in beiden Theorien bestehen. Natürlich gibt es neuartige synthetische Aussagen über die Körper in der speziellen Relativitäts-

14

I. Standpunkte der metatheoretischen Betrachtung

theorie, und zu denen gehört auch die klassisch nicht vorhandene Geschwindigkeitsabhängigkeit der Masse. Daß es in beiden Theorien synthetische Sätze gibt, die inkompatibel sind, ist vereinbar damit, daß beidesmal die gleichen objektiven physikalischen Systeme angezielt werden. Ähnlich verhält es sich mit einem anderen Fall einer wissenschaftlichen Revolution, Bohrs Quantentheorie der Strahlung. Bohr gab zwar einen ganz anderen Mechanismus für die Aussendung von Strahlung an als die klassische Theorie (vgl. Kap. V), aber dennoch wird in beiden Theorien der Begriff der Frequenz mit der Kernbedeutung „Zahl der Schwingungen pro Zeiteinheit" verwendet, wenn auch andere miteinander unvereinbare Aussagen dazukommen. Überdies sind der klassische und der quantenmechanische Frequenzbegriff v kl und vqu noch durch ein Korrespondenzprinzip verknüpft, das den stetigen Übergang von vqu in vk, für hohe Quantenzahlen zum Inhalt hat. Die Existenz der Vielzahl von Korrespondenzprinzipien, mit denen das Netzwerk der physikalischen Theorien untereinander über die historischen Schranken hinweg verbunden ist, ist im Rahmen des neuen historischen Relativismus unverständlich, genauer gesagt: das numerische Zusammenfallen von Werten von andersartigen Parametern in verschiedenen Theorien für bestimmte Grenzübergänge muß als unerklärliche Koinzidenz aufgefaßt werden, der keine systematische Bedeutung zukommt. Läßt man einmal die These von der radikalen Bedeutungsverschiebung fallen, sind die verschiedenen begrifflichen Rahmen nicht mehr durch die Kluft der Unübersetzbarkeit getrennt16; Begriffe aus verschiedenen Theorien über den gleichen Objektbereich besitzen eine semantische Teilgemeinsamkeit. So gelten etwa die Aussagen über räumliche und zeitliche Intervalle in der klassischen Mechanik bezugssystemunabhängig, aber in der speziellen Relativitätstheorie nurmehr in einem Lorentz-System. Wegen der partiellen Bedeutungsüberschneidung sind Theorien vor und nach Revolutionen wohl vergleichbar, auch dort, wo sie eigenständige Aussagen machen, sie sind allerdings da unvergleichbar, wo die neue Theorie über Parameter läuft, die in der Vorgängertheorie gar nicht vorkommen. Wir schließen uns also eher der Meinung an: „I assert that this kind of comparison between systems is always possible. Theories which offer solutions of the same or closely related problems are as a rule comparable, I assert, and discussions between them are always possible and fruitful; and not only are they possible, but they actu-

2. Der Eingriff der wissenschaftsgeschichtlichen Betrachtungsweise 15

ally take place"17. Dies deckt sich auch mit der Meinung maßgeblicher Semantiker wie D. Shapere und H. Putnam, welche neuerdings die Idee der Transtheoretizität befürworten, wonach trotz eines Theorienwandels die Referenz faktischer Begriffe gleichbleibt. Nicht die Bedeutung der Ausdrücke, sondern das Wissen über die Referenten verändert sich. Daß die radikale Bedeutungsverschiebungshypothese sicher stark übertrieben ist, sieht man auch daran, daß es eine Reihe von Beispielen aus der Wissenschaftsgeschichte gibt, wo Forscher, die auf dem Boden ganz verschiedener Weltbilder standen, nicht nur verständnisvoll, sondern sogar fruchtbar miteinander sprechen konnten. Das beste Beispiel aus neuester Zeit ist hier die Auseinandersetzung zwischen Einstein und Bohr, die vom Leitbild einer realistisch deutbaren deterministischen Kontinuumsphysik einerseits und von einer vollständig statistischen Diskontinuumsphysik andererseits getragen waren; dennoch redeten die beiden nicht aneinander vorbei, sondern förderten im rationalen Diskurs neue Forschungsresultate zu Tage. Einstein entdeckte mit seinen Mitarbeitern einen neuen Typ quantenmechanischer Zustände, bei denen Korrelationen von wechselwirkungsfreien Systemen möglich sind (verschränkte Systeme) und Bohr wurde aufgrund des EPR-Argumentes zur Relationalisierung des quantenmechanischen Zustandsbegriffes geführt. Am wenigsten überzeugend ist Kuhns These, daß das Paradigma auch die Erfahrung von Grund auf verändert; diese Behauptung geht von der schon früher von anderen Autoren geäußerten Theoriebeladenheit aller Fakten aus18. In dem viel verwendeten Beispiel von der Blasenkammeraufnahme ist es nicht so, daß der Laie und der Elementarteilchenphysiker unterschiedliche Dinge sehen, der optische Wahrnehmungseindruck ist genau gleich wie auch bei dem Alltagsbeispiel, wo ein Heliozentriker und ein Geozentriker beide das gleiche optische Erlebnis von der auf- und untergehenden Sonne haben ; der Unterschied in beiden Fällen liegt im anschließenden Deutungsvorgang, bei dem das theoretische Wissen eingesetzt wird. Diese beiden Phasen des Erkenntnisvorganges sind durchaus zu trennen. Im Blasenkammerbeispiel ist dies besonders deutlich, weil hier effektiv nur die Spuren, d. h. die Wirkungen der Teilchen zu sehen sind, die Ursachen selbst sind die hypothetisch erschlossenen Objekte, die aus nomologischen Gründen prinzipiell unsichtbar sind; aber

16

I. Standpunkte der metatheoretischen Betrachtung

auch beim Makrobeispiel der Sonnenbewegung sind alle unsere Wahrnehmungen sicher geozentrisch, die Bewegung der Erde ist eine hypothetische Rekonstruktion, die mit dem gesamten Erfahrungsmaterial aber in Einklang ist. In gleicher Weise hat Kühn auch die Entdeckung des Uranus in sein historistisches Schema gepreßt. „Da nach älterer Auffassung die Zahl der Planeten (5 + Erde) feststand, ,sahen' alle Beobachter bis Herschel einen Fixstern. Als aber nach einer kurzen Phase, wo man den Uranus vergeblich in die Bahn eines Kometen einzupassen versucht hatte, sich die Planetendeutung bestärkte, gab es in der Welt der professionellen Astronomen einen Stern weniger und einen Planeten mehr"19. Der Fehler dieser Deutung liegt hier darin, daß es sich nicht um eine tatsächliche Verschiebung des Sehbildes handelt - man hätte ja theoretisch leicht, wenn man das menschliche Auge als eine Kamera betrachtet, Aufnahmen von vor 1781 mit solchen von nach 1781 vergleichen können - sondern daß das gleiche Bild in einen unterschiedlichen Deutungsrahmen eingebettet worden ist. „In wissenschaftlichen Revolutionen ändert sich die Welt, die wir sehen und in der wir uns zurecht zu finden meinen, nicht. Was sich ändert, sind nur die in unseren Theorien formulierten Erklärungen dessen, was wir sehen"20. So sind die Beschreibungen, die Aristoteles, Newton und Einstein von dem Phänomen eines fallenden Körpers geben, sicher gleich, aber die Frage, warum sich der Körper so wie beobachtet verhält, wird im ersten Fall durch das Streben zum natürlichen Ort, im zweiten unteleologisch durch die Wirkung der Gravitationskraft, im dritten durch das Geodätenprinzip verständlich gemacht. Eines sollte noch einmal betont werden, unabhängig davon, ob man die Inkommensurabilitätsthese für Paradigmen (Kühn) oder für Theorien (Feyerabend) behauptet, in jedem Fall führt der Standpunkt des konsequenten Antikumulativismus, wonach das Wissen einer normalwissenschaftlichen Periode sich nicht in irgendeiner Weise zu dem einer anderen hinzufügen läßt, letztlich zum Skeptizismus. Ob Okkasions- oder Permanentrevolutionismus die Entwicklung des Wissens über einen autonomen Gegenstandsbereich in grundsätzlich unvergleichbare Epochen zerlegt, ist letztlich unwesentlich - wenn es nicht irgendeine Art von Kontinuität zwischen den Forschungsprogrammen, z. B. nach der Art von Lakatos gibt21, also eine Synthese von Revolution und stetiger Entwicklung, dann wird

3. Objektive Erkenntnis

17

die Arbeit an einem wissenschaftlichen Weltbild zu einem unverbindlichen Spiel, das vielleicht von pragmatisch instrumentellem Interesse ist, aber keine kognitive Relevanz besitzt. Der Grund hierfür liegt darin, daß dem Bewertungsproblem von konkurrierenden Methodologien völlig ausgewichen wird. Wenn es keine Bewertungskriterien zwischen alternativen Paradigmen gibt mit Ausnahme des subjektiven Konsensus, dann ist auch das Wissen, das innerhalb eines Paradigmas gewonnen wird, relativiert22. Die früher angeführten Argumente reichen jedoch hin, um zu zeigen, daß in der gegenwärtigen Situation ein solcher Erkenntnisrelativismus nicht angenommen werden muß, daß vielmehr, als Folge der durchlässiger gewordenen Grenzen zwischen Philosophie und faktischer Wissenschaft, von der Biologie her eine Stützung des objektiven Charakters von Erkenntnis erwachsen ist.

3. Objektive Erkenntnis Im gegenwärtigen Spektrum wissenschaftstheoretischer Bemühungen sind indessen nicht nur destruktive Strömungen enthalten, die den älteren Positivismus durch relativistische, irrationalistische, anarchistische23 Methodologien ersetzen wollen, sondern es sind durchaus auch konstruktive Bemühungen um die Kontinuität objektiver Erkenntnis zu verzeichnen. Eine von ihnen rührt von einem Ansatz her, der zuerst von einer Einzelwissenschaft, nämlich der Biologie, ausging, dann aber von der Philosophie aufgenommen wurde. Was die auf biologischer Basis aufgebaute Erkenntnistheorie mit den vorstehend geschilderten historisierenden Tendenzen gemeinsam hat, ist die Einbeziehung des Zeitfaktors in den Prozeß des Wissenserwerbs. So verschieden die klassischen Positionen der Epistemologie auch sein mögen (Empirismus, Rationalismus, transzendentaler Idealismus, kritischer Realismus etc.), allen war gemeinsam, daß sie die Erkenntnis statisch als fertig gegebenes Vermögen betrachten, das es zu analysieren galt. Die Aufmerksamkeit galt dem Rechtfertigungsproblem der Erkenntnis, wie es sich etwa in der kantischen Frage spiegelt: Wie ist Mathematik, Naturwissenschaft, Metaphysik möglich? Dabei wurde immer ein bestimmtes logisches

18

I. Standpunkte der metatheoretischen Betrachtung

Denkvermögen, mit dem Theorien konstruiert, Ableitungen vorgenommen, Experimente durchgeführt werden, schon vorausgesetzt. Es war naheliegend, daß der Anstoß von der Biologie, Physiologie und Ethologie kam, den Prozeß der Erkenntnisgewinnung in einer naturalistischen Weise von außen zu betrachten24. Anstatt die Denkfigur zugrunde zu legen, wonach ein in seinen Phänomenen gefangenes Subjekt fragt, wie es zu verstehen sei, daß sich innerhalb seiner Erscheinungswelt relativ stabile Muster auffinden lassen und ob es berechtigt sei, diese mit irgendwelchen transsubjektiven Dingen „in Korrelation zu setzen", wird von vorneherein der Ansatz vorgegeben, daß menschliches Erkennen (aber sicher auch bis zu einem bestimmten Grad tierisches) als eine Wechselwirkung zwischen einem realen aktiven lebendigen System (nicht Subjekt!) und einer ebenso realen Gegenstandswelt (nicht Außenwelt!) aufzufassen sei. Das objektivistische Moment steckt hier natürlich schon im Ansatz drin, und es kann sich nur rechtfertigen durch seine Leistung, nämlich dadurch, ob es wirklich möglich ist, auf dieser Basis das Funktionieren von Erkenntnis ohne Rest zu verstehen. Das erkennende System, als ein Stück biotischer Materie mit einer kognitiven Struktur aufgefaßt, hat in dieser Sicht keine ontologisch ausgezeichnete Position unter den anderen physischen Systemen der Welt. Die kontingente Tatsache, daß unser Ich-Bewußtsein sich in einem dieser Systeme wiederfindet, daß wir also jeder an ein bestimmtes materiales System gebunden sind, legt den notwendigen Ausgangspunkt des Erkenntnisprozesses fest, geht aber weder in den Inhalt des Ergebnisses noch in den objektiven Status der Aussagen ein. Daß Menschen mit bestimmten beschränkten Erkenntnismitteln auskommen müssen, ist verständlich, wenn man in Betracht zieht, daß der Erkenntnisapparat ein Ergebnis der Evolution ist. Was sich von der Sicht des kognitiven Systems her als Objektivation ausnimmt, daß nämlich Gruppen von Phänomenen als Auswirkungen einer kausal auf dieses System einwirkenden autonomen Gegenstandswelt aufgefaßt werden, ist danach nicht nur ein Schritt logischer Konstruktion25, sondern ist unter Vorgabe bestimmter biologischer Zusammenhänge über den physischen Bau des Erkenntnissystems im Sinne faktischen Wissens verstehbar. Ist diese Rekonstruktion einmal durchgeführt, können die im Ansatz verwendeten biologischen Gesetzmäßigkeiten in die damit erstellte Theorie der Erkenntnis nachträglich ein bezogen werden.

3. Objektive Erkenntnis

19

Entscheidend ist nun der evolutionäre Gesichtspunkt an diesem biologischen Ansatz 26 : Erkenntnis wird danach als Leistung eines organischen Systems angesehen, das dieses im Laufe der Stammesgeschichte hervorgebracht hat. Das epistemische Vermögen, das im Dienst der Arterhaltung steht, ist durch Wechselwirkung mit seiner Umgebung entstanden, und der Passungscharakter der subjektiven Erkenntnisstrukturen ist über den Adaptionsvorgang verstehbar. Der Erkenntnisapparat kann nicht völlig falsche Informationen über die Realstrukturen liefern; dies wird durch den Druck, den das Ziel zu überleben ausübt, erzwungen. Simpsons klassisches Beispiel erhellt dies immer noch am deutlichsten: „Der Affe, der immer zu kurz sprang, wenn er sich von Baum zu Baum schwingen wollte, gehört nicht zu unseren Vorfahren". Die dynamische Betrachtungsweise des Instrumentes der Wissensgewinnung gestattet nicht nur die Frage, wie der Erkenntniserwerb funktioniert und wieso bestimmte Inhalte mit Fug und Recht behauptet werden können, sondern auch die Frage, warum der Mensch überhaupt dieses Vermögen besitzt und welche logische Abhängigkeit zwischen der Gültigkeit bestimmter Erkenntnisinhalte und der Dynamik des Erkenntnissystems besteht. Als Ursache für das Vorhandensein der epistemischen Fähigkeit überhaupt wird von der Biologie ein Anpassungsvorgang angeführt derart, daß die Möglichkeit der Aufnahme von Information über seine Umgebung dem organischen System einen Selektionsvorteil verschafft. Indizien für diesen Vorgang sind in den in der Morphogenese entstehenden Bildern der Außenwelt - Flossen als Abbilder der hydrodynamischen Eigenschaft des Wassers, Augen als Abbilder des Sonnenlichtes - zu erblicken. Hier enthüllt sich nun eine Art des Ablaufes der Wissensgewinnung, die durchaus kumulativ ist. Überblickt man die Evolution von den einfachsten Lebewesen bis zu den höchst organisierten, so zeigt sich, daß in der kognitiven Auseinandersetzung aller Biosysteme mit ihrer Umgebung niemals ein Widerspruch auftritt. Für Lorenz ist dies eine der überzeugendsten Tatsachen, die für einen hypothetischen Realismus in der Erkenntnistheorie sprechen. Als entscheidend muß es angesehen werden, daß die in Aussageform transformierten Erfahrungen unterschiedlich organisierter Lebewesen nicht nur miteinander vereinbar sind, das wäre auch der Fall, wenn sie vollständig irrelevant zueinander wären, sondern sich in ihrem

20

I. Standpunkte der metatheoretischen Betrachtung

Informationsgehalt im Sinne einer Verfeinerung zusammensetzen lassen. Daß die Erfahrungen der verschiedensten erkennenden Systeme jeder Organisationsstufe kumulativ verkettbare Aussagen liefern, ist sicher in einfachster Weise dadurch zu erklären, daß ein Stück unbekannter Realität auf Erkenntnisapparate verschiedenen Auflösungsvermögens eingewirkt hat. 27 Ist also der Erkenntnisprozeß in der biologischen Entwicklung durchaus im Sinne einer fortschreitenden Verfeinerung deutbar, so ist es naheliegend, die kulturelle Evolution als deren natürlichen Nachfolger anzusehen. Die trial and error-Methode läßt sich als Instrument der Wirklichkeitsbewältigung von den lebensdienlichen bis zu den kognitiven Interessen verfolgen. Man muß sich allerdings klar sein, daß hier eine logischstrukturelle Analogie verwendet wurde. In beiden Evolutionstypen findet man Elemente, die homologe Rollen spielen und ähnlichen Gesetzen folgen. Popper hat den Gedanken der evolutionären Betrachtungsweise aufgenommen28 und sein früheres falsifikationistisches, eher antikumulatives Erkenntnismodell - das zwar schon die logische Struktur des Überlebens des Tüchtigsten besitzt, dem aber noch der entscheidende Kontinuitätsgedanke abgeht - mit dem Gedanken des Wissenswachstums verbunden. Beim Wissenserwerb gehen wir nicht, wie der ältere Positivismus meinte, von einem Satz neutraler Daten aus, sondern von Problemen, die Anlaß zu Lösungsvorschlägen (Vermutungen) geben, und versuchen anschließend, die deduktiven Konsequenzen auf ihre empirische Adäquatheit zu prüfen. In dem gleichen Sinne wird auch jedes Tier mit einem Horizont von Erwartungen und Antizipationen geboren, welche bei den höchsten Tieren als Hypothesen formuliert werden. Schaffen so die angeborenen Erwartungen die ersten Probleme, so besteht der Erkenntnisfortschritt in der Berichtigung und Abänderung des prädisponierten Wissens. Damit gibt es einen stetigen Zusammenhang des Wissenswachstums im ganzen Reich des Lebendigen. Der Erkenntnisfortschritt hat die gleiche logische Struktur wie Darwins natürliche Auslese. Im einen Fall handelt es sich um einen Existenzkampf der Individuen und im anderen um einen Konkurrenzkampf der Hypothesen. Popper gelingt es besser als Lorenz, einem biologischen Pragmatismus auszuweichen, wonach menschliche Erkenntnis nur Mittel im Lebenskampf darstellt. Die tüchtigsten Hypothesen sind nicht immer die,

3. Objektive Erkenntnis

21

die zum eigenen Überleben beitragen, sondern die das Problem am besten lösen, indem sie jene Theorien finden, die am besten mit den Tatsachen übereinstimmen. Das Schlagwort „Überleben" darf nur als ein metaphorisches Strukturanalogon gewertet werden, denn es ist mit logischen Methoden zu ermitteln, ob eine Hypothese den Kampf mit den Konkurrenten besteht, aber durch Beobachtung zu entscheiden, welche Spezies die stärkere ist. Für eine evolutionäre Theorie des Erkennens und des Wissenswachstums ist es entscheidend, daß sie die Loslösung der reinen Erkenntnis vom biologisch Dienlichen formulieren kann. Sie muß daher annehmen, daß der Selektionsdruck einen Erkenntnisapparat erzeugt hat, der allgemeiner ist, größere Reichweite hat als zur Arterhaltung notwendig. Das geistige Erkenntnisvermögen muß genügend Offenheit besitzen, um theoretische Konstrukte zu entwerfen, die den nichtphänomenalen Teil der Wirklichkeit erfassen. Wir wissen durch das Versagen der Anschaulichkeit in den fundamentalen Bereichen der Wissenschaft, daß die Grundstrukturen der Wirklichkeit nur zugänglich werden, wenn man die grobsinnlichen Kategorien, die für die Beschreibung der Oberflächenbeschaffenheit unserer physischen Umgebung notwendig waren, überschreitet. Das Prinzip der Komplementarität in der Quantenmechanik ist ein Beispiel aus der Physik im Kleinen, und die Verwendung von gekrümmten Raumzeiten in der Relativitätstheorie ist eines aus der Physik der ganz großen Bereiche. Was durch den evolutionären Standpunkt bei der Erkenntnisgewinnung geliefert werden kann, ist natürlich nur ein suggestiver Hinweis auf eine realistische Wissenschaftsphilosophie, aber es ist sicher kein strenger Beweis für die Notwendigkeit einer solchen Rekonstruktion des Wissenserwerbs. Die evolutionäre Erkenntnistheorie trägt der Tatsache Rechnung und ist vereinbar damit, daß der Mensch Produkt der biologischen und in der Folge der sozialen und kulturellen Evolution ist, und als deskriptive Epistemologie erhebt sie überdies den Anspruch darauf, analytisch konsistent zu sein.29 Der Rekurs auf eine faktische Theorie bei der Rekonstruktion des Erkenntnisprozesses verhindert allerdings jede Art von Letztbegründung. Er macht vielmehr von einem kontingenten Faktum Gebrauch, das im Rahmen dieses Ansatzes nicht weiter begründet wird. Gibt man diesen Startpunkt für die Analyse aber einmal vor, so kann im Rahmen der damit erreichten Erkenntnisreflexion auch ein epistemisches

22

I. Standpunkte der metatheoretischen Betrachtung

Verständnis der als Einstieg gewählten Ausgangstheorie erreicht werden. Für eine Teilfunktion der Erkenntnis, dem Sehvermögen, hat Campbell ein instruktives Beispiel für die Abhängigkeit einer Erkenntnisfähigkeit von einem kontingenten Faktum geliefert.30 Niemand hätte aus dem Wissen einer Protozoe schließen können, daß das Sehen sich auf die Ausnützung eines günstigen Zufalls stützen wird, nämlich daß für ein enges Band von elektromagnetischen Wellen die meisten Körper undurchsichtig sind, zugleich aber auch undurchdringlich gegenüber Bewegungen. In diesem Teil des Spektrums sind Substanzen wie Wasser und Luft transparent, aber auch gut durchdringbar, während für andere Spektralbereiche diese Koinzidenz verschwindet. Nicht hineinpassende Substanzen, wie Glas und Nebel, haben in der Ökologie der Evolution offensichtlich keine Rolle gespielt. Entscheidend ist hier, daß die Sehfunktion sich zwar um diese kontingente Schlüsseleigenschaft der Natur gebildet hat, dennoch aber die Information, die wir mit dem so entstandenen Organ erhalten, nicht mehr in ihrer Gültigkeit von dieser Zufälligkeit abhängig ist. Deshalb ist die evolutionäre Erkenntnistheorie auch kein zirkuläres Unternehmen; allerdings kann sie die Forderung nach einer ultimativen Fundamentierung des Wissens, einer Letztbegründung der Erkenntnis, nicht erfüllen. Jedenfalls ist die Voraussetzung, daß es sich bei der speziell dabei verwendeten einzelwissenschaftlichen Theorie bereits um echte Erkenntnis handelt, keine petitio principii, sondern es handelt sich um eine rückgekoppelte Vorgangsweise, bei der von einem frei gewählten Ansatzpunkt der Erkenntnisprozeß aufgerollt wird und das Ergebnis dann anschließend wiederum zum Verständnis auch der speziellen Einstiegstheorie, in diesem Fall des Neodarwinismus, verwendet werden kann. Der genetische Standpunkt kann sicher dazu dienen, die Glaubwürdigkeit einer realistischen Wissenschaftsauffassung zu stützen; es gibt jedoch auch davon unabhängig Argumente, die die Tragfähigkeit eines solchen Ansatzes einsichtig machen. Man kommt am besten dazu, indem man den Kern der Differenzpunkte der einzelnen erkenntnistheoretischen Ansätze Revue passieren läßt. Dies kann man sehr gut anhand der Rolle studieren, die einer wissenschaftlichen Theorie zugebilligt wird. Dazu gibt es ein weites Spektrum von Meinungen. In einer ersten Näherung kann man den phänomenalistischen, operationalistischen und instrumentalistischen Stand-

3. Objektive Erkenntnis

23

punkt zusammenfassen und als idealistische Deutungen bezeichnen, da ihnen ein betonter Vorrang des ideell-begrifflichen Elementes gemeinsam ist. Während der Phänomenalismus vertritt 31 , daß Theorien ökonomische Beschreibungen von aktualen und möglichen Sinneswahrnehmungen sind, verlangt der Operationalismus32, daß alle deskriptiven Terme einer Theorie mit Anweisungen auszustatten sind, wie die entsprechenden Größen gemessen werden können, ansonsten dem Term keine kognitive Bedeutung zukommt, und der Instrumentalismus leugnet überhaupt 33 , daß Theorien eine andere als eine syntaktische Funktion besitzen, derart, daß bestimmte empirische Eingangsdaten in konventionalistischer Weise mit den prognostischen Ausgangsdaten verbunden werden, der dabei verwendete Umsetzungsmechanismus aber für eine reale Beschreibung keine faktische Bedeutung besitzt. Ebenso wie der Ausdruck „Idealismus" im epistemologischen Sprachgebrauch, so ist der Terminus „Realismus" im gleichen Kontext eine Abkürzung für eine Gruppe von Standpunkten, innerhalb derer man u. a. einen strukturalen, repräsentativen, hypothetischen, kritischen und naiven Realismus als verschiedene Versionen unterscheiden kann. Wie immer die Elemente dieser Begriffsfamilie getrennt werden, worauf wir hier nicht in extenso eingehen können, allen Spielarten ist sicher die semantische Tatsache gemeinsam, daß die faktischen Gesetze und Theorien der Wissenschaft sich auf einen Aspekt der transsubjektiven Wirklichkeit richten, d.h. über bestimmte vermutete strukturale Eigenschaften derselben reden, andererseits aber von Erfahrungen - d. s. epistemische Wechselwirkungsereignisse zwischen Natur und kognitivem System - geprüft werden. Das entscheidende Moment in dieser Gemeinsamkeit besteht darin, daß der referentielle Bezug und der evidentielle Rücktransfer von Information über die faktische Adäquatheit einer Theorie, der über den experimentellen Test erfolgt, begrifflich auseinander gezogen werden.34 Der Sachbezug einer Theorie, der über die semantische Kategorie der Referenz ausgedrückt wird, hat zumeist nicht die einfache Form, wie wir es in dem vorstehenden Satz formuliert haben. In den hochentwickelten Wissenschaften ist häufig zwischen Theorie und Realität noch ein idealisierendes Modell eingeschaltet, so daß die Theorie sich zuerst auf die vereinfachende und mathematisch besser zu handhabende Modellvorstellung bezieht und erst diese

24

I. Standpunkte der metatheoretischen Betrachtung

dann von realen Systemen handelt. So befaßt sich die klassische Teilchendynamik zwar mit Planeten, aber vermittels des vereinfachenden Modells des Massenpunktes, und in der Friedman-Kosmologie, wie sie in der Relativitätstheorie verwendet wird, gebraucht man eine perfekte Flüssigkeit als idealisierendes Modellobjekt der kosmischen Materie. Der entscheidende Unterschied in der Auseinandersetzung zwischen der idealistischen und realistischen Position besteht in der andersartigen Bewertung der Beobachtungsdaten. In realistischer Sicht wird das Beobachtungsmaterial nur im methodologischen Sinne, also den Test einer Theorie betreffend, verwendet, d.h. um etwas über den Bewährungsgrad der theoretisch-abstrakten Hypothesen zu erfahren. So gesehen ist es nicht das Ziel der Theorie, über Erfahrungen zu sprechen; der Aussageanspruch geht darauf aus, zumindest in ausgewählten Zügen und unter Wahrung des hypothetischen Charakters aller Aussagen die gesetzesartigen Strukturen realer Systeme zu erfassen. Nur in einem winzigen Teilbereich des Bezugsbereiches existieren sogenannte epistemische Koppelungen, die zu Wahrnehmungen führen, welche dann die Rolle von Testinstanzen spielen können. So spricht eine paläontologische Theorie über das reale ausgestorbene Tier in der Vergangenheit und verwendet die gefundenen Skelettreste als stützendes Material für die hypothetische Rekonstruktion. Ebenso handelt eine Elementarteilchentheorie vom Proton, Neutron, Elektron, aber nicht von den Spuren in der Nebelkammer. Das Skelett und die lonisierungsspuren stellen das stützende (oder unterminierende) empirische Material für (oder gegen) eine vorliegende Hypothese dar. Aufgrund der deutlichen Unterscheidung von Referenz und Evidenz ist es keine Schwierigkeit, der Überschußbedeutung, die eine hochrangige Theorie über die Menge der Testinstanzen hinaus besitzt, Rechnung zu tragen, und man ist nicht gezwungen, artifizielle Übersetzungen der Theorie zur Elimination der nichtempirischen Terme vorzunehmen. Abgesehen davon haben begriffliche Analysen gezeigt35, daß Reduktionsverfahren unter Verwendung der logischen Sätze von Ramsey und Craig sowieso keine Entscheidungen in erkenntnistheoretischer Hinsicht bringen können, sondern die metaphysische Argumentationslast nur verlagern. Wir werden uns in den weiteren Abschnitten des Buches an den eben befürworteten metatheoretischen Standpunkt halten und eine Analyse der

4. Wissenschaftstheorie und Naturphilosophie

25

zentralen Aussagen der Naturwissenschaft, vor allem der Physik, unter diesem Gesichtspunkt vornehmen.

4. Wissenschaftstheorie und Naturphilosophie Ehe wir an diese Arbeit gehen, ist aber noch auf eine Unterscheidung aufmerksam zu machen, die für die Behandlungsart des Stoffes in der Folge entscheidend sein wird. Die allgemeine Wissenschaftstheorie versteht sich im wesentlichen als Anwendung der formalen Logik und Semantik mit dem Ziel, die strukturalen Schlüsselterme, die zur MetaStruktur aller Wissenschaften gehören, zu klären.36 Unter spezieller Wissenschaftstheorie versteht man hingegen jene Begrenzung der allgemeinen Resultate, welche objektbereichsspezifische Komponenten besitzen. Dies bedingt etwa die besondere Betonung der Funktionalanalyse in einer Wissenschaftstheorie der Biologie, die Analyse von Variationsprinzipien und Erhaltungssätzen in einer Wissenschaftstheorie der Physik und die Rolle von „self fulfilling prophecy" und „suicidal prediction" in einer Wissenschaftstheorie der Sozialwissenschaften. Bei einer solchen Spezifizierung wird zwar den methodologischen, semantischen und logisch-strukturellen Besonderheiten einer Wissenschaft Rechnung getragen, jedoch wird noch kein kognitiver Gebrauch von den materialen Inhalten der Aussagen der betreffenden Wissenschaft gemacht. Die speziellen Gesetze, Theorien und Hypothesen erfüllen auch hier nur den Zweck, exemplarische Veranschaulichung des Funktionierens einzelner Metatheoreme zu sein. Sie sind die Testfälle der Aussagen über die Wissenschaftsstruktur. Nun lehrt aber ein kurzer Blick auf die Themenkreise der einschlägigen Zeitschriften, daß dort noch ein anderer Typ von Problemen abgehandelt wird, der nicht nur über die Art wissenschaftlicher Argumentation, die logische Form eines Gesetzes oder die Quelle theoretischer Terme geht, sondern von den Ergebnissen der Wissenschaft Gebrauch macht. In diese Kategorie gehören alle jene Sachgebiete, die in der traditionellen Philosophie unter anderen methodischen und faktischen Voraussetzungen - in der Rubrik der metaphysica specialis oder Naturphilosophie abgehandelt worden sind. Hierhergehören etwa die Fragen um die Natur des Raumes, die Richtung der Zeit, die Kausalstruktur der Welt, die Architektur der Materie, die Verbindung des großräumigen Auf-

26

I. Standpunkte der metatheoretischen Betrachtung

baus der Welt mit den lokalen Gesetzen. Dies sind alles Themen, die historisch gesehen ohne Zweifel in die Kompetenz der Philosophie fallen, gegenwärtig aber sicher nicht mehr auf apriorische Art behandelt werden können, sondern nur unter Einbeziehung der grundlegenden Aussagen hochrangiger physikalischer Theorien. In der analytischen Philosophie ist vor allem unter dem Einfluß von Wittgenstein die Meinung vorherrschend geworden, daß einzelwissenschaftliche Ergebnisse irrelevant für die Lösung von philosophischen Problemen seien.37 Unter seinem Einfluß wurde der Einwand vorgebracht: In dem Moment, wo materiale Elemente in einen Satz einbezogen werden, wird dieser synthetischer Natur, und zugleich fällt er auch nicht mehr in die Entscheidungskompetenz des Philosophen, sondern desjenigen, der das relevante empirische Material zur Prüfung zutage fördert; darum also soll der Philosoph von einer Bewertung dieses Satzes Abstand nehmen. Das Argument macht die Voraussetzung, daß die einzige denkbare Art und Weise der Auswertung einer synthetischen Aussage oder eines Aussagensystems im hypothetisch-deduktiven Verfahren des Entwickeins der Konsequenzmenge und der anschließenden Konfrontation mit den entsprechend aufbereiteten Daten zu sehen ist. Diese Einschränkung ist aber sicherlich voreilig. Die Strategien zur Lösung naturphilosophischer Probleme bestehen nicht in dem eben charakterisierten einzelwissenschaftlichen Gebrauch der synthetischen Aussagen, sondern in der Reflexion auf die epistemologischen und ontologischen Komponenten derselben, im materialen Vergleich von sehr weit auseinanderliegenden logischen Folgerungen verschiedener Theorien und im Grenzgespräch zwischen Konsequenzen von Theorien verschiedener Disziplinen. An Beispielen ist dies sehr schön zu sehen: So fordert die seit Jahrhunderten währende Auseinandersetzung um den absoluten oder relationalen Status des Raumes bzw. der Raumzeit sicher die Einbeziehung der grundlegenden Aussagen der jeweiligen physikalischen Theorien über Raum und Zeit (Newtons Mechanik, Einsteins Relativitätstheorie, Wheelers Geometrodynamik). Aber die Entscheidung der Kontroverse von Leibniz contra Clarke bis Grünbaum contra Wheeler erfordert nicht, daß der Philosoph selbst sich am Validierungsprozeß der einschlägigen Theorien beteiligt, obwohl deren Gültigkeit selbstredend wichtig für die im philosophischen Kontext angestellten Überlegungen ist. Die Wirkungsweise der syn-

4. Wissenschaftstheorie und Naturphilosophie

27

thetisierenden Funktion philosophischer Reflexionen über die Natur sieht man auch deutlich bei dem Thema der Zeitrichtung. Hier taucht die Frage nach einer gemeinsamen Wurzel der Auszeichnung retardierter Lösungen in der Elektrodynamik, der thermodynamischen Irreversibilität und des menschlichen Erlebens des Vorwärtsfließens der Zeit auf. Die mögliche Antwort, daß die gemeinsame Wurzel all dieser Anisotropien in der kosmischen Expansion liegt38, verlangt die Zusammensetzung von Informationen aus den verschiedensten Teilen der Physik. Wenn es einen hierarchischen Aufbau der Zeitpfeile gibt, dann läßt er sich nur durch das mosaikartige Verbinden von Ergebnissen aus weit auseinanderliegenden Gebieten rekonstruieren. Nun wäre es sicher völlig abwegig, zwischen analytischer und synthetischer Philosophie so etwas wie eine strenge Dichotomic aufzubauen. Sicher kann man eine Theorie der allgemeinen oder speziellen Wissenschaftsstruktur ohne Rekurs auf die Wahrheit der materialen Ergebnisse aufbauen, d.h. die Geltung der Aussagen einer solchen Metatheorie hängt nicht von der Wahrheit der analysierten Objektaussagen, damit von einem Zustand der Welt ab. Die logische Struktur einer wissenschaftlichen Erklärung oder die Abgrenzung von nomologischen und akzidenteilen implikativen Allsätzen darf nicht auf der empirischen Bewährtheit einer bestimmten Klasse von Erklärungen oder Gesetzen aufgebaut sein; hingegen muß eine synthetische Philosophie immer bestimmte faktische Elemente enthalten, die für wahr gehaltenen Theorien entnommen werden. Aber sie wird ihre Aufgabe nicht ohne das begriffliche Instrumentarium der analytischen Philosophie erledigen können. Gerade bei der Untersuchung von Fragen, die aus dem Grenzgebiet verschiedener Wissenschaften stammen, in deren Kontext viele Schlüsselterme einen relativ unabhängigen, autonomen Gebrauch aufweisen, sind die Methoden der Begriffsklärung, der terminologischen Explikation und Definition unabdingbar. Hier kann die synthetische Philosophie durchaus auch gelegentlich eine negative Funktion ausüben, wenn es etwa darum geht, einen vermuteten Zusammenhang der Unschärferelation mit der menschlichen Freiheit (Pascual Jordan) oder die aus dem quantenmechanischen Meßprozeß gezogene Konsequenz einer spiritualistischen Ontologie (Eugene Wigner) zu kritisieren. In der Hauptsache wird ihr als langfristiges Ziel jedoch die positive Aufgabe gesetzt

28

I. Standpunkte der metatheoretischen Betrachtung

werden, so etwas wie ein Weltbild zu erarbeiten, worunter man die Integration von zentralen Aussagen der bereichsspezifischen und aspektabhängigen Theorien zu einem kohärenten Ganzen verstehen sollte. Der Begriff „Weltbild" hat zweifellos eine sehr schillernde Bedeutung.39 In dem eben umschriebenen Sinn eines begrifflichen Rahmens für die grundlegenden Strukturen der Natur kann es die Aufgabe erfüllen, einen teleskopartigen Überblick über die Welt zu liefern, in der wir leben. Eine solche Synopsis, die dem Menschen in dem ihn umgebenden, an Strukturen und Gebilden reichen, aber auch äußerst komplizierten Universum eine epistemische Orientierung ermöglicht, wird in der Tat, wie die Wissenschaft selbst, nur schrittweise voranschreiten - sie muß auch damit rechnen, daß mit der schnellen Abfolge wissenschaftlicher Revolutionen Integrationsansätze immer wieder zerstört werden. Eine derartige Synthese kann, anders als metaphysische Entwürfe, niemals hoffen, ein unüberholbares Weltbild aufzubauen40, sondern dieses muß den Wandel der Wissenschaft selbst begleiten. Insofern ist es auch nicht geraten, daß der Philosoph, soweit er an einer Weltbildkonstruktion interessiert ist, sich selbst spekulativ betätigt, nach Art der induktiven Metaphysik über den gegenwärtigen Wissensstand hinausgeht und nach irgendeiner übergeordneten Dach-Theorie sucht. Wenn es eine einheitliche Theorie aller mikroskopischen und makroskopischen Erscheinungen gibt, dann ist es Aufgabe der mathematischen Physik selbst, sie zu finden (z.B. der neue Supergravity-Ansatz). Die Konstruktion eines Weltbildes setzt aber mitnichten eine solche Einheitstheorie voraus, wie sie etwa von Heisenberg, Wheeler und Finkelstein angestrebt wurde - wenn es keine Einheit der Natur gibt und z.B. die vier Wechselwirkungen der Physik als unreduzierbares kontingentes Faktum unverbunden nebeneinander stehenbleiben müssen, dann ist dies eben ein Grundzug der Welt und wird mit anderen nomologischen Zügen und de facto-Randbedingungen in das Weltbild eingehen - und schon gar nicht kann es Aufgabe des Philosophen sein, hier seine Phantasie schweifen zu lassen. Damit soll klargestellt sein, daß nicht einem induktiv (hypothetisch-konstruktiv) verallgemeinernden, noch einem metaphysisch spekulativen Überbau das Wort geredet sein soll, sondern nur einer konsistenten Zusammenschau der vielen zersplitterten Detailergebnisse der einzelnen Wissenschaften.

4. Wissenschaftstheorie und Naturphilosophie

29

Damit ist bereits ein weiterer problematischer Punkt nicht nur der Naturphilosophie allgemein, sondern auch dieser Darstellung getroffen. In einer synthetischen Philosophie umfassenderer Art müßten selbstredend die Ergebnisse aller Grunddisziplinen von der Natur einbezogen werden. Die Natur zerfällt nicht in einen materialen, organischen, psychischen, sozialen, usw. Bereich, sondern aus Gründen der Arbeitsteilung muß der physische, lebendige und geistige Aspekt der Natur mit bereichsspezifischem begrifflichem und experimentellem Instrumentarium untersucht werden. In eine philosophische Synthese sollte natürlich die Verknüpfung der zentralen Aussagen aller dieser Disziplinen eingehen. Nun ist aber eine Aufarbeitung der Ergebnisse mehrerer Fächer aufgrund der Grenzen der Arbeitskraft und Kompetenz eines Einzelnen wohl kaum erreichbar. Abgesehen davon sind die verschiedenen Gebiete gegenwärtig noch in einem sehr unterschiedlichen Grade metatheoretisch durchdrungen. Dies hängt allerdings auch mit dem Entwicklungsstand der Disziplinen selbst zusammen. Zwar ist die Abwehr gegen die mathematische Methode in den nichtexakten Naturwissenschaften merklich gesunken, aber auch wenn man die Psychologie etwa ontologisch als Wissenschaft von dem komplexesten organischen System behandelt, so ist nicht zu übersehen, daß sie weitestgehend noch in einer deskriptiven Entwicklungsphase befangen ist, vielleicht einige niedrigrangige empirische Generalisationen, aber sicher noch keine echten, stabilen Gesetze besitzt, demgemäß es auch unangebracht ist, hier nach theorieartigen logischen Systematisierungen zu suchen oder gar nach hochrangigen Fundamentalaussagen zu recherchieren, wie sie etwa den Variationsprinzipien der Physik entsprechen. Angewandt auf das Problem der Einheit der Wissenschaften ist es in einem solchen Fall schwierig, die für eine Einheit notwendigen intertheoretischen Beziehungen zu finden. Was eben für die Psychologie gesagt wurde, gilt cum grano salis auch für viele andere Disziplinen. So ist etwa die wissenschaftstheoretische Behandlung vieler angewandter Wissenschaften wie Geologie, Geographie, Meteorologie sehr wenig fortgeschritten, es gibt kaum Einzeluntersuchungen, auf die sich eine integrierende Darstellung wie die folgende hätte stützen können. Alle diese Gründe sind dafür maßgebend, daß wir im folgenden trotz des umfassenden Titels den Schwerpunkt auf den physikalischen Bereich legen müssen, allerdings mit gelegentlichen Ausblicken auf das

30

I. Standpunkte der metatheoretischen Betrachtung

Reich des Lebendigen. Besonders im Übergangsgebiet der Molekularbiologie treffen sich die epistemologischen Probleme von Physik, Chemie und Biologie, und die im Rahmen der Thermodynamik des Ungleichgewichts entdeckten Mechanismen der natürlichen Entstehung von höher organisierten Strukturen besitzen weitreichende philosophische Bedeutung. Vor 70 Jahren prägte Planck den Begriff des physikalischen Weltbildes und verstand darunter jene Sicht der Welt, die man erhält, wenn man die Grundgesetze der Materie und des Äthers zugrunde legt. Seit dieser Zeit ist das Bild der Natur um vieles komplizierter, seltsamer, rätselhafter geworden. Es ist viel schwieriger, in der Physik von 1980 die Einheit der Gesetze in der Vielzahl von Zusammenhängen zu finden. Jedoch, auch wenn das Bild verwirrender geworden ist, wir werden sehen, daß sich die philosophischen Grundprobleme in der Natur gar nicht so stark gewandelt haben. Plancks zentrales Anliegen der Objektivität der Physik und ihre Loslösung von anthropomorphen Elementen kann heute so wie damals Leitfaden bei der Rekonstruktion der grundlegenden Muster der Natur sein.

II. Historische Aspekte der Wissensgewinnung 1. Phänomene und Strukturen Die Wissenschaft der Frühzeit ist ihrem Ziel nach kosmologischer und ihrer Methode nach mythischer Natur. Konstitutiv für eine solche Situation ist die innerliche Verwobenheit des Menschen in den Weltprozeß. Dies bedeutet, daß er selbst sich als organischen Teil des Naturganzen empfand und die Fremdheit des rationalistischen Objektbewußtseins nicht vorhanden war. Aufgrund der homogenen Einbettung des Menschen in den Naturprozeß arbeitete der frühe Mensch bei seinen ersten kosmologischen und kosmogonischen Entwürfen mit begrifflichen Hilfsmitteln, die unmittelbar der Sphäre seiner Daseinsbewältigung entnommen waren. In der Enuma Elish der babylonischen Kosmogonie sieht man deutlich das Wirken von Strukturübertragungen aus dem alltäglichen Erfahrungsbereich. Modellhaft wurden Prozesse wie der jährliche Gang von Flüssen, die biologische Entwicklung, das Schaffen von sozialer Ordnung auf kosmische Bereiche projiziert. 1 Dies war zu jener Zeit (im 3. Jahrtsd.) möglich, da Mensch, Gesellschaft und Natur noch eine ungeteilte Erfahrungseinheit bildeten, welche erst bei den ionischen Naturphilosophen verlorengeht, wo bewußte reflexive Rationalität einen Objektivierungsvorgang und damit eine Trennung der primordialen Einheit in erkennendes und erkanntes System einleitet. Während in der vorwissenschaftlichen Phase der mythischen Denkweise die selbstverständlich auf den Menschen bezogene, von uns heute in der Rekonstruktion als Übertragungs- und Analogiedenken enthüllte Erkenntnisstrategie in der Naturerkenntnis vorherrscht, setzt mit den protowissenschaftlichen Entwürfen der Vorsokratiker, welche die ersten objektiven, wenn auch untestbaren Hypothesen über die Welt liefern, die anthropozentrische Emanzipation ein. Charakteristisch ist hierfür Thaies' Erdbebentheorie und Anaximanders Symmetriehypothese von der Erdaufhängung. Thaies läßt die Erde im Wasser schwimmen.2 Da sich die Wellenbewegungen des Okeanos auf die Lage der Erde übertragen, bebt sie,

32

II. Historische Aspekte der Wissensgewinnung

wenn die Bewegung des Wassers sie erschüttert. Auffallend an dieser Hypothese ist die Verwendung transempirischer Elemente wie die schwimmende Lagerung der Erde; ihr entspricht hier kein Erfahrungsbefund. Mag dieser unsichtbare Vorgang in seiner Verwendung auch durch die zentrale Rolle, die das feuchte Element als in der Substanzlehre des Thaies spielt, suggeriert sein, in seiner konstitutiven Funktion agiert die schwimmende Lagerung sicher als theoretisches Element. Dies ist zu vergleichen mit der modernen Theorie der Kontinentaldrift und Plattentektonik, wo von dem theoretischen Begriff der schwingenden Lagerung der Kontinentalscholle im zähen Mantel Gebrauch gemacht wird und dann von Hypothesen, die diesen theoretischen Begriff enthalten, empirisch prüfbare Folgerungen über die Verteilung von Erdbebenzonen abgeleitet werden. Der Unterschied besteht jedoch darin, daß die qualitative Theorie des Thaies viel zu unscharf bestimmt ist, um eine effektive Testbarkeit zu gestatten. Bei Anaximanders Hypothese von der Lage und Gestalt der Erde wird noch in viel deutlicherer Weise von NichtObservablen Gebrauch gemacht. Die Erde verharrt ruhig an ihrem Ort im Universum, weil sie sich in dessen Mittelpunkt befindet und in allen Richtungen den gleichen Abstand vom Mantel der Weltkugel besitzt, denn, so argumentiert Anaximander, „was im Mittelpunkt ruht und sich in gleicher Weise zu den äußersten Rändern verhält, kann sich um nichts mehr nach oben oder nach unten oder nach einer der beiden Seiten bewegen".3 Wesentlich ist hier die Verwendung eines abstrakten Symmetrieargumentes. Aufgrund der Isotropie des Weltraumes und des Fehlens von Kräften gibt es keinen Grund, warum sich die Erde in einer Richtung in Bewegung setzen sollte. Die Änderung des Bewegungszustandes bedarf einer physikalischen Differenz, eines dynamischen Gefälles in einer Richtung. Zwar enthält Anaximanders Hypothese noch ein empirisches Element, nämlich die Zylinderform der Erde, welche dem Augenschein vom ebenen Charakter unserer Erderfahrung nachkonstruiert ist; dieses ist aber auch gerade jener Punkt, wo er sich durch ein Element der Erfahrung zu einer falschen Annahme verführen ließ. Bei vollständiger Verwendung des abstrakten Symmetriegedankens wäre er sicher auch zur Einsicht der Kugelgestalt der Erde durchgedrungen. Methodisch erkennt man an den beiden Beispielen die Erkenntnisstrategien der ersten rationalen Epoche in der Geschichte der Natur-

1. Phänomene und Strukturen

33

Wissenschaft. Hier werden Erklärungen nicht mehr mittels Dramen zwischen Menschen, Göttern und Fabelwesen gegeben, sondern durch naturale Prozesse, in denen bereits abstrakte, unanschauliche, nichtphänomenale Konstrukte Verwendung finden. Wichtig für die Bewertung ist außerdem das Auftreten rationaler Kritik und der Wettkampf alternativer Erklärungsansätze und Hypothesen, denn es ist zu vermuten, daß Anaximanders Hypothese durch Kritik an Thaies' Theorie zustande gekommen ist, dann aber ihrerseits von Anaximenes kritisiert wurde.4 Der Paradefall eines Theorieentwurfes, der von unsichtbaren Größen Gebrauch macht, um die Erscheinungswelt versteh bar zu machen, ist die Materie-Theorie von Demokrit und Leukipp. Methodisch unterscheidet sie sich nicht von modernen Theorien, die mit „epistemisch verborgenen Parametern" arbeiten, denn ihr Ziel ist es, phänomenologische Makrogrößen und deren Gesetze verstehbar zu machen unter Zuhilfenahme einer tieferen unsichtbaren Ebene mit andersartigen Elementen und Verbindungsmechanismen. Durch Koppelungsprinzipien wird gewährleistet, daß die unsichtbare Mikroebene in einer gesetzesartigen Weise mit der phänomenalen Makroebene verbunden wird. Diese Denkweise kann als echter Vorläufer des hypothetisch-deduktiven Verfahrens angesehen werden, bei dem von theoretischen Entitäten in einer empirisch kontrollierbaren Weise Gebrauch gemacht wird. Wenn wir auch viele Teilansätze der modernen Verfahren der Naturwissenschaft bei den Vorsokratikern feststellen können, so sind doch systematische Reflexionen über die Methode der Wissenschaft erst bei Aristoteles zu finden. Er macht sich zuerst ausführlich Gedanken, aufweiche Weise der Wissenschaftler von einer begrenzten Zahl von Beobachtungen zu allgemeinen Prinzipien aufsteigen kann und auf welche Weise ihm die so gewonnenen Grundsätze wieder ein Verständnis individueller Tatsachen ermöglichen. Sein Ansatz in der Methodologie der Wissenschaften besteht in einer logischen Verbindung generalisierender Induktion und hypothetischer Deduktion. Den empirischen Tatsachen wird zwar die Rolle des Ausgangspunktes der Erkenntnis zugesprochen, sie werden aber erst durch den zweiten, deduktiven Schritt einem erklärenden Verständnis zugeführt. Aristoteles besaß zweifellos die Einsicht, daß auf jede Erklärung heischende Warum-Frage nur mit einem deduktiven Argument

34

II. Historische Aspekte der Wissensgewinnung

geantwortet werden kann; ein logischer Schluß ist aber nur dann eine echte Erklärung, wenn die Prämissen des zugehörigen Syllogismus wahr, logisch nicht weiter rückführbar und besser bekannt als die Konklusion sind und überdies die Objekte, auf die sich Prämissen und Konklusion beziehen, im Kausalverhältnis stehen.5 Mit der Erkenntnis, daß es in jeder Wissenschaft mindestens einige Grundgesetze gibt, die nicht weiter logisch reduzierbar sind, hat er zum erstenmal den Nachweis erbracht, daß in der Wissenschaft Letztbegründungen unmöglich sind. Allerdings vertritt er zum Unterschied vom modernen kritischen Rationalismus, daß es im hierarchischen Aufbau der Wissenschaft erste evidente Prinzipien gibt. An der Spitze stehen die logischen Prinzipien der Identität, der Widerspruchsfreiheit und des tertium non datur. Diese verzweigen sich dann weiter in die ersten Grundsätze der einzelnen Disziplinen. Aussagen der Physik von der Art, daß alle nichterzwungenen Bewegungen auf den natürlichen Ort hin erfolgen (der in einer kontingenten Identität mit dem Erdmittelpunkt zusammenfällt), daß es keine Fern Wirkung und kein physikalisches Vakuum geben kann, besitzen etwa synthetischen (erfahrungsabhängigen), aber auch axiomatischen Charakter; sie sind erste, nicht weiter zurückführbare Prinzipien, von denen jede physikalische Erklärung ausgehen muß. In der aristotelischen Wissenschaftsphilosophie fehlt eine wesentliche Zielvorstellung, die wir heute als für einen hohen Erfolgsgrad der Erkenntnis unabdingbar ansehen, nämlich die Mathematisierung. Die Betonung der Verwendung vor allem geometrischer Beschreibungselemente in der Naturwissenschaft geht in erster Linie auf Platon zurück, der in dieser Hinsicht stark von der pythagoräischen Tradition beeinflußt ist. Platon vertritt eine ihrem Wesen nach ontologische Auffassung von der Natur mathematischer Strukturen, wonach diese nicht eine bloß begriffliche, sondern eine konkrete Existenzweise besitzen. Daraufbaut seine Materietheorie auf6, die er im Timaios skizziert, wonach die vier irdischen Elemente Feuer, Erde, Luft und Wasser auf die vier vollkommenen Polyeder Tetraeder, Hexaeder, Oktaeder, Ikosaeder (der 5. Körper, der Dodekaeder, wurde später zur Darstellung der 5. himmlischen Substanz verwendet) abgebildet werden und die Umwandlungen zwischen den Elementen von der Zerlegbarkeit der Polyeder in zwei Arten von Dreiekken Gebrauch machen, so daß dann auch „chemische" Übergangs-

l. Ph nomene und Strukturen

35

reaktionen mit diesem mathematischen Schema beschrieben werden k nnen. Platons mathematisches Beschreibungsideal wirkte auch in der Astronomie als positive Heuristik, insofern er, wie die berlieferung berichtet, den zuk nftigen Astronomen den Auftrag gab, die Erscheinungen der Planetenbahnen vor dem Verdikt des Scheins zu retten. Die Himmelsmechaniker sollten eine Konstruktion erfinden, die aus einer Kombination von gleichf rmigen Kreisbewegungen um den gleichen Mittelpunkt, aber unter Verwendung verschiedener Drehachsen besteht, um die Planetenbahnen samt ihren Stillst nden, Schleifen und retrograden Bewegungselementen zu erfassen (Platonisches Axiom). Eudoxos und Kalippos realisierten die geometrische Konstruktion, und Aristoteles untermauerte mit seiner Physik diesen Entwurf. Auf solche Weise entstand die erste empirisch kontrollierbare himmelsmechanische Theorie, die sich dadurch auszeichnet, da hier zum erstenmal kinematische Analyse der Himmelsph nomene, lokale dynamische Gesetzlichkeit und gerechtfertigte erkenntnistheoretische Prinzipien st tzend ineinandergreifen. Die von Aristoteles in Einklang mit dem platonischen Axiom physikalisch begr ndete Himmelsgeometrie gen gte einem Objektivit tspostulat der Erkenntnis in dem Sinne, da die Himmelserscheinungen nicht als Schein (Trugbild, T uschung) abgeurteilt werden mu ten, sondern als informationshaltiges Wechselwirkungsergebnis zwischen einer Klasse von kognitiven Subjekten und einer physikalischen Realit t begriffen werden konnten, die, obzwar aus einer besonderen Substanz (πέμπτέιν όυσίκν) bestehend, doch durch gesetzesartige Strukturen beherrscht wird. Dies ist die zentrale Bedeutung von „retten" im σώζειν τα φαινόμενα.1 Leider zeigte es sich bald, da die Konstruktion des Eudoxos doch viel zu einfach war; sie konnte v. a. die schwankenden Helligkeiten der Planeten nicht erkl ren, die, wie wir heute wissen, durch die variablen Distanzen verursacht werden. Mit dem empirischen Scheitern dieses Planetenmodells geriet auch die metatheoretische Forderung des Aristoteles von der Einheit von empirischer Astronomie, theoretischer Physik und Erkenntnistheorie au er Sichtweite. Die darauf folgende ph nomenalistische Himmelsgeometrie von Ptolemaios war zwar in der Lage, mit ihrer rein instrumentalistisch verstandenen astronomischen Syntax relativ exakte Voraussagen der Planeten rter zu liefern, jedoch konnte Pto-

36

II. Historische Aspekte der Wissensgewinnung

lemaios, da es ihm nicht gelang, diese Syntax im Sinne eines realen Mechanismus zu interpretieren, keine Erklärung für die himmelsmechanischen Vorgänge liefern. Für Ptolemaios' Himmelskinematik ist die Hempelsche These von der logisch-strukturellen Symmetrie von Erklärung und Voraussage nicht erfüllt.8 Physikalische Erklärungen lieferte in dieser Zeit die aristotelische Physik, aber nur in einer qualitativen Weise, welche keinen Anschluß an die numerischen Aussagen der Epizykel-Exzenter-Aequantentheorie der instrumenteilen Syntax des Ptolemaios erlaubte. Erst Kopemikus brachte es in seinem kohärenten theoretischen Gebäude fertig, ein kausal-mechanistisches, anschauliches Modell vom Ablauf der Planetenbewegung mit der Möglichkeit von exakter Prognose zu vereinen. Der letzte Schritt, lokale Dynamik und Himmelsgeometrie wieder zu verbinden, blieb zwar der Mechanik Newtons vorbehalten, aber bereits durch die Tatsache, daß bei Kopemikus die Bewegungen aller Planeten auf einmal in einem System eingefangen werden konnten, glückte ihm eine starke Objektivierung der Himmelserscheinungen im Sinne des platonischen Axioms. Es gelang ihm, die retrograden Bewegungen, Schleifen und Stillstände der Planeten (d.h. die sogenannte zweite Anomalie) durch seine Erklärung als Effekt der jährlichen Bewegung der Erde vor dem Verdacht der optischen Täuschung zu retten und als Ergebnis der anthropozentrischen Perspektive zu erkennen. Es handelt sich also nicht um eine innere, den eigene „irrationale" Bewegungsform, sondern um eine relationale Eigenschaft, die mit „unserer Wahl" des Bezugssystems zusammenhängt, also darauf zurückgeht, daß wir eben Bewohner des dritten Planeten sind. Das wissenschaftstheoretisch Lehrreiche an der historischen Großtat des Kopemikus liegt darin zu zeigen, daß der Mensch in der Lage ist, artifizielle Erscheinungsweisen der Natur, die durch einen willkürlich eingenommenen oder historisch (in diesem Fall evolutionär) bedingten Standpunkt hervorgerufen wurden, zu durchschauen und unter Einsatz begrifflicher Hilfsmittel auch zu transzendieren. In eine besonders schwierige epistemische Situation ist der Mensch immer dann versetzt, wenn er einem realen System nicht mit der gehörigen Distanz gegenübersteht, sondern im Innern, auf einem Element des Systems seine Beobachtungen durchführen muß. Dies trifft für die Rekonstruktion des Sonnensystems zu, aber auch für die Erkennung der Wirbel-

2. Gesetze und Invarianzen

37

Struktur von atmosphärischen Zyklonen und in besonderer Weise für die Analyse der Spiralform unserer Milchstraße. Von einem weit entfernten Punkt auf der Drehachse der Sonne ergäbe sich die kopernikanische Beschreibung ganz natürlich, so wie sich auf Satellitenbildern auch die Wirbelstruktur der Zyklonen einfach ablesen läßt und der Andromeda-Nebel von uns aus gesehen offen seine Spiralstruktur enthüllt. Ist ein solcher Standpunkt aus technischen Gründen unerreichbar, bedarf es der genialen Rekonstruktionsarbeit eines Kopemikus, Herschel und Shapley mit einem hohen Aufwand an theoretischen, nichtempirischen Begriffen, um aus den inneren Indizien die eigentlichen Strukturen zu enthüllen.

2. Gesetze und Invarianzen Ein konstitutives Merkmal der Renaissance-Wissenschaft ist zweifellos die zunehmende Reflexion auf die Voraussetzungen der Erkenntnis, die mit der Neuheit vieler Forschungsergebnisse verbunden war. Schon aus den im vorigen Kapitel geschilderten Ansätzen geht hervor, wie die wachsende Hochschätzung der Erfahrung für die theoretische Orientierung des Menschen mit dem Wissen einhergeht, daß der objektive Informationsgehalt aus den Phänomenen in einer aktiven Weise herausgefiltert werden muß und sich nicht bei einer passiven Hinnahme und Absolutsetzung von Sinneswahmehmungen offenbart. Der Prozeß der Objektivierung von Erkenntnissen der neuzeitlichen Naturwissenschaft ist durch die Suche nach bezugssystem- und beobachterunabhängigen mathematischen Gesetzesformeln gekennzeichnet. In der frühen Neuzeit wurde zuerst das Ziel verfolgt, mit einfachen standpunktgebundenen, empirischen Generalisationen die kinematischen Phänomene (Fallgesetz, schiefer Wurf) zu erfassen. Anschließend versuchte man, von diesen ausgehend, zu stärkeren invarianten dynamischen Beziehungen durchzudringen. Im 19. Jahrhundert gelang es dann, die Grundgesetze in eine mathematische Form zu gießen, bei der schon an die Abhängigkeit der Beschreibung von Bezugssystemen gedacht wird (Verwendung von Vektoren und Tensoren). In einem gewissen Sinne läßt sich der Objektivitätsgrad daran messen, welche Art von Standpunkten bei der Formulierung eines

38

- Historische Aspekte der Wissensgewinnung

Gesetzes eingenommen werden darf, damit an der Aussage keine wesentliche, sondern höchstens eine Änderung-der Beschreibung in den Komponenten in kompensierender Weise auftritt. Der mathematische Ausdruck hierfür ist die Transformationsgruppe, welche den Stärkegrad der Invarianz eines Gesetzes beinhaltet. Je umfassender die Gruppe von Bezugssystemen (Beschreibungsrahmen) ist, innerhalb derer ein Wechsel der Beschreibung ohne eine Änderung des Gesetzes erlaubt ist, umso mehr wird man dem Gesetz trauen. Allerdings kann die Existenz einer sehr umfassenden Gruppe von Transformationen, der gegenüber ein Gesetz unverändert bleibt, immer nur als notwendige, nie aber als hinreichende Bedingung für den Objektivitätscharakter einer faktischen Aussage formuliert werden.9 Objektive Gesetze werden in starker Weise aspektunabhängig sein, aber nicht allen invarianten Beziehungen wird man den Status objektiver Gesetzesformeln zuordnen können. Die Erweiterung der Transformationsgruppe, welche die Invarianzstärke der physikalischen Grundgesetze formuliert, kann man historisch sehr schön verfolgen. Während Aristoteles' Dynamik eine absolute Auszeichnung der Orte und Richtungen durch die Ausrichtung aller Bewegungen auf den natürlichen Ort hin enthält, entdeckten Nikolaus von Kues und Kopernikus die Relativität dieser topographischen Größen. Sie fanden, daß der physikalische Raum eine sechsparametrige Gruppe von Bewegungen erlaubt, mithin die Naturgesetze invariant gegenüber Drehungen und Translationen der Körper sein müssen. Dies bedeutet, daß nur Gesetze, in denen der Mittelpunkt des Universums nicht wesentlich vorkommt, Kandidaten für objektive Beziehungen in der Natur darstellen können. Galilei hatte die Irrelevanz der Auswahl eines Elementes aus der Klasse der gleichförmig bewegten Bezugssysteme (Inertialsysteme) erkannt und Newton baute diesen Typ von Transformationsinvarianz in seine mechanischen Grundgleichungen ein. Danach werden nurmehr solche Gesetze für objektive Kennzeichnungen von Grundstrukturen in der Natur in Frage kommen, welche nicht irgendein absolutes Ruhesystem, sei es das Sonnensystem oder unsere Milchstraße, auszeichnen. Alle Inertialsysteme sind zur Beschreibung von Bewegungsphänomenen gleichermaßen geeignet und zwischen ihnen wird durch eine GalileiTransformation vermittelt. Es kennzeichnet Newtons Wissen um die Galilei-Invarianz seiner mechanischen Gesetze, daß er das Postulat,

2. Gesetze und Invarianzen

39

wonach sich der gemeinsame Schwerpunkt von Sonne und allen Planeten in Ruhe befindet, als Hypothese kennzeichnet.10 Ein Konflikt tritt immer dann auf, wenn es zu einem historischen Zeitpunkt mehrere Grundgesetze gibt, die gegenüber verschiedenen Typen von Transformationsgruppen invariant sind. Diese Situation trat im 19. Jahrhundert auf. Maxwells Grundgleichungen des Elektromagnetismus sind zwar gegenüber der Kusanischen Bewegungsgruppe invariant, aber nicht gegenüber der Galilei-Gruppe. Sie sind gleichfalls invariant gegenüber der weiteren Lorentz-Gruppe, die nur im Fall verschwindender Geschwindigkeit mit der Galilei-Gruppe identisch ist. Einstein zeigte, daß durch Abänderung der Newtonschen Grundgesetze Mechanik und Elektrodynamik speziell relativistisch invariant geschrieben werden können. Damit wurde die notwendige Bedingung für die Objektivität insofern erfüllt, als die Basisgesetze der Physik in allen Intertialsystemefi gelten, wobei diese generell durch eine Lorentz-Transformation verbunden werden. Durch die allgemeine Relativitätstheorie wurde die Klasse der gleichberechtigten Bezugssysteme noch einmal erweitert: Im Prinzip der allgemeinen Kovarianz kommt zum Ausdruck, daß es keine privilegierte Klasse von Bezugssystemen mehr gibt, daß auch die Inertialsysteme nicht mehr ausgezeichnet sind. In epistemischer Hinsicht wiederum bedeutet dies, daß nur Größen, die unabhängig von beliebig bewegten (also auch linear beschleunigten und rotierenden) Bezugssystemen sind, einen realen objektiven Status haben können. In Einsteins Gravitationstheorie sind es vor allem die Krümmungseigenschaften der Raumzeit, die nicht durch die Wahl eines Beobachter- oder Bezugssystems verändert werden können. Diese Unabhängigkeit drückt sich in der mathematischen Formulierung über die basis- und koordinatensystemfreie Notation aus. Beurteilt man die historische Entwicklung der Naturgesetze nicht nach ihrer mathematischen Form, sondern nach der Art der bei der Theorienkonstruktion verwendeten Grundbegriffe, so konstatiert man im Verlauf der Geschichte der Wissenschaft ein immer weiteres Abrücken der primitiven Terme von der Erfahrung. So ist z. B. Ari1^

stoteles' dynamisches Grundgesetz v = f · — (v = Geschwindigkeit, W K = Kraft, W = Widerstand des Mediums) durch das konsequente

40

II. Historische Aspekte der Wissensgewinnung

Ernstnehmen der Alltagserfahrung motiviert, daß alle realen Bewegungen einem Widerstand ausgesetzt sind und bei nachlassender Kraft in endlicher Zeit zur Ruhe kommen müssen. Erst als man wagte, stärkere Idealisierungen zu Hilfe zu nehmen, bei denen man Grundbegriffe erfand, die genaugenommen in unserer Welt gar keine Anwendung finden können, wie die reibungslose Ebene, das perfekte Vakuum, die immerwährende Kreisbewegung, gelang es, nicht nur besonders einfache, sondern auch approximativ korrekte Formulierungen der physikalischen Grundgesetze selbst für den nichtidealen Fall zu finden. Aristoteles' dynamisches Gesetz entpuppte sich dabei als Vorform eines Gesetzes für einen ganz speziellen Bereich, nämlich der Bewegung eines Körpers in einer zähen Flüssigkeit (Stokessches Gesetz). Der Erfolg der Mechanik in der folgenden Zeit war abhängig von dem richtigen Erraten des entscheidenden Schlüsselbegriffs, der die Materie wesentlich kennzeichnet. Descartes' Vermutung, daß es die Ausdehnung sei, führte, obzwar mit dem fruchtbaren Gedanken der Mathematisierung (hier: dem Ausdrücken aller physikalischen Gesetze in geometrischer Sprache) verbunden, zu keinem Erfolg, wohingegen Newtons Vorschlag, die Trägheit eines Körpers als Schlüsseleigenschaft zu verwenden, den entscheidenden Schritt vorwärts brachte. Methodisch lehrt die Genesis der klassischen Mechanik, daß nicht, wie es die Historiographie der Physik in Baconscher Sicht will, ein Gewichten der phänomenologischen Qualitäten der Wirklichkeit zum Erfolg führt. Die Entstehung der Mechanik zeigt vielmehr, daß die Phänomene, eben weil sie Wechselwirkungsergebnisse realer Objekte mit kognitiven Systemen sind, nur einen Fingerzeig bieten können, bei Annahme welcher theoretischen, hinter den Erscheinungen vermuteten Größen man zum Erfolg geführt wird. Keinesfalls können die zentralen Terme durch irgendein logisch-algorithmisches Verfahren aus den Erfahrungen direkt herausgefiltert werden; nur glückhaftes Raten, das durch den späteren Erfolg gerechtfertigt wird, kann, durch heuristische Prinzipien geleitet, zum Entdecken der Basisterme führen, die in den Grundgleichungen der Physik die entscheidende Rolle spielen. Sehr oft klaffen große Gegensätze zwischen der methodologischen Selbsteinschätzung eines Physikers in der Vergangenheit und unserer heutigen Rekonstruktion seiner Verfahrensweise. Hier ist in er-

3. Die Idee des Feldes

41

ster Linie Newtons induktivistisches und empiristisches Selbstverständnis zu erwähnen.11 Sein „hypotheses non fingo" besagt nicht, daß er keine Hypothesen verwendet, sondern drückt nur aus, daß er in seiner Gravitationstheorie von keinem Übertragungsmechanismus der Schwerkraft Gebrauch macht, also eine Fernwirkungstheorie verwendet. Aber selbst hier war er der Meinung, daß eine solche „action at a distance"-Theorie nur der Platzhalter für eine später zu findende Theorie mit einem kausalen Übermittlungsmechanismus sein kann, wie er in einem Brief an Richard Bentley ausdrückt. Newtons in axiomatischer Form eingeführte neue Mechanik ist zweifellos das erste Paradebeispiel einer hypothetisch-deduktiv aufgebauten Theorie, die an ganz zentraler Stelle Nichtobservablen wie etwa die Kraftfunktion verwendet. Er war sogar bereit, grundsätzlich unbeobachtbare Objekte wie etwa den absoluten Raum als respektable physikalische Entitäten anzuerkennen, da es empirische Effekte gibt, zu deren Erklärung man dieses theoretische Element braucht.12 Obwohl der absolute Raum nur Wirkungen ausübt, aber keine erleidet, in dieser Hinsicht also ein seltsames Exemplar in einer physikalischen Ontologie ist, braucht ihn Newton, um die Wirkung der Trägheit verstehen zu können. Ein solches Verhalten ist mit einer streng empiristischen Methodologie natürlich nicht in Einklang. Erst später ist, vor allem unter dem Eindruck der empiristischen Kritik von Berkeley und Mach, versucht worden, die klassische Mechanik völlig ohne Gebrauch theoretischer Größen, rein empiristisch und mit einer relationalen Sichtweise der Raumstruktur aufzubauen. Die Relativitätstheorie, die am Anfang noch zum Teil der Überwindung der „metaphysischen" Elemente in der Mechanik gewidmet war, mußte, wie ihre eigene Entwicklung später zeigte, erst recht viele neue nichtempirische Elemente zulassen.13 3. Die Idee des Feldes Wenn man einen Grund für den überwältigenden Erfolg der modernen Naturwissenschaft angeben soll, so ist es vermutlich die wachsende Abstraktion von der grobsinnlichen Erfahrung bei der Wahl der Bausteine der Theorien. Sie hat den hohen Überdeckungsgrad und die große nomologische Reichweite ihrer Grundbeziehungen und damit die Synthese weit auseinanderliegender Gebiete bewirkt.

42

II. Historische Aspekte der Wissensgewinnung

Kennzeichnend für die Verwendung solcher begrifflichen Elemente, die die Erfahrung noch viel mehr als die Partikelmechanik überschreiten, war das Auftauchen des Feldbegriffes.14 Das Feld baut wesentlich auf dem Begriff der kontinuierlichen Mannigfaltigkeit auf. Das physikalische Kontinuum mit seinen überabzählbar unendlich vielen Punkten ist ein theoretischer Begriff, der grundsätzlich mehr enthält, als die Erfahrung je bieten kann. Sein Gebrauch kann nur gerechtfertigt werden, wenn man darauf verzichtet, daß jeder Baustein einer physikalischen Theorie sich auf empirisch Aufweisbares beziehen muß und man zufrieden ist, wenn sich eine Aussage über das physikalische Feld an endlich vielen (rationalen) Stellen des Raumes prüfen läßt, wobei ein positiv ausgefallener Test als Indiz dafür gewertet wird, daß die postulierte Entität (z.B. das elektromagnetische Feld, das sich über eine endliche beobachtbare Zahl von ponderomotorischen Wirkungen äußert), auch an den (irrationalen) Stellen vorhanden ist, wo sie nicht getestet werden kann. Es ist kein Zweifel, daß Faraday, auf den die Einführung des Feldbegriffes in die Physik zurückgeht, stark von metaphysischen Motiven bei dieser begrifflichen Neuerung geleitet war. Deshalb war die wissenschaftliche Welt selbst nach Maxwell, der die Intuition Faradays in eine mathematische Form goß, nur zögernd bereit, dem Feld einen eigenen autonomen Status zuzuschreiben. Noch lange führte man das Feld als einen syntaktischen (mathematisch formalen) Hilfsbegriff, der zwischen den „eigentlichen" physikalischen (= empirischen) Größen vermittelte. Der Grund für diese zurückhaltende Aufnahme ist in der um die Mitte des 19. Jahrhunderts herrschenden Wissenschaftsphilosophie, dem Empirismus Bacons, zu sehen.15 Danach beginnt jede wissenschaftliche Tätigkeit mit dem Sammeln von Fakten (natürliche Beobachtung oder künstliches Experiment) und setzt sich dann fort im Bündeln dieser Fakten durch Vergleich und Klassifikation. Dadurch entstehen allgemeine Aussagen, von welchen man durch die logische Operation der Deduktion zur Antizipation neuer Fakten gelangt, die auf ihre Korrektheit hin wieder an der Erfahrung verifiziert werden müssen. Diese mechanische Art der Erkenntnisgewinnung, bei der man sich die Natur in bereits vorgegebene Klassen von Fakten aufgeteilt denkt, die der erkennende Geist nur mit einer Art Feldherrenblick durch Erfassen der Ähnlichkeitsrelationen erkennt, konnte natürlich nur solange

3. Die Idee des Feldes

43

zum Erfolg führen, als man sich mit der Gewinnung niedrigrangiger Generalisationen zufrieden gab. Es ist kein Wunder, daß im Zusammenhang mit der Genesis einer hochrangigen Theorie wie dem Maxwellschen Elektromagnetismus ganz andere Heuristiken maßgebend sein mußten. Die Analyse von Faradays epistemischem Selbstverständnis hat ergeben16, daß er in der geistigen Tätigkeit drei Komponenten, die sinnliche Wahrnehmung, die Urteilskraft und die Vorstellung unterschied, wobei bereits das Wirken der Urteilskraft auf die Daten nicht als mechanisches Sammelverfahren nach Ähnlichkeitskriterien zu fassen ist, sondern eine aktive Auswahl unter den Daten durch das bereits vorhandene Hintergrundwissen beinhaltet. Das Vorstellungsvermögen ist der Ort der Bildung neuer theoretischer Begriffe, welche in Hypothesen eingehen, die anschließend wieder durch das Experiment geprüft werden. Das Experiment ist hier ausschließlich ein Instrument der Prüfung und nicht der Entdeckung. Es gibt keinen logisch notwendigen, zwingenden Weg zur Gewinnung gültiger Hypothesen und Gesetze; die schöpferische Intuition des Forschers ist durch kein Routineverfahren zu ersetzen. Andererseits bedeutet die Unmöglichkeit des Abstrahierens der theoretischen Schlüsselterme aus den Erfahrungsbefunden, daß die Bedeutung dieser Terme von der Theorie selbst geliefert werden muß. Die Basisgesetze sind es, die die Bedeutung der zentralen Terme festlegen. Man kann dies etwa an dem Gesetz für die Lorentz-Kraft in der Elektrodynamik einsehen dp — = e((£ + dt

) ( p = Impuls, — Geschwindigkeit).

Wenn elektrische und magnetische Felder auf ein System geladener Teilchen wirken, dann läßt sich aus den Beschleunigungen der Teilchen die Größe der elektrischen und magnetischen Feldstärken entnehmen. Das Lorentz-Gesetz zusammen mit der Messung der Beschleunigungskomponente von Testteilchen fixiert die Semantik der beiden Felder. Kennt man aber dieselben, so kann man wiederum mit dem Gesetz für die Lorentz-Kraft das Verhalten eines anderen Satzes von geladenen Teilchen prognostizieren.17 Dieses Gesetz erfüllt» wie man sieht, hier die doppelte Funktion, partiell die physikalische Bedeutung der beiden Grundbegriffe Oc (elektrische Feldstär-

44

II. Historische Aspekte der Wissensgewinnung

ke) und ) (magnetische Feldstärke) anzugeben, andererseits aber auch Aussagen über das Verhalten einer Gruppe von Testteilchen unter der Wirkung von (£ und Jf> zu machen. Die Maxwell-Theorie zeigt also zum erstenmal deutlich, daß der begriffliche Sinn der Basisterme wie auch die Art ihrer meßbaren Größen durch die Theorie festgelegt wird. Umso unsinniger ist es, wenn in der Gegenwart immer wieder versucht wird, Theorien ausgehend von bestimmten Meßverfahren für vorher präzise definierte Grundbegriffe zu rekonstruieren. Der Grundgedanke der Priorität der Theorie gegenüber der Datengewinnung und die Wichtigkeit der Überschußbedeutung, die die theoretischen Terme gegenüber ihren operationalisierten Entsprechungsstücken besitzen, die beim Prüfen der Theorie eingeführt werden müssen, werden noch deutlicher, wenn man die zweite große klassische Feldtheorie ins Auge faßt, Einsteins Gravitationstheorie. An die Stelle des Faraday-Tensors, der die Komponenten des (£ - und £> -Feldes umfaßt, tritt hier der metrische Fundamentaltensor, der die Struktur des physikalischen Raumes beschreibt. So wie Sätze, die den elektromagnetischen Feldtensor enthalten, in ihrem Aussageanspruch weit über die Bewegung von Probeladungen hinausgehen, so spricht der Metriktensor über wesentlich mehr als über das Verhalten starrer Maßstäbe und isochroner Uhren. Probeladungen, Maßstäbe und Uhren haben beidesmal nur die epistemische Funktion, die quantitative Stärke der autonomen Feldgrößen an diskreten Stellen zu testen, mithin den Geltungsanspruch der dabei verwendeten Theorie auf ihre Adäquatheit zu überprüfen.

4. Determinismus und klassische Physik Eines der philosophisch bedeutsamsten Kennzeichen des Weltbildes der klassischen Mechanik war, daß die zugrunde liegende Theorie, wie sie von Descartes, Huygens, Newton, Laplace in wachsender Verfeinerung geschaffen worden war, eine verläßliche Berechenbarkeit der von ihr erfaßten Makrophänomene gestattete. Der ideale Ausdruck einer solchen epistemischen Bestimmbarkeit aller Ereignisse - welche sehr wohl von einer ontologischen Determiniertheit des Geschehens begrifflich zu trennen ist - wird durch die Fiktion des Laplaceschen Dämons ausgedrückt:

4. Determinismus und klassische Physik

45

„Wir müssen also den gegenwärtigen Zustand des Weltalls als die Wirkung seines früheren Zustandes und andererseits als die Ursache dessen, der folgen wird, betrachten. Eine Intelligenz, welche für einen gegebenen Augenblick alle Kräfte, von denen die Natur belebt ist, sowie die gegenseitige Lage der Wesen, die sie zusammensetzen, kennen würde, und überdies umfassend genug wäre, um diese gegebenen Größen einer Analyse zu unterwerfen, würde in derselben Formel die Bewegungen der größten Weltkörper wie die des leichtesten Atoms ausdrücken: nichts würde für sie ungewiss sein und Zukunft wie Vergangenheit ihr offen vor Augen liegen."18

Modern ausgedrückt bedeutet dies, daß wir durch eine Raumzeit eine raumartige Hyperfläche zum Zeitpunkt t = t0 legen, auf dieser einen vollständigen Satz von Anfangsdaten vorgeben müssen und dann mittels der Hamilton-Gleichungen (den dynamischen Gleichungen der klassischen Mechanik) in Strenge jedes beliebige vergangene und zukünftige Ereignis berechnen können. Die naturphilosophische und anthropologische Bedeutung des mechanistischen Weltbildes wird dann deutlich, wenn man sich die Extrapolation der Mechanik in ihrer Gültigkeit auf den Menschen selbst vor Augen führt. Obwohl ein Blick auf diese hochkomplizierte organische Struktur mit seinen sonst in der Natur nicht vorkommenden kognitiven Qualitäten doch eigentlich keinen Anlaß für die Vermutung gibt, daß dieses System im Sinne einer mechanischen Maschine vollständig beschreibbar sei, war das Vertrauen in die Reichweite dieser Grundwissenschaft dennoch so groß, daß man hier höchstens ein Problem der Spezifikation der ungeheuer komplizierten Anfangs- und Randbedingungen sah. Der universelle Determinismus hatte anthropologisch gesehen eine doppelte Wirkung: Angewandt auf die Natur brachte die mechanistische Auffassung eine starke psychische Entlastung; denn die Ungewißheit und Unberechenbarkeit, der Überraschungscharakter war der Welt genommen worden. Ein Komet, von dem man aufgrund der Beobachtung seiner Bahnelemente berechnen konnte, daß er Millionen Kilometer von der Erde entfernt seinen Sonnendurchgang haben würde, stellt natürlich ein gänzlich harmloses Phänomen dar. Die mittelalterliche Furcht vor Kometen erwies sich damit als völlig unbegründet. Andererseits entstand eine Art psychologisch beängstigender Situation durch den universellen Determinismus, wenn man nämlich den Menschen selbst als Automaten betrachtete, der im Prinzip vollstän-

46

II. Historische Aspekte der Wissensgewinnung

dig durch die dynamischen Gleichungen der Mechanik beschrieben werden kann, und es nur am Komplexitätsgrad des Systems liegt, daß die einschlägigen Daten auf der Anfangshyperfläche unerreichbar sind. Man kann vielleicht zur Entlastung des mechanistischen Denkens des 19. Jahrhunderts anführen, daß auch nach den gegenwärtigen Ergebnissen der Neurophysiologie rückblickend die damalige Vermutung nicht so unvernünftig war; denn immerhin sind die entscheidenden Schaltelemente des menschlichen Gehirns, die Neuronen, die Synapsen, die Axone und erst recht die jüngst entdeckten Modulen Makroobjekte, die der klassischen deterministischen Physik der Mechanik und Elektrodynamik unterworfen sind. Inwieweit sich die quantenmechanische Unbestimmtheit auf der neurochemischen Ebene verstärkt, ist zum gegenwärtigen Zeitpunkt noch nicht vollständig abgeklärt. Wie dem auch immer sei, die Ausdehnung des Gültigkeitsanspruches der deterministischen Physik erzeugte, was Popper den „Alptraum des physikalischen Determinismus" genannt hat.19 Das Uhrwerk der Natur ist dabei völlig in sich abgeschlossen, der Mensch als Element der Natur mit seinen Bewegungen, Handlungen und Gedanken ist ein perfekt festgelegtes Ergebnis eines früheren materialen Zustandes der Welt. Seine subjektive Überzeugung, tatsächlich einen praktischen Einfluß auf den Gang der Dinge ausüben zu können, ist eine Täuschung. Aber auch als psychische Realität gehört sie zum deterministischen Prozeß des fixiert ablaufenden mechanischen Systems und ist damit unausweichlich. Der totale epistemische Determinismus führt zu einem paradoxen Ergebnis bezüglich der Validierung physikalischer Theorien selbst. Ist die bewußte organische Maschine „Mensch" wirklich ganz dem starren Ablauf der Gesetze bei festen kosmischen Anfangsbedingungen unterworfen, so kann auch nicht mehr davon die Rede sein, daß ein Experimentator zu einem bestimmten Zeitpunkt eine beliebige Entscheidung über den Aufbau der Experimentalanordnung für den Test einer Theorie wählt. Willkürlich sind nur die Anfangs- und Randbedingungen des Universums, in ihnen steckt letzten Endes auch die Bestimmung, wann, wo und mit welchem Ergebnis ein Gesetz der Theorie geprüft wird. Positive und negative Testausgänge von Theorien sind damit schon in den Anfangsdaten enthalten, vor allem muß die Bestätigung der Theorie des universellen Determinismus in die Anfangsbedingungen des Kosmos selbst eingebaut sein. Als logisch inkonsistent erweist sich die Konzeption eines vollkom-

4. Determinismus und klassische Physik

47

men deterministischen Universums, bei dem als spätes Ergebnis der kosmischen Dynamik sich die epistemische Tatsache ergibt, daß der universelle Determinismus falsch ist. Schon dieses ziemlich absurde Ergebnis müßte den Leser eigentlich bezüglich eines Determinismus, zumindest wenn er alle Realitätsschichten umfaßt, skeptisch machen. Es läßt sich noch durch weitere Argumente zeigen, daß der universelle Determinismus schon vor und unabhängig von der Quantenmechanik eingeengt bzw. in seiner Anwendung auf kognitive Systeme unmöglich gemacht wurde.20 In der speziellen Relativitätstheorie können aufgrund der Minkowskischen Struktur der Raumzeit zu jedem Zeitpunkt nur die Ereignisse des passiven Vergangenheitslichtkegels bekannt sein, und auch ein Dämon vom Laplace-Typ kann - zumindest wenn man annimmt, daß er den Gesetzen der Physik unterworfen ist - nur diese dazu verwenden, um die Ereignisse des aktiven Zukunftslichtkegels vorauszusagen. Ereignisse außerhalb des Lichtkegels können jedoch im Prinzip Wirkungsketten auslösen, die erst später in den Zukunftslichtkegel eindringen und die Voraussagen falsifizieren, so daß streng genommen aufgrund dieser Einschränkung nur ex post facto-Erklärungen möglich sind. Die allgemeine Relativitätstheorie schränkt den klassischen Determinismus noch einmal ein, indem sie Raumzeiten zuläßt, die Horizonte besitzen, welche kausale Einwegmembranen darstellen, die Wirkungen nur in einer Richtung durch die Grenze der beiden Klassen von Ereignissen hindurchlassen. Diese Theorie läßt sogar die Möglichkeit von Raumzeiten zu, in denen eine Cauchy-Hyperfläche, auf der die Anfangsdaten vorgegeben werden müssen, gar nicht existiert. Selbst wenn man diese Verfeinerungen der Relativitätstheorie nicht berücksichtigt, so zeigt sich, daß auch unter der Voraussetzung einer klassischen Raumzeitstruktur eine mengentheoretische Unmöglichkeit der Feststellung aller Anfangs- und Randbedingungen auftritt. Solange wie der Beobachter oder das Meßgerät Teil des (abgeschlossenen) Systems ist, das man untersucht, können nicht alle Elemente dieses Systems auf einen Teil desselben abgebildet werden. 21 Dieses Argument ist insofern am stärksten, als es keine Voraussetzungen verwendet, die, wie die oben erwähnten exotischen Raumzeiten, in unserer Welt nicht verwirklicht sind. Durch das Auftreten der Quantenmechanik erhielt das Problem ein grundsätzlich anderes Gesicht. Es ist die allgemein anerkannte Auf-

48

II. Historische Aspekte der Wissensgewinnung

fassung, daß hier nicht mehr weiter reduzierbare stochastische Prozesse auftreten. Dennoch sind etwa beim radioaktiven Zerfall keine verborgenen Mechanismen am Werk, die eine vollständige Erklärung eines Einzelereignisses möglich machen würden und es ist nicht nur unsere subjektive Unkenntnis, wie sie dem klassischen Wahrscheinlichkeitsbegriff der statistischen Mechanik zugrunde liegt, die uns das Aussenden bestimmter Tochterkerne von einem radioaktiven Element als kausal unbestimmt erscheinen läßt.22 Abgesehen davon, daß der radioaktive Zerfall vermutlich nicht ein eindeutiges Anwendungsbeispiel für die Quantenmechanik ist, weil hier auch die Kernkräfte der starken Wechselwirkung eine Rolle spielen,23 kann man natürlich darauf hinweisen, daß das entscheidende Grundgesetz der Quantenmechanik, die Schrödinger-Gleichung, deterministische Natur besitzt. Das statistische Element scheint erst dann auf, wenn in einer Messung vom Ergebnis der dynamischen Entwicklung eines quantenmechanischen Systems durch den Beobachter oder durch ein mechanisches Registriersystem Kenntnis genommen wird. Die gegenwärtigen Analysen des quantenmechanischen Meßprozesses lassen noch nicht eindeutig die Deutungsmöglichkeit zu, wonach das statistische Element allein durch den Meßprozeß hineingetragen wird, etwa weil der Meßapparat aus einer großen Zahl von Mikrosystemen zusammengesetzt ist, deren genaues (v. a. thermodynamisches) Verhalten man nicht kennt.24 Gelänge eine solche Deutung, wäre die Quantenmechanik eine Theorie, die im strengen Sinne ontologisch deterministisch wäre, auch wenn epistemisch bei der Prüfung der Theorie, wo die unvermeidlichen Koppelungen der Mikrosysteme mit den makroskopischen Meßgeräten eintreten müssen, das statistische Element auftaucht. In dieser Auffassung wäre die Quantenmechanik wegen der Verwendung ihrer klassischen flachen Newtonschen Hintergrundraumstruktur „deterministischer" als die Relativitätstheorie, weil die raumzeitlichen Einschränkungen, die durch die Minkowski-Struktur und durch die Krümmungseigenschaften der Raumzeit hereinkommen, wegfielen. Eine lange Diskussion hat die Frage ausgelöst, welche Rolle der Quantenmechanik bei der Diskussion um das Problem des freien Willens zukommt. Diese Theorie hat nun darin bei weitem nicht die Funktion, die ihr gelegentlich zugeschrieben wird. Wie schon seit der Arbeit Hobarts25 bekannt ist, ist der Indeterminismus der Quanten-

4. Determinismus und klassische Physik

49

physik keine notwendige Vorbedingung für eine Entscheidungsfreiheit. Wichtig ist es hier, die Identifikation des ontologischen mit dem epistemischen Determinismus zu vermeiden und die vollständige Vorher- bzw. Nachhersagbarkeit aller Ereignisse im Sinne von Laplace nicht mit der eindeutigen Bestimmtheit der physikalischen Ereignisketten auf der Realebene zu verwechseln. Aus dem ontologischen Determinismus folgt zwar der epistemische, aber nicht umgekehrt. Ferner sollte man darauf achten, die deterministische These von einem echten Fatalismus zu unterscheiden und überdies die freie Wahl einer Handlung nicht mit dem Eintreten eines absolut zufälligen Ereignisses gleichsetzen.26 Der Fatalismus enthält die Auffassung, daß die vom Menschen selbst getroffenen Entscheidungen keine effektiven Veränderungen in seiner sichtbaren Umgebung hervorrufen können, und die absolute Zufallsthese besagt, daß eine Entscheidung nur dann frei ist, wenn sie streng akausal erfolgt, d.h. völlig unverbunden mit den früheren Zuständen des Subjektes, das diese Entscheidung fällt. Vielfach wird das Freiheitsproblem als die Frage der Entscheidung zwischen der fatalistischen und stochastischen Möglichkeit gesehen. Für einen sinnvollen Begriff von Freiheit ist die Konzeption dieser Alternative jedoch in keiner Weise notwendig. Wesentlich für verantwortliches Handeln ist, daß die Taten des Menschen stabil in die Kausalkette seiner Umgebung, in der er wirkt, eingegliedert sind. Der Determinismus gestattet dies nicht nur; er macht es erst möglich, daß der Zusammenhang zwischen dem Ereignis unserer Willensentscheidung und deren sichtbarer Wirkung in der Realität nicht mit einer breiten probabilistischen Streuung behaftet ist, die uns nicht mehr als die Urheber unserer Handlungen begreifen ließe, sondern vielmehr einer stabilen, gesetzesartigen Beziehung gleichkommt. Wäre unsere Lebenswelt eine Quantenwelt, wären moralische Verantwortlichkeit und ethisches Handeln viel schwerer zu realisieren. Das begriffliche Gegenstück zur Wahlfreiheit ist nicht der Determinismus, sondern der Zwang 27 , der beinhaltet, daß die Ursachen für die eigenen Taten nicht in uns selbst liegen, sondern von außen mit Gewalt herangetragen werden - das Gefühl der Freiheit ist die subjektive Spiegelung der Tatsache, daß es die eigenen neuronalen Zustände sind, die die erwarteten physischen Wirkungen zeigen. Der Indeterminismus der Quantenmechanik könnte nur insofern von Be-

50

II. Historische Aspekte der Wissensgewinnung

deutung sein, als er die strenge deterministische Abhängigkeit im synoptischen Transfer auflockert. Dies wäre dann aber ebenfalls irrelevant für das Freiheitsproblem in dem Sinne, daß auch nach einer solchen Aufweichung des Determinismus die Lokalisation der Ursachen für die menschlichen Taten innerhalb bzw. außerhalb des Menschen erhalten bliebe. Das würde jedoch nicht bedeuten, daß man eine freie Entscheidung als ein absolut ursachlos zustandegekommenes Faktum zu betrachten hätte, somit kausale Löcher im Ereignisablauf der Gehirnprozesse annehmen müßte. So etwas ist auch bei einem möglichen Eingreifen der Quantenmechanik in die neurophysiologischen Theorien nicht zu erwarten. Wie immer sich auch hier die Wissenschaft entwickeln wird, auch wenn der strenge Determinismus durchgängig erhalten bliebe in seiner Anwendung auf die Elemente der Neurophysiologie, wären Voraussagbarkeit im Sinne des Laplace-Determinismus und Zwang immer klar unterscheidbar, und in einer deterministischen Welt wäre ein freier Mensch nicht gezwungen, etwas anderes zu tun als er will. Mit dem letzten Problem sind wir mit dem kurzen exemplarischen Exkurs über einige philosophische Probleme, wie sie sich aus der wissenschaftlichen Situation vergangener Epochen ergeben, bis in die Gegenwart gelangt. Unter Einzelwissenschaftlern ist die Auffassung gängig, daß die systematische Forschung gegenüber den Studien der historischen Entwicklung des eigenen Faches viel stärker zu gewichten sei. In der Philosophie ist die gegenteilige Betonung vorhanden; die Philosophiegeschichte nimmt zumeist auch noch einen großen Teil der systematischen Philosophie in Anspruch. Dies liegt an dem unterschiedlichen Verständnis von Erkenntnisfortschritt in Philosophie und Einzelwissenschaft. Die Wissenschaftsgeschichte nimmt in diesem Zusammenhang eine Z wischen Stellung ein: Die früher verfolgten Methodologien und Strategien der Erkenntnisgewinnung können in ihrem Erfolg oder in ihrem Scheitern durch den in faktischer Hinsicht überlegenen Standpunkt der Gegenwart sehr gut beurteilt werden. Gewissermaßen aus der historischen Vogelperspektive können wir Keplers und Galileis Bemühungen, sei es um die Ellipsenform der Planetenbahnen, sei es um den Trägheitsbegriff der Mechanik, überschauen. Das heißt nicht, daß wir im Besitz eines vollständigen, unüberholbaren Beurteilungsstandards sind. Wir können aber jene Detailerkenntnisse der früheren Epoche, die Bau-

4. Determinismus und klassische Physik

51

steine unseres naturwissenschaftlichen Weltbildes geworden sind, inzwischen nomologisch einordnen, und von den gescheiterten Versuchen aufgrund unserer explanativ stärkeren Theorien und ihrem metatheoretischen Unterbau sagen, warum sie in der Vergangenheit keinen Erfolg hatten. In dem Sinne läßt sich aus der Geschichte der Wissenschaft etwas lernen. Es gibt heute bekannte semantische Gründe, warum Platon mit seiner pythagoräischen Materietheorie, wonach die Urbausteine als reine, mathematische, abstrakte Objekte aufzufassen sind, keinen Erfolg haben konnte. Wir verstehen, warum Ptolemaios mit seiner mathematischen Syntax nur eine begrenzte, phänomenologisch-instrumentelle Voraussageleistung erzielen konnte, und wir wissen, daß Galilei sich mit seinem zirkulären Trägheitsbegriff in großer Nähe zum Schlüsselbegriff der klassischen Mechanik befand. Der Grund liegt eben darin, daß wir das Anwendungsproblem mathematischer Strukturen besser verstanden haben, daß wir im Besitz einer realistisch interpretierbaren Himmelsmechanik sind, die verstehen läßt, warum Ptolemaios mit seiner black box-Theorie einen partiellen prognostischen Erfolg buchen konnte, und uns ist klar, daß der zirkuläre Trägheitsbegriff Galileis stetig in den linearen Trägheitsbegriff Newtons übergeführt werden kann, wenn man den Krümmungsradius der Trägheitsbahn, auf der die Körper kräftefrei laufen, beliebig wachsen läßt. Wenn man die Wissenschaftsgeschichte in diesem Sinne für eine gegenwärtige systematische Forschung aufschließt derart, daß die erfolgreichen und die gescheiterten Methodologien und strategischen Ansätze von dem gegenwärtigen Wissenshorizont her sichtbar gemacht werden28, vermeidet man eine sterile Auflistung von vergangenen Ergebnissen, die allein für sich zwar oft einen akribischen Einsatz von rekonstruktivem Scharfsinn erfordert, als Selbstzweck aber dann, entkoppelt von den Interessen und Zielen der laufenden Forschung, ein auf Toteis liegendes Wissen darstellt. Voraussetzung dafür ist allerdings, daß man nicht einen völlig relativistischen Standpunkt in der Theoriendynamik vertritt und zumindest eine schwache Akkumulationsthese für wahr hält, wonach die verschiedenen Kontexte der einzelnen historischen Paradigmata mehr erzeugen als nur völlig unvergleichbare Muster der Forschungsstrategien, deren überepochaler Vergleich absolut sinnlos ist. Nur wenn man den konsequenten Historismus ablehnt, wird man aus den Erfolgen und

52

II. Historische Aspekte der Wissensgewinnung

Fehlschlägen vergangener Wissenschaftsepochen systematisch lernen können.

III. Raum und Zeit Sowohl Alltagserfahrung wie theoretische Erkenntnis der Wissenschaft lehren, daß alle Objekte der Welt räumlich strukturiert sind und alle Prozesse in der Natur raumzeitliche Abläufe bilden. Dieser Sachverhalt scheint so tief in unserem Wissen verankert zu sein, daß wir Schwierigkeiten haben, uns Vorgänge vorzustellen, die nicht in Raum und Zeit ablaufen. So fundamental diese Kategorien der Realität zu sein scheinen, so weit gehen die philosophischen Ansichten über die Existenzweise dieser allgemeinen Bestimmung aller materialen Objekte auseinander. Sind Raum und Zeit subjektive Momente unseres Erkenntnisapparates, Strukturen der Realität oder gar autonome Elemente der Wirklichkeit, die zu den materialen Objekten hinzutreten? Wie immer die Antwort auf diese Frage aussehen wird, sie muß auf jene physikalischen Theorien zurückgreifen, die gegenwärtig die grundlegendsten Aussagen über diese einerseits so selbstverständlichen, andererseits so rätselhaften Existenzformen der Wirklichkeit machen. Sowohl für die Natur des Raumes als auch für die Analyse des Zeitpfeils kann im Folgenden das ontologische Problem als Leitfaden angesehen werden. 1. Absolut versus relativ Zwei Verwendungen des Raumbegriffes durchziehen die Geschichte seines Gebrauches: Einmal ist der Ausdruck „Raum" mit der möglichen Lagerung von Körpern verbunden, zum anderen wird er als Behälter der Dinge der materialen Welt angesehen. Schon im alltäglichen Sprachgebrauch scheint diese doppelte Rolle verankert zu sein; denn wir schreiben dem Raum einerseits Eigenschaften zu aufgrund der Entfernungen und Lagen der Körper zueinander, gründen diese Qualitäten somit auf ein Netz von Relationen unter den konkreten Objekten. Wir sind aber andererseits auch davon überzeugt, daß es den Raum gibt, in dem die Objekte unabhängig von ihren Abständen

54

III. Raum und Zeit

und Richtungen zueinander existieren. Ein Gedankenexperiment erhellt noch den Unterschied: Die im ersten Fall angesprochene Raumstruktur geht verloren, wenn man sich in der Vorstellung die Körper vernichtet denkt; im zweiten Fall ist dies nicht so, hier bleibt der leere Behälter übrig, in den die Dinge jederzeit wieder eingeführt werden können. Aus diesem Grunde kann man die beiden Alltagssprechweisen vom Raum als Vorläufer dessen betrachten, was in der Geschichte der Naturphilosophie die relationale und absolute Raumauffassung genannt wird.1 Cum grano salis kann man Aristoteles2 und Demokrit3 als Inauguratoren dieser beiden Positionen bezeichnen. Platon nimmt hier insofern eine interessante Stellung ein, als sich in seinem Raumbegriff bereits eine dynamische Komponente findet, die kennzeichnend für die substantivische Stoffauffassung ist. Der Raum ist nicht einfach der Schauplatz für die Ortsveränderungen der Dinge, die Arena, wo sich die Bewegungen abspielen, sondern ein Medium, das für die Bezogenheit der Inhalte des Raumes sorgt.4 Finden wir bei Demokrit eine klare Trennung zwischen Raum und Materie, so gibt Platon bereits den ersten Hinweis, daß man aus der die Erscheinungsweisen der ponderablen Materie rekonstruieren kann. Allerdings verwendet Platon bei seinem Ansatz nicht Qualitäten des Raumes im ganzen, sondern Eigenschaften von geometrischen Gebilden im Raum. Es sind dies die fünf regulären einfachen Polyeder, deren Begrenzungen aus polygonalen Flächen bestehen, welche mit den vier Elementen (Tetraeder => Feuer, Hexaeder => Erde, Oktaeder => Luft, Ikosaeder => Wasser) identifiziert werden, wobei der verbleibende Dodekaeder dem Weltganzen zugeordnet wird und somit keine unmittelbare Funktion für den Aufbau der Materie hat. Interessant ist, daß die eigentliche ontologische Bedeutung nicht auf den Polyedern selbst, sondern auf den Bestandteilen dieser geometrischen Objekte lastet, also den beiden Klassen von Dreiecken, dem rechtwinkliggleichschenkligen und dem rechtwinkligen Dreieck mit den weiteren Winkeln von 30° und 60°. Ihre Kombinationsfähigkeit gestattet die Umwandlung der Elemente ineinander und drückt in ihrer planimetrischen Art (zweidimensionaleObjekte!) den idealistischen Charakter der platonischen Materie aus.5 Heute wird man einwenden, daß zweidimensionale Objekte nur eine begriffliche Existenzweise besitzen können, angesichts der Dreidimensionalität des physikalischen Raumes sind sie gedankliche Abstraktionen, nämlich ebene Rand-

1. Absolut versus relativ

55

flächen von Körpern im Dreierraum, haben aber keine eigenständige ontologische Substantialität. Platons substantivische Verwendung des Raumbegriffes hat viele Nachfolger in der späteren Zeit, vor allem in der Renaissance, gefunden ; Telesio und dann vor allem Patrizzi setzten sich für eine ontologische Priorität des Raumes gegenüber der Materie ein und trennten sich damit von der aristotelischen Auffassung, daß der Raum nur der Inbegriff des Ortes ( 07105) der Gegenstände sei. In sehr expliziter Form hat dann Descartes seinen physikalischen Monismus geometrischer Natur begründet. Unter den vielen möglichen Kandidaten für die Schlüsseleigenschaft der Welt wählt er die Ausdehnung als jenen zentralen Parameter, mit dem nicht nur näherungsweise, sondern erschöpfend die Materie charakterisiert wird: sie wird einfach mit der res extensa identifiziert. Ein solcher Standpunkt ist natürlich absolutistisch im folgenden Sinne: Die metrischen Eigenschaften des Raumes können nicht durch das Verhalten äußerer, nichtgeometrischer Objekte dem Raum aufgeprägt werden; er kann nicht im Sinne der Relationalisten als metrisch amorphe (d.h. strukturlose) Mannigfaltigkeit angesetzt werden, der im Nachhinein durch das Transportverhalten von Standardkörpern eine geeichte Struktur von außen vermittelt wird, sondern, da es keine raumfremden Agentien gibt, muß der Raum die festgestellten Eigenschaften (Metrik und Topologie) innerlich besitzen. Die cartesische Plenumsauffassung der Welt wurde erst nach dem Aufkommen der modernen Feldphysik voll gewertet; denn das Feld ist ja gerade eine solche Entität, die sich kontinuierlich ausbreitet und keinen Bereich bei der Erfüllung der Raumzeit ausläßt: „Descartes hatte demnach nicht so unrecht, wenn er die Existenz eines leeren Raumes ausschließen zu müssen glaubte. Die Meinung scheint zwar absurd, solange man das physikalisch Reale ausschließlich in den ponderablen Körpern sieht. Erst die Idee des Feldes als Darsteller des Realen ... zeigt den wahren Kern von Descartes' Idee: Es gibt keinen ,feldleeren' Raum." 6

Die Entwicklung jedoch von Descartes' einfacher Identifikationshypothese zu einer geometrisierten Feldtheorie, mit der man auch konkrete Erfahrungsqualitäten ausdrücken kann, mußte noch einen langen Umweg nehmen.

56

III. Raum und Zeit

Es begann zuerst einmal mit einer völligen Aufgabe der cartesischen Voraussetzung, daß die Form der Körper oder deren Ausdehnung irgendeine wesentliche Eigenschaft darstellt. Newton wählte auch eine einzelne Schlüsseleigenschaft der Materie aus, aber keine räumliche Qualität, sondern die Masse. In der Mechanik ist die träge Masse m( durch die Wirkung einer Kraft auf einen Körper, nämlich durch dessen Beschleunigung, bestimmt; in der Gravitationstheorie ist die schwere Masse rag, wie sie in einem Objekt durch die ihn umgebenden schweren Massen hervorgerufen wird, maßgebend. Die numerische Gleichheit dieser begrifflich verschieden gewonnenen Größen wird bei Newton als kontingentes Faktum konstatiert, spielt aber weiter keine notwendige Rolle in der Theorie. Der stärkste begriffliche Bruch mit Descartes' Physik besteht in Newtons Idealisierung ausgedehnter Körper als Massenpunkte, als ausdehnungslose nulldimensionale Objekte. Mit dieser begrifflichen Neuheit wird zugleich eine deutliche Dualität von Raum und Materie aufgerichtet. Der Raum, zwar nach wie vor durch seine Ausdehnungseigenschaft definiert, ist der durch das physikalische Geschehen unberührte Behälter der Dinge; seine Eigenschaften sind logisch und kausal von Körpern, die sich in ihm bewegen, unabhängig. Diese dynamische Entkoppelung macht es natürlich auch unmöglich, aus den Qualitäten des Raumes heraus erfahrbare Relationen zu konstruieren, wie es Descartes' Ziel gewesen war. Newtons Ausgangspunkt für die weitere Spezifikation seines Raumbegriffes ist der Vorgang der Beschreibung einer Bewegung. Jede physikalische Wiedergabe einer Ortsveränderung eines Körpers setzt die Wahl eines Bezugssystems voraus. Als Bezugssystem kann ein beliebiger Körper gewählt werden, den man dann für die quantitative Wiedergabe mit einem Koordinatensystem ausstattet. Ein Bezugssystem oder, in Newtons Ausdrucksweise, ein „relativer Raum" ist nur das epistemische Werkzeug, das die Lage eines Körpers zu den anderen bestimmbar macht und besitzt weiter keine ontologische Subsistenz. Da man aber den Beschreibungsstandpunkt jederzeit willkürlich wechseln kann, ist der relative Raum nicht in der Lage, die wahren Bewegungen eines Körpers zu ermitteln. Die wahre Bewegung kann nicht von der konventionellen Wahl eines menschlichen Beschreibungsstandards abhängen; sie ist so bestimmt, daß sie nur durch Kräfte erzeugt oder abgeändert wird, welche auf den Kör-

l. Absolut versus relativ

57

per selbst einwirken, durch die Einführung eines neuen Beschreibungsrahmens läßt sie sich nicht verändern.7 Mit Hilfe eines solchen Rahmens kann man die Bewegung eines Objekts zwar immer modifizieren, aber in einer konventionellen Weise, wobei die dynamischen Ursachen der Veränderung nicht auf das Objekt selbst einwirken. Auch die mathematische Form der Gesetze spielt eine Rolle bei der Begründung der Notwendigkeit des absoluten Raumes. Seit Galilei weiß man, daß die Grundgesetze sich in gleichförmig zueinander bewegten Bezugssystemen nicht ändern und daß der Übergang zwischen solchen Systemen durch die nach ihm benannte Transformation vermittelt wird. So gilt das Trägheitsgesetz nicht nur in einem ruhenden, sondern auch in allen auf solche Weise transformierbaren Systemen. Die wahre Bewegung eines Körpers zu bestimmen, der einer Trägheitsbahn folgt, erfordert aber nun die Einführung eines absoluten Rahmens, in bezug auf den sich die gleichberechtigten Bezugssysteme bewegen. Dieser Rahmen, der selbst unbeweglich und mit keinem empirischen Objekt exakt verbunden ist - näherungsweise nimmt Newton an, daß der Schwerpunkt des Sonnensystems mit dem Mittelpunkt der Welt identisch und in absoluter Ruhe ist -, wird zwar durch keine materialen Wirkungen beeinflußt, ist aber dennoch Ursache von empirisch feststellbaren Erscheinungen. Der absolute Raum ist zwar ein einseitiger kausaler Partner der materialen Welt, das reicht aber nach Newton aus, vermittels der Kräfte, die die Ursachen der wahren Bewegungen sind, aus den scheinbaren Bewegungen die wahren zu gewinnen. Kräfte sind in der Newtonschen Mechanik die Ursache von Beschleunigungen; es müssen also dynamische Phänomene sein, aus denen sich die Absoluteigenschaften des Raumes herausfiltern lassen. Zwei Gedankenexperimente hat Newton selbst angegeben, bei welchen das Vorhandensein einer Kraft als Indikator der Wirkung des absoluten Raumes gedeutet werden muß: den berühmten EimerVersuch und die weniger bekannte Überlegung mit den beiden Kugeln. Bei der letzten sollen die Zentrifugalkräfte die absolute Bewegung anzeigen, aus welcher man dann die Existenz des absoluten Raumes erschließen kann: Läßt man etwa zwei Kugeln, die durch ein Band in fester Entfernung zueinander gehalten werden, um ihr gemeinsames Gravitationszentrum rotieren, so kann man auch im lee-

58

III. Raum und Zeit

ren Raum, wo alle Markierungspunkte einer Umgebung fehlen, aus der Stärke der Spannung des Fadens die Größe und Richtung der absoluten Drehbewegung entnehmen. Der Eimer-Versuch ist bei Newton in der Aufgliederung seiner Phasen nur unvollständig dargelegt.8 Man muß an ihm vier Stadien unterscheiden9: 1) Eimer und Wasser hängen an einem verdrillten Faden. Beide sind zueinander in Ruhe und die Wasseroberfläche ist eben. 2) Der Eimer beginnt zu rotieren, aber das Wasser wird noch nicht mitgenommen, seine Oberfläche ist nach wie vor ungekrümmt. 3) Der Eimer hat dem Wasser die Bewegung mitgeteilt, beide sind zueinander in Ruhe, aber die Oberfläche des Wassers ist parabolisch. 4) Der Eimer wird abgebremst, aber das Wasser dreht sich mit gekrümmter Oberfläche weiter; beide Objekte sind relativ zueinander in Bewegung.

Newtons Argument geht davon aus, daß 2) und 4) die gleiche relative Bewegungssituation repräsentieren, dennoch aber verschiedene Erscheinungsformen zeigen. Dies ist vom rein relationalen Standpunkt aus nicht zu erklären. Hier müssen Kräfte wirken, die den Unterschied auslösen. Sie liefern die absoluten Beschleunigungen, aus denen man entnehmen kann, daß in 2) der Eimer und in 4) das Wasser eine wahre Rotation, d.h. eine solche gegenüber dem absoluten Raum ausführt. Methodisch handelt es sich bei diesem Argument Newtons nicht etwa, wie die späteren Kritiker von einem engen positivistischen Standpunkt aus einwandten (Berkeley und Mach), um die rein metaphysisch motivierte Einführung eines Gespenstes, sondern es ist vielmehr als klares Ergebnis der hypothetisch-deduktiven Denkweise anzusehen, bei der eine theoretische Entität postuliert wird, um die Erscheinungen, hier die Kinematik der Bewegung, zu retten. Solange die erfahrungsmäßigen Konsequenzen eines solchen Postulates in Einklang mit den Tatsachen sind, ist es durchaus gestattet, die geforderte Entität als existent zu betrachten. Ist die methodische Strategie Newtons nach modernem Verständnis von der Rolle theoretischer Begriffe her durchaus in Ordnung, so bleibt die Frage bestehen, ob das Newtonsche Argument eine Lücke aufweist. In der Tat gibt es eine, und sie besteht darin, daß sie die Voraussetzung macht, daß die beiden Experimente in einem leeren Universum in derselben Weise ablaufen würden wie in einem mit Sternmaterial gefüllten. Nur wenn man z. B. den Eimer-Versuch isoliert betrachtet, ohne Berücksichtigung der Umgebung, besteht zwi-

1. Absolut versus relativ

59

sehen der Phase 2) und 4) tatsächlich kinematische Symmetrie; denn bei 2) sind Wasser und Umgebung in Ruhe und der Eimer bewegt, während bei 4) Eimer und Umgebung in Ruhe sind und sich das Wasser bewegt. Die echte spiegelbildliche Situation von 2) hieße aber, Eimer in Ruhe und Wasser und Umgebung in Rotation. Newtons Argument für die Existenz des absoluten Raumes ist also deshalb nicht vollständig (ein sog. non sequitur), weil es logisch nicht auszuschließen ist, daß bei der Mitrotation aller fernen Himmelskörper mit der gleichen Winkelgeschwindigkeit die Oberfläche des Wassers ungekrümmt bleibt. In diesem Falle wäre die konkave Oberfläche auf die relative Rotation von Wasser und den fernen Massen zurückzuführen. Anders als beim Raum enthüllt sich der absolute Status der Zeit. Verwendet man die rotierende Erde als Uhr - heute würde man sagen als Zuordnungsdefinition für gleiche Zeitabschnitte - und berechnet mit den Newtonschen Gesetzen die Planetenörter, so stellt man Abweichungen von den beobachteten Werten fest. In diesem Zeitmaß t sind die Gesetze nicht exakt erfüllt. Nimmt man an, daß die Erde sich (z. B. wegen der Gezeitenreibung) nicht exakt dreht und korrigiert man das Maß t entsprechend, so liefert das neue Zeitmaß T = f (t) in den himmelsmechanisehen Gleichungen die richtigen Positionsbestimmungen der Planeten. Jene Zeit T, die die ursprüngliche Einfachheit der Gleichungen bewahrt, ist die absolute, während t eine relative Zeit ist, die mit der absoluten durch die Funktion f verbunden ist. Auf diese Weise läßt sich die Erfüllung der Gesetze als Kriterium für die Auszeichnung der absoluten Zeit verwenden. Es war naheliegend, daß die skizzierte absolutistische Auffassung, im beginnenden Zeitalter der Aufklärung als halbmetaphysische These angesehen, nicht ungeteilte Zustimmung finden konnte. Leibniz fand allerdings bei seinen Angriffen gegen den substantiellen Behälterraum nicht die o.a. Lücke im Newtonschen Argument, er gründete seinen Angriff vielmehr auf den philosophischen Satz vom zureichenden Grunde.10 Betrachtet man etwa die Orientierung des materialen Universums im absoluten Raum, so ist keine der möglichen Richtungen durch irgendein Moment vor den anderen ausgezeichnet. Infolgedessen hat die Orientierung der gesamten Welt im Raum keinen Sinn. Ebenso ist es nicht sinnvoll, alle Prozesse auf der

60

III. Raum und Zeit

Zeitachse ein endliches Intervall nach vorwärts oder rückwärts zu schieben; es gibt keinen zureichenden Grund, warum bestimmte Ereignisse gerade auf bestimmten festen Punkten der homogenen Zeitachse liegen sollten. Ein Teilzugeständnis macht Leibniz allerdings gegenüber Clarke, dem Verteidiger Newtons: Es ist ein Unterschied vorhanden zwischen der wahren Bewegung eines Körpers, wenn die Ursache der Ortsveränderung in ihm selbst liegt, und der relativen Bewegung, die dadurch zur Umgebung hervorgerufen wird. Aber dies ist kein zureichender Grund, dem Raum selbst eine eigenständige Existenz zuzubilligen. Das idealisierte Beispiel mit den zwei Kugeln kann deshalb in der relationalen Sichtweise gar nicht sinnvoll formuliert werden. Die relationale Auffassung läßt sich auch von einem weiteren philosophischen Prinzip, dem principium indiscernibilium identitatis (pii), der Ununterscheidbarkeit des Gleichen, her verstehen. Wenn man sich vorstellt, daß alle Körper im unendlichen Raum zugleich ein Stück verrückt werden, dann entsteht eine Situation, die von der Ausgangslage in keiner Weise unterscheidbar ist, und somit sind die beiden empirisch identisch; zwei solche absoluten Lagen besitzen keinen trennbaren Sinn.11 Man muß sich jedoch klar sein, daß Leibniz' relationaler Standpunkt nur in kinematischer Hinsicht ausreichend begründet ist. Den dynamischen Argumenten für die Absolutheit der Bewegung konnte er nichts entgegen halten. In die früher genannte Lücke in der Demonstration Newtons stieß George Berkeley, er argumentierte allerdings in epistemischer Richtung. Die Rotationsbewegung der zwei Kugeln um ihr Schwerezentrum ist ohne markierende Umgebung nicht feststellbar, und deshalb ist die Rede von einem solchen kontrafaktischen Fall semantisch leer. Dieser Vorwurf ist wohl zu unterscheiden von dem ontologisch-dynamischen Gesichtspunkt, wonach die Trägheitskräfte durch die Geschwindigkeit oder Beschleunigung der fernen Massen als kausal beeinflußt gedacht werden. Es ist wichtig, sich klar zu sein, daß im 18. Jahrhundert die Konsequenz des relationalen Standpunktes, wonach die fernen Massen die Ursache für die Trägheitskräfte darstellen müssen, wenn man etwa den Fixsternhimmel als Bezugssystem auffaßt, in dem das Trägheitsgesetz gilt, als reductio ad absurdum aufgefaßt wurde. Daß die Bewegung und die Masse des gesamten Universums das Maß der lokalen Trägheit der Körper bestimmen soll, hielt noch Euler für metaphysisch und unannehm-

1. Absolut versus relativ

61

bar.12 Damit in Einklang versucht er sogar, einen logischen Notwendigkeitsbeweis für den absoluten Status des Raumes zu führen, indem er das Trägheitsgesetz aus dem Satz des zureichenden Grundes ableitet, und da der Trägheitssatz als Voraussetzung den absoluten Raum besitzt, ist auch der Nachweis für die notwendige Existenz des absoluten Raumes geführt. Einen anderen apriorischen Existenzbeweis für den absoluten Raum möchte Kant aus dem Vorhandensein inkongruenter spiegelbildlicher Objekte gewinnen.13 Da ein linkes und ein rechtes Objekt (z.B. Handschuh) durch keine innerliche Qualität ausgezeichnet sind, welche sie als links oder rechts charakterisieren kann, muß es eine äußerliche Relation sein, die diese Distinktion vornimmt. Als Relationalglied für die Auszeichnung kommt aber nur der absolute Raum in Frage. Kant hielt jedoch dieses Argument in seiner vollinhaltlichen Form später nicht mehr aufrecht; nach seiner transzendentalen Wendung schwächte er die Behauptung der Realität des absoluten Raumes im Sinne einer Anschauungsqualität ab. Wir wollen hier diese Gedankenlinie nicht weiter verfolgen, denn die rein philosophische Diskussion um die Natur des absoluten Raumes und der Zeit ging ziemlich wirkungslos am Verständnis der Einzelwissenschaftler vorbei.14Die Physiker rechneten mit sichtbaren Platzhaltern der beiden Absolutbegriffe erfolgreich, und das Grundsatzproblem, ob das gerade verwendete Fundamentalsystem der Mechanik eine mehr oder weniger gute Realisierung der Newtonschen Absolutkategorie sei, konnte ohne Schaden ausgeklammert werden. Gelegentlich wurden Vorschläge zur Eliminierung der beiden Begriffe gemacht, die aber alle das Problem nicht wirklich an der Wurzel anpackten, da man sich nicht bewußt war, daß eine echte Vertreibung der Absolutheitsqualitäten nur in einer neuen Mechanik zu bewerkstelligen war. Ehe diese in Angriff genommen werden konnte, zeigte sich aber noch eine andere Realisierungsmöglichkeit des absoluten Raumes, nämlich der elektromagnetische Äther. Anders als die Mechanik ist die klassische Elektrodynamik nicht mit dem Galileischen Relativitätsprinzip in Einklang. Sie gestattet die Auszeichnung eines Ruhesystems, und das ist dasjenige System, in dem sich die elektromagnetischen Schwingungen ausbreiten. Damit wurde die Suche nach dem absoluten Raum auch zugleich eine Suche nach dem Äther; denn wegen der Bahnbewegung der Erde um die Sonne war es ja unglaub-

62

III. Raum und Zeit

haft anzunehmen, daß die Erde im Äther ruhte. So mußte es also möglich sein, die Bewegung der Erde durch den absoluten Raum, realisiert durch das Ruhesystem des Äthers, experimentell zu bestimmen. Da im Laufe der Zeit alle Versuche scheiterten, die Bewegung der Erde durch den Äther festzustellen, sei es durch das Experiment von Trouton und Nobel, sei es später durch das berühmt gewordene Experiment von Morley und Michelson, vor allem aber dann, als Einstein in seiner speziellen Relativitätstheorie die theoretische Überflüssigkeit der Ätherhypothese gezeigt hatte, schwand auch das Vertrauen in eine elektromagnetische Begründung des absoluten Raumes.

2. Das Trägheitsproblem Um das Gewicht, die Tragweite und die Originalität von Einsteins Lösung des Fundamentalproblems der Mechanik richtig einschätzen zu können, in deren Folge er zu einer neuen Konzeption für die Struktur des Raumes vorstieß, ist es wichtig, sich die epistemische Situation am Vorabend der Relativitätstheorie ins Gedächtnis zu rufen.15 Newtons l. und 2. Grundgesetz der Mechanik können nicht ohne Angabe weiterer Qualifikationen gelten: man muß spezifizieren, von welchem Bezugssystem aus beurteilt wird, ob ein Körper, auf den keine Kraft wirkt, sich in Ruhe befindet oder sich mit konstanter Geschwindigkeit bewegt. In allen Bezugssystemen kann dies sicherlich nicht der Fall sein, wenn man sich etwa mehrere wild kreiselnde Körper als Beurteilungsstandard denkt. Es gibt aber Systeme, in bezug auf die das l. Gesetz in sehr guter Näherung wahr ist: die Inertialsysteme. Mit jedem Inertialsystem ist auch ein Körper, der sich zu ihm in gleichförmiger Bewegung befindet, ein Inertialsystem, und nur in bezug auf diese privilegierte Klasse von Bezugssystemen gelten die drei dynamischen Gesetze Newtons. Als didaktische Hilfe kann man statt Bezugssystemen auch Beobachter verwenden. Diese Ersetzung ist solange gefahrlos, wie man nicht in die operationalistische Doktrin abgleitet, wonach alle Bezugssysteme von wahrnehmenden Subjekten besetzt sein müssen. Die Natur ist auch dann durchaus beschreibbar, wenn man nicht annimmt, daß alle Punkte des Raumes mit fiktiven Beobachtern besetzt sind. Beherzigt man diese Tatsache, kann man den eben genannten Sachverhalt auch so

2. Das Trägheitsproblem

63

ausdrücken, daß verschiedene inertiale Beobachter dieselbe Klasse von Phänomenen sehen und sie mit den gleichen Gesetzen beschreiben. Die Gesetze erfüllen also ein Relativitätsprinzip. Jedes Relativitätsprinzip enthält zwei Momente: Es richtet sich auf eine Klasse von Bezugssystemen, hier die inertialen, und gilt für einen Typ von Gesetzen, hier die dynamischen. Die wissenschaftliche Entwicklung ging dann auch folgerichtig auf die Erweiterung der beiden Momente hin. In der speziellen Relativitätstheorie wurden die elektromagnetischen Gesetze in das Relativitätsprinzip eingemeindet, und in der allgemeinen Relativitätstheorie wurden alle Bezugssysteme in das erweiterte Relativitätsprinzip aufgenommen. Wichtig ist, daß ein Relativitätsprinzip auch in eine modale Form gebracht werden kann: Es läßt sich als Unmöglichkeitsaussage formulieren. Bei einem Gesetz, das ein Relativitätsprinzip erfüllt, kann man nicht sagen, in welchem Mitglied der Klasse der gleichberechtigten Bezugssysteme man sich befindet. Aufgrund der Gesetze der klassischen Mechanik vermag kein Beobachter festzustellen, welche Geschwindigkeit er besitzt, er kann nur sagen, ob er ein inertialer Beobachter ist oder nicht. So ist ein Erdbewohner in der Lage, zweifelsfrei zu konstatieren, daß sein Wohnort kein Inertialsystem ist; die Abplattung an den Polen, die Ausbauchung am Äquator sprechen dagegen. Er kann aber auch den Betrag der Abweichung, seine Drehgeschwindigkeit, durch lokale Messung bestimmen. Das Foucaultsche Pendel etwa ist für den erdfesten Beobachter ein Mittel, die tägliche Rotation der Erde nachzuweisen. Man könnte die Rotation auch auf der nebelverhangenen Venus feststellen und würde dort ohne Kenntnis der Umgebung zu dem Schluß kommen, daß man einen Körper bewohnt, der ein nichtinertiales System darstellt, in dem also die Newtonschen Gesetze nicht gelten. Hat der Beobachter allerdings die Umgebung zur sichtbaren Verfügung wie auf der Erde, dann wird er auch bemerken, daß die Schwingungsebene des FoucaultPendels relativ zu den Fixsternen ruht. Oder, wenn er einen EimerVersuch auf dem Nordpol anstellt, wird ihm auffallen, daß das Wasser im ruhenden Eimer leicht gekrümmt ist, und wenn er dann den Eimer so dreht, daß nach der Übertragung der Rotation auf das Wasser die Oberfläche eben wird, wird er feststellen, daß der Eimer relativ zu den Fixsternen ruht. Da sich bei nichtverschwindender Relativrotation von Erde + Eimer + Wasser gegenüber den fernen Massen Krümmung der Wasseroberfläche einstellt, jedoch nicht bei

64

III. Raum und Zeit

relativer Ruhe von Fixsternen und Wasser, wird er sicher die Relativrotation für den Unterschied verantwortlich machen. Ein rotierender Körper ist ein spezielles nichtinertiales Bezugssystem, dessen Bewegung keine Kraft von außen aufrecht erhält; es gibt aber auch andere nichtkräftefreie nicht-inertiale Bezugssysteme : Stellt man sich etwa die Erde als nicht rotierend vor, so würde ihre Revolution um die Sonne verhindern, daß die Erde ein Inertialsystem ist; denn von der Erde her betrachtet, die die Sonne einmal im Jahr umkreist, gälten Newtons Gesetze wieder nicht, da die Erde keine Beschleunigung besäße, trotz der Wirkung der Gravitation der Sonne auf die Erde, während die Sonne eine Beschleunigung aufwiese, obwohl keine Kräfte auf sie wirken; die Erdgravitation wäre hier unwesentlich, weil die Erde durch einen Körper mit beliebig schwacher Gravitation ersetzt werden könnte. Um nun die Gesetze der Mechanik dennoch in nichtinertialen Bezugssystemen verwenden zu können, greift man zu einem Trick, indem man Zusatzkräfte einführt. Wenn K = m · b die Form ist, die das 2. Gesetz in einem Inertialsystem besitzt, so ist in diesem Inertialsystem der Körper, auf den die äußere Kraft K wirkt, einer Beschleunigung b ausgesetzt, deren Stärke durch den Proportionalitätsfaktor m der trägen Masse bestimmt wird. Verwendet man nun den beschleunigten Körper selbst als Ruhesystem, so nimmt die Bewegungsgleichung in dem Bezugssystem die Form K — m · b = o an, wobei — m · b eine Zusatzkraft ist, die zusammen mit K auf den Körper wirkt, aber anders als K keine ersichtliche Quelle besitzt; es ist eine sogenannte fiktive Trägheitskraft, die den Preis darstellt, den man dafür bezahlen muß, daß man Newtons Gesetze auf falsche Bezugssysteme beziehen will. Im Fall des rotierenden Bezugssystems ist es die Zentrifugalkraft, die zur Ergänzung in die dynamische Gleichung eingeführt werden muß. Bewegt sich der zu beschreibende Körper noch in dem nichtinertialen System, so muß ein weiterer Zusatzterm, die Coriolis-Kraft, hinzutreten. Mit diesem Zusatzprogramm kann man zwar in allen Bezugssystemen erfolgreich die klassische Mechanik verwenden, jedoch bleibt die Grundsatzfrage offen, warum nicht alle Bezugssysteme für die Beschreibung dynamischer Phänomene gleichberechtigt sind. Warum und wie wählt die Natur bestimmte Privilegien aus? Newtons Antwort haben wir schon im vorigen Abschnitt kennengelernt. Der Raum selbst ist es, der die

2. Das Trägheitsproblem

65

physikalischen Wirkungen ausübt. Er ist es, der die Abplattung besorgt, wenn sich ein Körper ihm gegenüber beschleunigt bewegt. Deshalb ruht ein nicht abgeplatteter Körper auch sicher im absoluten Sinne. Aber wie bewerkstelligt der Raum dies? Ist er eine Art Stoff, der das Universum durchdringt? Sicher nicht, denn dann müßte auch die Geschwindigkeit eine absolute Bedeutung haben, nicht nur die Beschleunigung. Dann könnte gar kein Relativitätsprinzip in der Mechanik gelten. Daß eine gleichförmige Bewegung durch den Raum keine beobachtbare Wirkung besitzt, wohl aber eine Beschleunigung, läßt sich dadurch verstehen, daß der absolute Raum effektiv keine Erklärung für die bevorzugte Rolle der Inertialsysteme liefert, sondern nur eine beschreibende Reformulierung derselben darstellt. Dies macht auch die seltsame Tatsache verständlich, daß der absolute Raum über die Trägheitskräfte auf die Materie wirkt, ohne daß die Materie auf den Raum zurückwirken kann. Einstein war es klar, daß es zwei Möglichkeiten gab für die Konstruktion einer physikalischen Theorie der Trägheit, bei der es weder einsinnig kausale Partner, noch privilegierte Bezugssysteme gibt. Entweder man behandelt den Raum als Quelle der Trägheitskräfte, dann muß er so umgestaltet werden, daß er nicht mehr statische, unveränderliche, apriorische Qualitäten besitzt, sondern variabel, dynamisch und empfänglich für die Rückwirkung der Materie wird. Dieses Konzept setzt methodisch den durchgängigen Feldgedanken voraus, wie er vorbildhaft in Maxwells Theorie des Elektromagnetismus verwirklicht ist. Es enthält zentral den Gedanken, daß die Kräfte, die auf einen Körper wirken, nur von den physikalischen Eigenschaften des Raumes in unmittelbarer Nachbarschaft abhängen. Einstein hat unter Einbeziehung von Riemanns Idee16, daß die Struktur des Raumes nicht ein für allemal fest vorgegeben ist, sondern am materialen Geschehen teilnimmt, diese Gedankenlinie realisiert. Wir werden zu ihr in Kürze zurückkehren. Die andere Möglichkeit besteht darin, analog der Fernwirkungstheorie der älteren Elektrizitätslehre (Coulomb-Gesetz) zu verfahren und eine direkte Wechselwirkung zwischen den Körpern anzunehmen. Hier werden die Trägheitskräfte nicht von dem Raum, sondern von den anderen Körpern ausgeübt. Diese Ideenrichtung wurde erst in neuerer Zeit wieder von D. W. Sciama aufgegriffen. 17 Newtons Gesetze gelten in allen Bezugssystemen, aber die Trägheitskräfte sind nicht mehr fik-

66

2. Das Trägheitsproblem

tiv, sondern real, verschwinden aber in den Inertialsystemen. Sciamas Interesse gilt in erster Linie der Quelle der Trägheitskräfte. Newton hatte die Möglichkeit, daß die Zentrifugal- oder Corioliskräfte von der umgebenden Materie ausgehen könnten, zwar in Betracht gezogen, aber wieder verworfen; der Grund dafür war eben die dynamische Asymmetrie beim Eimer-Versuch, die trotz vorliegender kinematischer Symmetrie vorhanden war. Der Vergleich von Phase 2) und 4) zeigt aber gerade, daß die Form der Wasseroberfläche nicht von der relativen Bewegung zwischen Eimer und Wasser abhängt. Allerdings dachte Newton nicht an die Möglichkeit, daß der Effekt quantitativ sehr klein sein könnte. Der Eimer ist zwar sehr nahe am Wasser, besitzt jedoch eine sehr geringe Masse. Vielleicht spielen andere Massen eine kausale Rolle bei der Krümmung der Oberfläche, die zwar weiter weg, aber quantitativ mächtiger sind. Als Indiz könnte das bis dahin unerklärte Faktum der exakten Übereinstimmung von „Trägheits- und Fixstemkompaß" (H. Weyl), das wir schon mehrfach kennengelernt haben, dienen. Liegt es nicht nahe, die quantitative Übereinstimmung der lokalen Trägheitseffekte (Abplattung und das Ruhen der Ebene des Foucault-Pendels relativ zu den fernen Massen) dynamisch zu deuten im Sinne einer Kausalrelation und nicht als kosmische Koinzidenz? Wenn man dies tut, muß man die Stärke der Trägheitswechselwirkung quantifizieren. Wieviel Masse mit wieviel Geschwindigkeit, bzw. Beschleunigung in welcher Entwernung liefert wieviel lokale Trägheit für einen Körper? Das ist die entscheidende Frage. Man gab nur die qualitative Empfehlung, das Trägheitsgesetz so umzuformulieren, daß die geometrisch äquivalente Relativ-Rotation von Erde und Fixsternhimmel auch die gleichen Erscheinungen liefert, was natürlich nur zu bewerkstelligen ist, wenn man die fernen Massen in diesem Gesetz mit berücksichtigt. Das Problem liegt nicht so einfach, daß es nur darum ginge, die klassische Mechanik von einer absolutistischen in eine relationale Sprache umzuformulieren; es ist eine unzulässige Vereinfachung, wenn behauptet wird: „Even though Newtonian Mechanics is quite compatible with a relational theory of space and time, it is also compatible with an absolute one"18, denn es gilt herauszufinden, wie das Machsche Programm der Relationalisierung quantitativ realisiert wird.19 Qualitativ besagt es nur, daß die Materie Trägheit besitzt, weil es andere Materien im

2. Das Trägheitsproblem

67

Universum gibt. Das Programm muß aber u.a. erklären, warum es gerade die Beschleunigung des Körpers ist und nicht seine Geschwindigkeit, die lokal entdeckt werden kann. Bei einer isotropen Materieverteilung wird sich für ein darin ruhendes Bezugssystem alle Trägheitswirkung aus Symmetriegründen wegheben. Aber was man erklären muß, ist die Tatsache, daß auch bei einer gleichförmigen Geschwindigkeit der Sterne (bzw. Galaxien) lokal keine Trägheitseffekte auftreten und daß erst die Beschleunigung der fernen Massen die beobachteten Trägheitskräfte liefert. Das gesuchte Gesetz muß aussagen, wie diese von der Bewegung der Quelle abhängen. In der Theorie Sciamas wird ein dem elektromagnetischen Induktionsgesetz analog gebautes Kraftgesetz mit großer Reichweite eingeführt, das die Form F~

m1-m2 r

besitzt, wobei die r" ^Abhängigkeit ausdrückt, daß die fernen Massen die nahen Körper an Bedeutung weit übertreffen, und die alleinige Proportionalität zur Beschleunigung besagt, daß orts- und geschwindigkeitsabhängige Terme sich wegheben.20 Als Dichte der Materie wird dabei 7 · IGT 30 gern" 3 vorausgesetzt. Nur durch einen solchen nomologischen Eingriff in die klassische Mechanik ist das relationale Programm, die „Machianisierung" Newtons, durchführbar. So klar auch diese maxwellartige Gravitationstheorie das begriffliche Problem erkennen läßt, als ernst gemeinter Alternativvorschlag kann sie nicht dienen, denn wegen ihres streng linearen Charakters verfehlt sie wichtige empirisch bewährte Aussagen der Relativitätstheorie.21 Jedoch lehrt die Theorie noch einen erkenntnis1 theoretisch wichtigen Zusammenhang. Infolge der —Form des Ger setzes liegt der größte Teil der für die lokale Trägheit verantwortlichen fernen Massen außerhalb unseres Beobachtungsbereiches. So sieht man, wie eine uns allen aus dem Alltag wohlbekannte Qualität der Körper kausal weit in das Unsichtbare hineinreichen kann.

68

III. Raum und Zeit

3. Das Mach-Prinzip und die Natur der Raumzeit in der Rela tivitätstheorie Einstein, so hatten wir schon gesehen, setzt zwar auch am MachPrinzip an, beantwortet aber die gestellte Aufgabe mit einer anderen Theorienkonzeption. Um diese zu verstehen, muß man die zweite Quelle der Gedanken berücksichtigen, aus der die allgemeine Relativitätstheorie gespeist wird. Seit C. F. Gauß setzte sich langsam der Gedanke durch, daß die Struktur des Raumes, die Geometrie, keinen apriorisch notwendigen, sondern einen empirischen Status besitzt. Wenn man die nicht-euklidischen Geometrien als mathematisch gleichberechtigte formale Systeme anerkennt, kommt man dazu, es als kontingente, nur durch die Erfahrung entscheidbare Tatsache anzusehen, welche von den mathematisch „möglichen Welten" in der Natur realisiert ist.22 Erst später wurde es allerdings klar - vor allem durch die Kritik der Konventionalisten (Poincare, Duhem) daß eine empirische Entscheidung über die physikalische Geometrie erst nach Vorgabe von Zuordnungsdefmitionen möglich ist und deshalb mit einer Geodäsie des Raumes nur nach solchen semantischen Entscheidungen ein testbarer Sinn verbunden werden kann.23 Hatten Gauß und Lobatschewsky die epistemische Einsicht gewonnen, daß die Bestimmung der physikalischen Geometrie eine empirische Komponente enthält, so war es B. Riemann, der den neuen ontologischen Gesichtspunkt der Dynamik des Raumes ins Feld führte. Der Raum besitzt neben den für den Physiker in erster Linie wichtigen metrischen Eigenschaften auch noch allgemeinere Qualitäten. Riemann setzte voraus, daß der Realraum eine kontinuierliche Mannigfaltigkeit24 ist und fragt nach den Maß Verhältnissen (der Metrik), die eine solche Mannigfaltigkeit tragen kann, unter der Voraussetzung, daß im unendlich Kleinen das Linienelement seine Länge unabhängig von der Lage besitzt. Der Grund der Maßverhältnisse der Mannigfaltigkeit, die Ursache also dafür, welche metrische Struktur in einem bestimmten Teil des Raumes wir vorfinden „muß in den darauf wirkenden bindenden Kräften gesucht werden."25 Hiernach ist es der materielle Inhalt des Raumes selbst, der die metrische Struktur determiniert und dies ist für den Status des Raumes insofern wichtig, als Riemann die Möglichkeit offen ließ, daß der Raum nicht nur eine konstante, sondern eine ortsabhängige variable Krümmung besitzt. Nun trägt die Mannigfaltigkeit die Krüm-

3. Das Mach-Prinzip und die Natur der Raumzeit

69

mungseigenschaften ohne Bezug auf irgendwelche äußeren nichtgeometrischen Objekte. Die Individualisierung von Punkten, aber auch Ortskennzeichnungen können somit rein geometrisch innerlich erfolgen. - Dies hat zur Folge, daß es ein inneres principium individuationis gibt, das den absoluten Charakter der räumlichen Qualitäten zu einem neuen Sinn restauriert. In bestimmten Fällen, wo die Abweichung von der Homogenität (konstante und verschwindende Krümmung werden durch diesen Begriff nicht unterschieden) auf den materiellen Gehalt des Raumes selbst zurückgeht, ist der relationale Status der Raumstruktur und die freie Beweglichkeit eines Körpers ohne Deformation noch gewährleistet: normalerweise wird sich ein Körper verformen, wenn man das Kraftfeld, das er selbst erzeugt hat, festhält und ihn gegenüber diesem Feld verschiebt. Nimmt der Körper aber bei Bewegung sein metrisches Feld mit, so kann er sich ohne Deformation verlagern.26 Es gibt jedoch andere Situationen, an denen mehrere Körper beteiligt sind, etwa der freie Fall eines endlichen Objektes im Feld eines Neutronensternes, wo die starken Gravitations-Gezeitenkräfte das Objekt nicht nur deformieren, sondern zerreißen werden, oder aber die Bewegung eines Probekörpers in einer Vakuumwelt (Lösung der Feldgleichung R^v = § ), wo die variable Krümmung der Hintergrundmetrik keine freie Beweglichkeit ohne Deformation gestattet. Wenn man das früher betrachtete Leibniz-Argument gegenüber dem absoluten Raum auf diese Fälle überträgt, ergibt sich sogar ein Einwand gegen das Prinzip der Ununterscheidbarkeit des Gleichen.27 Wenn der absolute Raum variable Krümmung besitzt, unterscheidet sich eine Welt mit 2 Regentropfen durchaus von einer solchen, in der die 2 Tropfen 10m entlang ihrer Verbindungslinie verschoben wurden. Sie werden im zweiten Fall eine Deformationen besitzen. So wiesen die beiden Ideen von Riemann und Mach zwar den Weg für eine feldtheoretische Neufassung der Mechanik, die den alten privilegierten Status einer Klasse von ausgezeichneten Bezugssystemen beseitigte, aber das relationale Programm wurde nur partiell durchgeführt, das metaphysische Monster, genannt absoluter Raum, ließ sich nur schwer aus der Physik vertreiben. Einsteins Hauptintention galt in erster Linie der Sonderstellung einer Klasse von Bezugssystemen, denn es erschien ihm erkenntnistheoretisch un-

70

III. Raum und Zeit

befriedigend, daß sich die Natur nur dann in korrekter Form darbietet, wenn wir eine bestimmte vorgegebene Urteilsplattform benützen. Machs Forderung nach Überprüfbarkeit absoluter Raumqualitäten war von dem erkenntnistheoretischen Interesse bestimmt, die Mechanik von unbeobachtbaren Größen zu reinigen. Es war sein antimetaphysischer phänomenalistischer Positivismus, der den Gedanken der reinen Relativbewegung befürwortete. Da für Mach nur die ponderablen Massen berechtigte Mitglieder einer physikalischen Ontologie sind, nicht aber räumliche Qualitäten, sind fern wirkungstheoretische Realisierungen, wie die erwähnte Theorie Sciamas, viel eher in Einklang mit seinem Programm. Machs Hinweis auf den ursächlichen Zusammenhang der fernen Massen mit der lokalen Trägheit gewinnt bei Einstein die zentrale Bedeutung. Zwar war auch er an einer Ausschaltung des absoluten Raumes interessiert und hoffte das auch durch seine Theorie erreichen zu können. Viel wichtiger jedoch war für ihn die kosmologische Komponente des Mach-Prinzips, nämlich die Relativität der Trägheit, wonach die Trägheit keine innere Eigenschaft eines Körpers ist, sondern auf der Wechselwirkung aller Körper beruht. Das entscheidende Instrument, mit dem nun Einstein die beiden Gedankenlinien von Mach und Riemann zusammenführt, ist das Äquivalenzprinzip: Lokal ist die Wirkung eines Gravitations- und eines Beschleunigungsfeldes nicht unterscheidbar. Inertiale und gravische Kräfte sind in jedem Punkt nicht trennbar. Da nun die Gravitationswechselwirkung durch das metrische Feld g^v ausgedrückt wird, so nimmt das Mach-Prinzip die kosmologische Form an, „daß die ganze Trägheit, d.h. das ganze gMV-Feld durch die Materie der Welt bestimmt sei."28 Die wesentliche Identität von Trägheit und Gravitation läßt sich auch an den Feldgleichungen =8 ablesen, da nämlich der Einstein-Tensor G MV ein kompliziertes Aggregat der Metrik gßv ist und der Materietensor alle ungeometrisierten Massen enthält, die entsprechend dem Mach-Prinzip lokale Gravitation und Trägheit bestimmen. In die neue dynamische Grundlegung der Geometrie ist jedoch ein Gedanke eingegangen, den wir noch nicht erwähnt haben und der auf die spezielle Relativitätstheorie zurückgeht: Es ist nicht der Raum, sondern die Raumzeit, die, um das Prinzip der Kovarianz

3. Das Mach-Prinzip und die Natur der Raumzeit

71

(die Unabhängigkeit der Feldgleichungen vom gewählten Bezugssystem) zu erfüllen, der Dynamisierung unterworfen werden muß. Um die Irrelevanz des Bezugssystems zu garantieren, muß das neue Gesetz in vierdimensional invarianter Weise beschrieben werden. Ehe wir die Absolutqualitäten in den allgemein-relativistischen Raumzeiten weiter verfolgen, ist es notwendig, kurz auf einige irreführende, aber in der populären Literatur sehr verbreitete Behauptungen bezüglich des Verhältnisses von Raum und Zeit in der speziellen Relativitätstheorie einzugehen. Die Konstruktion dieser Theorie hat weder ihren logischen noch psychologischen Grund in dem Nullresultat des Morley-Michelson-Experimentes29, sondern in der theoretisch unbefriedigenden Situation, daß Elektrodynamik und Mechanik gegenüber verschiedenen Transformationsarten invariant sind. Wenn in der klassischen Mechanik sich zwei Bezugssysteme, die durch (x, y, z, t) und (x', y', z', t') koordinatisiert sind, mit der Geschwindigkeit v in der x-Richtung bewegen, bleiben ihre Grundgleichungen gegenüber der Galilei-Transformation x' = x — vt, y' = y, z' = z, t' = t, unverändert. Wendet man die Galilei-Transformation jedoch auf die Maxwell-Gleichungen an, dann verändern diese ihre Form, und überdies findet man, daß die Lichtgeschwindigkeit zwischen den beiden Systemen gerade um v differiert. Verwendet man zur Verknüpfung der beiden Bezugssysteme jedoch die LorentzTransformation x' = -(x-vt), y' = y, z' = z, t' = - t - — ,

so zeigen die Maxwell-Gleichungen ein kovariantes Verhalten und c bleibt eine bezugssystemunabhängige Invariante. Dies steht in Einklang mit den Ergebnissen der optischen Experimente (Morley-Michelson, Ives-Stillwell, Kennedy-Thorndike). Um diese unbefriedigende Asymmetrie in den Transformationseigenschaften zu beseitigen, veränderte Einstein die Grundgesetze der Mechanik, so daß sie lorentz-invariant wurden (für v ^ c geht die Lorentz-Transformation in die Galilei-Transformation über). In diesen Transformationsgleichungen wird jedoch nicht mehr die absolute Zeit t = t' verwendet, sondern Raum- und Zeitkoordinaten transformieren sich

72

III. Raum und Zeit

symmetrisch. Dies bedeutet aber nicht, daß Raum und Zeit völlig homologe Rollen in der Natur spielen. Trotz innerer wesentlicher Verschiedenheit sind sie in der Transformation der Raumzeit symmetrisch aufeinander bezogen. Dies ist der Sinn des vielfach mißverstandenen Minkowski-Zitates: „Von Stund an sollen Raum für sich und Zeit für sich zu Schatten herabsinken und nur noch eine Art Union der beiden soll völlig Selbständigkeit bewahren."30 Daß Raum und Zeit ihre Verschiedenartigkeit in der Relativitätstheorie durchaus bewahrt haben, sieht man an der Signatur des speziellrelativistischen Linienelementes ds2 = — c2 dt 2 + dx2 + dy2 + dz 2 (das lokal auch in der allgemeinen Relativitätstheorie gilt), wo die Zeitkoordinate klar durch das Vorzeichen abgehoben ist. Eine Welt mit der Signatur ( l· +), also mit zwei zeitartigen und zwei raumartigen Dimensionen, würde sich von unserer (—h + +) grundsätzlich unterscheiden. So haben sich durch die neue Transformationsgruppe der Gesetze die nomologischen Beziehungen von Raum und Zeit durchaus geändert; sie sind enger geworden, und in der allgemeinen Relativitätstheorie, in der die Metrik gemischte raumzeitliche Komponenten enthält, wird diese Relation noch verstärkt. Dennoch ist die Natur des Raumes und der Zeit von dieser Veränderung nicht betroffen worden, vor allem nicht jene zentrale Eigenschaft der Zeit, die wir täglich im Leben in der Unverfügbarkeit der Vergangenheit und der Unentschiedenheit der Zukunft erfahren, die Gerichtetheit oder Anisotropie der Zeit, die das eindimensionale Zeitkontinuum vom dreidimensionalen isotropen Raumkontinuum immer unterscheidet. Beim unvorsichtigen Lesen vierdimensionaler Darstellungen von Prozessen, sogenannten Minkowski-Diagrammen, kann der Eindruck entstehen, als verräumliche die spezielle Relativitätstheorie die Zeit bzw. sei ihre Welt ein starres parmenideisches Sein, in der alles Werden abhanden gekommen ist. Aber weder eliminiert die Verwendung einer Weltlinie den Prozeßcharakter eines Vorganges, denn in der vierdimensionalen Darstellung ist die zeitliche Komponente bereits eingeschlossen, noch überträgt sie typisch räumliche Eigenschaften wie die Erreichbarkeit aller Raumpunkte auf die Zeit. Die Punkte des Vergangenheitslichtkegels bleiben für einen Beobachter im Ursprung immer unerreichbar.31 Da das Netz von Weltlinien das raumzeitliche Geschehen vollständig erfaßt, ist es natürlich unsinnig, von einer Veränderung in der Raumzeit oder einer Bewegung durch die Raumzeit zu sprechen, da „Bewegung" eben als

3. Das Mach-Prinzip und die Natur der Raumzeit

73

zeitliche Veränderung eines Körpers im Raum verstanden wird; andernfalls bedürfte es einer sekundären Hintergrundzeit, in der sich Veränderungen durch die Raumzeit abspielen. Für eine solche „Metazeit" ist aber weder theoretisch noch empirisch eine Andeutung vorhanden. Genausowenig wie ein eleatisches Weltbild ist aus der MinkowskiRaumzeit der speziellen Relativitätstheorie ein allgemeiner Determinismus zu abstrahieren: Legt man in t = t0 einen raumartigen Schnitt durch die 4-Raumzeit, so besagt ein ontologischer Determinismus, daß die Ereignisse auf der Fläche t = t0 diejenigen auf der Fläche t = t1 (t^ > t0) vollständig bestimmen bzw. in der epistemischen Form, daß aus der Kenntnis der Information im Zeitpunkt t0 mittels eines vollständigen Satzes von Naturgesetzen das zukünftige Wissen in tl erschlossen werden kann. Wichtig ist nun, daß aus dem Raum-Zeit-Bild der speziellen Relativitätstheorie weder die ontologische noch die epistemische Version des Determinismus gewonnen werden kann. Deshalb ist die Raumzeit-Welt durchaus neutral bezüglich des Determinismus-Indeterminismus-Gegensatzes. Kehren wir nun zu den Raumzeiten der allgemeinen Relativitätstheorie zurück. Die entscheidende Frage lautet, inwieweit Einsteins neue Gravitationstheorie wirklich frei von dem ungeliebten metaphysischen Gespenst ist und in Einklang mit Machs Forderung steht, alle nichtbeobachtbaren Größen aus der Mechanik zu entfernen, die absolutistischen Züge der Raumzeit zu vermeiden. Wir haben schon die kosmologische Wendung angedeutet, die das MachPrinzip in den Händen Einsteins erfahren hat. Die Relativität der Trägheit besagt, daß das metrische Feld vollständig durch die Materie der Welt, aber nicht durch die Grenzbedingungen im Unendlichen bestimmt sei. Diese Bestimmung erfolgt allerdings in einer ganzheitlichen Weise. Der holistische Charakter der Theorie, daß es eigentlich nur eine einzige echte Quelle des Gravitationsfeldes gibt, gründet in der mathematischen Tatsache der Nichtlinearität der Feldgleichungen. Da hier das Superpositionsprinzip nicht gilt, wonach mit g^v und g*v auch gMV + g*v eine strenge Lösung darstellt, setzen sich die zwei materiellen Einzelfelder auch nicht additiv zusammen bzw. kann umgekehrt auch nicht die gravische Wirkung einer großen Masse in eine Vielzahl von kleinen Beträgen summativ zerlegt werden. Damit hat die Theorie einen innerlich eingebauten,

74

III. Raum und Zeit

in der mathematischen Struktur verankerten kosmologischen Zug. Dennoch scheint sich bei der Gewinnung individueller Lösungen eine Schwierigkeit für die Erfüllung des Mach-Prinzips aufzutun, die im Feldcharakter der Theorie liegt. Um die Differentialgleichungen zu lösen, die die Ableitung der Metrik g^ mit dem Materietensor verknüpfen, müssen Randbedingungen im Unendlichen vorgegeben werden, welche aber nun eine Verletzung des Mach-Prinzips in dem Sinne darstellen, daß im allgemeinen der flache Raum fern von der Quelle nicht durch diese selbst bestimmt wird, sondern autonom existiert.32 Damit erfüllt das Einsteinsche Gravitationsgesetz nur eine schwache Form des Mach-Prinzips, wonach Materie w«d Randbedingungen die Struktur der Raumzeit determinieren; die starke Form des Prinzips ließe sich nur dann aufrechterhalten, wenn man die globale Topologie mit vorgibt, also etwa bei kosmologischen Lösungen verlangt, daß die Welt geschlossen ist. Dies ist in der Tat von Einstein selbst befürwortet worden.33 Damit die Geschlossenheitsbedingung aber erfüllt werden kann, muß eine ausreichende Menge von Materie im Universum vorhanden sein. Im Moment scheinen die empirischen Befunde daraufhinzuweisen, daß die „missing matter" eine „absent matter" ist, der globale Zusammenhang also offen ist (wie wir noch im nächsten Kapitel sehen werden). Damit ist wohl auch dieser Weg der Relationalisierung der kosmischen Raumzeit nicht gangbar. Die vollständige Bestimmtheit der Metrik durch die Materie kann man auch negativ formulieren: In ihrer Abwesenheit muß der gMV nicht nur auf die Minkowskische Form degenerieren, sondern völlig verschwinden; denn die pseudo-euklidische Struktur der Raumzeit-Mannigfaltigkeit der speziellen Relativitätstheorie ist völlig unabhängig von den in diesem Raum ablaufenden Prozessen. Nun ist aber in der Relativitätstheorie keineswegs das Verschwinden jeder Struktur von Raumzeit bei Abwesenheit von Materie garantiert, die Feldgleichungen G MV = 8 nehmen, wenn = 0 ist, die Vakuumform RMV = 0 an. Diese Gleichungen beschreiben aber eine Klasse von leeren Räumen, in denen der Ausdruck für die Krümmung RMV(Te 0 ist, wodurch man sieht, daß nicht einmal die Abweichung vom ebenen Raum auf die Wirkung der Materie zurückgeführt werden kann. Es kann also keine Rede davon sein, daß die metrische Struktur des Raumes ausschließlich ihre Existenzweise

3. Das Mach-Prinzip und die Natur der Raumzeit

75

dem ponderablen Inhalt des Raumes verdankt. Eine adäquate Beschreibung dieser Situation besteht eher darin, die Metrik samt ihren Krümmungseigenschaften als theoretische Entität zu behandeln, der die gleiche Autonomie wie dem elektrischen und magnetischen Feld zukommt, oder in der kovarianten Schreibweise, dem Faraday-Tensor , der die beiden Felder einheitlich beschreibt. Begibt man sich von der Ebene der Grundgesetze zurück auf die Ebene der partikulären Lösungen und fragt man, ob Einsteins Feldgleichungen die kontroversen Beispiele von Leibniz und Newton jetzt zugunsten eines der beiden Richtungen auflösen können, so· ist die Antwort uneinheitlich. Eine klare Stellungnahme auf die Frage nach der Relativität der Rotationsbewegung ist deshalb immer noch nicht möglich, weil es noch keine strenge Lösung der Feldgleichung für das Zwei-Körper-Problem gibt; nur für einen ruhenden und für einen rotierenden Körper existiert eine partikuläre Lösung, die letztere auch erst seit 1963. Einstein hat selbst drei Voraussagen Machs aus den linearisierten Feldgleichungen abgeleitet: nämlich a) daß die Trägheit eines Körpers wächst, wenn ponderable Massen in der Nachbarschaft angehäuft werden, b) daß ein Körper mitbeschleunigt wird, wenn nahe Massen sich beschleunigt bewegen c) daß ein rotierender Hohlkörper ein Coriolis-Feld und ein Zentrifugalfeld entwickelt, wobei das erste bewegte Körper in der Hohlkugel im Sinne der Rotation ablenkt und das zweite eine Mitführung bewirkt. 34

Die Schwäche dieser Deduktion liegt darin, daß man keine philosophischen Konsequenzen aus Näherungen ziehen kann, in denen die Grundsätze der Theorie durch Annahme von schwachen Feldern, einen apriorischen Minkowski-Hintergrundraum und lineare Addition der Quellenterme wesentlich verletzt worden sind. Anders steht es mit der von Roy Kerr 1963 gefundenen stationären axialsymmetrischen Geometrie, welche das metrische Feld eines rotierenden Körpers wiedergibt. Hier zeigt sich ein starker machischer Effekt der Mitführung von Inertialsystemen. Die Kerr-Metrik wird heute als Beschreibung der geometrischen Außenraumstruktur eines kollabierten hyperschweren Sterns angesehen, eines schwarzen Lochs. Der Drehimpuls des schwarzen Lochs bewirkt relativ zur fernen Materie die Präzession eines Kreisels, welche in der Nähe des Horizontes immer stärker wird und ab einer bestimmten konzentrischen Fläche

76

III. Raum und Zeit

so anwächst, daß kein Beobachter mehr in Ruhe bleiben kann. Ab dieser sogenannten statischen Grenze werden alle Inertialsysteme in der Rotationsrichtung des schwarzen Lochs mit fester Winkelgeschwindigkeit mitgeführt. Bietet so die Rotationsmetrik ein Bild, das in Richtung auf einen relationalen Status der Raumzeit hinweist, so ändert sich dies, wenn man die kosmologischen Lösungen betrachtet. Einsteins eigener Ansatz für eine globale Raumzeit-Struktur der Welt steht ganz im Zeichen des Mach-Prinzips, er erweiterte sogar seine Grundgleichungen um den Term — · § , um Lösungen für den leeren Raum auszuschließen. Aber de Sitter fand wenig später, daß das Vorhandensein einer festen metrischen Struktur sehr wohl mit der Abwesenheit von Materie vereinbar ist. Jene Zerstreuungstendenz, die zwei Probeteilchen in einem de Sitter-Raum erfahren, ist durch keine kosmische Materie bedingt, sondern kann nur als autonome innere Struktur dieses Raumes aufgefaßt werden. So wie de Sitter für den Fall A 0 hat später Taub für die unveränderten Feldgleichungen eine strenge Lösung gefunden, die Raumkrümmung in Abwesenheit von Materie zuläßt. Für das Rotationsproblem war von einschlägiger Bedeutung jene Lösung, die der Mathematiker Gödel 1949 gefunden hatte. In der Formulierung von Weyl besagt das Mach-Prinzip, daß der Fixsternkompaß und der Trägheitskompaß relativ zueinander in Ruhe sein müssen. In der Gödel-Welt, die durch eine statische, homogene Metrik mit konstanter Krümmung und < 0 gekennzeichnet ist, ist der Raum nicht mehr isotrop, da eine absolute Rotation der Materie in jedem Punkt der Welt eine Richtung auszeichnet. Die Rotation ist dabei so zu denken, daß nicht das gesamte Weltall, ähnlich wie etwa Erde oder Sonne, um eine feste Achse rotieren, sondern daß die Materie (Fixsternkompaß) sich im Bezug auf die Tangente an die Bahn eines Probekörpers (Trägheitskompaß) dreht. Alle diese Beispiele zeigen sehr deutlich, daß das Mach-Prinzip und damit die Forderung des abgeleiteten materieabhängigen Status der Raumzeit unabhängig von den Feldgleichungen ist und höchstens als zusätzliche Bedingung oder als Auswahlprinzip verwendet werden kann. 35 Die Entwicklung des nachrelativistischen Verhältnisses von Geometrie und Physik zeigt eine Entwicklung, die dem Relationalisierungs-

3. Das Mach-Prinzip und die Natur der Raumzeit

77

Programm ausgesprochen entgegenläuft. In den Einsteinschen Gravitationsgleichungen war das in der klassischen Mechanik unabhängige Kraftfeld in der Struktur der Raumzeit aufgegangen. Es war naheliegend, daß man sich anschließend bemühte, das zweite große klassische Feld, das elektromagnetische, in den Raumzeit-Rahmen einzuschließen; die Versuche von Kaluza, O. Klein und Einstein selber waren nicht erfolgreich, aber eines zeigten sie deutlich: Je mehr von den vorher raumfremden Entitäten in die Raumzeit aufgenommen werden, desto weniger ist es möglich, im Machischen Sinne die externe Materie für die Strukturierung dieser Raumzeit verantwortlich zu machen. Geometrisierung undRelationalisierung der Raumzeit sind gegenläufige Forschungsprogramme. Noch augenscheinlicher wurde dies, als eine Theoretiker-Gruppe in Princeton um J. A. Wheeler daran ging, mit neuen mathematischen Methoden das Einheitsprogramm einer rein geometrisierten Physik auszuarbeiten. Ausgangspunkt war eine Idee von Rainich, daß man die Maxwell- und die Einstein-Gleichungen, die beide von 2. Ordnung sind, zu einer einzigen Gruppe von Gleichungen 4. Ordnung zusammenschließen kann, was physikalisch bedeutet, daß das elektromagnetische Feld so charakteristische Spuren in der Metrik hinterläßt, daß man aus ihnen jenes Feld wieder rekonstruieren kann. Gravitation und quellenfreier Elektromagnetismus lassen sich damit in Begriffen des leeren gekrümmten Raumes beschreiben. Der Einschluß der Ladung war der nächste wichtige theoretische Schritt. Er machte von der Tatsache Gebrauch, daß die Gleichungen beider Wechselwirkungen rein lokalen Charakter haben, d.h. die Zustände eines Systems in einem Punkt werden mit den Eigenschaften in einem infinitesimalen Nachbarpunkt verknüpft. Dabei bleibt die globale Form des Raumes, die topologische Zusammenhangsform im großen noch völlig unbestimmt. Einstein hatte selbst mehrfach Gebrauch von dieser topologischen Freiheit gemacht, u. a. als er aufgrund des Mach-Prinzips sein räumlich geschlossenes Zylinder-Universum für den Aufbau eines Kosmos wählte und ebenso 1935, als er zusammen mit N. Rosen zur Lösung des Teilchenproblems vorschlug, den normalen Raum als mit einem zweiten Spiegelraum durch kurze Röhren verbunden anzusehen. Die Einstein-Rosen-Brücke (Abb. 1) ist über den vermittelnden Gedanken einer Verbindung der äußeren Spiegelräume im unendlich Fernen (Abb. 2) der Pate der Idee des Wurmloches oder des Henkels der Raumzeit.36 (Abb. 3). Betrachtet man nun la-

78

Abb. l

III. Raum und Zeit

Abb. 2

Abb. 3

dungsfreien Elektromagnetismus in einem mehrfach zusammenhängenden Raum (vg\. dazu den Zweierraum in Bild 3; die dritte einbettende Dimension ist physikalisch bedeutungslos), so findet man nirgendwo die Stetigkeitsprinzipien verletzt: Die Kraftlinien des elektromagnetischen Feldes laufen durch den Tunnel, ohne die MaxwellGleichungen irgendwo zu durchbrechen, nirgends treten Singularitäten auf, die Feldlinien verschwinden in der rechten Öffnung und tauchen in der linken wieder auf. Außerhalb der Öffnung des Wurmloches ist das Muster identisch mit dem, das sonst positive und negative Ladungen um sich verbreiten; aber der Rand der Öffnung des Henkels grenzt nicht wirklich, sondern nur scheinbar, von der Ferne gesehen, einen inneren Bereich aus der Raumzeit aus, in dem die Maxwell-Gleichungen ungültig werden und der von einer autonomen Substanz namens elektromagnetische Ladung angefüllt ist. Tatsächlich enden die Kraftlinien nie, dennoch werden durch den Verlauf des Feldes in der mehrfach zusammenhängenden Topologie des Raumes alle Erscheinungen gerettet, wie sie sonst in der Sprache mit der dualistischen Ontologie von Ladungen und starrem Trägerraum ausgedrückt werden. Dadurch wird klar, daß die epistemischen Vorteile eines solchen physikalischen Monismus nicht in erster Linie auf der Phänomenebene liegen, sondern die ontologische Einfachheit der Theorie betreffen. Im Programm der Geometrodynamik wurden noch eine Reihe von anderen klassischen Substanzen geometrisiert, wie etwa die Masse,

3. Das Mach-Prinzip und die Natur der Raumzeit

79

aber es ist nicht notwendig, den Ausbau dieses Programmes weiter zu verfolgen.37 Die Verwendung einer sehr komplizierten, vielfach zusammenhängenden Vierergeometrie mit variabler Krümmung wird ausgeglichen durch eine äußerst einfache Ontologie, die letzten Endes nur aus den Raumzeitpunkten selbst besteht. Auch dann, wenn das Programm einer Totalgeometrisierung nicht durchführbar ist, wie aufgrund der jüngsten Befunde über den Gravitationskollaps und die Singularitätentheoreme zu vermuten ist, müssen Raumzeitstrukturen als eigene theoretische Entitäten neben Teilchen und nichtgeometrischen Feldern in der physikalischen Ontologie weitergeführt werden. Eine solche Verwendung von Raumzeit steht in scharfem Gegensatz zum operationalistischen Verständnis der Funktion der Geometrie als Beschreibung des Transportverhaltens von starren Maßstäben und isochronen Uhren. 38 Entsprechend der Rolle der physikalischen Geometrie in den Raumzeit-Theorien der Materie ist es viel angemessener zu sagen, daß die Geometrie das Verhalten von Maßstäben und Uhren erklärt und nicht beschreibt., aber die Theorien erklären darüber hinaus noch viele nichtmetrologische Phänomene; die Bedeutung der geometrischen Begriffe besitzt demnach einen Überschuß über die Wiedergabe von räumlichen Messungen hinaus. Raumzeit-Theorien besitzen „surplus meaning" in derselben Weise wie etwa die Quantenmechanik, die auch mehr ist als nur eine beschreibende Wiedergabe aller für sie sprechenden experimentellen Daten, wie etwa der spektroskopischen Befunde. Das Verhalten der metrischen Standards ist zweifellos wichtig, aber es besitzt nur eine testende Funktion und begründet nicht die Sinngebung der Schlüsselterme der Raumzeittheorien. Der generelle semantische Bezug der geometrischen Objekte ist deutlich zu trennen von zweierlei: 1) von der Darstellungsvielfalt, die diese Objekte in beliebigen Koordinatensystemen besitzen, sie ist nicht referentiell und rein begrifflicher Natur, 2) von den ontischen Bezügen, die durch eine Reinterpretation Zustandekommen und die uns berichten, ob die gesetzesartigen Verknüpfungen zwischen den geometrischen Objekten richtig gewählt wurden. An Beispielen wird dies sehr deutlich: Ein geometrischer Punkt bezieht sich auf ein Ereignis, ein Vektor auf die Verknüpfung zweier Ereignisse in der ebenen Raumzeit, ein Tangentenvektor verbindet zwei Ereignisse in der gekrümmten Raumzeit, eine Metrik gibt Aus-

80

III. Raum und Zeit

kunft über die Länge des Vektors, eine affine Konnexion redet über den Transport eines Vektors und die Krümmung sagt etwas über die Relativbeschleunigung zweier Punkte der Raumzeit aus. Alle diese Objekte können in mannigfachen Darstellungen vorkommen, dennoch beziehen sich in einer physikalischen Theorie nur die invarianten geometrischen Objekte in bestimmten mathematischen Verbindungen auf Ausschnitte der Realität. Zur Prüfung der nomologischen Koppelungen kann das Verhalten von Standardobjekten verwendet werden, die diese mathematischen Objekte gut approximieren. Im Rahmen des Meßprozesses in der Geometrodynamik ist es sogar versucht worden, auch die Meßgeräte in Form einer sogenannten geodätischen Uhr 39 innertheoretisch einzuführen, aber selbst wenn man das nicht berücksichtigt, genügt es, Prüfung und Objektbezug ausreichend deutlich zu trennen, um von Raumzeitstrukturen als philosophisch respektablen Elementen einer physikalischen Ontologie reden zu können. Das entscheidende Kriterium ist hier, ob die geometrischen Objekte die Minimalforderung einer wissenschaftlich zulässigen Wesenheit erfüllen, die der Identität. Die innerliche Unterscheidbarkeit von Elementen einer Raumzeit-Mannigfaltigkeit ist aber durch die mathematische Struktur gewährleistet; gerade die variable Krümmung vermag die Rolle eines principium individuationis zu spielen: „Thus, we may fairly say that the question of the nature of the geometrical objects is, like the question of the nature of the elementary particles of physics, a question of physical theory. Granted laboratory data only incline and do not constrain us in our geometrizing, but likewise, they only incline and do not constrain us in our invention of physical theory. Let fashion and terminology not mislead us into viewing geometry too differently from physics."40

Nach Einsteins erfolgreicher Theorie läßt es sich nicht länger leugnen, daß die physikalische Ontologie reicher geworden ist und neben Teilchen und gewöhnlichen Feldern auch dynamische geometrische Objekte enthält.41

4. Die Richtung der Zeit

81

4. Die Richtung der Zeit a) die Natur des Problems Nichts spricht deutlicher für eine grundsätzliche Wesensverschiedenheit von Raum und Zeit als die Alltagserfahrung. Wir alle konstatieren täglich, wie die Punkte der Zeitachse, die wir die Vergangenheit nennen, unverfügbar werden, wie es uns unmöglich ist, an einem vergangenen Ereignis auch nur die kleinste Änderung vorzunehmen, wie wir aber auch untätig warten müssen, bis bestimmte Zeitpunkte auf uns zukommen, ohne daß wir dazwischenliegende Intervalle irgendwie verkürzen könnten. Dieser transiente Charakter der Zeit, der die Unaufhaltsamkeit der ablaufenden Prozesse beinhaltet, erzeugt, vor allem wenn er mit der Starrheit der räumlichen Punkte verglichen wird, einen Eindruck, der oft mit der Metapher des „Flusses der Zeit" umschrieben wird. Wörtlich darf man diesen metaphorischen Ausdruck nicht nehmen, denn dann begeht man den Fehler, die Zeit selbst noch einmal als Prozeß aufzufassen. Auf diese Weise entstünden sinnlose Fragen nach der Geschwindigkeit einer solchen Veränderung (in Einheiten von was?). Meint man damit aber nur den Prozeßcharakter der Welt, dann läßt sich leicht zeigen, daß die Alltagserfahrung hier durchaus auf einen objektiven Zug dieser Welt gestoßen ist und nicht nur etwa auf ein bewußtseinsabhängiges Artefakt. Dies äußert sich deutlich in der physikalischen Raumzeitbeschreibung eines zeitabhängigen Ablaufs. 42 Jeder Vorgang, etwa die Erzeugung eines Elektrons in einem hochenergetischen Gammastrahl und die Vernichtung durch Begegnung mit einem Positron, stellt sich in einem Inertialsystem als Weltlinie innerhalb des Lichtkegels dar, d.h. es gilt ds2 = c 2 dt 2 — (dx 2 +dy 2 + dz2) > 0. Man kann das Teilchen auch im eigenen Ruhesystem betrachten, dann ist zwar dx 2 + dy2 + dz 2 = 0, es gibt aber kein Bezugssystem, in dem dt verschwindet. Für ein hochenergetisches Elektron, das fast mit c fliegt, ist das ds sehr klein, aber erst für ein Photon oder ein Neutrino ist v = c und dann gibt es ein Bezugssystem, in dem dt -> 0 und dx 2 + dy 2 + dz2 -» 0 gehen. Man kann es als Ausdruck der Unaufhaltsamkeit des Zeitflusses ansehen, daß für alle materialen Körper, Menschen eingeschlossen, ds2 > 0 und dt 2 > 0 ist. Deutlich tritt dieser Zug heraus, wenn man sich die hypothetischen Tachyonen vor Augen führt, Teilchen, die sich immer mit

82

III. Raum und Zeit

Überlichtgeschwindigkeit bewegen. Für sie ist, da dx = v · dt und v > c, dx2 > c2 dt 2 und ds 2 < 0. Für ein Tachyon gibt es immer ein Bezugssystem, in dem dt = 0 ist und die Zeit still stehen bleibt. Das Tachyon bewegt sich jedoch unaufhaltsam im Raum. Der Raum fließt bei fixierter Zeit. Ein tachyonitisches Lebewesen mit subjektivistischen philosophischen Neigungen würde versuchen zu beweisen, daß Räumlichkeit nur ein Zug der Bewußtseinsprozesse ist, den das Gehirn in die dortige Erfahrungswelt hineinträgt. Der Alltagseindruck über den Charakter der Zeit ist also qualitativ durchaus korrekt. Enthält das Vorstehende ein Argument für die Objektivität der Gerichtetheit des Zeitkontinuums, so ist damit die Frage nach dem Grunde einer solchen Anisotropie noch nicht beantwortet; sie setzt allerdings ein relationales Verständnis der Zeitqualitäten voraus. Zeit ist danach nicht ein eigenständiges Medium, z.B. eine orientierte Mannigfaltigkeit, deren innere Struktur sich derivativ in den Ereignisfolgen, die bestimmte Zeitpunkte nacheinander einnehmen, äußert, sondern es sind die Prozesse selbst, die eine solche Strukturierung des ansonsten amorphen Kontinuums äußerlich vornehmen. Anders ausgedrückt, besagt der relationale Standpunkt, daß es sich bei der Zeitrichtung um die Asymmetrie der Ereignisse in bezug auf die Zeit, aber nicht um die Asymmetrie der Zeit selbst handelt. Fast alle philosophischen und physikalischen Autoren nehmen den relational-reduktionistischen Standpunkt ein, und behaupten, daß die Anisotropie der Zeit, welche die unterschiedliche empirische Gewichtung der beiden Richtungen von der Vergangenheit zur Zukunft und von der Zukunft zur Vergangenheit ausdrückt, erklärt werden muß in Termen irgendwelcher Vorgänge, die eine grundlegende Asymmetrie enthalten. Versuchte man anfangs noch, die Kausalrelation für die Struktur der Zeit auszunützen, so ergab sich später, daß diese zwar einen Ordnungszusammenhang unter den Zeitpunkten stiften kann, aber nicht in der Lage ist, eine Richtung in dem auf solche Weise geordneten Zeitkontinuum auszuzeichnen.43 Es muß also Bezug auf Tatsachen genommen werden, die spezifischer sind als die Asymmetrie von Ursache und Wirkung. Eines der erstaunlichsten Momente in diesem Zusammenhang ist, daß die zeitanisotrope Welt mit fundamentalen Gesetzen beschrieben wird, die mit einer Ausnahme alle kovariant unter Zeitumkehr sind. Für die Bewegungsgleichung der Mechanik wird dies sofort dadurch ein-

4. Die Richtung der Zeit

83

sichtig, daß sie von 2. Differentiationsordnung ist, ohne daß 1. Ableitungen vorkommen. Ist f (t) eine Lösung der Differentialgleichund2x gen m—— = K, so auch f(—t), weil in der zweifachen Differentia-

d(-t) = — l auftritt. Deshalb ist dt es naheliegend, nach einem Grund für eine Anisotropie der Zeit in randbedingungsartigen Bestimmungen zu suchen. tion eine doppelte Multiplikation

Dazu muß folgende terminologische Klärung vorausgeschickt werden: alle Ausdrücke wie „Richtung", „Pfeil", „Anisotropie" und „Asymmetrie" der Zeit werden im gleichen Sinne nicht eines sich bewegenden „Jetzt", eines vorwärts gerichteten Flusses des gegenwärtigen Momentes, gebraucht, sondern als physikalische Ungleichwertigkeit der beiden Abschnitte der Raumzeit, wie sie sich von einem speziellen Ereignis aus darbieten. Der psychologische Begleitumstand, daß ein bestimmtes Ereignis sich als das „jetzige" darbietet, besitzt keine Verankerung in der objektiven Raumzeitwelt, sondern ist der Ausdruck der empirischen Identität von einem Raumzeitpunkt und dem Ereignis seines Wahrgenommenwerdens. Dies bedeutet keine grundsätzliche Geringschätzung von zeitlichen Alltagserlebnissen, zu denen ja auch die Erfahrung des gegenwärtigen Momentes der Zeit gehört, genauso wie deren Gerichtetheit. Aber gerade das letztgenannte psychologische Datum, dementsprechend wir Ereignisse immer vor den Erinnerungen von diesen Ereignissen erleben, wie auch die epistemische Tatsache, daß wir die Vergangenheit erinnern, aber die Zukunft voraussagen, sollte nicht entkoppelt von den übrigen Asymmetrien unserer Umgebung betrachtet werden. Die mentalen Einsinnigkeiten müssen in Begriffen der physikalischen Asymmetrie verständlich gemacht werden und der Tatsache Rechnung tragen, daß unser Gehirn, der Träger der bewußten Erlebnisse, als elektrochemisches System an die Makrotendenz der Umgebung kausal angeschlossen ist. In Einklang mit der informationstheoretischen Interpretation der Entropie der Thermodynamik ist das Gedächtnis ein Spezialfall der allgemeinen Akkumulation von Information und unterscheidet sich logisch-strukturell nicht grundsätzlich von der wachsenden Zahl der Krater auf dem Mond, welche Auskunft über seine Vergangenheit geben.44 Damit wird jedoch auf

84

III. Raum und Zeit

keine defmitorische Elimination der psychischen Einsinnigkeiten abgezielt, sondern im Sinne der später zu klärenden45 Reduktionsproblematik nur ein physikalisches Verständnis der autonomen Asymmetrieerfahrung angestrebt. Eine Theorie der Zeitrichtung sollte allerdings zwei thematische Elemente enthalten: Sie sollte eine Beschreibung der irreversiblen Phänomene liefern, wie sie einerseits im psychologischen Kontext auftauchen, daß wir z.B. die vergangenen, nicht aber die zukünftigen Ereignisse erinnern, wie sie aber auch im physikalischen Zusammenhang vorkommen, etwa beim Vorgang der Wärmeleitung; sie müßte aber auch eine Erklärung für beide Klassen von Erscheinungen geben. Nicht nur die Natur, sondern auch der Ursprung dieser speziellen Eigenschaft des Zeitkontinuums steht zur Debatte. Es gibt weitaus mehr Ansätze zur Beantwortung der zweiten Frage. Sie versuchen nicht, bloß eine große Zahl von Manifestationen asymmetrischer Phänomene anzuführen, sondern wollen herausfinden, warum, sei es aus nomologischen oder randbedingungsartigen Gründen, die Zeit asymmetrisch ist. In der bisherigen Form ist die Frage nach dem Grunde der physikalischen zeitartigen Asymmetrie der Raumzeit noch doppeldeutig. Die Asymmetrie kann sich auf eine globale Eigenschaft der Mannigfaltigkeit stützen, also z.B. auf die Dynamik des Universums, sei es Expansions- oder Kontraktionsbewegung, oder auf ein kollektives lokales Verhalten von Weltlinien, wie etwa das spontane Verhalten von angeregten Atomen oder die Ausgleichsbewegung des Wärmestromes. Ob zwischen den globalen und lokalen Tendenzen ein kausaler Zusammenhang besteht, ist eine der interessantesten Fragen, die wir noch berühren werden. Beschränkt man sich zuerst auf lokale Phänomene, so gilt es, das erstaunliche Faktum zu verstehen, daß fast alle Grundgesetze der Physik doppelt so viele Phänomene beschreiben als tatsächlich vorkommen. Was aber verhindert denn nun eigentlich, daß einlaufende Wellen sich auf einem Punkt zusammenziehen oder ein Körper durch negative Reibung exponential beschleunigt wird? b) Die Rolle der Thermodynamik Die frühesten Erklärungen gehen auf thermodynamische Gesetze zurück. Geht man nicht tiefer auf die Ursachen der Wärmeerschei-

4. Die Richtung der Zeit

85

nungen ein, scheint sich hier sofort eine ausnahmslose, streng nomologische Einsinnigkeit anzubieten, denn alle abgeschlossenen Systeme streben von selbst einem thermodynamischen Gleichgewichtszustand zu, ohne ihn je von selbst wieder zu verlassen. Ausdruck dieser Tatsache ist, daß in der Welt nicht alle Prozesse ablaufen, die nach dem ersten Hauptsatz der Thermodynamik dE = dQ — dW vorkommen können46, sondern nur jene, für die eine Zustandsfunktion S existiert, die für ein adiabatisch abgeschlossenes System niemals abnimmt, S 3: 0, wobei das Gleichheitszeichen für den in Wirklichkeit nicht auftretenden idealen Fall des reversiblen Systems steht. Ein reversibles System läßt es zu, den Ausgangszustand wieder zu erreichen, ohne daß eine Spur der Veränderung in ihm selbst oder in der Umgebung übrig bleibt. Vom zweiten Hauptsatz werden also jene nach dem ersten Hauptsatz zulässigen Vorgänge ausgeschaltet, die mit einer Abnahme der Entropie verbunden sind. Damit wäre man im Besitz eines gesetzesartigen Zusammenhanges, der eine Richtung auszeichnet und der als Kandidat zählt, eine Asymmetrie der Prozesse auf das sonst symmetrische Zeitkontinuum zu übertragen; denn man braucht ja gerade solche Arten von Zustandsfolgen, die in der Richtung wachsender Zeitwerte vorkommen, in der Richtung abnehmender Werte des Zeitkontinuums aber nicht. Wenn alle Prozesse reversibel wären und zwar nicht nur im nomologischen, sondern auch im de facto Sinne, was keine logische Unmöglichkeit darstellt, aber eben in unserer Welt nicht realisiert ist, dann wäre die Zeit isotrop. Wenn es gleich häufig vorkäme, daß ein Haus mit wachsenden t-Werten abbrennt wie aus den Trümmern spontan entsteht, gäbe es keinen Grund, von einer Auszeichnung einer der beiden Halbachsen des durch die reellen Zahlen koordinatisierten Zeitkontinuums zu sprechen. Als Clausius und Maxwell die Frage nach der Energieform der Wärme stellten, begannen die Schwierigkeiten, das Gesetz, das die Irreversibilität aller wirklichen Vorgänge ausdrückt, für eine eindeutige Begründung des Zeitpfeils auszunützen. Ihre Antwort war die Hypothese, daß die Wärmeenergie identisch mit der kinetischen Energie der Moleküle eines Gases ist.47 Zwei Momente an dieser Vermutung waren entscheidend, nämlich, daß die einzelnen Moleküle den mechanisch reversiblen Bewegungsgleichungen folgen und daß für die molekularkinetische Deutung des zweiten Hauptsatzes an entschei-

86

III. Raum und Zeit

dender Stelle von Wahrscheinlichkeitsbegriffen Gebrauch gemacht werden mußte. Eine Beziehung zwischen den beiden Schichten der Beschreibung, der beobachteten Phänomenebene und der hypothetischen, unsichtbaren atomaren Ebene (z.B. wird die Temperatur durch die mittlere kinetische Energie eines Ensembles von Molekülen rekonstruiert, T ~ ^ 2) funktioniert nur im Verein mit statistischen Annahmen von der Art, daß die Kollision der Moleküle zufällig erfolgt und daß die Orte und Geschwindigkeiten der Teilchen vor dem Stoß unkorreliert sind (Stoßzahlansatz). Wenn dies gefordert wird, dann geht jede beliebige Anfangsverteilung der Geschwindigkeit der Moleküle in die Maxwellsche, f (v) ~ e~ /?v , über, denn sie ist danach die wahrscheinlichste. Boltzmann gelang es, diesen Zusammenhang auf formal exakte Weise auszudrücken, indem er eine Funktion H fand 48 , in deren Defmitionsmerkmale nur die Eigenschaften der mechanisch regierten Mikrokonstituenten eingehen und deren negativer Wert die gleiche Tendenz wie die Entropie S zeigt, — dH/dt ^ 0. Dies besagt, daß für ein Gas, unter der Annahme der molekularen Unordnung, H abnimmt und im Gleichgewichtszustand H einen Minimalwert annimmt. Man ist damit im Besitz eines Gesetzes, das wie der zweite Hauptsatz der phänomenologischen Thermodynamik eine deutlich gerichtete Tendenz zeigt, wobei die beiden Funktionen durch die Zwischenschichtbeziehung S = — kH · V (k = Boltzmannkonstante, V = Volumen) verbunden sind. Es liegt also nahe, auch nach der mechanischen Deutung der irreversiblen Phänomene das -Theorem für die Auszeichnung einer Zeitrichtung zu verwenden. Die Vereinbarkeit von reversibler Mikrogesetzlichkeit der Komponenten eines Ensembles und dem irreversiblen Erscheinungsbild eines Aggregates wird durch das Gesetz der großen Zahlen gewährleistet.49 Beim Mischen eines Kartenpaketes wird dies sehr deutlich; von den vielen verschiedenen Anordnungen der Karten bezeichnen wir nur eine verschwindende Zahl als geordnet; die riesige Überzahl von ungeordneten Konfigurationen läßt es verstehen, daß das Mischen eines geordneten Paketes immer die gleiche Tendenz zur Unordnung erzeugt und daß das fortgesetzte Mischen die alte Ordnung niemals wieder restauriert. Durch die Verbindung der -Funktion mit dem Begriff der negativen Entropie läßt sich dies nun auch verstehen: Der wahrscheinlichste Makrozustand (die ungeordneten Spielkarten) ist derjenige, der durch die größte Zahl von Mikrozuständen realisiert wird; er hat zugleich

4. Die Richtung der Zeit

87

auch die maximale Entropie, quantitativ formuliert: S = k · log W + const, wobei W die Gesamtzahl der Mikrozustände ist, die mit einem festen Makrozustand der Entropie S vereinbar ist. Die statistische Deutung des Entropiebegriffs erhöht gewaltig dessen Reichweite; nicht nur thermodynamische, auch elektromagnetische Phänomene konnten damit behandelt werden, ja sogar der doch scheinbar sehr subjektive Begriff der Information konnte durch seine Identifikation als negative Entropie (Negentropie) objektiviert werden. Die letzte Verbindung kann man folgendermaßen veranschaulichen: Entfernt man in einem Behälter mit zwei verschiedenen Gasen die trennende Membran, dann geht das Gas spontan in einen Gleichgewichtszustand über, in dem beide Gase vermischt sind. Setzt man das Entropiewachstum mit der Entfernung von Struktur gleich50 und berücksichtigt, daß ein stärker strukturiertes System mehr Information zu seiner Spezifikation benötigt, so bedeutet eine Strukturverarmung zugleich Informationsverlust, und die Information selbst erhält den Sinn von negativer Entropie. Eine epistemische Beziehung zwischen den beiden Größen ist durch das Negentropieprinzip der Information von Brillouin gegeben, das besagt, daß der Informationsgewinn I immer von einem Entropiewachstum S des einbettenden Systems begleitet ist, und zwar so, daß zIS ^ AI ist. c) Einwände gegen den Zeitpfeil der statistischen Mechanik So plausibel die statistische Analyse des Entropiebegriffs durch Boltzmann in einzelnen Beispielen erscheinen mag, es bleibt doch seltsam, daß eine große Zahl von dynamischen Vorgängen, die einzeln alle invariant unter Zeitumkehr (t -* — t) sind (Mikroreversibilität), zeitasymmetrische Eigenschaften auf der höheren Ebene reproduzieren können (Makroirreversibilität). Dieses paradox erscheinende Ergebnis hat dann auch zwei Argumente auf den Plan gerufen, die zuerst das gesamte Projekt Boltzmanns in Frage zu stellen schienen. Ehe wir uns mit diesen Einwänden befassen, müssen wir eine Einfügung machen, welche besondere philosophische Bedeutung besitzt. Boltzmann ging es nicht allein um eine Rettung des thermodynamischen Zeitpfeils, als er das -Theorem aufstellte, sondern er verfolgte ein allgemeineres naturphilosophisches Anliegen: Es ging ihm um die Etablierung des mechanistischen Weltbildes. In einem solchen

88

III. Raum und Zeit

werden die mechanischen Gesetze als allgemein und umfassend angesehen. Der Atomismus im Verband mit der mechanistischen Naturerklärung führt im Widerspruch zu den Erscheinungen zur Umkehrbarkeit aller Prozesse. Gelänge es nicht, trotz der Reversibilität der Mechanik die Erscheinung der Irreversibilität zu retten, müßte ein einheitliches Verständnis der Natur auf diesem Wege aufgegeben werden. Die Mechanik wäre dann nur eine Wissenschaft von idealen Objekten (bzw. Grenzfällen wie in der Astronomie), könnte aber alle jene Prozesse nicht erfassen, in denen z. B. Reibungsphänomene eine Rolle spielen: „Die Folge hiervon würde sein, daß wir, anstatt die Natur als von einer geringen Anzahl mechanischer einfacher Gesetze beherrscht anzusehen, aus denen die wahrgenommenen Naturgesetze sich ableiten lassen, eine unnennbar große Anzahl von unabhängigen Naturgesetzen würden annehmen müssen".51 Boltzmanns HTheorem hat dementsprechend die Bedeutung, ein ganzes Forschungsprogramm vor dem Verfall zu retten. Nur wenn auch nicht umkehrbare Prozesse durch mechanische Gesetze erklärt werden können, kann das Einheitsprogramm der Wissenschaft aufrechterhalten werden und der gesamte Naturverlauf mechanistisch verstanden werden. Diese große Konzeption muß man als Motiv für seine begrifflichen Bemühungen vor Augen haben, vielleicht auch für das tragische Ende seines Lebens. Nach dieser Zwischenüberlegung zurück zum thermodynamischen Zeitpfeil. Dieser scheint zuerst einmal grundsätzlich gefährdet zu sein, und zwar durch zwei Argumente: Loschmidis Umkehr- und Zermelos Wiederkehreinwand. Ersterer versucht zu zeigen52, daß das -Theorem dem Prinzip der Mikroreversibilität widerspricht, auf das es ja aufgebaut ist. Da jeder einzelne Stoß der Moleküle umkehrbar ist, muß es zu jeder Bewegungskonfiguration, die H abnehmen läßt, eine andere geben, in der man v durch — v ersetzt, bei der H zunimmt: „Offenbar muß ganz allgemein in jedem beliebigen System der gesamte Verlauf der Begebenheiten rückläufig werden, wenn momentan die Geschwindigkeit aller seiner Elemente umgekehrt wird."53 Die Symmetrie der dynamischen Gesetze gegenüber einer t -> — t-Transformation impliziert damit, daß für jeden beliebigen Ungleichgewichtszustand in t0 nicht nur eine große Wahrscheinlichkeit dafür vorhanden ist, daß ein Zustand hoher Entropie nachfolgt, sondern ebenso dafür, daß jener Ungleichgewichtszu-

4. Die Richtung der Zeit

89

stand aus einem Zustand größerer Entropie hervorgegangen ist. Da die Entropie ebenso häufig ab- wie zunimmt, kann diese Funktion kein Indikator für eine Zeitrichtung sein.54 Zermelos Einwand 55 stützt sich auf Poincares Wiederkehr-Theorem, das besagt, daß in einem permanent abgeschlossenen System jeder Zustand unendlich oft beliebig nahe erreicht wird. Die Zeit zwischen zwei solchen Ereignissen, die Wiederkehrzeit, ist zwar enorm (für Makrosysteme von 1023 Elementen ~ 101023 sec.), jedoch ist es nie auszuschließen, daß die niedrigentropischen Zustände wiederkehren und H damit gelegentlich zunimmt. In den Worten Zermelos: „In einem System beliebig vieler materieller Punkte, deren Beschleunigungen nur von ihrer Lage im Raum abhängen, gibt es keine .irreversiblen' Vorgängeför alle Anfangszustände, die ein noch so kleines Gebiet von endlicher Ausdehnung erfüllen, falls sowohl die Koordinaten, als die Geschwindigkeiten der Punkte endliche Grenzen niemals überschreiten."56 Der kursive Passus ist wesentlich, denn er weist darauf hin, daß die Zeitasymmetrie des -Theorems auf der Voraussetzung vom molekularen Chaos beruht derart, daß die Orte und Geschwindigkeiten der Teilchen vor dem Stoß unkorreliert waren. Boltzmann hat nach einem vergeblichen Versuch, Zermelos Argument zu entkräften, in einer kosmologischen Hypothese Zuflucht gesucht.57 Er nahm an, daß das Universum im ganzen im thermischen Gleichgewicht ist, daß aber in Teilen von der Größe des beobachtbaren Bereiches sich Entropieschwankungen so auswirken, daß hier beträchtliche Abweichungen vom maximalen Entropiewert auftreten, allerdings umso seltener, je tiefer das Entropietal ist. Da Leben sich wahrscheinlich nur an den Abhängen eines Entropietales bilden kann, ist es nicht verwunderlich, daß wir uns in einer Welt - de facto nur ein winziger Teil des Universums - vorfinden, die eine Zeitasymmetrie anzeigt; das Gesamtsystem ist jedoch zeitisotrop, genauso wie der Raum. Dem Zeitpfeil wird somit eine lokale Bedeutung zugewiesen, so wie es terrestrisch gesehen auch eine lokale Asymmetrie der Raumrichtungen von aufwärts und abwärts im Gravitationsfeld gibt. Der ad hoc-Charakter dieses Rettungsversuchs des -Theorems ist nicht zu übersehen, da es keinen empirischen Hinweis auf ein unser beobachtbares Universum einbettendes Hypersystem gibt und ein solches ohne Angabe quantitativer Grenzen auch nicht gefunden

90

III. Raum und Zeit

werden kann. Überdies stellte sich heraus, daß Boltzmanns kosmologische Hypothese unnötig war, wenn man dem -Theorem nur eine etwas andere Deutung gibt, es nämlich als statistische Aussage auffaßt, und zwar über das wahrscheinlichste Verhalten eines Ungleichgewichtssystems; dann wird es durchaus mit den beiden Einwänden vereinbar.58 Das -Theorem sagt danach etwas über ein Ensemble von Systemen aus, die in der Folge sich entsprechend der abnehmenden -Funktion entwickeln, wobei das Ensemble aber auch einige Elemente mit wachsenden H enthält. Die Mikroreversibilität und die Poincaresche Wiederkehr betreffen individuelle Systeme und stehen nicht im Gegensatz zu einer statistischen Aussage über viele ähnliche Systeme. Das einzelne Faktum, daß ein bestimmtes System nach einiger Zeit eine Entropieabnahme erfährt 59 , ist durchaus vereinbar mit der Behauptung, daß, wenn ein System einen niedrigen Entropiewert besitzt, es mit hoher Wahrscheinlichkeit wenig später einen höheren anstatt eines noch niedrigeren haben wird. Finden wir also ein Gas in einem Schwankungszustand (besser geordnet, als es dem Gleichgewicht entspricht), so ist die Prognose und die Retrodiktion berechtigt, daß es nachher und vorher in einem ungeordneteren Zustand sein wird bzw. gewesen ist. d) Die Hypothese der Zweigsysteme Auf der Suche nach einer eindeutigen Charakterisierung und einem Grund der Anisotropie der Zeit hat sich bis jetzt soviel ergeben, daß das thermodynamische Verhalten eines andauernd abgeschlossenen Systems ungeeignet ist, einen Aufschluß über diese Frage zu geben. Zu überlegen gilt es aber, ob nicht die Konkordanz im Verhalten einer größeren Zahl von Systemen Aufschluß über den doch wohl fundamentalsten Zug unserer Erfahrung geben könnte, daß alle Wege in die Zukunft, jedoch keine in die Vergangenheit führen. Daß reale Systeme nicht im strengen Sinne abgeschlossen sein können, ist physikalisch klar; aber selbst, wenn man sie nur als quasi-isoliert betrachtet, muß man in Rechnung stellen, daß sie zu irgendeinem Zeitpunkt entstanden sein müssen und dabei von einem größeren Muttersystem abgezweigt wurden. Die Existenz von solchen Zweigsystemen ist von Reichen bach60 zu einem Ansatz für den thermodynamischen Zeitpfeil angesichts der Einwände, wie sie gegenüber den strengen Einsinnigkeitstendenzen in der statistischen Mechanik be-

4. Die Richtung der Zeit

91

stehen, ausgenützt und seine Argumentation von Grün bäum 61 weiter verbessert worden. Zweigsysteme sind Untersysteme der Welt, die sich von ihrer Umgebung trennen, eine Zeit lang als quasiisolierte Systeme erhalten bleiben, dann aber wieder mit der Umgebung verschmelzen. Ein heißer Tee, in eine Thermosflasche gefüllt, ist ein Zweigsystem, das vor einem bestimmten Zeitpunkt nicht existiert hat, dann während einer Zeit, wo es nur schwach mit der Umgebung wechselwirkt, perennierte, zuletzt aber, wenn der Tee getrunken wird, wieder mit dem Stammsystem verschmilzt. Ein Vorteil eines Zweigsystems gegenüber einem permanent abgeschlossenen System zeigt sich sofort. Betrachtet man im letzteren einen zufallig niedrigen Entropiezustand, dann wächst die Entropie fast immer, sowohl in Richtung auf die Vergangenheit wie auf die Zukunft. Trennt sich jedoch ein Zweigsystem von seiner Umgebung in einem niedrigen Entropiezustand, dann existierte eben der vergangene Zustand vor dem Verzweigungspunkt t0 nicht. Deshalb kann man nicht davon sprechen, daß der niedrige Entropiewert des Systems durch eine zufällige Schwankung vom Gleichgewicht hervorgebracht ist, sondern man führt ihn auf einen äußeren Eingriff zurück. Ein Geologe, der in einem einsamen Teil der Sahara im Sand die Schriftzüge von Coca Cola vorfindet, wird nicht annehmen, daß innerhalb der Jahrmillionen von selbst einer der seltenen, aber immer wieder auftretenden niedrigen Entropiezustände vorgekommen ist, sondern daß das System Sahara nicht abgeschlossen war und eine menschliche Person auf seine entropischen Kosten den niedrigen Entropiezustand im Sand erzeugt hat. 62 Das entropische Verhalten von Zweigsystemen liefert nun eine Asymmetrie, die ein einziges permanent isoliertes System nie bieten kann. Von der Entropiekurve des beobachtbaren Teiles des Universums trennen sich immer wieder Zweigsysteme in einem niedrigen Entropiezustand ab und vereinigen sich in einem höheren Entropiezustand wieder mit dem Hauptsystem. (Abb. 4) Rr

Abb. 4

92

III. Raum und Zeit

Bilden sich die Zweigsysteme in zufallig niedrig entropischem Zustand, so kann man sicher sein, daß fast alle ein paralleles Entropiewachstum zeigen werden. Diese Konkordanz im Verhalten einer großen Zahl von Zweigsystemen liefert eine von der Statistik und dem -Theorem unabhängige Asymmetrie, welche für die Auszeichnung einer Zeitrichtung benützt werden kann. Würde man die Zweigsysteme als exakt abgeschlossen betrachten und nicht quasiisoliert, könnte natürlich im Langzeitverhalten eine entropieabnehmende Schwankung vorkommen, welche zu dem niedrigen anfänglichen Entropiewert zum Zeitpunkt der Abzweigung zurückführt. Verwendet man jedoch Zeiten, die viel kleiner als die Poincaresche Wiederkehrzeit sind, ist die Wahrscheinlichkeit hierfür verschwindend klein. In der Wirklichkeit werden die quasiisolierten Zweigsysteme die Entropiekurve des Hauptsystems längst vor dieser Zeit wieder erreicht haben. Der schwache Punkt von Reichenbachs Ansatz liegt sicher in seiner Bezugnahme auf die Entropiekurve des Universums. Wir wissen heute genauso wenig wie vor 30 Jahren sicher, ob das Universum offen oder geschlossen ist. Somit könnte es sein, daß die Entropie für die Welt im ganzen gar nicht definiert ist. Deshalb nimmt Grün bäum nicht die Parallelität der Richtungen des Entropiewachstums von Universum und Zweigsystemen an 63 mit der Folge, daß großräumig gesehen die statistische Anisotropie der Zeit nur lokale Bedeutung besitzt und in dem Sinne schwankt, daß alternierende Epochen von Entropiewachstum und Entropiezunahme mit der Umkehr der Richtung des Entropiewachstums in den Ensembles von Zweigsystemen gleichlaufen, sondern er macht eine schwächere Voraussetzung. In seiner Version überträgt das entropische Verhalten von Zweigsystemen die gleiche statistische Anisotropie auf die meisten jener kosmischen Epochen, während denen das Universum im Ungleichgewicht ist und Zweigsysteme enthält, die eine bestimmte Zufälligkeit in den Anfangsbedingungen aufweisen. e) Der kosmologische Zeitpfeil Die Zweighypothese liefert eine physikalisch strukturale Unterscheidbarkeit beider Zeitrichtungen, wobei der Ursprung dieser Anisotropie auf die asymmetrische Weise der Wechselwirkung zurückgeführt wurde, mit der Zweigsysteme aus der äußeren Welt entste-

4. Die Richtung der Zeit

93

hen. Sie läßt aber den Grund des Zustandekommens der Zweigsysteme noch völlig offen. Denken wir an das Coca Cola-Beispiel, so liegt hier die Ursache der Entropiereduktion des Bereiches, in dem der Schriftzug sich befindet, in dem Eingriff des Naturfreundes, der hier sein Anwesenheitszeichen hinterlassen mußte. Diese Reduktion ging auf Kosten desjenigen Systems, demgegenüber der Wüstenbereich offen war, und der eine Quelle negativer Entropie enthielt, der Wanderer. Er ist selbst natürlich auch wiederum ein Zweigsystem, ein offenes dissipatives System weit vom thermodynamischen Gleichgewicht entfernt, das seinen Zustand aber auch nur auf Grund der Teilnahme an einem größeren quasiisolierten Zweigsystem, nämlich der Sonne, aufrecht erhalten kann, die sich von der Entwicklung des Universums in einem früheren Zeitpunkt getrennt hat. Verfolgt man diese Idee weiter, so ergibt sich ein ziemlich weitreichender Gesichtspunkt „A search for the origin of the temporal asymmetry of local branch systems leads inexorably backwards and outwards to a discussion of cosmology and the formation of the universe."64 Es ist allerdings leichter, einen solchen qualitativen Satz auszusprechen als tatsächlich alle bekannten physikalischen Irreversibilitäten in ein hierarchisches System einzuordnen und die kausalen Verbindungen von der größten bekannten Asymmetrie, der Expansion des Universums, bis zum lokalen Zeitablauf hin zu verfolgen. T. Gold hat zuerst auf die Möglichkeit hingewiesen, daß alle Irreversibilitäten letzten Endes ihren Ursprung in der kosmischen Dynamik haben könnten. 65 Dazu gehören nicht nur die von uns genauer betrachteten thermodynamischen Phänomene, sondern auch die irreversiblen Vorgänge des Elektromagnetismus und ferner die abgeleiteten irreversiblen Prozesse, wie sie in der Quantenmechanik der Messung auftreten. Auch der psychologische Zeitpfeil, wo Erinnerungen immer später sind als die Ereignisse, von denen sie handeln, und nicht zuletzt der biologische Pfeil der Evolution sollten von einer solchen Theorie mit umfaßt werden. Wichtig für den kosmologischen Ansatz ist, daß unsere relativ hochgeordnete engere Umgebung nicht gegenüber dem freien Weltraum isolierend abgeschlossen ist. Die Offenheit gegenüber dem Raum hat zur Folge, daß unser Sonnensystem viel mehr Strahlung aussendet, als es von außen erhält. Der Raum funktioniert somit als Strahlungssenke, eine Rolle, die er wegen der Expansionsbewegung dauernd beibehält. Alle loka-

94

III. Raum und Zeit

len statistischen ,,running-down"-Vorgänge haben ihre gemeinsame Ursache in der einheitlichen Tendenz, daß Strahlung in den Raum entweicht, aber niemals wieder umkehrt und vom Raum auf die Körper zurückläuft. Daß auf diese Weise Zweigsysteme entstehen, zeigt Gold in einem Gedankenexperiment: Steckt man einen Stern in ein wärmeisolierendes Gefäß, so wird nach absehbarer Zeit in dem Behälter thermodynamisches Gleichgewicht eintreten, die Wände werden genauso viel Strahlung reflektieren, wie sie von der Lichtquelle erhalten. Für die physikalische Hervorhebung einer Richtung ist in diesem entropischen Zustand keine Basis vorhanden. Läßt man nun kurze Zeit durch eine Öffnung etwas Strahlung nach außen entweichen und schließt dann das Loch wieder, so wird solange, wie die thermische Ungleichgewichtssituation herrscht, die Ausgleichstendenz auf die maximale Entropie hin eine Richtung auszeichnen. Der Stern ist während dieser Zeit ein Zweigsystem, das seine Entstehung aber der Tatsache verdankt, daß der Raum außerhalb der Schachtel eine nimmersatte Strahlungssenke bildet. Wäre durch die Öffnung der Kiste von außen ebenso viel Strahlung eingedrungen, wie entwichen ist, wäre der für eine Asymmetrie der Prozesse notwendige Ungleichgewichtszustand gar nicht eingetreten. Wenn man also der Ansicht ist, daß die entropische Entwicklung von Zweigsystemen den lokalen Zeitpfeil realisiert und sie auf der strahlungsverzehrenden Eigenschaft des Raumes aufbaut, die wiederum in der Expansionsbewegung des Universums gründet, so liegt der Schluß nahe, daß die Richtung der Zeit auf die gerichtete Dynamik der Welt zurückgeht. Golds Ansatz hat Unterstützung und Kritik gefunden. Wegen der fundamentalen naturphilosophischen Bedeutung sei v. a. auf die Kritik von Davies kurz eingegangen. Er hat in erster Linie die physikalische Basis von Golds Ansatz bezweifelt.66 Seit langem ist ein physikalisches Paradoxon bekannt, auf das 1744 de Cheseaux und 1826 Olbers hingewiesen haben, daß nämlich in einem nicht zu jungen statischen Universum, das homogen mit konstant scheinenden Sternen gefüllt ist, sich langsam eine Gleichgewichtssituation zwischen den begrenzten Wärmequellen und dem Raum herausbilden muß, die darin besteht, daß jeder Stern soviel Strahlung vom Raum aufnimmt, wie er abgibt. Da auf Grund dessen der mondlose Nachthimmel so hell wie die Oberfläche eines Sterns sein müßte, ist sicher eine der Voraussetzungen falsch. Man weiß heute, daß es die Bedin-

4. Die Richtung der Zeit

95

gung der Statik war, die das gegenüber der Beobachtung falsche Resultat des kosmologischen Argumentes erzeugt hatte. In einer Welt, die schneller als mit R (t) ~ t 1/3 expandiert, wird niemals ein Strahlungsgleichgewicht erreicht werden und deshalb gibt es zu allen Zeiten einen Temperaturgradienten um die Sterne herum. 67 Nun ist bezüglich der Expansions- und der Strahlungsrichtung ein Unterschied zu berücksichtigen. Ein mit Strahlung homogen angefülltes Universum ändert seine Entropie nicht durch die Expansion. Der irreversible Strahlungsfluß, den ein lokaler Beobachter aus dem von ihm bewohnten Bereich feststellt, ist bei näherer Betrachtung reversibel. Eine nachfolgende Kontraktion stellt die früheren Verhältnisse (Temperatur und Photonendichte) ohne Verlust wieder her. Anders als die Thermodynamik eines geschlossenen Friedman-Universums ist die Emission des Lichtes von einem Stern ein irreversibler Vorgang, da hier Photonen erzeugt werden, während sie beim kosmischen Prozeß erhalten bleiben. Nur der zweite läuft isentropisch ab, 68 beim ersten wird Entropie hervorgebracht. Mit der beginnenden Rekontraktion des Universums dreht sich keinesfalls der lokale Strahlungsemissionsvorgang der Sterne um; obwohl in dem schrumpfenden Volumen die Energiedichte des Raumes langsam wächst, erreicht sie einen Wert, der der Temperatur der Sternoberflächen entspricht, erst in der Nähe der Endsingularität. Dies gilt es zu berücksichtigen, wenn man Golds Weltmodell beurteilen will, in dem die kosmologische Flüssigkeit (die Darstellungsmaterie des Modells) in der kontrahierenden Phase des oszillierenden Zyklus eine dauernde Entropieabnahme erfährt, nicht auf Grund einer Poincare-Schwankung, sondern wegen des abnehmenden Rauminhaltes und der zunehmenden Energiedichte. Da aber die Kontraktion des Universums zwar die Temperatur der Hintergrundstrahlung erhöht, aber nicht in der Lage ist, Licht gegen den Temperaturgradienten den Sternen zuzuführen, zeigt der von Gold angeführte spezielle Prozeß nicht die gewünschte starke Koppelung von lokalem thermodynamischem Geschehen mit der kosmischen Dynamik, um die beiden Richtungen der Zeit in ausreichender Weise an die beiden Halbzyklen des Universums zu binden. Erkennt man die Kritik Davies' an, so gibt es doch vielleicht einen anderen Weg, einen Hinweis darauf zu gewinnen, ob der statistische Zeitpfeil immer in dieselbe Richtung weist, oder ob er im Bereich der

96

III. Raum und Zeit

maximalen Ausdehnung des Universums seinen Sinn umkehrt. So unglaublich es scheinen mag, es existieren sogar theoretische Überlegungen, welche einen beobachtbaren Effekt angeben, mittels dessen die Frage entschieden werden könnte. Dabei wird allerdings die nicht von allen anerkannte Absorbertheorie des Elektromagnetismus eingesetzt, die in symmetrischer Weise von retardierten und avancierten Wirkungen Gebrauch macht. Partridge hat die Strahlungsrückwirkung vom dynamischen Wendepunkt berechnet und die vorwarnenden Indizien für die Umdrehung des Zeitpfeils angegeben.69 Zerfallt ein Ensemble von angeregten Atomen bei uns in exponentieller Weise, so wird diese funktionale Abhängigkeit in der Nähe des kosmischen Wendepunktes durch einen hyperbolischen Cosinus ersetzt. Für manche Prozesse zeigt sich aber die Abweichung vom normalen exponentiellen Zerfall schon vor der Wende und diese Rückwirkung müßte sich jetzt, lange ehe das Universum seinen maximalen Radius erreicht hat, über avancierte Wirkungen nachweisen lassen. Statt Zerfallsprozesse kann man auch Strahlungsdämpfungseffekte betrachten, wobei wieder durch die in der Absorbertheorie des Elektromagnetismus vorausgesagten Wirkungen aus der Zukunft die Ankündigung einer Umkehr des statistischen Zeitpfeils denkbar wäre, die durch eine Messung des gegenwärtigen Wertes der Strahlungsrückwirkungskraft erfolgen könnte. Jedoch auch dann, wenn die eben geschilderte spekulative Idee einer empirischen Prüfung der Zeitrichtungsumkehr in einem Universum mit zykloidaler Skalenfunktion sich nicht realisieren läßt, gibt es andere Indizien dafür, daß kosmogonische Ursachen, die zum Gebiet der Gravitation gehören, für die vielfachen Phänomene der Irreversibilität verantwortlich sind. Dazu ist es wichtig, sich klar zu machen, daß bei Anwesenheit gravischer Kräfte das Entropiewachstum eine andere Gestalt besitzt. Bei einem System, das aus Elementen besteht, die nur Kräften mit kurzer Reichweite unterworfen sind, gibt es ein finales Gleichgewicht, das sich z.B. bei einem Gas als Zustand gleichförmiger Temperatur und Dichte darbietet, während ein gravitierendes System streng genommen kein Maximum der Entropie besitzt, vielmehr zum fortgesetzten Kollaps tendiert und nur durch metastabile Zustände gehalten werden kann. 70 Man bedenke etwa, daß entsprechend der Relativitätstheorie der Druck, der ein System gegen die Gravitationskräfte stabilisiert, dies nur tun kann,

4. Die Richtung der Zeit

97

wenn das System nicht auf zu kleinem Raum zusammengedrängt wird. Wenn das System den Schwarzschild-Radius unterschritten hat, wird der gravische Effekt des Drucks stärker als seine stützende Wirkung; dann ist der Gravitationskollaps unaufhaltsam. Die thermodynamischen Eigenschaften eines kollabierten Objektes sind kürzlich in Zusammenhang mit dem Effekt der Quanten Strahlung eines schwarzen Loches aufgeklärt worden. 71 Der Ausdruck für die Änderung der Masseenergie eines schwarzen Loches, wenn seine Ladung Q, sein Drehimpuls I und die Oberfläche des Horizong dA tes A sich vergrößert, ist durch dM = \-Qdl + (pdQ 2n 4 (g = Gravitationsbeschleunigung, = Winkelgeschwindigkeit, = elektrostatisches Potential am Horizont) gegeben. Bekenstein vermutete, daß hier nicht nur eine Analogie, sondern eine strenge Identität zum l. Hauptsatz der Thermodynamik dM = TdS + ßdl A + c erfolgt, ist keine Verletzung der speziellen Relativitätstheorie, da die Bedingung v < c nur für ausgedehnte inertiale Ruhesysteme gilt, die in diesem Fall nicht vorhanden sind. Es gibt nun noch eine andere Art der grundsätzlichen Beobachtungsgrenze (Abb. 6):

Abb. 6 Angenommen, zum Zeitpunkt des Urknalls (t = 0) wurde von B ein Photon y ausgesandt, das aber wegen der Expansion bisher A noch nicht erreicht hat; dann ist es immerhin möglich, daß y uns noch in

2. Theorie und Erfahrung

107

der Zukunft einmal treffen wird. Zu diesem Zeitpunkt sehen wir (als Bewohner von A) zum erstenmal seit t = 0 die Galaxis B. Umgekehrt bilden die Photonen, die wir bei t = 0 ausgesandt haben - wenn man einmal von dieser kosmogonisch nicht ganz korrekten Fiktion ausgeht - eine Kugelfläche, die sich von uns weg bewegt. Dabei überstreicht die Wellenfront, die diese Photonen bilden, immer mehr Galaxien, die uns dann zum erstenmal sehen. Zu jedem Zeitpunkt der kosmischen Zeit t = t n teilt diese Wellenfront, der Teilchenhorizont, alle Galaxien in 2 Klassen, in die bis t n schon sichtbaren und in die bis tn noch nicht sichtbaren. In kosmologischen Modellen, die beide Arten von Horizont besitzen, kreuzen sich Ereignishorizont und Teilchenhorizont, da der erste ja eine einwärts- und der zweite eine auswärtslaufende 2-Fläche der Raumzeit darstellt. Nun läßt sich auch die Behauptung, daß man über Bereiche jenseits der Horizonte sinnvoll sprechen kann und damit der Begriff des Gesamtuniversums besser rechtfertigen. Ein Horizont ist keine physische Barriere, sondern nur eine optische Grenze, und eine Galaxis, die über diese Beobachtungsgrenze entweicht, verändert sich zwar in ihrem epistemischen Status für uns terrestrische Beobachter, aber natürlich bleibt ihre innere ontologische Beschaffenheit davon unberührt. Mit wachsender kosmischer Zeit driften nach und nach sogar alle Galaxien innerhalb des Ereignishorizontes eines Beobachters über diese Grenze 7 ; es wäre extrem unvernünftig anzunehmen, daß sich an diesen physikalischen Systemen innerlich irgendetwas ändert. Denn auch wir werden für eine Galaxis, die für uns über den Ereignishorizont entschwindet, unbeobachtbar, ohne daß wir uns deshalb einen anderen ontologischen Status zuschreiben werden. Auch einer neu ankommenden Galaxis, die zuerst unsichtbar war und jetzt diesseits des Teilchenhorizontes erscheint, werden wir nicht beim Überschreiten der Beobachtungsgrenze einen Sprung in der Existenzweise unterschieben. Es ist eine kontingente Eigenschaft der Raumzeit-Struktur einer Welt, ob sie solche empirischen Grenzen besitzt; in manchen Welten fehlt der kosmische Horizont, und diese sind für ein Teleskop mit unbegrenzter Reichweite völlig durchsichtig, aber die meisten haben einen, viele, so auch das oszillierende Modell, beide Horizonte.

108

IV. Die Welt im großen

b) Das Modellobjekt der Kosmologie Es fragt sich nun, wie man des Universums in diesem umfassenden Sinne rational habhaft werden kann. Wesentlich hierfür ist die Konstruktion eines Modellobjektes.8 Darunter versteht man ein begriffliches Konstrukt, das in angenäherter Weise einige Züge des (sonst viel zu komplizierten) realen Universums wiedergibt und in den semantischen Bezug zwischen Theorie und Realität eingeschaltet wird. Ein Modellobjekt spezifiziert in expliziter Weise alle jene Parameter, die man bei einem solchen idealisierten Ansatz als relevant betrachtet und verknüpft sie mittels dynamischer Gleichungen. Man denke etwa an den Massenpunkt der klassischen Mechanik und die reibungsfreie Flüssigkeit in der Hydrodynamik. Das mathematische Entsprechungsstück zum begrifflichen Modell ist die spezielle Lösung einer Differentialgleichung. In der in der gegenwärtigen Kosmologie am meisten befürworteten Vorgangsweise werden als Fundamentalbeziehung Einsteins Feldgleichungen der Gravitation zugrunde gelegt. Die Gravitation ist diejenige der vier Wechselwirkungen der Materie, die allein für den großräumigen Aufbau der Welt verantwortlich ist; dies liegt daran, daß wegen der elektrischen Neutralität fast aller kosmischen Objekte die zweite Wechselwirkung mit großer Reichweite (die elektromagnetische) nicht zum Tragen kommt. Die Differentialgleichungen des Gravitationsfeldes besitzen natürlich nicht nur kosmologische Lösungen, sie sind für die Beantwortung jeglicher Probleme geeignet, bei denen die Schwerkraft die dominierende Rolle spielt. Spezielle Lösungen aus einer allgemeinen Gleichung erhält man immer durch Vorgabe fester Randbedingungen. Lokale Gravitationsprobleme werden etwa durch die Forderung der Randbedingung der Zentralsymmetrie und Zeitunabhängigkeit gelöst: Man erhält dann das Feld, das ein ruhendes schweres Objekt (wie die Sonne) umgibt, das aber auch den Außenraum eines kollabierten Körpers von M > 2 beschreibt, wenn die inneren Kräfte nicht mehr für seine Stabilisierung ausreichen; dies ist das sogenannte Schwarzschild-Feld. Dreht sich der Körper, so wird das äußere Feld durch eine Kerr-Metrik, ist er geladen, durch die Reissner-Nordstr0m-Geometrie wiedergegeben. Dieser Lösungstyp der Feldgleichungen charakterisiert den Außenraum lokaler Materieanhäufungen ; man muß ihn unterscheiden von den globalen Lösungen, die die physikalische Geometrie der Welt im großen wieder-

2. Theorie und Erfahrung

109

geben sollen. Hier werden v. a. Randbedingungen der Uniformität verwendet, welche unter der Idealisierung der diskreten Materieanhäufungen als kosmische Flüssigkeit (auch Substratum genannt) es gestatten, die komplizierten allgemeinen Feldgleichungen auf eine Unterklasse zu vereinfachen, die den Namen ihres Entdeckers Alexander Friedman trägt. Ihre Lösungen beschreiben Welten, deren Materieinhalt nur durch die 4-Geschwindigkeit ua und die beiden Parameter Druck p und Dichte beschrieben werden. Die zugehörige Raumzeit wird durch den Skalenfaktor R (t), die kosmologische Konstante und den Krümmungsindex k gekennzeichnet. Nach ihren Entdeckern nennt man diese Raumzeit-Struktur RobertsonWalker-Metrik. Da eine Welt immer durch Angabe von RaumzeitStruktur und Bewegungsform der Materie charakterisiert ist, werden diese Welten auch Robertson-Walker-Friedman-Welten (RWF) genannt. Die Tatsache der lokalen Inhomogenität und Anisotropie ist bei dieser Idealisierung völlig untergegangen. Man nimmt an, daß bei globaler Betrachtungsweise die lokalen Differenzen in den materialen und raumzeitlichen Zustandsgrößen herausfallen. Wichtig ist, daß in dieser Klasse von Welten sowohl als auch p Funktionen der Zeit sind: (t) und p (t), und daß deshalb zwar die Krümmung des Rauk mes zu jedem Zeitpunkt einen konstanten Wert besitzt: —-, dieser RO aber von der kosmischen Zeit t abhängt: R = R (t). Die mit diesen idealisierenden Randbedingungen gewonnenen RWF-Welten erlauben nun aufgrund der sie regierenden dynamischen Gleichungen, den gegenwärtigen Zustand des Universums gesetzesartig mit den vergangenen und zukünftigen Zuständen zu verbinden. Sie gestatten somit Prognose und Retrodiktion des Universums. Wie schon angedeutet handelt es sich bei den RWF-Welten um eine ganze Klasse von physikalischen Möglichkeiten. Entsprechend den speziellen Werten, die die signifikanten Parameter annehmen, kann man verschiedene faktisch mögliche Welten mathematisch charakterisieren. Ist die kosmologische Konstante = 0 - eine Hypothese, die viele Astrophysiker heute befürworten (u. a. zuletzt auch Einstein) - gibt es zwei Möglichkeiten: Entweder ist die Krümmung des Raumes zu

110

IV. Die Welt im großen

k einem festen Zeitpunkt negativ oder verschwindend: — 5 0, dann RO wird eine solche offene Welt bis in alle Zukunft expandieren oder: k — ^ 0, dann wird eine solche geschlossene Welt nur bis zu einem RO bestimmten maximalen Weltradius R = R max expandieren und anschließend wieder kontrahieren. Eine solche Welt hat eine finite Laufdauer der kosmischen Zeit t. Ist 0, dann hängt es davon ab, ob einen bestimmten kritischen Wert A krit übersteigt oder nicht. Im ersten Fall dauert die Expansionsbewegung ewig an, im zweiten wird t„ das Universum nach der halben kosmischen Periode — wieder dazu 2 übergehen, die Richtung der großräumigen Bewegung umzukehren9.

Die kosmologische Theorie, welche man sich in den Friedman-Gleichungen zusammengefaßt denken kann, liefert also nicht ein einziges Modell, sondern eine Klasse von faktisch möglichen mathematischen Welten, und die Aufgabe der empirischen Astronomen ist es, die freien Parameter so zu fixieren, daß nur jene Lösung übrigbleibt, welche dann als Beschreibung der Welt gelten kann, in der wir aktual leben. Daß sich der mathematische Formalismus als reicher erweist als man es für den Zweck der Gewinnung eines eindeutigen Modells der Welt brauchen kann, ist nicht etwa eine Unvollkommenheit der relativistischen Kosmologie, wie es eine Zeitlang von den Vertretern der deduktiven Kosmologie (Kinematische Relativität und SteadyState-Theorie) behauptet wurde, sondern gründet im Verhältnis von begrifflichen zu faktischen Strukturen überhaupt. Erkenntnis der Natur ist immer struktural, nie qualitativ, repräsentativ. So entwirft der Mensch gedankliche Konstrukte in reichlicher Zahl und er hofft, daß sich eines von ihnen bei der Wiedergabe der faktischen, nomischen Muster als erfolgreich erweisen wird. Es gibt keinen Grund zu verlangen, daß eine kosmologische Theorie in dem Sinne monomorph sein muß, daß sie nur ein einziges Modell gestattet, weil das Objekt, auf das sie zielt, einzig ist. Bezüglich der Expansionsbewegung, wie sie durch den Faktor R (t) ausgedrückt wird, muß man zwei begriffliche Fehldeutungen ausschalten: Wenn sich im Universum sämtliche Maßstäbe in allen

2. Theorie und Erfahrung

111

Größenordnungen Tag für Tag um einen Faktor veränderten, so würde man von einer solchen Veränderung sicher nichts merken, denn Größen Variationen sind schließlich immer nur relativ zu einem starren Maßstab beurteilbar. Eine Dehnung aller Körper im Verein mit dem Standard selbst (im Fall der Expansion) und ebenso eine Stauchung (im Fall der Kontraktion) wären prinzipiell nicht feststellbar. Tatsächlich erfolgt aber nun die Expansion gegenüber dem lokalen Standard, der nicht an der kosmischen Dynamik beteiligt ist. Entfernungen im Mikrobereich (Atomdurchmesser) und in der Meso-Größenordnung (bis zu den noch gravitativ gebundenen Galaxienhaufen) verändern sich nicht mit der Zeit. Relativ zu diesen Objekten läßt sich die Entwicklung der Maßstruktur mit der kosmischen Zeit formulieren. Ist das Problem des Bezugskörpers der dynamischen Geometrie sicher legitim, so taucht angelegentlich der Expansion häufig noch eine Frage auf, deren falsche Voraussetzungen zu einem Pseudoproblem führen. Aufgrund der Expansion kommt zum Raum des Universums alle 5 sec. ein Volumen hinzu, das einem Würfel der Kantenlänge von 105 Lichtjahren entspricht.10 Wo, so könnte man fragen, wird denn dieser neue Raum ins Universum eingeführt? Eine solche Frage setzt aber die Vorstellung voraus, daß Raum eine Substanz ist wie Wasser, so daß man die Quelle des Zustroms im Prinzip mit einem Meßgerät versehen könnte, bei dem die Lichtjahre 3/sec. so wie die Sekundenliter bei einem Wasserzufluß gemessen werden. Daß so etwas unmöglich ist, liegt nicht etwa an einem fehlenden Meßgerät, einem „Raumflußmesser", sondern daran, daß die logische Situation grundsätzlich anders ist. Eine Wasserquelle befindet sich im Raum, wenn man die absolutistische Behälter-Sprechweise hier einmal verwenden darf. Dadurch gibt es einen guten Sinn, nach der Herkunft der Substanz und der Eintrittsstelle in ein bestimmtes Volumenelement zu fragen. Für einen Raumzuwachs selbst versagt aber diese Vorstellung; denn es handelt sich ja gerade um die umfassendste physikalische Einbettung der Dinge, die den Beschreibungsrahmen für alle physikalischen Prozesse abgibt. In der relationalen Sicht des Raumes wird die Unsinnigkeit der Frage noch deutlicher: Raum ist nicht ein neuer Stoff, der an irgendeiner Stelle irgendwoher in den schon vorhandenen räumlichen Stoff einfließt, sondern er ist der Träger einer Struktur, die durch die faktischen Objekte (Teilchen

112

IV. Die Welt im großen

und Felder) erst konstituiert wird. Hier kann man nur davon sprechen, daß sich die räumliche Maßfunktion (der kosmische Maßstab), wie sie durch die Bewegung der Galaxien konstituiert wird, relativ zu dem lokalen, an der Expansion nicht teilnehmenden Standard (Atomdurchmesser), mit der Zeit ändert. c) Die Operationalisierung theoretischer Größen Ein Problem, das sich nicht abschieben läßt, tritt aber bei der Anwendung der theoretischen Kosmologie auf, weil die Grundgrößen der Theorie ausschließlich Nichtobservable sind, die keine empirisch aufweisbare Bedeutung besitzen; um die Theorie testbar zu machen, müssen diese theoretischen Terme erst mit operational deutbaren Größen, die eine neue empirische Semantik tragen, verknüpft werden. Diese Bindeglieder sind selbst keine rein formalen Beziehungen, sondern tragen faktischen Gehalt. Die kosmologische Theorie in der geschilderten uniformen Friedman-Art verwendet zur Voraussage k die Konstante A, die heutige Krümmung — und die heutige MaterieRO dichte £ m0 ; für eine Retrodiktion in die frühe Vergangenheit muß auch noch die heutige Strahlungsdichte «.0 berücksichtigt werden, jedoch für die Zukunft des Universums spielt diese keine Rolle, da 8 wesentlich schneller abnimmt als Qm. Bei der Operationalisierung der Theorie für die Konfrontation mit der Erfahrung werden die theoretischen Beziehungen umgeschrieben und mit den Beobachtungsgrößen H0, der heutigen Expansionsrate, q0, dem Beschleunigungsparameter, und dem Dichteparameter 0 ausgedrückt. Die Notwendigkeit dieses Verfahrens ist aber nicht als Rechtfertigung des philosophischen Operationalismus zu verstehen, der behauptet, daß die Bedeutung der theoretischen Terme physikalischer Theorien durch den Bezug auf Laboroperationen (Meßanweisungen) geliefert werden muß (Bridgman 1927). Für die Durchführung von Testverfahren hat die Forderung von operationalen Interpretationen (Ausarbeitung operationaler Referenz) aber durchaus ihre Berechtigung. Die theoretischen Parameter, wie gegenwärtige Materiedichte 0, Krümmung einer raumartigen homok genen Hyperfläche der Raumzeit — , wie auch die kosmologische

2. Theorie und Erfahrung

113

Konstante , besitzen ihre faktische Bedeutung durch die physikalische Interpretation, die das mathematische Skelett, die Differentialgleichungen, erfahrt. Mit dieser Interpretation spricht der Formalismus zwar bereits über die Welt, aber seine Aussagen sind nicht kontrollierbar. Soll die Theorie mit dem Erfahrungsmaterial konfrontiert werden, muß sie mit den Beobachtungsparametern H0, q0, 0 ausgedrückt werden. Es wäre nun allerdings eine überoptimistische Erwartung, wenn man meint, daß die Messung der drei empirischen Parameter völlig theoriefrei erfolgen kann. Rohdaten müssen erst mit Hilfe von Auxiliarhypothesen (d. s. Hypothesen, die im Testzusammenhang angenommen und nicht in Frage gestellt werden) in echte Testinstanzen umgearbeitet werden. Dies wird im Kontext kosmologischer Theorien sehr deutlich: Was man effektiv beobachtet, ist, daß Spektrallinien, die von fernen Galaxien auf unsere Erde kommen, relativ zu den im terrestrischen Laboratorium erzeugten Linien in Richtung auf das rote Ende des Spektrums verschoben sind. Damit die Rotverschiebung aber ein Indikator für die Dynamik des Universums wird, muß dieser Effekt als Wirkung der Raumexpansion gedeutet werden, d. h. in dem Sinne, daß es sich um Lichtquellen handelt, die mit der kosmischen Flüssigkeit mitschwimmen und daher dieses Licht aussenden. Die Auswahl der Auxiliarhypothesen ist keineswegs eine triviale Angelegenheit. Im hier betrachteten Fall gibt es tatsächlich Alternativen wie etwa Lichtermüdungsmechanismen11, die durch die Diskussion theoretischer Argumente ausgeschaltet werden müssen.12 Erst dann kann man behaupten, daß die Wellenlänge eines Lichtstrahls mit der linearen Expansion des Universums wächst.13 d) Die empirische Entscheidung Die effektive empirische Bestimmung der Beobachtungsparameter HO, q0 und 0 ist ein äußerst mühevolles und mit vielen Unsicherheiten behaftetes Unternehmen. Um herauszufinden, wie sich die Rotverschiebung mit der Entfernung einer Galaxis von der Erde ändert, müssen in mehreren Schritten immer neue Entfernungseichungen vorgenommen werden, da die einzelnen Maßstäbe nur in begrenzten Bereichen anwendbar sind. Entscheidend für die Effektivität des Verfahrens ist dabei, daß es stets ausreichend große Bereichsüberschneidungen gibt, bei denen der Entfernungsmaßstab im engeren

114

IV. Die Welt im großen

Bereich gut getestet wird, so daß er unter Verwendung einer Homogenitätsannahme in den größeren Bereich extrapoliert werden kann.14 Die reine, durch die Gravitationsbindung ungestörte Expansionsbewegung (pure Hubble flow) zeigt sich erst ab 100 Mpc. Da man aber in dieser Entfernung die Distanz zu den Galaxien nicht mehr verläßlich direkt bestimmen kann, muß man eine Stufenleiter von Indikatoren verwenden. Innerhalb der lokalen Gruppe von Galaxien ist keine Expansionsbewegung vorhanden; wohl aber gibt es hier Cepheiden, das sind variable Sterne mit Pulsationsperioden, die eng mit ihrer inneren Leuchtkraft L bzw. mit ihrer absoluten Helligkeit M korrelieren.15 Cepheiden sind aber auch im nächsten Bereich zwischen l und 4 Mpc vorhanden. An ihnen kann man den Entfernungsindikator für die anschließende Region eichen, nämlich den Durchmesser von H II-Regionen (Wolken von einfach ionisiertem Wasserstoff), welcher in enger Korrelation mit der Leuchtkraft L der Galaxien steht. H II-Regionen sind in Galaxien bis 60 Mpc auszumachen, und so verwendet man die Größe der H II-Regionen, welche in einem engeren Bereich geprüft worden ist, zur Bestimmung der Entfernung von Galaxien vom Typ Sc I, denn von ihnen weiß man, daß ihre innere Leuchtkraft praktisch immer konstant ist. Die Rotverschiebung von Galaxien des Typs Sc I im Bereich von m — M > 35 zeigt dann die reine Dynamik der Expansion und gestattet, den H0-Wert zu 56,9 ± 3,4km sec."1 Mpc"1 zu bestimmen.16 Das Verfahren dieser Bestimmung ist methodisch sehr interessant: Die Brücken zwischen den einzelnen Entfernungsbereichen werden immer durch bestimmte konstante Relationen gebildet, einmal die Periode-Leuchtkraft-Relation der Cepheiden, einmal die Durchmesser-Leuchtkraft-Relation der H II-Regionen und zuletzt die angenommene Konstanz der Leuchtkraft der Sc I-Galaxien. Mit der Annahme der fortgesetzten Gültigkeit (Homogenitätsextrapolation) ist natürlich ein hypothetisches Element in der Bestimmung von H0 enthalten, das zwar sicher rational zu rechtfertigen ist, aber nicht weiter empirisch bestätigt werden kann. Ähnliche strukturelle Züge zeigen sich auch bei der Bestimmung der zweiten bedeutenden Größe der empirischen Kosmologie, nämlich q0.17 Die Hauptproblematik besteht hierbei darin, in ausreichender Entfernung, wo der Effekt der Abweichung von der linearen Hub-

2. Theorie und Erfahrung

115

ble-Expansion sich zeigt, ein leuchtendes Objekt mit bekannter Standardstärke zu finden. Die Quasare, die man noch bis zu großen z-Werten erkennen kann, zeigen eine enorme Streuung in der inneren Leuchtkraft. So nimmt man die hellste Galaxis in einem bekannten regulären Galaxienhaufen, der vor allem aus elliptischen Galaxien aufgebaut ist und wo die hellsten Elemente sich nur wenig von denen eines anderen Haufens unterscheiden. Das Resultat der mühevollen Arbeit liefert gegenwärtig einen Wert von q0 (H0 = 50) = 0,03 ( — 0,03, +0,07).18 Was den dritten Beobachtungsparameter anbelangt, die Dichte 0, so ist dieser, wenn = 0 ist, durch q0 mitbestimmt. Wir können heute nur eine untere Grenze für die Dichte der leuchtenden Materie angeben: Sie liegt bei 2 · 10~ 31 g/cm3 und ist von der Grenzdichte für ein geschlossenes Universum (q0 ^ ^, ^ £c) mehr als eine Größenordnung entfernt. Jene, die der Kosmologie als Wissenschaft immer noch skeptisch gegenüber stehen, weisen auf den notorisch unentschiedenen Charakter der Frage hin, welche von den vielen R (t)-Funktionen aus der Klasse der Friedman-Universen denn nun endlich diejenige sei, der das aktuale Universum folgt. Gewiß ist auch der gegenwärtige Wert des Beschleunigungsparameters noch lange nicht über alle Zweifel erhaben, und die momentane Neigung der Astrophysiker in Richtung auf Offenheit des Universums kann selbstredend in der Zukunft noch verändert werden, zumal Argumente wie die von Ostriker et al.19 über die galaktische Stabilität, die, wenn sie zutreffen, die Masse einer typischen Galaxis um den Faktor 20 erhöhen würden, immer noch nicht erledigt sind. Obgleich also die für das Weltbild so entscheidende Frage der Zusammenhangsform wohl noch eine Zeitlang offen bleiben wird, gibt es quantitative Triumphe der Kosmologie, die nicht zu übersehen sind.20 Hier ist vor allem die genaue Übereinstimmung zwischen Theorie und Beobachtung im linearen (niedrigen z-) Teil der Entfernung-Magnituden- und Winkelöffnung-Rotverschiebung-Relation festzustellen. Ferner besticht die außerordentliche Konkordanz zwischen der Altersbestimmung des Universums aus den Meßwerten von H0 (18 Milliarden Jahre, wenn qo = ^ 1> 12 Milliarden Jahre, wenn q 0 = 0 = V2) und dem Alter der ältesten Sterne (10 · 109 Jahre), ferner der Zeit, die seit der Nukleosynthese von terrestrischen Uran-, Thorium-, PoloniumAtomen verflossen ist, und schließlich dem Alter der ältesten Mete-

116

IV. Die Welt im großen

oriten und Mondfelsen. Vor allem die letzte Tatsache, wo mehrere logisch unabhängige Meßmethoden zu solchen sehr nahe beieinander liegenden numerischen Alterswerten führen, rechtfertigt es, darin nicht nur einen höchst unwahrscheinlichen Zufall zu sehen, sondern eine Bewährungsinstanz für die Hypothese, daß das Universum vor einer endlichen Eigenzeit eines Fundamentalbeobachters in einem wesentlich anderen Zustand war. Wie wir noch sehen werden, gibt es weitere Informationsquellen aus der Frühzeit des Universums (bei z 5" 1) wie die Urknallstrahlung und den Helium- und Deuterium-Überschuß, die ebenfalls gut in diese Vorstellung, wie sie das Standardmodell liefert, hineinpassen. Soviel können wir bis jetzt über das Funktionieren des Zusammenspiels von Theorie und Erfahrung im Bereich der physikalischen Kosmologie schon sagen: Die erkenntnislogische Struktur weicht nicht grundsätzlich von dem hypothetisch-deduktiven Verfahren ab, wie es in anderen Bereichen der Naturwissenschaft geübt wird, zeigt jedoch einige Besonderheiten, die wir noch einmal herausstellen wollen: 1. Nirgendwo in der Physik ist ein so großer Aussageüberhang der theoretischen Sätze (surplus meaning) über die empirischen Testinstanzen vorhanden. Im Falle eines offenen unendlichen Universums (k = 0, k = — l, wenn ein topologischer Standardzusammenhang verwendet wird) wird dies besonders deutlich, da dann die theoretischen Sätze wirklich über K0 Galaxien laufen, d.h. über eine aktual unendliche Menge physikalischer Objekte, Bewährungsmaterial aber natürlich immer nur von endlich vielen kosmischen Objekten ausgenutzt werden kann. 2. Das empirische Material ist sehr mühsam erreichbar und setzt für die Extrapolation die Verwendung von Homogenitätsannahmen voraus. Dies tritt deutlich bei der Eichung der Entfernungsmaßstäbe zutage, aber auch, wenn etwa bei der Bestimmung von q0 die Voraussetzung gemacht wird, daß die Galaxien ihre innere Leuchtkraft in den langen Zeiträumen, die großen Werten der Rotverschiebung z entsprechen, nicht verändert haben. Dies bedeutet nicht, daß das Vernachlässigen von Evolutionseffekten eine apriorische Voraussetzung für die Gewinnung des Beschleunigungsparameters wäre, sondern nur, daß man für eine solche Berücksichtigung präzise Kenntnis von der Entwicklung von Galaxien haben müßte, was gegenwärtig noch nicht der Fall ist.

2. Theorie und Erfahrung

117

3. Die physikalische Kosmologie hat trotz aller Schwierigkeiten, die aus der Besonderheit ihres Gegenstandes folgen, einen solchen Entwicklungsstand erreicht, daß das deskriptive Problem des metrischen und topologischen Aufbaus der Welt und der Bewegungsform der Materie grundsätzlich lösbar erscheint. Davon trennen muß man das anspruchsvollere explanative Problem, das im Fall der Kosmologie nicht etwa die Existenz des größten physikalischen Systems begründen soll, sondern die Frage beinhaltet, warum unser Universum gerade durch jene Kenndaten charakterisiert ist, die die Beschreibung durch eines der Friedman-Modelle gestattet. Auch auf der Ebene von Untersystemen des Universums ist der Schwierigkeitsunterschied zwischen den beiden Problemstellungen deutlich sichtbar. Die Himmelsmechanik beschreibt mit großer Präzision die Bewegung aller Himmelskörper im Sonnensystem ebenso wie auch die Sternbewegung in einer Galaxis. Um aber eine Antwort darauf zu finden, warum gerade neun Planeten in der beobachteten Weise auf Kepler-Ellipsen mit bestimmten Exzentrizitäten die Sonne umkreisen oder warum unsere Galaxis die bekannte Form von Spiralarmen hat und warum gerade jener Typ von Kugelhaufen in der Galaxis realisiert ist, bedarf es einer explanativen, kosmogonischen Theorie des Sonnensystems bzw. einer Theorie der Galaxienentstehung, in der die randbedingungsartigen Eigenschaften, die die Himmelsmechanik bei ihrer Beschreibung als kontingent hinnimmt, kausal verstanden werden können. In dieser Hinsicht strebt die Kosmologie das Ziel physikalischer Theorien an, wie es am deutlichsten von Einstein formuliert wurde: „Wir wollen nicht nur wissen, wie die Natur ist (und wie ihre Vorgänge ablaufen), sondern wir wollen nach Möglichkeit das vielleicht utopisch und anmaßend erscheinende Ziel erreichen zu wissen, warum die Natur so und nicht anders ist."21 4. Legt man nur die relativistische Kosmologie zugrunde, so gibt es keine Veranlassung, nach einer speziellen Methodologie Ausschau zu halten, wie dies bis vor einigen Jahren von den Vertretern der kinematischen Relativität und Steady-State-Theorie getan wurde. Noch läßt sich ein Status der Kosmologie begründen, der sie der lokalen Physik überordnet. Aus relativistischer Sicht kann man erfolgreich terrestrische Physik betreiben, ohne die Einbettung in das Gesamtsystem zu berücksichtigen. Es mag Grenzen dieser Abtrenn-

118

IV. Die Welt im großen

barkeit geben, aber einen Hinweis auf die Separierbarkeit liefert die Relativitätstheorie selbst: Das Mach-Prinzip, das bezüglich der Trägheit der Materie eine Determination dieser Eigenschaft durch die kosmischen Massen ausspricht, hat sich als wesentlich unabhängig von der Gravitationstheorie Einsteins erwiesen. Abgesehen von dieser Sonderfrage zeigen relativistische Kosmologie und Astrophysik wie kein anderer Anwendungsfall der Relativitätstheorie, auf welch schmaler empirischer Testbasis Aussagen mit großer theoretischer Reichweite möglich sind - wenn die Theorie entsprechend verläßlich ist.

3. Die globale Zusammenhangsform der Welt Die gegenwärtige Diskussion um die Offenheit oder Geschlossenheit des Universums zeigt mehr als deutlich, daß es sich hier nicht nur um ein empirisches Problem der Astrophysik handelt, sondern auch um eine Weltbildfrage mit grundsätzlicher naturphilosophischer Tragweite.22 Dies tritt besonders dann hervor, wenn einzelne Forscher, gegen den momentan vorliegenden positiven empirischen Befund für ein unbegrenzt expandierendes Universum, die Geschlossenheit zu retten versuchen.23 Die Argumentation spielt sich auf der materialen wie auf der philosophischen Ebene ab. Daß sich die Expansion tatsächlich verlangsamt, ist leicht zu sehen, wenn man die Zeit seit dem Beginn der Expansion, beurteilt nach der Evolution der Sterne, von 1010 Jahren mit der extrapolierten Hubble-Zeit von 2 · l O10 Jahren vergleicht. Die letzte Zeit hätten die Galaxien gebraucht, um ihre gegenwärtige Distanz zu erreichen, wenn sie sich immer mit der gleichen Geschwindigkeit voneinander entfernt hätten. Die Wirkung der Gravitationsbremse und die Verlangsamung der Expansion führt zwar, wenn man die beiden Zeitwerte realistisch ernstnimmt24, zu einem geschlossenen Universum mit zykloidaler Skalenfunktion R (t), aber die fehlende Masse, etwa vom Faktor 30 der festgestellten, und die Tatsache, daß der gegenwärtig beobachtete Deuteriumüberschuß unvereinbar mit der Grenzdichte wäre, die man braucht, um die Rekontraktion einzuleiten, weisen darauf hin, daß es sich hier eher um eine Art Wunschdenken handelt und daß die „missing mass" wohl eher den Namen „absent mass" verdient.25

3. Die globale Zusammenhangsform der Welt

119

Nach der Theorie ist der primordiale Deuteriumüberschuß in ganz empfindlicher Weise von der Materie-Dichte des Universums abhängig, aber die Methoden zur Bestimmung des Deuteriumvorkommens haben beträchtliche Unsicherheitsfaktoren. Ihre Verläßlichkeit basiert darauf, wie repräsentativ die Gasstichproben im interstellaren Raum sind, an deren Lichtabsorption die D-Dichte gemessen wird. Es ist naheliegend, daß die Befürworter der Geschlossenheit sich auch nach einem Weg zu einer Entscheidung über die Zusammenhangsform des Universums umgesehen haben, der nicht von der Materiedichte abhängt. Es gibt nun im Prinzip ein Verfahren, das eine direkte Bestimmung der Raumkrümmung im Großen gestatten würde. Der scheinbare Durchmesser eines Objektes von Standarddimensionen ist eine Funktion der Entfernung; wie diese gemessen wird, hängt von der Raumstruktur ab. Im euklidischen Raum nimmt die Größe eines Objektes mit l/r ab. In einem sphärischen Raum (k = +1) nimmt der Durchmesser von sehr fernen Gegenständen wieder zu. Dieser sogenannte Gravitationslinseneffekt könnte meßbar werden, wenn man die doppelten Radioquellen, wie sie mit den quasistellaren Objekten verbunden sind, als Standard verwendet. Bei alten Quellen müßte dieser Maßstab relativ zu den jüngeren verkürzt sein, weil sich das Licht der Quellen in früherer Zeit durch größere Materiedichte hindurcharbeiten mußte. Sollte man also feststellen, daß doppelte Radioquellen mit großem z ein Anwachsen des scheinbaren Winkeldurchmessers zeigen, dann wäre dies eine positive Evidenz für den Linseneffekt der Raumkrümmung und damit für die Geschlossenheit des Raumes. Abgesehen davon, daß man heute weiß, daß der Fokussierungsprozeß nicht eindeutig mit der Raumform verbunden ist, sondern vor allem wesentlich von der Art der Anhäufung der Materie in den Galaxien abhängt 26 , werden von den Protagonisten der Geschlossenheit nicht nur physikalische, sondern auch philosophische und mathematische Arguniente vorgebracht. In erster Linie hat sich Einstein selbst unter Verwendung des Mach-Prinzips für die Randbedingung der Geschlossenheit ausgesprochen.27 Er argumentierte: Vom relativistischen Standpunkt ist die Geschlossenheit erstens einfacher als die Vorgabe von Grenzbedingungen einer flachen euklidischen Struktur im Unendlichen, und außerdem ist das Mach-Prinzip nur in einem geschlossenen Universum realisiert. Man muß aller-

120

IV. Die Welt im großen

dings darauf achten, welche Version des vielschichtigen Mach-Prinzips hier ansteht. Es kann nicht die Bedeutung gemeint sein, wonach die Gesamtheit der Materieenergie die Raumzeitstruktur determiniert. Das ist in einem parabolischen (k = 0) und in einem hyperbolischen (k = — 1) Universum auch erfüllt, die, wenn der topologische Standardzusammenhang gewählt wird, offen sind. Das Mach-Prinzip kann hier auch nicht so verwendet sein, daß es die Rotationsfreiheit der fernen Massen relativ zum lokalen Trägheitskompaß ausdrückt, also die Tatsache, daß das Universum keine absolute Rotation besitzt. In der Erfahrung würde sich eine solche absolute Rotation so äußern, daß die Pendelebene eines auf dem Nordpol aufgestellten Foucault-Pendels nicht mehr relativ zu den Fixsternen ruhte. Einiges empirisches Material weist daraufhin, daß eine solche Rotation in unserer Welt nicht vorliegt.28 Einstein verwendet das MachPrinzip eigentlich im Sinne eines Auswahlprinzipes für finite Lösungen, wobei die Entscheidung für oder gegen die Endlichkeit letzten Endes nur epistemologisch erfolgen kann. Auf philosophische Argumentationen zugunsten der Geschlossenheit reagieren die Gegner mit der Betonung der logischen Unabhängigkeit der beiden Zusammenhangsformen von den Feldgleichungen. Ob die Welt offen oder geschlossen ist, ist danach nur über die Empirie zu entscheiden. Die Validierung bestimmter Lösungen liefert bei Vorgabe des topologischen Standardzusammenhanges die Aussage, daß der physikalische Raum offen oder geschlossen ist. Wheeler weist aber noch auf einen mathematischen Grund hin, der dafür spreche, daß die Geschlossenheitsforderung nicht einfach von den Feldgleichungen abtrennbar ist: 29 Für die Formulierung des Anfangswertproblems in der Geometrodynamik und für die klare Konzeption einer dynamischen Geometrie, d.i. eine Geometrie, die sich in Abhängigkeit von der Zeit entwickelt, ist die Geschlossenheit des Raumes zu einem Zeitpunkt t = t0, zu dem die Anfangs werte vorgegeben werden, unvermeidlich. Aber auch ein solches Argument hat letztlich wenig Kraft, denn es gibt ja keine apriorische Notwendigkeit, nach der ein Cauchy-Problem eindeutig definiert sein muß. Wenige werden vermutlich geneigt sein, die empirische Entscheidung über die beiden Zusammenhangsformen dem begrifflichen Vorteil einer Theorie zu opfern. Über die erkenntnistheoretischen Bedenken gegenüber einem infini-

4. Das Rätsel der Frühzeit

121

ten Universum haben wir schon gesprochen. Wenn man nicht einem zu engen Empirismus huldigt, wonach die Menge der empirischen Testinstanzen einer Theorie eine repräsentative Stichprobe der Ereignisse sein muß, über die die Theorie spricht, was nur in einem (räumlich und zeitlich!) finiten Fall realisiert ist, kann man auch einen aktual unendlichen Bereich, in dem das Volumen des Raumes unendlich ist und es möglicherweise «0-Galaxien gibt, in die Physik kontrollierbar einbringen. Die Furcht, daß dann eine wissenschaftliche Kosmologie unmöglich wird, ist bei dem liberalen Konzept des hypothetisch-deduktiven Vorgehens durchaus unbegründet. 4. Das Rätsel der Frühzeit In der philosophischen Vergangenheit wurde der Begriff der Kosmogonie in einer sehr wörtlichen Weise verstanden: als die Entstehung der gesamten physischen Welt. Ein solcher ex-nihilo-Prozeß kann, das folgt aus der logischen Struktur der Erklärung, nicht mehr Gegenstand einer naturalistischen wissenschaftlichen Physik sein. Da dieses erste Ereignis eben per definitionem keinen kausalen Vorgänger hat, kann es auch keine kausale Erklärung geben, die das dynamische Entstehen dieses speziellen Ereignisses - nennen wir es P verstehbar machen könnte. Logisch gesehen gibt es angesichts des Auftauchens von P zwei mögliche Einstellungsweisen: Man kann P auf sich beruhen lassen, d.h. auf Fragen „Warum P?" verzichten, oder man kann vermuten, daß die Aussage der physikalischen Theorie „P ist das erste Ereignis, es besitzt nur kausale Nachfolger" nur durch die begrenzte Reichweite der Geltung dieser Theorie bedingt ist und P tatsächlich kausale Vorgänger hat, die aber mit einer anderen Theorie beschrieben werden müssen. Der Versuch, angesichts dieser logischen Alternative eine dritte, theologische Möglichkeit heranzuziehen, P als außerweltlich bedingt anzusehen, setzt eine metaphysische Einbettung der Welt voraus und verläßt damit das naturalistische Erklärungsschema. Einer solchen ontologischen Erweiterung ist rein logisch nicht zu begegnen. Es können außerwissenschaftliche Motive maßgebend sein, die eine konsistente Einbettung der naturalen Realität in eine metaphysische Wirklichkeit verlangen. Jedoch sollte man sich der methodologischen Gefahren eines solchen Vorgehens bewußt sein. Sie liegen dort, wo man die Wechselwirkun-

122

IV. Die Welt im großen

gen zwischen naturaler und metaphysischer Welt ansetzt. Eine völlige Entkoppelung beider Bereiche ist kognitiv steril. Sie widerspricht auch jeder methodischen Regel, wonach man die ontologischen Voraussetzungen einer Theorie erst dann verstärkt, wenn es sich auf der Ebene der deduktiven Konsequenzen als notwendig erweist. Die Beeinflussung der beiden Bereiche setzt jedoch ein Kausalverhältnis und dieses eine Energie- und Impuls-Übertragung voraus. Dabei tritt nicht nur die Schwierigkeit auf, diese Quantitäten an Energie und Impuls in den Erhaltungssätzen unterzubringen, sondern auch das ontologische Problem, wie die spirituellen Entitäten des metaphysischen Bereichs, die doch sicher nicht die typischen Merkmale materialer Systeme teilen, nämlich raumzeitliche Struktur und Masse zu besitzen, mit den naturalen Objekten in ein Kausalverhältnis zu bringen sind. Das größte Hindernis für eine Beziehung des naturalen und metaphysischen Gebietes ist jedoch die Unsicherheit, wo man die Einflußnahme ansetzen soll. Interpretiert man die Anfangssingularität, die im Rahmen der Naturwissenschaft als erstes Ereignis geführt wird, als außerweltlich verursacht, so kann es leicht sein, daß eine kurz danach gefundene Theorie der Quantengravitation die naturalen kausalen Vorgänger entdeckt, was eine abermalige Zurückverlegung des Punktes der metaphysischen Einflußnahme bedingte. Infolge der Revidierbarkeit aller naturwissenschaftlichen Ergebnisse bleibt die Grenzlinie zwischen beiden Bereichen, die die Punkte möglicher Einwirkung enthält, immer ungewiß. Zuletzt muß man fragen, ob für die Kausalbeziehung beider ontischen Regionen nicht an ein actio-reactio-Verhalten zu denken ist, das den naturalen Prozessen auch eine Veränderung im metaphysischen Sektor der Welt zugestehen würde. Zumindest sollte man wissen, warum dieses bewährte intranaturale Prinzip nicht mehr gilt, wenn dies der Fall sein sollte. Im modernen Denken wird „Kosmogonie" überhaupt nicht mehr im Sinne einer Beschreibung der Entstehung des physikalischen Gesamtsystems verwendet, sondern als Verfolgen der Entwicklung des Universums bis zu seinem gegenwärtigen Zustand, jenem Zustand, wie wir ihn, durch die Kosmologie beschrieben, gegenwärtig vorfinden. Eigentlich handelt es sich dabei um eine Retrodiktion, die den heutigen raumartigen Querschnitt der Welt zum Ausgangspunkt hat. Zumeist bedient man sich aber nicht der extrapolativen Weise des Zurückrechnens, sondern man setzt einen Frühzustand hypothe-

4. Das Rätsel der Frühzeit

123

tisch an und untersucht, ob sich aufgrund der Gesetze der Thermodynamik, Hydrodynamik, Atom-, Kern- und Elementarteilchenphysik der gegenwärtig beobachtete Zustand des Universums deduktiv ergibt. Bei der Rekonstruktion der Frühzeit des Universums ist es wichtig, sich die Voraussetzungen des sogenannten „heißen Urknall-Modells" klar zu machen. Auch für das begriffliche Problem ist es bedeutsam, daß dieses Standardmodell seine Rekonstruktion nicht exakt bei t = 0 beginnen läßt, sondern frühestens 10~ 43 sec. danach, und zwar mit einem homogenen und isotropen Zustand der Materie, die zu diesem Zeitpunkt die Dichte von 1092 g/cm~ 3 und die Temperatur von 1032 K aufwies und auf eine Ausdehnung von 10~ 33 cm komprimiert war. Diese Werte, die unter Verwendung eines strahlungsdominierten Universums mit R(t)~ Vt und den Relationen 1010 6 2 £(t)~10 -t und T (t) — zustandegekommen sind30, beVt rücksichtigen die Grenzgeltung der Einsteinschen Gravitationstheorie. Die einfachste Kombination, die man aus den drei Fundamentalkonstanten M, G, c bilden kann und die die Dimension einer Länge besitzt, ist L* = h · —r3 = 1 , 6 - 1 0 cm. Möglicherweise schon V c / bei größeren Dimensionen, sicher aber ab dieser Größenordnung verliert die Relativitätstheorie ihre Gültigkeit 31 , weil sich die quantenhafte Natur des Raumes zeigt; der Raum beginnt in diesen kleinsten Bereichen zu schwanken, er wird mehrfach zusammenhängend und erhält eine schaumartige Struktur, so daß die klassische relativistische Kosmogonie ihre Anwendungsvoraussetzungen verliert. Für diesen frühen Bereich muß eine Theorie der Quantengravitation gefunden werden, an der viele Theoretiker arbeiten, die jedoch in verwertbarer Form noch nicht in Sicht ist. Einen Vorteil besitzt die vergangene Evolution des Universums gegenüber der zukünftigen: Die Vergangenheit ist so gut wie unabhängig vom Krümmungsindex k und von der kosmologischen KOnStanTD te A; der Frühzustand, wo — klein war, wird von den EntscheidunRO gen, ob k = 0, ±1, und — , 0 ist, qualitativ nicht berührt. Der Ausgangszustand des Universums in diesem Standardmodell ist der

124

IV. Die Welt im großen

eines vollkommenen thermodynamischen Gleichgewichts zwischen allen Teilchen ( , v, e~, e + , n, p, Hyperonen, Mesonen, Gravitonen). Da die Hadronen der Zahl nach überwiegen, war die früheste Phase sicher dominiert durch die stark wechselwirkenden Teilchen; aber mit der fallenden Temperatur nahm auch die Energie der Photonen ab, und mehr und mehr wurde der Materialisierungsvorgang auf Teilchen mit immer geringerer Ruhemasse beschränkt. Entscheidend für die zukünftige Entwicklung des Universums war die Tatsache, daß bei der unentwegten Entstehung und Vernichtung von Baryon-Antibaryon-Paaren aus bzw. in hochenergetische Photonen ein Baryon unter 109 anderen keinen Partner hatte, um sich mit ihm zu vernichten. Diese Asymmetrie, für die es bis vor kurzem noch keine Erklärung gab und die man immer auf die Anfangsbedingungen schob, bewirkte die Tatsache, daß wir uns heute in einer Welt vorfinden, die aus Materie und nicht aus Antimaterie aufgebaut ist. Ein mögliches Verstehen der Baryon-Antibaryon-Asymmetrie und der spezifischen Entropie pro Baryon läßt sich aus der SU (5), der unitären Theorie aller drei mikroskopisch relevanten Wechselwirkungen (grand unification), gewinnen. Im Rahmen der SU (5) wird eine Kraft eingeführt, die in der Umgebung der Planck-Zeit die Baryonenzahl-Erhaltung bricht. Somit kann ein Universum, selbst wenn es mit der Baryonenzahl B = 0 gestartet wurde, sich in Richtung auf entwickeln. Die weiteren Entwicklungsstufen der Leptonen-, Strahlungs- und Sternära bringen nun nach und nach immer mehr von den uns gewohnten Strukturen hervor.32 Eine der bemerkenswertesten Phasen dieser Entwicklung war die Plasma-Rekombination bei t ~ 105 Jahren, womit das thermische Gleichgewicht zwischen Strahlung und Materie beendet wurde. Seit diesem Entkoppelungsvorgang konnten sich die Photonen fast ungestört durch den Raum bewegen; die Expansion sorgte für eine Rotverschiebung der sich ausbreitenden Strahlung, und als Konsequenz davon sehen wir heute eine isotrope Mikrowellenstrahlung mit einem Planck-Spektrum, welche gegenwärtig die Temperatur T = 2,7 K erreicht hat und uns Auskunft gibt über unsere Welt, als sie 105 Jahre alt war. Seit der Entdeckung dieser Reliktstrahlung durch Penzias und Wilson 1965 kann man davon sprechen, daß auch die Kosmogonie, so wie die Kosmologie 1929, eine empirische Wissenschaft geworden ist.

4. Das Rätsel der Frühzeit

125

Das kosmogonische Standardmodell beginnt mit einem exakt uniformen Anfangszustand; diese hypothetische Setzung rechtfertigt sich durch eine große Zahl von empirischen Konsequenzen (wie primordialer Helium-Anteil, Vorhandensein, Temperatur und Isotropie der Hintergrundstrahlung, gegenwärtige Uniformität des Universums). Aber wie das meistens mit solchen strengen Idealisierungsannahmen ist, können die Modelle, die damit arbeiten, nicht allen empirischen Befunden Rechnung tragen. Jenen Daten, die durch die Idealisierungen gerade abgeschnitten worden sind, werden sie nicht gerecht. Wir Menschen mit unserem planetarischen Wohnort sind selber der lebendige Beweis dafür, daß die Anfangsannahme eine sehr grobe Glättung war. Das Universum ist nur von 60 Mpc aufwärts homogen und isotrop, darunter ist die Materie in Klumpen angehäuft, und eine erfolgreiche Kosmogonie muß diese lokalen Dichteabweichungen erklären können. Rechnungen haben aber ergeben, daß rein zufällige Dichteschwankungen in einem gleichförmigen materiellen Medium nicht ausreichen, um genügend starke Kondensationskerne für die Bildung von Galaxien abzugeben.33 Der logisch naheliegende Ausweg ist natürlich, ausreichende Inhomogenitäten in das Feuerball-Stadium zurückzuverlagern, die dann aber als unerklärte kontingente Elemente stehen bleiben. Wesentlich kühner ist der Weg, zum anderen Extrem überzugehen und das vollkommene Chaos für die Frühzeit anzunehmen, dann aber einen Mechanismus zu erfinden, der dafür sorgt, daß ausreichend schnell (nach einigen Sekunden) ein Glättungsprozeß eintritt, der gerade soviel Störungen übrigläßt, wie für die Galaxienentstehung notwendig ist. Bei der Verwendung des Ausdrucks „Chaos" muß man sich klar sein, daß hier nicht eine Art von Gesetzlosigkeit gemeint sein kann - eine völlige nomologische Unbezogenheit aller Ereignisse der kosmischen Frühzeit wäre in diesem Sinne auch gar nicht physikalisch beschreibbar34 - sondern zufällig verteilte Anfangsbedingungen, in denen alle Arten von Schwankungen in der Dichte, Entropie und der lokalen Expansionsrate vorkommen. Als Glättungsmechanismen sind eine Reihe von Prozessen wie adiabatische Abkühlung durch die Expansion, Dissipation durch Umwandlung der Anisotropie-Energie in thermische Energie wie auch Teilchenentstehung durch hohe Raumkrümmung vorgeschlagen worden. Ein spezielles kosmologisches Modell, das Mixmaster-Universum,35 wurde entworfen, das in der Lage ist, einen chaotischen Frühzustand mit einem symmetri-

126

IV. Die Welt im großen

sehen Spätzustand der Welt zu verbinden, und dies ist, wie wir sehen werden, gerade entscheidend für die Rolle des Erklärungsbegriffs in der Kosmologie. Schon 1921 hatte der Mathematiker Kasner eine Vakuumlösung der Feldgleichung gefunden, bei der die Expansion in dem Sinne anisotrop ist, daß die Distanzen entlang der x- und y-Achse sich mit verschiedenen Raten dehnen, während sie in der z-Achse kontrahieren. Im Mixmaster-Universum hat man es aufgrund der Anwesenheit von Raumkrümmung - das Kasner-Universum ist zu jedem Zeitpunkt flach -mit einer komplizierten Abfolge verschiedener Kasnerartiger Phasen zu tun, wobei einmal die Expansion hauptsächlich in der z-Richtung erfolgt, in der x- und y-Richtung sich aber nur kleine Schritte von Expansion und Kontraktion ablösen und nachfolgend durch Austausch der Achsen sich dasselbe in den anderen Richtungen vollzieht. Das Mixmaster-Universum ist mit der Hoffnung ins Leben gerufen worden, zwei Probleme lösen zu können: das Homogenitätsparadoxon und das Rätsel der Anfangssingularität. Aufgrund des Horizontes, der in einem Friedman-Universum existiert, gibt es zu jedem Zeitpunkt Teile der Welt, aus denen noch kein kausaler Einfluß in der Zeit, die seit der Anfangssingularität verflossen ist, den irdischen Beobachter erreichen konnte. Mit fortschreitender Zeit sehen wir zwar immer neue Teile der Welt, aber wir haben keine Garantie, daß die neu aufgetauchten Galaxien auch nur in statistischer Weise den vorhandenen ähneln. Daß man den zukünftig beobachtbaren Mitgliedern unserer Welt keinen anderen ontologischen Status (etwa den einer Fiktion) zuzuordnen braucht, weil sie prinzipiell noch nicht beobachtbar sind, haben wir schon früher bemerkt. Nun können wir zwar nicht über die epistemisch zukünftigen, heute noch kausal entkoppelten Bereiche, wohl aber über den in der Vergangenheit liegenden Parallelfall urteilen.36 Die Urknallstrahlung kommt aus allen Richtungen mit der gleichen Temperatur an.37 Verfolgt man jedoch diese elektromagnetische Strahlung in die Vergangenheit zurück, dann sieht man, daß sie aus zwei Plasmaregionen stammt, die zum Zeitpunkt der Emission noch gar nicht kommunizieren konnten. Wenn man die Vergangenheitshorizonte von Regionen untersucht, die mindestens 30° am Himmel getrennt sind, bei Voraussetzung einer Friedman-Welt, in der die Mikrowellen zuletzt bei z = 7 gestreut wurden, so sind diese Regionen durch kausal un-

4. Das Rätsel der Frühzeit

127

verbundene Bereiche beeinflußt, und das Rätsel besteht darin, warum die Strahlung aus diesen beiden Gebieten völlig identische Eigenschaften besitzt. Man muß annehmen, daß die Grundlagen für die Homogenität und Isotropie wohl gelegt worden sind, lange ehe das Universum seinen Friedman-Charakter erhalten hat, denn zu späteren Zeiten wäre dies aufgrund der Horizontbeschränkungen nicht mehr möglich gewesen. Eine Angleichung der Bedingungen über große Räume hinweg wird durch die globale Kausalstruktur einer solchen Raumzeit ausgeschlossen. Da man weder eine solche kontingente Unerklärtheit stehen lassen noch gerne das Kausalprinzip in solchen extremen Bereichen in Zweifel ziehen wollte, so hoffte man eine Zeitlang, daß das Mixmaster-Universum mit seinem hochdynamischen Verhalten in der Nähe der Singularität für einen ausreichenden Mischprozeß im frühen Universum sorgen würde und somit den Mechanismus liefern könnte, der erklärt, warum zu den späten Friedman-Zeiten das Universum über die Horizonte hinweg so stark isotrop ist. Die quantitative Durchrechnung hat jedoch keinen ausreichenden Erfolg gebracht, so daß das Homogenitätsparadoxon vorerst als physikalisches Rätsel bestehen bleiben muß. Noch ein anderes, in diesem Falle altes philosophisches Problem sollte das Mixmaster-Universum lösen38, nämlich das der Rolle der Zeit in der Nähe der Anfangssingularität. Die provokante Aussage der relativistischen Modelle besteht ja darin, daß in derßniten Eigenzeit in der Vergangenheit eines Beobachters das Universum die Zustände von unendlich hoher Dichte, verschwindender räumlicher Erstreckung und unendlich hohen Gezeitenkräften erreicht. Natürlich gibt es eine Reihe von trivialen mathematischen Verfahren, diese harte physikalische Aussage zu entschärfen, etwa durch eine Koordinatentransformation der Form t = log den Zeitpunkt = 0 in die unendlich ferne Vergangenheit t = — oo zurückzuverschieben. Aber nicht mit einem solchen billigen Ausweichen auf eine willkürliche Koordinatenzeit, sondern durch seinen semantischen Angriff auf die Rolle der Eigenzeit in der Kosmogonie selbst39 versucht Misner das Rätsel des zeitlichen Anfangs zu lösen. In unserer jetzigen Umgebung mit ihren ponderablen Massen gibt es eine ganze Reihe von Möglichkeiten, die Eigenzeit zu operationalisieren, d.h. einen realen Mechanismus zu finden, der als Indikator der Eigenzeit auftreten kann. Die Umrundung der Sonne durch die Erde, die Schwingungen

128

IV. Die Welt im großen

beim Hyperfeinübergang des Cäsiums in Atomuhren, das alles sind periodische Vorgänge, die heute als operational Anzeiger der Eigenzeit eines Systems auftreten können. Geht man jedoch in die Vergangenheit zurück, so wäre es zu einem beliebig frühen Zeitpunkt nicht möglich gewesen, diese operationalen Indikatoren zu verwenden, weil etwa vor 5 · 109 Jahren das Sonnensystem nicht existierte und somit die Aussage: „Die kosmische Singularität geschah vor 1010 Jahren" bezüglich der ersten Hälfte dieses Intervalls keine Zuordnungsdefinition besäße. Dies bedeutet, daß eine kontrafaktische Aussage von der Form: „Wenn die Erde sich noch weitere 5 · 109 Jahre in der Vergangenheit um die Sonne gedreht hätte, wäre man in der Zeitskala gerade bei der Anfangssingularität angelangt" nicht sinnvoll ist, weil es in diesem Intervall gar nicht die Möglichkeit gab, eine Zeitmessung mittels einer solchen Planetenuhr (Ephemeridenzeit) vorzunehmen. Das gleiche gilt auch für eine entsprechend standfestere Uhr, etwa die erwähnte Atomuhr, die auch nur bis ca. z = l O 9 , also bis zum Zeitalter der Nukleosynthese, brauchbar ist, während vorher das Cäsium wegen der hohen Temperatur in Singularitätsnähe ionisiert gewesen ist. Die einzige stabile Uhr, die bis zur Singularität zurückreicht - und das ist jetzt der entscheidende Gedanke Misners - sind die Kasner-Schritte des Universums selbst; aber von denen gibt es unendlich viele bis zur Singularität, und so ist das Universum nach dieser Überlegung unendlich alt., obwohl es in der abstrakten, aber operational unrealisierten Eigenzeit nur seit einer endlichen Epoche besteht. Eines sollte man bei dieser Gelegenheit festhalten: Der Begriff der physikalischen Zeit bedarf zu seiner Konstituierung nicht der Angabe operationaler Verfahren; diese haben den Zweck, zeitliche Angaben, welche eine Theorie liefert, zu messen. Wie bei jedem primitiven Term sind es die semantischen Interpretationsannahmen, die ihm physikalische Bedeutung verleihen; vom Standpunkt eines konsequenten Operationalismus, bei dem der Sinn eines Terms durch die Handlungsanweisungen zum Messen der den Begriff darstellenden quantitativen Größe fixiert wird, gibt es nicht einen physikalischen Begriff der Ladung, Länge, Energie, sondern soviele, wie man Meßverfahren von Ladungs-, Längen- und Energiefunktionen finden kann. Genausowenig bezieht auch der Begriff der physikalischen Zeit seine Bedeutung als Ausdruck des Prozeßcharakters der Welt

5. Die kosmologischen Prinzipien

129

aus der Art, wie man ein operationales Maß für ihn finden kann, sondern er wird von der Ereignisabfolge der Welt selbst generiert. In diesem Fall, da das Universum eine Art Unendlichkeitsmaschine darstellt - in endlicher Zeit geschehen unendlich viele Ereignisse, so wie die Funktion sin log 16 im Intervall l ^ t ^ 10 unendlich viele Schwingungen ausführt - muß man den Begriff der Eigenzeit wohl eher dem dynamischen Geschehen in dieser Welt selbst überantworten. Nicht die Addition jener Zeiten, die die immer stabileren Uhren in Richtung der Singularität anzeigen, präsentiert die Eigenzeit, sondern eben das schrittweise Geschehen in dieser Welt selbst. Man muß sich aber im Klaren sein, daß es sich dabei um die Wahl einer neuen Zuordnungsdefinition für die Kongruenz der physikalischen Zeit, also für das physikalisch reale Maß eines Zeitintervalls handelt. Das Universum besitzt einen „Herzschlag", der dauerhafter und viel weiter verwendbar ist als gewisse periodische Prozesse in Untersystemen, welche infolge der abnormen physikalischen Bedingungen in der Nähe der Anfangssingularität nicht mehr existieren und deshalb auch nicht mehr als Referenzobjekt für das Einheitsintervall einer physikalischen Zeit verwendet werden können. Es ist kein Zweifel, daß die zeitliche Singularität, der absolute Nullpunkt der Zeit, nur unter Verwendung der Misnerschen Uminterpretation verschwindet. Wenn man mit V das Volumen des Raumes zu einem Zeitpunkt bezeichnet, so liefert -— log (V1/3) einen Zeitparameter, der durch kosmische Epochen standardisiert ist, für den die Singularität aber in die unendliche Vergangenheit verschoben worden ist ( -> oo). Man kann danach,obwohl ein Beobachter auf einer Weltlinie die Singularität in endlicher, persönlicher Zeit erreicht, doch sinnvoll von einem unendlichen Alter des Universums sprechen, weil unendlich viele Ereignisse seit dem Anfang stattgefunden haben.40 5. Die kosmologischen Prinzipien Im Jahre 1822 stellt J.B.J. Fourier das metatheoretische Prinzip auf41, daß jedes physikalische Gesetz, wenn es in einem Objektbereich einer bestimmten Größenordnung für gültig befunden wurde, auch auf Gebiete mit beliebig vergrößerten und verkleinerten Dimensionen übertragen werden darf, insbesondere keinen inneren Bezug auf absolute Größen besitzen darf. In der Physik des 20. Jahr-

130

IV. Die Welt im großen

hunderts stellte sich das Prinzip von Fourier als falsch heraus; die klassische Mechanik gilt nämlich nur bis zu einer Größenordnung von 10~ 8 cm, darunter muß die Quantenmechanik verwendet werden, und auch diese hat wiederum eine Gültigkeitsgrenze bei 10~ 13 cm, ab der die Gesetze der Quantenfeldtheorie zum Tragen kommen. Wenn die Abmessungen eines Systems der Masse M in der / 2M\ Nähe seines Gravitationsradius liegen R = —=- , dann tritt an V J

Stelle der klassischen Mechanik die allgemeine Relativitätstheorie, welche ihrerseits bei der Größenordnung von IGT 33 cm, wo die Quantenschwankungen der Geometrie wirksam werden, durch eine noch zu konstruierende Theorie der Quantengravitation abgelöst werden muß. Der Bruch mit dem Prinzip von Fourier, der auftritt, wenn man den Übergang vom Mesobereich der terrestrischen Umgebung zur Megaphysik oder Kosmologie vollzieht, ist nun nicht von der Art, daß man neue physikalische Grundgesetze braucht Einsteins Theorie beschreibt auch lokale Systeme wie das Schwerefeld der Sonne, sie tut dies sogar genauer als die klassische Gravitationstheorie -jedoch werden eine Reihe von Prinzipien notwendig, die zu der lokalen Theorie hinzutreten müssen. Diese Prinzipien haben in jüngster Zeit die erhöhte Aufmerksamkeit der Wissenschaftstheoretiker erfahren. An dieser Stelle ist es gut, sich den in der Physik viel verwendeten Ausdruck „Prinzip" etwas genauer anzusehen. Ganz generell versteht man unter einem Prinzip ein hochrangiges Gesetz, das sich von anderen Gesetzen durch seine deduktive Kraft auszeichnet, eine umfassende Konsequenzmenge besitzt und seinerseits viele andere fundamentale Gesetze zur Folge hat, welche dann ihrerseits niedrigrangige Gesetze abzuleiten erlauben, die auf der Erfahrungsebene testbare Konsequenzen besitzen. So wird in der Mechanik der Variationssatz von Hamilton als Prinzip geführt, weil sich aus ihm die Bewegungsgleichungen von Lagrange und daraus das Galileische Fallgesetz ableiten läßt, welches erst dann unmittelbar mit der Phänomenebene verbunden wird, d.h. singuläre Einsetzungsinstanzen besitzt, die dieses Gesetz erfüllen. Die Verwendung von „Prinzip" im kosmologischen Kontext entspricht nicht ganz dem eben skizzierten Gebrauch, ihre wesentliche Rolle besteht darin, eine Klammer zu sein zwischen lokalem und globalem Bereich.

5. Die kosmologischen Prinzipien

131

Wie wir schon gesehen haben, ist in der Kosmologie die begriffliche Trennung von Gesetzen und de facto-Annahmen gar nicht so einfach durchführbar. Formal sind einige der kosmologischen Prinzipien, die wir im folgenden näher charakterisieren werden, Randbedingungen für die partiellen Differentialgleichungen, welche die Lösungsmannigfaltigkeit stark einschränken. Epistemisch sind es Überstiegshilfen, welche die Ausweitung des Wissens vom Meso- zum Megabereich ermöglichen. Nun gehen zwar die lokale und die globale Region stetig ineinander über, aber eine Abgrenzung haben wir früher schon kennengelernt, sie liegt in der Größenordnung von 100 Mpc, nämlich dort, wo sich unverfälscht durch die lokalen Gravitationsbindungen der reine Hubble-Fluß deutlich zeigt. Die Brückenfunktion solcher Prinzipien ist umso notwendiger, als sich in den letzten Jahrzehnten der Raumzeitbereich, über den die kosmologischen Aussagen laufen, extrem ausgeweitet hat: von z = 0,01 zu Zeiten Hubbies bis zu z > 3 heute. Daß man solche Brücken zwischen dem lokalen und dem kosmischen Raumzeitgebiet braucht, ist natürlich noch keine Rechtfertigung der Gültigkeit der kosmologischen Prinzipien. Gerade hier haben Kritiker angesetzt und zu zeigen versucht, daß die Kosmologie untestbare Elemente enthält, genauer, daß sie in ihrer gegenwärtigen Form apriorische Teile besitzt, die sich grundsätzlich jeder empirischen Rechtfertigung entziehen.42 Es ist wahr, die Homogenität des Universums ist sicherlich keine direkte Beobachtungstatsache. Wir können von vorneherein nicht ausschließen, daß die Bedingungen in der Nähe unserer Galaxis atypisch für das ganze Universum sind. Die Dichte der Materie kann bei uns um ein n-faches höher oder niedriger sein als bei anderen Galaxienhaufen. Empirisch bestätigt ist die Isotropie der Galaxien Verteilung, von unserem Standpunkt aus gesehen. Wollen wir von der lokalen Isotropie auf die globale Isotropie übergehen, müssen wir eine vorderhand nicht prüfbare Zusatzannahme machen, nämlich das kopernikanische Prinzip, das besagt, daß wir nicht an einem ausgezeichneten Ort des Universums leben. Erst aus der damit gewonnenen globalen Isotropie folgt logisch die Homogenitätsaussage, daß wir an einem typischen Ort des Universums leben, d.h. daß alle Raumpunkte das Universums (bis auf lokale Schwankungen) physikalisch gleichwertig sind. Um das kopernikanische Prinzip ranken sich nun gerade die methodologischen Überlegungen zum Status der

132

IV. Die Welt im großen

physikalischen Kosmologie. Ist es wirklich ein Grundsatz, der, obwohl er bei Beschreibung der großräumigen Struktur der Welt gebraucht wird, an keiner Erfahrung scheitern kann, mithin synthetisch ist und doch a priori gilt? Um dies zu stützen, sind verschiedentlich Alternativmodelle konstruiert worden, die das kopernikanische Prinzip negieren und konsistent mit der lokalen Isotropie durch inhomogene Welten die Gesamtheit der empirischen Daten auffangen wollen. Eine Möglichkeit besteht darin anzunehmen, daß die Erde sich im kosmischen Zentrum befindet und z.B. die Radioquellen um uns in konzentrischen Schalen, zwar sphärisch symmetrisch, aber in der Entfernung mit wachsender Quellendichte und Leuchtkraft angeordnet sind.43 Schon bei diesem Beispiel kann man einwenden, daß die beiden Situationen, (1) die Anordnung, wonach die Teilchen statistisch isotrop um jedes Teilchen verteilt sind und (2) jene, wo die Teilchen nur um einen Punkt, aber nicht um alle anderen isotrop verteilt sind, epistemisch nicht gleichwertig sind. Die homogene Anordnung erfüllt eine Translationssymmetrie, die lokal isotrope Anordnung jedoch nur die schwächere Symmetrie einer Rotationsgruppe; dies bedeutet, daß man für die zweite Anordnung viel berechtigter fragen kann, wieso diese spezielle Zentrierung der Galaxien um einen Punkt zustande gekommen ist. Die homogene Verteilung ist allgemeiner und wenn es sonst keine Gründe zur Auszeichnung einer bestimmten Verteilung gibt, auch wahrscheinlicher, sie liegt einer Zufallsverteilung näher. Es bedarf eines Satzes wesentlich speziellerer Anfangsbedingungen, um die Verteilung (2) zu erklären, während (1) durch viel weniger spezielle Anfangsdaten realisiert werden kann. Mit einer ordnenden Kraft kann man (2) aus (1) erzeugen, aber dieser wirkende Eingriff müßte kausal erklärt werden. So ist es also durchaus rational begründbar, in Abwesenheit anderer Information mit (1) zu beginnen und erst dann, wenn neue empirische Evidenz für (2) spricht, mit (2) zu arbeiten. In noch detaillierterer Form hat Ellis jüngst ein sphärisch-symmetrisches statistisches Modell erfunden (SSS), das trotz seiner Inhomogenität in der Lage sein soll, alle empirischen Befunde, die sonst für die RWF-Welten evidentiell ausgenützt werden, zu reproduzieren. Die Rotverschiebung wird nicht durch den Doppier-Effekt erklärt und der Mikrowellenhintergrund nicht als Reliktstrahlung vom heißen Feuerball verstanden, sondern

5. Die kosmologischen Prinzipien

133

das SSS-Modell besitzt zwei Zentren: eines bewohnen wir und in dem anderen sitzt eine (nackte) Singularität. Deshalb ist die systematische Rotverschiebung kosmologisch gravitativer Natur und der Mikrowellenhintergrund rührt von der Singularität im zweiten Zentrum her. 44 Trotz der Konstruierbarkeit dieser Alternativmodelle müssen gegen die Einsetzung des kopernikanischen Prinzips in den Apriori-Status grundsätzliche Einwände erhoben werden: Erstens muß die prinzipielle Unmöglichkeit, daß für oder gegen einen Satz empirisches Material angeführt werden kann, von der technischen Unmöglichkeit, dieses zu beschaffen, unterschieden werden. Das kopernikanische Prinzip ist durch einen Besuch der Galaxis 3C 295 grundsätzlich falsifizierbar. Diese Reise ist zwar technisch undurchführbar, aber an die Information könnte man auch anders herankommen. Intelligente Lebewesen dieser Galaxis könnten uns mitteilen, ob auch sie das Universum um sich herum in allen Richtungen gleich sehen; wenn dies der Fall ist, wäre es natürlich noch kein Beweisför die Homogenität, aber wenn sie die Auszeichnung einer Richtung melden würden, wäre die Homogenität widerlegt, denn sie setzt eben die Isotropie um alle Punkte des komobilen Substrates voraus. Weiterhin wurde in der relativistischen Kosmologie schon früher mit inhomogenen und anisotropen Modellen gearbeitet. Neben dem Modell von Omer45, das ein Zentrum besitzt, von dem aus die Materiedichte nach außen hin zunimmt, und wo das isotrope Erscheinungsbild der Welt in der Lage des menschlichen Beobachters nahe dieser Mitte begründet liegt, ist das inhomogene Gitter-Universum von Lindquist und Wheeler bekannt geworden, die die Welt wie einen Kristall aus vielen Zellen aufbauen, wobei in jeder einzelnen Zelle die Schwarzschild-Metrik die Raumzeit strukturiert. Ebenso gibt es homogene, aber anisotrope Modelle wie das von Gödel, bei dem in jedem Punkt die kosmische Materie relativ zum relativen Trägheitskompaß rotiert. Sollte sich eine dieser komplizierteren, nicht der Klasse der RWE-Welten angehörigen Welten empirisch validieren lassen - und es ist nicht einzusehen, wodurch das im Prinzip ausgeschlossen werden soll - wäre damit auch das kopernikanische Prinzip gefallen. Noch auf andere Weise könnte der aposteriorische Charakter des Prinzips bekräftigt werden, nämlich auf theoretische Art, wenn z.B. das Prinzip sich als deduktive Konsequenz einer Theorie der Gala-

134

IV. Die Welt im großen

xienentstehung erweist, oder als dynamische Wirkung in ein Modell inkorporiert wird, das in der Frühzeit hoch anisotrop ist, dann aber aufgrund von Dämpfungsmechanismen zu späteren Zeiten in einen uniformen Zustand übergeht. Es gibt zuletzt sogar eine indirekt empirische Weise, den aposteriorischen Charakter des Prinzips zu stützen. So ist etwa die Messung der Feinstrukturkonstante für Galaxien in der Entfernung von 2 · 109 Lichtjahren (0,17 5 z 5 0,26), die mit unserem Wert von in der Genauigkeit von l : 3000 übereinstimmt, durchaus als Indiz für das kopernikanische Prinzip angesehen worden.46 Das kopernikanische ist sicher das wichtigste, aber natürlich nicht das einzige in der Kosmologie verwendete Prinzip, das den Brückenschlag vom Mesobereich unserer Umgebung in den Megabereich bewerkstelligen soll.47 Der Gedanke der Einfachheit wird meist dort bemüht, wo der theoretische Zusammenhang mehr Möglichkeiten eröffnet als empirisch entschieden werden können. Der Standardfall ist die kosmologische Konstante A, die wir schon kennengelernt haben. Die klassischen Gravitationsgleichungen sind mit einem Term · g MV erweiterbar, der mit der Heuristik und mit den anderen Prinzipien der Theorienkonstruktion (Korrespondenz, Erhaltungssätze, Ordnung der Ableitungen) vereinbar ist. Mit dieser Konstante vergrößert sich aber die Klasse der mit dem kopernikanisehen Prinzip in Einklang stehenden Friedman-Welten. In Ermangelung eines empirischen Hinweises wird man von einem Einfachheitsprinzip ( = 0) Gebrauch machen, das diese unnötige Vielfalt reduziert. Dies gilt jedoch nur so lange, wie die gemessenen Werte der empirischen Parameter (H0, q0, 0) durch ein Exemplar der engeren Klasse der RWFModelle gedeckt werden können. Wenn im Rahmen der Meßgenauigkeit keine Standardlösung vom Beobachtungsmaterial erfüllt wird, kann man jederzeit den -Term reaktivieren, z.B. ein Modell mit A 0 und fmitem Alter zur Konkurrenz zulassen. Dies bedeutet, daß dem Einfachheitsprinzip nur die Rolle eines vorläufigen Selektionskriteriums zukommt, daß es aber aufgrund neuer empirischer Befunde außer Kraft gesetzt werden kann. Damit ist die Ontologisierung der Einfachheitsannahme, wonach Kosmologie nur möglich ist, wenn die Welt im großen nach bestimmten epistemischen Minimalprinzipien gebaut ist, nicht notwendig. Bei der Auseinandersetzung zwischen der Theorie vom stationären Zustand des expandierenden Universums und der relativistischen

5. Die kosmologischen Prinzipien

135

Kosmologie, die vor ca. 10 Jahren zuungunsten der ersten ausgegangen ist, wurde sehr oft von Seiten der Steady-State-Vertreter das Kontingenzargument gebracht, wonach die Urknall-Befürworter keine vernünftige Erklärung mehr dafür anführen könnten, warum die Welt mit jenem bestimmten Satz von Anfangsbedingungen gestartet worden ist, wie sie dem aktual realisierten Friedman-Modell entsprechen. Nimmt man dagegen das vollkommene kosmologische Prinzip an, wonach die Welt zu jedem Raumzeitpunkt (nicht nur zu jedem Raumpunkf) statistisch die gleiche Beschaffenheit besitzt, entfallen die Anfangsbedingungen, weil es keinen absoluten Nullpunkt der Zeit in der Vergangenheit oder in der Zukunft gibt. Wie man leicht sieht, ist die Kontingenz der Weltstruktur bei diesem Verfahren nur verschoben worden. Die Steady-State-Theorie hätte zwar - vorausgesetzt, ihr wäre empirischer Erfolg beschieden gewesen - einen Grund für die Wahl ihrer universellen Skalenfunktion R (t) ~ e*'T angeben können48, aber sie enthielt dafür ein ausschließlich deskriptiv erfaßbares Element, nämlich einen ontologischen Entstehungsprozeß ex nihilo, denn Materie muß zur Aufrechterhaltung des stationären Zustandes angesichts der Expansion ständig neu entstehen.49 Da dies nicht ein Umwandlungsprozeß nach Art einer Elektron-Positron-Paar-Erzeugung (y -* e~ -fe + ) ist, sondern ein die Erhaltungssätze verletzender absoluter Entstehungsvorgang, muß er für physikalische Erklärungen - und nur diese reduzieren Kontingenz - grundsätzlich rätselhaft bleiben. Eine gewisse Rolle spielt in einem eher spekulativen Zweig der Kosmologie das Prinzip der großen Zahlen, oft auch bescheidener „large number hypothesis" genannt. Dirac vermutet 50 , daß dimensionslose e2 Zahlen von der Größenordnung N j = =0,2·10 40 G · m p · me (e... Elementarladung, G... Gravitationskonstante, m p und D

m e ... Masse des Protons bzw. Elektrons) und N 2 = — ~ l O40 a (R... Radius des beobachtbaren Universums = l O 27 cm, a... Durchmesser des Atomkerns = 10~ 13 cm) nicht ohne kosmologische Bedeutung sind. Wenn die Koinzidenz von N t und N 2 kein Zufall ist, dann ist zu vermuten, daß nicht nur N 2 (wegen R ~ t (t.. .Alter des Universums)), sondern auch N! zeitabhängig ist. Wegen der sicheren Konstanz der Elektronenladung e und der Massen

136

IV. Die Welt im großen

von p und e hat bei der Änderung des Verhältnisses von elektromagnetischer und gravitativer Wechselwirkung die Gravitationskopplungskonstante G die Last der Zeitabhängigkeit zu tragen (G ~ t" *). Für sich betrachtet scheint das Prinzip der großen Zahlen keine sehr starke Überzeugungskraft zu besitzen und die Konsequenz der Materieentstehung (Baryonenzahl ~ t 2 ) macht dieses Prinzip zwar exotischer, aber nicht verlockender. Jedoch ist das Prinzip der großen Zahlen vor kurzem von Canuto und Hsieh in eine Feldtheorie der Gravitation eingebettet worden51, die im Grenzfall mit konstantem G in die Einsteinsche Theorie übergeht. Die Beziehung der atomaren zu den Makrophänomenen wird hierbei durch eine Eichfunktion hergestellt, wodurch sich auch ein Zusammenhang mit der unitären Theorie der schwachen und elektromagnetischen Wechselwirkung von Salam und Weinberg abzeichnet. In diesem stärkeren theoretischen Kontext wird das Prinzip der großen Zahlen sicher eine glaubwürdigere Rolle spielen, zumal in der Theorie von Canuto und Hsieh auch der 3 K-Strahlung Rechnung getragen werden kann, was in der bisherigen Dirac-Kosmologie nicht möglich war. In der ziemlich vollständigen Behandlung der Prinzipien der Kosmologie von Harrison wird noch ein Grundsatz erwähnt, der in strenger Form in keiner gegenwärtigen kosmologischen Theorie realisiert ist, das sogenannte „bootstrap principle von Chew".52 Obwohl es unter diesem Namen seinen Ursprung in der Elementarteilchenphysik hat, ist es doch historisch mit der Kosmologie verbunden. Bei Chew besitzt das Prinzip eine logische Formulierung: Die Einzigkeit der Natur gründet darin, daß es für ihre Gesetzesstruktur nur eine einzige widerspruchsfreie Erfüllung gibt, „nature is as it is, because this is the only possible nature, consistent with itself'.53 Es ist eine Fortsetzung des Gedankens, den Mach nur für die Trägheit behauptet hatte. Die Relationalisierung einer inneren (absoluten) Qualität der Körper, derart, daß die lokale Trägheit an die Menge und Bewegungsform der fernen Massen gekoppelt ist, wird bei Chew auf alle Eigenschaften der Dinge ausgedehnt. Chews Hypothese betrifft speziell die Physik der Hadronen. Jedes Hadron enthält in sich immanent alle anderen Teilchen der starken Wechselwirkung, keines ist fundamentaler. Es gibt keinen Satz letzter Bestandteile der Materie (z.B. Quarks), alle bestehen demokratisch aus allen. Das

5. Die kosmologischen Prinzipien

137

klassische Vorbild ist hier sicher Leibniz' Monadenlehre, bei der die elementaren Bestandteile der Natur alle Qualitäten der Makrowelt noch einmal en miniature enthalten. Genau diese Ontologie ist in der gegenwärtigen Naturwissenschaft aber nicht realisiert. Hier geht man von der Voraussetzung der Kompartimentalisierung aus, wonach das Universum summativ aus allen Teilchensorten und Feldarten zusammengesetzt ist. Beide Klassen von Entitäten sind dementsprechend auch isoliert erforschbar und die einzelnen Informationen sind additiv aneinanderfügbar. Es fragt sich, ob die Tatsache der Separierbarkeil, wonach jedes Untersystem des Universums mit jedem anderen System in bestimmter Hinsicht wechselwirkt, in anderer aber von ihm getrennt ist, nicht eine notwendige Bedingung der Erkennbarkeit überhaupt darstellt. Gäbe es keine relative Isolierung der Systeme, so hätten wir es mit einer epistemischen Alles- oder Nichts-Situation zu tun. Wir müßten das Gesamtsystem erkennen, ehe wir uns mit einem seiner Teile befassen könnten. Wenn die ganzheitliche Struktur nicht auf einen Schlag erfaßt werden könnte, wäre eine Erkenntnis überhaupt unmöglich. Gegenwärtig verwirklicht keine kosmologische Theorie das super-machistische bootstrapPrinzip und entsprechend dem eben erwähnten Einwand ist es fraglich, ob die Leibnizsche kontingente Identitätshypothese, daß nämlich Teilchen und Universum gleiche komplexe Strukturen realisieren, heuristisch zukunftsträchtig ist, obwohl ja dann erst Fragen beantwortbar würden, die heute unlösbar erscheinen, z.B. warum alle Elektronen die gleiche elektrische Ladung im Universum besitzen. Wenn nicht einmal gedanklich ein Teilchen ohne Informationsverlust vom Universum abgetrennt werden kann, könnte man die Gleichheit aller Elektronen dadurch begründen, daß sie alle das Universum in einer spezifischen Form repräsentieren. Eine solche Kosmologie wäre in ihrer Aussagekraft vermutlich stärker, jedoch wäre sie begrifflich ein solch schwieriges Unternehmen, daß wir eher hoffen sollten, daß sich die Separierbarkeit als ontologische Hypothese bewährt.

V. Die Welt der Quanten 1. Die begriffliche Revolution des Wirkungsquantums Kaum jemand, der die Entwicklung der Physik um die Jahrhundertwende verfolgt hat, wird leugnen, daß die Veränderungen, die sich hier in den theoretischen Begriffen anbahnten, umwälzenden Charakter hatten. Trotzdem gehen die Meinungen, worin das revolutionäre Element besteht, und warum der Übergang von der klassischen zur Quantenphysik ideengeschichtlich, methodisch und erkenntnistheoretisch so bedeutsam ist, stark auseinander. Zudem hat die diachrone Sehweise in der Wissenschaftstheorie den Blick geschärft für Unstetigkeiten in der Entwicklung und dafür gesorgt, daß diese besonders scharf betont und fokussiert werden. Die Veränderung in der erkenntnistheoretischen Situation hat ihren Ursprung genau genommen tief im 19. Jahrhundert, nämlich in der Entwicklung der Strahlungsgesetze.1 Kirchhoff hatte durch sein Gesetz von 1861, wonach für eine bestimmte Wellenlänge und Temperatur T das Verhältnis von Emissionsfähigkeit E ( , ) zum Absorptionsvermögen A (A, T) eines beliebigen Körpers gleich dem Emissionsvermögen des schwarzen Körpers Es ( , ) ist (der das Absorptionsvermögen A (A, T) = l hat), die Voraussetzung dafür geschaffen, das Problem der Wärmestrahlung unabhängig von den individuellen Eigenschaften eines bestimmten Körpers zu lösen. Es reduziert sich demnach darauf, die schwarze Strahlung Es ( , ) zu untersuchen, welche man sich am besten in einem nicht absolut spiegelnden Hohlraum realisiert vorstellt, wo die hineingeleitete Strahlung entsprechend dem gewählten Reflexionsvermögen der Wände nach einiger Zeit schwarz wird. Die Erhitzung der Wände des Hohlraumes liefert dann die aus einer kleinen Öffnung austretende Strahlung mit der gewünschten Temperatur. Die begriffliche Einführung eines idealen Körpers, der unabhängig von der auffallenden Strahlung weder Strahlung durchläßt noch reflektiert, was in der Natur nie exakt realisiert ist, ist einer jener fruchtbaren theoretischen Schritte, der zeigt, wie wenig die Naturwissenschaft dem Baconschen Ideal des

1. Die begriffliche Revolution des Wirkungsquantums

139

empiristischen Induktivismus entspricht. Die Frage nach der Abhängigkeit des Energieinhaltes des Hohlraumes von der Temperatur konnte Boltzmann 1884 unter Benützung eines früheren Ergebnisses von Stephan beantworten. Er fand, daß die über alle Wellenlängen integrierte Strahlungsdichte Ls wie auch die Energiedichte u u — — · Ls und ebenso das Emissionsvermögen Es jeweils proportional T4 waren. Dies war ein erster Teilerfolg, der durch Kirchhoffs Idealisierung und seine fruchtbare Einführung des theoretischen Begriffs der schwarzen Strahlung ermöglicht worden war. Wie die Gesamtstrahlung Es von dem Parameter der Temperatur abhängt, war damit geklärt. Jetzt galt es, die genaue Form der Funktion ES(A, T) zu finden. Zunächst gelang es Wien 1893, das Problem so einzugrenzen, daß die Energiedichte u wie auch die Strahlungsdichte LS(A, T) [Es(/l, T) = · Ls(/l, T)] eine lineare funktionale Abhängigkeit von Wellenlänge und Temperatur von der Form — · F ( · ) besitzen. Dies drückt aus, daß eine Erhöhung der Temperatur eine Verschiebung „des Spektrums" der Strahlungs- und Energiedichtewerte zu kleineren Wellenlängen bewirkt. Dieses Verschiebungsgesetz schränkt zwar die mathematischen Möglichkeiten sehr stark ein, aber das endgültige Energieverteilungs- oder Spektralgesetz mußte explizit die Funktion F(A, T) liefern. Um diese zu finden, war es notwendig, über die rein thermodynamischen Beziehungen hinausgehend eine Modellvorstellung von dem schwarzen Körper zu verwenden. Hier konnte man nun die Tatsache benützen, daß die Einführung eines beliebigen Körpers in einen vollkommen spiegelnden Hohlraum schwarze Strahlung erzeugt, weshalb das Ergebnis nicht vom speziellen Mechanismus des emittierenden und absorbierenden Vorganges abhängt, d.h. wenn man es semantisch ausdrückt, ein beliebiges Modellobjekt seinen Dienst tun konnte. Einen tatsächlichen Fortschritt bei der Suche nach der Funktion F haben dann Rayleigh und Jeans erzielt, indem sie im spiegelnden Hohlraum ein System von stehenden elektromagnetischen Wellen angenommen haben, dann die Eigenschwingungen des Hohlraumes betrachteten und das Äquipartitionstheorem verwendeten, wonach

140

V. Die Welt der Quanten

auf jeden Freiheitsgrad im Mittel die Energie j kT (k = BoltzmannKonstante) entfällt. Dies liefert im Wellenlängenintervall für die 2c Strahlungsdichte LsdA = — · kTd/l. A

Dieses Strahlungsgesetz von Rayleigh-Jeans leidet jedoch an dem Defekt, daß das Integral über alle Wellenlängen divergiert und daß, völlig entgegen dem experimentellen Befund, die größte Energie bei den kleinsten Wellenlängen liegen würde. Diese Konsequenz des Gesetzes hat den Namen Ultraviolet t-Katastrophe erhalten; um sie zu vermeiden, hat Wien eine analog dem Maxwellschen Geschwindigkeitsverteilungsgesetz gebaute Energieverteilung eingeführt, welche die Form Ls(/l, T) = 2c 1 A~ 5 e

_ C2

besitzt (ct und c2 sind zwei empi-

rische Konstanten). Diese liefert zwar das empirisch bekannte Maximum für Ls ( ) bei den einzelnen Isothermen, hat aber die eigenartige Konsequenz, daß für festes bei beliebig wachsendem T die Strahlung einem endlichen Wert zustrebt. Es entstand nun die wissenschaftstheoretisch interessante Situation, daß man im Besitz zweier Grenzgesetze war, wobei die Wiensche Gleichung für kleine Werte von · T, die Rayleigh-Jeans-Formel für großes · brauchbar war. Planck schlug zur Lösung dieser Doppelgleisigkeit eine Spektralgleichung vor: 2c ~5 LS(A, T) = —77= , die in dem Sinne einheitlich ist, daß sie die bei0?2'

1

— \

den Grenzfälle, aber auch das mittlere Intervall streng umfaßt. 2 Die erkenntnistheoretische Umwälzung entstand nun nicht dadurch, daß Planck die mathematische Form der Energieverteilung richtig erriet, sondern erst durch seinen Versuch, diese theoretisch zu begründen. Das logische Problem bestand in einer Duhemschen Situation : Wenn eine Hypothese mehrere logische Voraussetzungen besitzt und die Hypothese falsifiziert wird, überträgt sich der Wahrheitswert „falsch" auf die Voraussetzungen; aber dieser Rücktransfer ist natürlich nicht eindeutig. Man kann nicht sagen, welcher von den Voraussetzungen man die Falsifikation anlasten muß. Genau dieser Fall lag hier vor: Die Rayleigh-Jeans-Gleichung gründet nämlich auf zwei Hypothesen, der Zahl der Eigenschwingungen der ste-

1. Die begriffliche Revolution des Wirkungsquantums

141

henden Wellen des Hohlraumes, d.h. der Freiheitsgrade, und dem Äquipartitionstheorem. Logisch ist ein solches Problem nicht zu lösen, denn die empirisch falsche Konsequenz kann im Prinzip jeder, vielleicht aber auch beiden Voraussetzungen angelastet werden. Planck entschied sich dafür, die zweite Hypothese abzuändern, weil diese, natürlich wieder im Verband mit weiteren Annahmen, schon in einem anderen Zusammenhang, nämlich der Wärmelehre, zu Schwierigkeiten geführt hatte. Hier konnte die Temperaturabhängigkeit der spezifischen Wärme Cv nicht erklärt werden, und der Grenzfall des Dulong-Petitschen Gesetzes stand nicht mit dem Verschwinden von Cy beim absoluten Nullpunkt in Einklang. Plancks revolutionäre Hypothese in bezug auf die Lösung des Strahlungsproblems bestand nun in der Annahme, daß die Resonatoren (Dipole) von einem äußeren, periodisch sich ändernden Feld Energie nur in bestimmten ganzzahligen Vielfachen eines konstanten endlichen Quantums aufnehmen können.3 Anstatt des Äquipartitionstheorems ergibt sich für die mittlere Energie ü pro Freiheitsgrad u = —^-=—-. e / k T _ l Wenn man diesen Ausdruck mit der Zahl der Freie

8 heitsgrade — multipliziert - da die erste von den beiden Voraus. Setzungen ja aufrechterhalten wurde - und dann in die spezielle Form h · v bringt, erhält man die berühmte Strahlungsformel 2h v3 Lcsv(v, T) = —2 . Planck war sich zum Zeitpunkt seiner EntH '

c ehv/kT-i

deckung über die revolutionäre Bedeutung der Konstante h, des Wirkungsquantums (6,6 · 10" 27 erg sec), nicht klar. Im Gegenteil, er versuchte immer wieder, h in das System der klassischen Physik einzubauen. Aber bald wurde auch ihm deutlich, daß die Physik hier an eine ontologische Wende gelangt war, welche sich in einer epistemischen Alternative widerspiegelt. Er hat dies selbst so formuliert: „Entweder war das Wirkungsquantum nur eine fiktive Größe; dann war die ganze Deduktion des Strahlungsgesetzes prinzipiell illusorisch und stellte weiter nichts vor als eine inhaltsleere Formelspielerei, oder aber der Ableitung des Strahlungsgesetzes lag ein wirklich physikalischer Gedanke zugrunde ; dann mußte das Wirkungsquantum in der Physik eine fundamentale Rolle spielen, dann kündigte sich mit ihm etwas ganz Neues, bis dahin Unerhör-

142

V. Die Welt der Quanten

tes an, das berufen schien, unser physikalisches Denken, welches seit der Begründung der Infinitesimalrechnung durch Leibniz und Newton sich auf der Annahme der Stetigkeit aller ursächlichen Zusammenhänge aufbaut, von Grund auf umzugestalten."4

Als das Wirkungsquantum neu war, löste es in vielen Zeitgenossen die Vorstellung von einer irrationalen Erkenntnisbarriere aus, die sich angesichts der bis dahin völlig durchsichtigen klassischen Physik erhoben hatte. Sicherlich war es überraschend, daß eine neue Naturkonstante von der Dimension einer Wirkung bei der Analyse des Strahlungsgesetzes auftrat, die, mit der Frequenz des Lichtes multipliziert, die Energieeinheiten aussondert, deren Vielfache allein in den Absorptions- und Emissionsvorgang eingehen. Doch dies allein mußte noch nicht Kern einer Revolution sein, denn es hätte ja sein können, und Planck hatte dies auch zuerst angenommen, daß der quantenhafte Charakter an der Verwendung des speziellen Modellobjekts lag und daß die Hertzschen Oszillatoren eben die unstetige Aufnahme und Abgabe von Energiequanten erzwangen. Davon abgesehen war das Auftreten ganzzahliger Vielfacher von Grundgrößen, etwa bei Schwingungsphänomenen, seit pythagoreischen Zeiten ein durchaus bekanntes Element der Physik. Ja, man kann noch weiter gehen und sogar in entgegengesetzter Richtung behaupten, daß die Überabzählbarkeit des Kontinuums, welche der Hypothese des stetigen Werteverlaufs physikalischer Zustandsgrößen zugrunde liegt, mit viel mehr intuitiven und begrifflichen Rätseln behaftet ist als die von der Alltagserfahrung nahegelegte Diskretheit aller Zustände, die Endlichkeit und Abzählbarkeit der Objekte. Aus Gründen der mathematischen Einfachheit und nicht aus dem ontologischen Prinzip „natura non facit saltus" heraus hatte man das mathematische Kontinuum in den physikalischen Beschreibungsformalismus eingeführt. So ließ sich nämlich der gut handhabbare Differentialkalkül anwenden.5 Ob tatsächlich alle physikalischen Zustandsgrößen auch den vollen Variationsspielraum des zugrunde gelegten mathematischen Beschreibungsrahmens ausnützen würden, war damit natürlich noch nicht entschieden. Was die Erklärungsbarriere, die durch das Wirkungsquantum aufgerichtet sein sollte, betrifft, so liegt hier zwischen klassischen und quantalen Theorien eine durchaus symmetrische Situation vor: Beide verwenden eine kontingente, nicht weiter hinterfragte Voraussetzung, in dem einen Fall die Stetig-

1. Die begriffliche Revolution des Wirkungsquantums

143

keitseigenschaft und im anderen Fall die spezielle granulierte Struktur der physikalischen Größen. Ein Unterschied allerdings besteht im Verhältnis der physikalischen Parameter zum Hintergrundraum : In der Vorquantenphysik schöpfen die Funktionen die völlige Variabilität des Hintergrundraumes aus, in der Quantenphysik bleibt der kontinuierliche Hintergrund bestehen, aber der Werteverlauf der Funktionen wird eingeschränkt. Diskontinuität hat hier also nur die Bedeutung, daß der stetigen Mannigfaltigkeit im physikalischen Kontinuum durch die Ereignismenge eine Gitterstruktur aufgeprägt wird, nicht aber, daß man eine wirkliche Unstetigkeit in den geometrischen Elementen selbst einführt. Kontingent bleibt allerdings die Gitterkonstante h, aber für ihre Größe gibt es genausowenig in der Quantentheorie eine Begründung (wie auch nicht für die Größe von c in der speziellen Relativitätstheorie und für die Gravitationskopplungskonstante in der allgemeinen Relativitätstheorie), wie die klassischen Theorien sagen können, warum sie ihren dynamischen Variablen kontinuierliche Wertebereiche zuordnen. Überdies zeigte sich im Verlauf der Entwicklung der Quantentheorie, daß einige diskontinuierliche Aspekte der klassischen Physik umgekehrt sich als kontinuierlich erwiesen. So ist es eine Folge des Tunneleffektes, daß der Durchgang eines Teilchens durch einen Potential wall, der klassisch einer einfachen Alternative folgt, nun durch einen Koeffizienten charakterisiert wird, der stetig zwischen 0 und l variieren kann. Auf eine Unvollkommenheit der Begründung des Planckschen Strahlungsgesetzes, die kennzeichnend für die Übergangsphase der älteren Quantentheorie ist, muß man noch hinweisen. Als Ausgangspunkt wird die klassische Elektrodynamik benutzt, dieser aber dann unorganisch an einer Stelle die Quantenhypothese von der unstetigen Absorption und Emission der Oszillatoren aufgepfropft. Die Vereinigung solcher heterogenen begrifflichen Elemente in einer Theorie war sicher als Anzeichen dafür zu werten, daß hier noch weitere begriffliche Neuerungen folgen mußten, um eine befriedigendere Situation zu erzielen. Es ist nicht nur die Diskretheit allein, welche zur philosophischen Reflexion über das Wirkungsquantum führte, auch der spezielle Wert von h hat eine tiefere Bedeutung, auf die zuerst de Broglie hingewiesen hat.6 Nimmt man kontrafaktisch an, h wäre unendlich klein, dann wären dies auch die Lichtquanten h · v, und in einem Strahlungspaket mit

144

V. Die Welt der Quanten

endlicher Energie müßte ihre Zahl unendlich groß sein. In diesem Fall hätte die Strahlung einen kontinuierlichen, rein wellenartigen Charakter. Wäre h und damit auch die Lichtquanten sehr groß, hätte man schon in der klassischen Dynamik darauf stoßen müssen, daß die Materiekorpuskeln als Wellen einzuführen sind, damit man ihrer Bewegung gerecht werden kann. Die aktuale Größe von h, die dem unendlich kleinen Fall sehr nahe kommt, enthüllt die Gründe dafür, daß die ältere Physik die kontinuierliche Struktur und Wellennatur für das Licht annahm, die Materie aber korpuskular aufbaute. In diesem Sinne kann man sagen, daß die absolute Größe von h für den speziellen Charakter unserer Natur wie auch dementsprechend für den Erkenntnisverlauf der Physik fundamental ist.7 2. Die Natur des Lichtes Es gehört zu den immer wieder festgestellten wissenschaftsgeschichtlichen Fakten, daß gerade in Situationen, wo eine physikalische Theorie fast absolute Dominanz und anscheinend strenge Geltung bei der Wiedergabe einer bestimmten Klasse von Phänomenen besitzt, einige wenige, von den zeitgenössischen Forschern als unbedeutende Anomalien angesehene Tatsachen vorhanden sind, welche Ausgangspunkt für eine neue theoretische Entwicklung werden.8 Bezüglich der Lichttheorien hatten sich die Vorstellungen über den ontologischen Träger dieser Erscheinung im Laufe der Jahrhunderte mehrfach geändert. Newtons Korpuskularhypothese war von Huygens, Fresnel und Young im Sinne einer Wellentheorie umgestaltet und dann von Faraday und Maxwell in die Theorie des allgemeinen Elektromagnetismus eingeschlossen worden. Es war nun eigenartigerweise gerade Heinrich Hertz, der 1887 die für die elektromagnetische Lichttheorie entscheidenden Experimente durchgeführt hatte, welcher zuerst einen Effekt beobachtete, der den Anlaß für das Ende der alleinigen Herrschaft der Wellentheorie des Lichtes liefern sollte.9 Hertz stellte zuerst den positiven Einfluß von UV-Licht auf die elektrische Entladung an einem Funkeninduktorium fest und Hallwachs fand dann, daß eine mit kurzwelligem Licht bestrahlte ungeladene Metallplatte negative Ladungen bis zu einer bestimmten Grenze, dem sogenannten Haltepotential, abgibt. Von Lenard wurden die ausgelösten negativen Ladungen dann als Elektronen identifiziert.

2. Die Natur des Lichtes

145

Wesentlich für das Kommende ist, daß der Widerspruch zur geltenden Lichttheorie noch nicht augenfällig wird, solange man sich auf das qualitative Phänomen beschränkt. Der reine Auslösevorgang wäre auch so deutbar, daß die Strahlung die in den Metallatomen gebundenen Elektronen in starke Resonanzschwingungen versetzt, so daß das Elektron zuletzt soviel kinetische Energie besitzt, daß es den anziehenden Kräften des Atomrumpfes entkommen kann. Auf der Ebene der komperativen Begriffsform wird man in Einklang mit der qualitativen Modellvorstellung erwarten, daß die Austrittsgeschwindigkeit des Elektrons direkt proportional der Intensität des einfallenden Lichts ist. Außerdem sollte man erwarten, wenn das Elektron kontinuierlich von der Strahlung Energie aufnimmt und bis zum Eintreten des Effektes eine gewisse Zeit verstreicht, daß der Auslösungsprozeß um so später einsetzt, je schwächer die einfallende Strahlung ist. Die quantitativen Untersuchungen von Lenard ergaben aber nun ein neuartiges, unerwartetes und von der Wellentheorie aus gesehen anormales Ergebnis. Die Steigerung der Intensität der auffallenden Strahlung bewirkt nicht eine Erhöhung der Geschwindigkeit der Elektronen, sondern verursacht eine Vergrößerung der Zahl der austretenden Teilchen. Die Intensität bestimmt also die Stärke des Photostromes, die Teilchengeschwindigkeit hängt aber nur von der Wellenlänge des auffallenden Lichtes ab. Bei einer bestimmten langwelligen Grenze ist die Erscheinung generell beendet. Außerdem ergab es sich, daß der bei der Wellenhypothese zu erwartende Verzögerungseffekt nicht vorhanden war. Die Auslösung von Elektronen beginnt nach weniger als 10"8 sec. Das experimentelle Ergebnis von Lenard (1902) macht eine Erklärung durch die Wellenvorstellung unmöglich, denn wenn man davon ausgeht, daß die auffallenden Wellen die Elektronen des Metalls zu erzwungenen Schwingungen anregen und daß die Ablösung erfolgt, wenn die aufgenommene Energie so groß ist, daß sie die Bindung im Metall überwindet, dann müßte einfach die Geschwindigkeit des Elektrons mit der Intensität des eingestrahlten Lichtes wachsen; überdies müßte eine quantitativ genau abschätzbare Verzögerungszeit bis zum Eintreten des Effektes feststellbar sein. Alles deutet daraufhin, daß die Lichtenergie auf einen sehr kleinen Raum konzentriert ist und bei Auftreffen auf dem Metall ähnlich wie eine Korpuskel wirkt, die einzelne Elektronen aus dem Atomverband einfach herausschlägt.

146

V. Die Welt der Quanten

Diese Vorstellung drängte sich auch Einstein auf und er machte den Vorschlag, Plancks Hypothese von der quantenhaften Natur der Strahlung zu übernehmen10. „Nach der hier ins Auge zu fassenden Annahme ist bei Ausbreitung eines von einem Punkt ausgehenden Lichtstrahles die Energie nicht kontinuierlich auf größer und größer werdende Räume verteilt, sondern es besteht dieselbe aus einer endlichen Zahl von in Raumpunkten lokalisierten Energiequanten, welche sich bewegen, ohne sich zu teilen und nur als Ganze absorbiert und erzeugt werden können."

Er geht davon aus, daß monochromatisches Licht der Frequenz v aus Photonen besteht, daß diese ihre Energie h · v beim lichtelektrischen Effekt momentan an ein bestimmtes Elektron abgeben, wodurch dieses aus dem Metall abgelöst und in Bewegung gesetzt wird m entsprechend der Formel h - v = — v 2 + A (wobei v die Geschwindigkeit des Elektrons und A die Austrittsarbeit ist). Die Kennzeichnung der Photonen als Lichtquanten von der Energie h · v erinnert allerdings daran, daß es sich bei Einsteins Hypothese nicht einfach um eine Rückkehr zu Newtons klassischer Korpuskulartheorie des Lichtes handelt, sondern gerade das Auftreten der Schwingungszahl v bei der Kennzeichnung der Lichtquanten weist auf den Wellenaspekt des Lichtes hin. Von manchen Physikern wurde deswegen Einsteins Theorie auch als semikorpuskulare Lichttheorie bezeichnet, da sie begriffliche Elemente von beiden ontologischen Hypothesen besitzt.11 Man kann darin bereits die erste Andeutung der schwankenden Substantialität erblicken, der ontologischen Unsicherheit bei der quantenmechanischen Konstitution der Materie. Überhaupt entpuppte sich vom klassischen, mechanistischen Standpunkt aus gesehen das Lichtquant als ein Objekt mit seltsam gemischten Zügen. Eine kurze relativistische Überlegung ergibt, daß das Photon keine Ruhemasse besitzen kann, da es sich immer mit hv Lichtgeschwindigkeit bewegen muß, wohl aber eine Masse —2 und c hv einen Impuls — sein eigen nennt. Trägt diese Kombination von c Merkmalen für eine Korpuskel vom klassischen Standpunkt aus schon seltsame Züge, so zeigt sich ganz deutlich, wie die Alltagsvor-

2. Die Natur des Lichtes

147

Stellung überzogen wird, wenn man sieht, daß die Frage nach der räumlichen Ausdehnung eines monochromatischen Photons überhaupt nicht beantwortbar ist. Obwohl das Photon also Qualitäten klassischer Teilchen besitzt, teilt es mit diesen nicht die sonst selbstverständliche Eigenschaft der Lokalisierbarkeit. Was Einsteins theoretischen Ansatz zur Darstellung des Photoeffektes anbetrifft, so sieht man deutlich, daß der elementare Übertragungsvorgang von der Strahlungsenergie zur kinematischen Energie der Elektronen ausgeklammert wird. 12 Der Verzicht auf eine Analyse des speziellen Umwandlungsmechanismus und die Verwendung einer „black-box"-Einstellung ist im Rahmen der Erklärung des Photoeffektes nicht etwa als ein Nachteil zu werten, sondern allein durch diesen phänomenologischen Ansatz war es möglich, einen Teilerfolg in der Erklärung zu erzielen, ohne im Besitz einer Theorie zu sein, die der Wechselwirkung von Strahlung und Materie Rechnung trägt. Erst viel später ist im Rahmen der Quantenelektrodynamik der Versuch unternommen worden, dieses Problem in einer „translucid-box"-Theorie zu beantworten. Wie sich im Laufe der Zeit erwies, war der lichtelektrische Effekt nur eines von den Phänomenen, bei denen sich die Dualität von Welle und Teilchen zeigte. Der Compton- und auch der Raman-Effekt, welche allerdings erst viel später ihre Erklärung fanden, weisen in dieselbe Richtung. Beim Compton-Effekt werden parallele Röntgenstrahlen auf einen Streukörper geschickt und dann die unter einem bestimmten Winkel abgebeugte Strahlung gemessen. Entsprechend der Vorstellung eines Beugungsphänomens in einer Wellentheorie müssen die gebeugten Wellen in allen Richtungen die gleiche Wellenlänge wie die auffallende Strahlung haben. Die Experimentalergebnisse zeigten aber eine vom Streuwinkel abhängige Vergrößerung der Wellenlänge, welche mit dem Röntgenspektrometer gemessen werden konnte. Compton und Debye verwendeten nun direkt die Modellvorstellung Einsteins von den Photonen. Sie behandelten sowohl die Elektronen als auch das Photon als elastische Kugeln, an denen man wie beim klassischen Stoßvorgang die Energie- und Impulsbilanz vor und nach dem Stoß berechnen kann. Ein Photon von der Ausgangsfrequenz h · v0 erteilt danach dem Elektron einen Stoß, worauf das Elektron mit einer bestimmten Geschwindigkeit v in einem Winkel zur Stoßrichtung weggeschleudert wird. Das Photon verbraucht dazu Energie und be-

148

V. Die Welt der Quanten

sitzt nach dem Stoß noch h · v < h · v0. Es tritt dann als gebeugtes Photon im Winkel 9· ins Röntgenspektrometer ein. (Fig. 1)

Einfallendes Photon hv

o

Fig. l

An dieser Deutung des Versuches wird klar, daß sich das Licht nicht nur wie ein Schwärm von Teilchen verhält, was seine Energiequantisierung betrifft, sondern daß man es auch mit dem mechanischen Begriff des Stoßes zwischen einem einzelnen Teilchen und anderen Materieteilchen erfassen kann. Jedenfalls deutet sich an den beiden Beispielen13 jener Sinn von Dualität bereits an, der später die stark empirische Wende in der Quantenmechanik mitherbeiführt. Es schien so zu sein, daß der Wellen- oder Teilchencharakter eines seiner Natur nach unergründbaren Objektes sich je nach der Experimentalanordnung zeigt, woraus später dann geschlossen wurde, daß der so zustandekommende, anscheinend willkürliche Eingriff in den Bauplan der Natur eine konstitutive Rolle beim Hervorbringen der charakteristischen Eigenschaften der Materie spielt. 3. Modell und Anschauung in der älteren Quantentheorie Ehe man sich die erkenntnistheoretischen Voraussetzungen der einander ablösenden theoretischen Atommodelle überlegt, sollte man sich darüber klar werden, in welchem Sinne das Wort „Modell" in diesem Zusammenhang verwendet wird. Sehr häufig steht es als Synonym für „Theorie", manchmal wird es auch mit „Hypothese"

3. Modell und Anschauung in der älteren Quantentheorie

149

gleichgesetzt, manchmal mit „Annahme". In allen diesen Fällen zeigt eine solche Verwendung die Abneigung zuzugeben, daß es in der mathematischen Physik theoretische Begriffe geben kann, die sich auf prinzipiell unsichtbare, aber reale Objekte beziehen. „Modell" wird ferner verwendet für die erfüllende Interpretation einer abstrakten mathematischen Struktur; so gebraucht es die mathematische Disziplin der Modelltheorie.14 In der Physik bedeutet ein Modell die begriffliche Skizze eines Gegenstandes, dessen Existenz die zugrunde liegende Theorie behauptet. Diese Verwendung hatten wir schon in der Kosmologie kennengelernt. Theoretische Modelle stellen daher in symbolischer Weise einige Züge des Aufbaus und des Verhaltens physikalischer Systeme dar. Ein Modell ist in diesem Sinne immer Bestandteil einer Theorie. Mehrere Theorien können sich ohne weiteres der gleichen vereinfachenden begrifflichen Idealisierung bedienen. Die Modellvorstellung des Massenpunktes spielt sowohl in der klassischen Mechanik als auch in def Einsteinschen Gravitationstheorie eine Rolle, genauso kommt das Feldmodell im klassischen Maxwell-Elektromagnetismus ebenso wie in einer Diracschen Elektronentheorie zum Tragen. Das Schalenmodell findet gleichermaßen in der Physik der Atomhülle wie der Kerne Verwendung. Semantisch stellt sich das Verhältnis von Theorie, Modell und physikalischem System so dar 15 : In direkter Weise bezieht sich jede physikalische Theorie auf die ideale Schematisierung des Modells, welche in symbolisch vereinfachender Weise, nicht ikonisch-photographisch und vollständig, eine Klasse bestimmter physikalischer Systeme darstellt und so wird erst mittelbar, nämlich über diesen vereinfachenden Schematismus, der Bezug der Theorie auf die Natur selbst erreicht. Die Funktion und der Wandel von Modellvorstellungen ist in der Entwicklung der Atomphysik am besten zu ersehen. Allen Physikern, die an dem Verständnis des Materieaufbaus arbeiteten, war es klar, daß innerhalb des Modells einer zukünftigen Atomtheorie die nichtklassische Diskretheit und Ganzzahligkeit eine besondere Rolle spielen müsse, denn diese hatte sich seit langem bei den Spektren, die ja zweifelsohne Information über den Materieaufbau lieferten, bemerkbar gemacht. Wenn man heute von der nichtklassischen Diskretheit spricht, so ist man sich selten bewußt, daß im Bereich der Schwingungslehre seit Jahrtausenden das ganzzahlige Verhältnis

150

V. Die Welt der Quanten

von Grund- und Oberschwingungen bekannt war. Harmonische Analyse und eine Vorform der Fourier-Zerlegung hatten schon in der babylonischen Astronomie und ebenso in den ersten kosmologischen Modellen der Griechen eine Rolle gespielt.16 Seit der Entdeckung der Spektralanalyse durch Kirchhoffund Bunsen hatte sich ein ungeheures empirisches Material angesammelt, von dem man erwarten konnte, daß es den Schlüssel zum Verständnis des Bauplans der Materie liefern würde. Unklar war nur, wo man beginnen sollte, um der ihm innewohnenden Ordnung auf die Spur zu kommen. Es ist methodisch interessant, daß in diesem Fall - ähnlich wie in der Renaissanceastronomie, wo auch dank Tycho eine große Menge von Beobachtungsmaterial über die Planetenörter vorlag, noch ehe Kepler die korrekte kinematische Einordnung des Materials gelungen war - das Erfahrungswissen nicht entsprechend Feyerabends These17 vom theoretischen Entwurf her erzeugt wurde, sondern praktisch jahrzehntelang vorher ungedeutet, ungeordnet und unverstanden vorhanden war.18 Man konnte an der äußeren Erscheinung drei Typen unterscheiden, Linien-, Banden- und kontinuierliche Spektren, aber es war in der Frühzeit nicht einmal das klar, daß die ersten von Atomen, die zweiten von Molekülen ausgesandt oder verschluckt werden und die dritten vor allem von glühenden festen Körpern herrühren. Wenn man jetzt die Entwicklung der gesetzesartigen Erfassung der Linienspektren methodisch verfolgt, so kann eine solche Analyse wesentliche Aufschlüsse über das Wechselspiel von Theorie, Modell, semantischem Bezug und testender Erfahrung in der frühen Quantentheorie geben. Vergleicht man jene Gebiete, in denen die Ganzzahligkeit immer schon eine grundlegende Rolle gespielt hatte, etwa die den Pythagoräern bereits bekannten elastischen bzw. akustischen Spektren von Saiten und Membranen, mit den für den Atomaufbau zentralen optischen Spektren, etwa des leuchtenden Wasserstoffs, so ergibt sich ein wesentlicher Unterschied. Zwar besteht auch das Spektrum einer Saite aus Schwingungszahlen, die ganzzahlige Vielfache einer Grundfrequenz v0 sind, v0, 2v0, 3v 0 ...nv 0 . Läßt man dabei aber n -> oo laufen, so wächst die Reihe der Schwingungszahlen ins Unendliche und entsprechend nehmen die Wellenlängen immer mehr gegen Null ab. Sie haben dort einen Häufungspunkt.19 Verfolgt man aber etwa die Linien von leuchtendem Wasserstoff, so sieht man, daß

3. Modell und Anschauung in der älteren Quantentheorie

151

die Linien für wachsendes n immer näher aneinander rücken, sich an einer von Null verschiedenen Stelle häufen und dementsprechend die Frequenzen sowie die Wellenlängen einen Häufungspunkt im Endlichen besitzen. Die Linien des Wasserstoffes besitzen also sogenannte Serien, wobei sich an das Ende einer Serie, d. h. an die Häufungsstelle, ein Kontinuum anschließt, das nicht in Linien auflösbar ist. Dem Basler Lehrer Balmer gelang es 1885 zwar, eine mathematische Beziehung für die Serienregularität der vier sichtbaren -Linien zu finden, welche in der von Rydberg eingeführten Wellenzahltermino1 logie v = - [cm ]

R v= —

R lautet 2 > (n = 3, 4,..., oo und R = 109679,2 cm" *).

In dieser Formel taucht im zweiten, im sogenannten Laufzahlterm, die an Wellenphänomene erinnernde Pythagoreische Ganzzahligkeit auf. Diese auf einem Zufallsergebnis beruhende Rekonstruktion hat aber bloß den Charakter einer deskriptiven Mathematisierung und enthält keine Andeutung darüber, wie man sich das Zustandekommen dieser Ordnung denken soll. Dasselbe gilt für die von Rydberg in einem kühnen Akt der empirischen Generalisation zur Darstellung weiterer Serien aufgestellte Formel v = R[(m + a ) ~ 2 - ( n + b)"2], n > m . Die physikalische Semantik der Konstante R wie auch der verschiedene Serien kennzeichnenden Konstanten a und b konnte erst von der Bohrschen Theorie geliefert werden, innerhalb derer die Serienformeln einen bestimmten systematischen Charakter erhielten. Auch das Kombinationsprinzip von Ritz (1908), wonach additive oder subtraktive Vereinigung von Termen wieder zu neuen Termen führen mußte, erhöhte den Verständnisgrad nicht, zumal es Ausnahmen besitzt, deren Vorkommen natürlich genauso wenig erklärbar war. In diesem Sinne kann es eigentlich gar nicht als ein Prinzip bezeichnet werden, sondern vielmehr als eine Regel, die durch den empirischen Erfolg gerechtfertigt, deren gesetzesartige Begründung aber nicht durchschaut war. Verfolgt man in der Zeit um die Jahrhundertwende das Verhältnis des empirischen Tatsachenmaterials der Strahlungsemission und

152

V. Die Welt der Quanten

-absorption zu den damals vorhandenen Modellvorstellungen über den Atombau, so stößt man auf eklatante Widersprüche. Das erste am weitesten der klassischen Theorie angenäherte Atommodell von Thomson20 ist statischer Art. Elektronen befinden sich in einer Gleichgewichtslage in Ruhe; um diese Position können sie kleine Schwingungen ausführen und dabei Strahlung der entsprechenden mechanischen Frequenz aussenden. Da dieses Modell statisch sein soll, können die Elektronen nicht außerhalb des positiv geladenen Kerns sein, da sie sonst in ihn hineinstürzen würden. Deshalb muß Thomson die Elektronen innerhalb eines kugelförmigen Raumes anbringen, über den die positive Ladung des Kernes gleichmäßig verteilt ist. Man sieht sofort, daß mit diesem Atommodell niemals die Seriennatur des Wasserstoffspektrums erklärt werden kann, da das einzige Elektron des -Atoms nur eine Art einfacher harmonischer Schwingung ausführen kann. Außerdem zeigte Rutherford, daß ein Thomson-Atom, wenn es mit -Teilchen beschossen wird, nur sehr selten große Ablenkungen zeigen könnte, jedenfalls in viel geringerem Maße, als die experimentellen Prüfungen durch Geiger und Marsden ergeben haben. Damit war ein rein klassisches, statisches Atommodell durch den empirischen Befund gescheitert. Genaugenommen fingen die ganzen Schwierigkeiten mit der nichtklassischen Eigenart damit an, daß das Elektron nicht innerhalb des positiven Kerns, sondern außerhalb untergebracht werden mußte. 21 Diese Elektronenanordnung wird nun zwar der relativen Häufigkeit großer Ablenkungen von -Teilchen gerecht, erzeugt aber wiederum viel grundsätzlichere Schwierigkeiten in bezug auf die Frage der Stabilität. In Rutherfords dynamischem Modell22 wird ein positiver Kern von einem negativen Elektron auf fester Bahn umlaufen, wobei die Zentrifugalkraft der umlaufenden Elektronen der Coulombschen Anziehungskraft zum Kem hin das Gleichgewicht hält. Nach der klassischen Elektrodynamik hätte dies dreierlei zur Folge: 1. würde es zum elektrischen Kollaps der Materie führen; denn Bewegung auf krummliniger Bahn bedeutet Beschleunigung des Elektrons, damit Ausstrahlung, folglich Verminderung der kinetischen Energie der Elektronen und deshalb eine Spiralbewegung des Elektrons in den Kern hinein, also einen Kollaps in endlicher Zeit, 2. müßte das Atom immer strahlen und nicht nur dann, wenn es angeregt ist, d.h. strahlungslose Umlaufbahnen sind klassisch unerklärlich,

3. Modell und Anschauung in der älteren Quantentheorie

153

3. müßte die Frequenz der Strahlung kontinuierlich veränderlich sein und nicht eine diskrete Konstante. So waren vor allem die Stabilität der Materie und die Schärfe der Spektrallinien unübersehbare Hindernisse auf dem Wege zu einer klassischen Erklärung des Strahlungsmechanismus. Historisch hat sich Niels Bohr, auf den die Lösung des Stabilitätsproblems des Rutherfordschen Atommodells zurückgeht, von der bahnbrechenden Idee Einsteins, dem Photonenbegriff, und von Plancks Quantisierungshypothese leiten lassen und beide auf das Atommodell von Rutherford angewendet.23 Da an der Stabilität der Atome ja kein Zweifel war, forderte Bohr, daß es bestimmte Bahnen für Elektronen geben müsse, auf denen sie strahlungslos laufen können. Die von Bohr zuerst als Kreisbahnen konzipierten Elektronenwege entsprechen nun bestimmten Energiezuständen des Atoms. Wesentlich ist dabei, daß nur eine diskrete Schar von Bahnen zugelassen wird, und zwar solche, bei denen das Produkt aus Impuls m · v und Bahnlänge 2 ein Vielfaches des Wirkungsquantums ist, 2 · m · v = n · h, (n = l, 2, 3 ...). (1). Wenn man statt der Bahngeschwindigkeit v die Winkelgeschwindigkeit durch v = · r einführt, läßt sich Gleichung (1) als Quantelung des Drehimpulses mr 2