Rekonstruktion und Reduktion physikalischer Theorien: Der Ansatz von Erhard Scheibe an Beispielen aus der Astroteilchenphysik 9783110429633, 9783110438697

Astroparticle physics employs a range of theories to model the sources of cosmic radiation – but until now, it has not f

189 81 2MB

German Pages 226 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhalt
Abbildungsverzeichnis
1. Einleitung
2. Physikalische Theorien
2.1 Historische Entwicklung des Theorienbegris
2.2.1 Der received view of theories122.2.5 Grundlagen des received view
2.2.2 Correspondence rules und theoretische Terme
2.2.3 Die Rolle wissenschaftlicher Modelle
2.2.4 Das Problem fehlender Formalisierungen
2.2.5 Abschließende Anmerkungen zur Kritik am received view
2.3 Der semantic approach of theories
2.3.1 Der Ansatz von Suppes
2.3.2 Der semantic approach nach Balzer, Moulines und Sneed
2.2.3 Kritik an der modelltheoretischen Theorienauassung
2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe
2.4.1 Scheibes Theorienverständnis in Abgrenzung von BMS
2.4.2 Die Rolle der Hauptbasismengen bei Scheibe
2.4.3 Strukturalistische Rekonstruktionen und die Rolle von Modellen
2.5 Zwischenfazit: Abgleich unterschiedlicher Theorienkonzeptionen
3. Konzeptionen physikalischer Theorienreduktionen
3.1 Grundlegende Reduktionsmodelle
3.1.1 Das explanatorische Reduktionsmodell von Kemeny und Oppenheim
3.1.2 Das Standardmodell nach Nagel
3.1.3 Die Kritik von Feyerabend und Kuhn
3.1.4 Modikationen in Reaktion auf die Rationalitätskritik: Sklar und Schffner
3.1.5 Approximative und Asymptotische Reduktionen nach Nickles, Spector und Berry
3.1.6 Reduktionen im Semantic Approach
3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe
3.2.1 Die Rolle empirischer Reduktionen
3.2.2 Exakte Reduktionen
3.2.3 Approximative Reduktionen
3.2.4 Partielle Reduktionen
3.3 Zwischenfazit: Reduktionen physikalischer Theorien
4 Reduktion und Vereinheitlichung in der Astroteilchenphysik
4.1 Herkunft und Auau der Astroteilchenphysik
4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung
4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne
4.4 Zwischenfazit: Ergebnis der Falluntersuchungen
5. Zusammenfassung und Fazit
Literatur
Stichwortverzeichnis
Recommend Papers

Rekonstruktion und Reduktion physikalischer Theorien: Der Ansatz von Erhard Scheibe an Beispielen aus der Astroteilchenphysik
 9783110429633, 9783110438697

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Raphael Bolinger Rekonstruktion und Reduktion physikalischer Theorien

Epistemische Studien



Schriften zur Erkenntnis- und Wissenschaftstheorie Herausgegeben von Michael Esfeld, Stephan Hartmann, Albert Newen

Band 32

Raphael Bolinger Rekonstruktion und Reduktion physikalischer Theorien



Der Ansatz von Erhard Scheibe an Beispielen aus der Astroteilchenphysik

ISBN 978-3-11-043869-7 e-ISBN (PDF) 978-3-11-042963-3 e-ISBN (EPUB) 978-3-11-042974-9 ISSN 2198-1884 Library of Congress Cataloging-in-Publication Data A CIP catalogue record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2015 Walter de Gruyter GmbH, Berlin/Boston Druck und Bindung: CPI books GmbH, Leck ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com

|

Für meine Frau Katharina und meine Kinder Janik Grigorij und Sophia Marie. Ohne Eure Last „in zweiter Reihe“ hätte diese Arbeit nie entstehen können. Ich liebe Euch!

Vorwort Something old, something new, something borrowed, something blue and a lucky six-pence in your shoe. (überlieferter Hochzeitsbrauch)

Der Ursprung des mit diesem Spruch zum Ausdruck kommenden Hochzeitsbrauchs liegt wahrscheinlich im viktorianischen England. Über eine Vielzahl von Hollywood-Filmen, aber spätestens nach der Hochzeit von Prinz Charles und Lady Diana und dem damit einhergehenden Medienrummel, hat er sich aber auch in Deutschland etablieren können. Etwas Altes symbolisiert das bisherige Leben der Braut; oft wird ein altes Schmuckstück getragen – ein Erbgegenstand oder Vergleichbares. Etwas Neues steht für das nach der Hochzeit neu beginnende Leben als Ehefrau. Oft kommt dieser Aspekt in Form des neuen Brautkleids zu tragen. Etwas Geliehenes soll Glück in die Ehe bringen: Traditionell wird etwas von einer Person geliehen, die bereits glücklich verheiratet ist, womit sich die Braut über den respektiven Gegenstand auch das Glück entleihe. Die Farbe blau symbolisiert die Treue, die auch der neu geschlossenen Ehe nicht fehlen soll. Ein sixpence schließlich ist eine alte Englische Münze. Der letzte Ausdruck, der teils in der Überseztung ausglassen wird, soll mit dem Glückspfennig im Schuh dafür sorgen, dass die Ehe unter einem finanziell günstigen Stern steht. Fasst man eine Dissertation als eine Art Ehe mit der Wissenschaft auf, lassen sich durchaus Parallelen zu dem obigen Spruch finden. So bin ich überzeugt, dass auch in eine Dissertation etwas Altes gehört. Natürlich darf es eine philosophische Arbeit nicht bei der Darstellung der Historie belassen. Dennoch sollte aus meiner Sicht zum Erlangen der Doktorwürde auch ein gewisses Maß an philosophischer Allgemeinbildung gezeigt werden – eine Forderung, der ich durch die Darstellung der historischen Entwicklung des Theorien- sowie des Reduktionsbegriffs nachgekommen bin. Etwas Neues ist natürlich fundamental für eine Dissertation, die ohne einen Beitrag auf Höhe des aktuellen Forschungsstands kaum angenommen werden würde. Im Rahmen der vorliegenden Arbeit werde ich einen Beitrag gleich zu mehreren in der Wissenschaftsphilosophie aktuell diskutierten Themen leisten – so zu der Frage nach einer sinnvollen Rekonstruktionsmöglichkeit von Theorien und der Rolle, die wissenschaftliche Modelle innerhalb der Physik einnehmen. Auch einen Beitrag zum besseren Verständnis der Astroteilchenphysik, einer jungen physikalischen Teildisziplin, in der die Physiker ausgehend von der kosmischen Strahlung auf deren Quellen zurückschließen, werde ich leisten. Schließlich wird mit dem Folgenden noch ein Beitrag zur Debatte um die Reduktion physikalischer Theorien geliefert. Etwas Geliehenes kommt in den

VIII | Vorwort für eine philosophische Dissertation unvermeidlichen Zitaten zum Ausdruck, mit denen das Alte Einfluss auf das Neue nimmt. Bezüglich des Blauen habe ich mich in der Tat inständig um einen blauen Einband dieser Arbeit bemüht – wenn auch mit mäßigem Erfolg. Zu guter Letzt dürfte der geringe Betrag eines six-pence in a shoe durchaus der Ertrag sein, den eine durchschnittliche Dissertation einbringt – ob dies auch auf die vorliegende Arbeit zutrifft, wird sich zeigen müssen. Ich möchte allen, die dazu beigetragen haben, dass es diese Arbeit in der vorliegenden Form bis zur Veröffentlichung geschafft hat, herzlich danken. Neben meiner Familie, der dieses Buch gewidmet ist und die es jahrelang mit einem Doktoranden unter den nicht gerade familienfreundlichen Arbeitsbedingungen des akademischen Mittelbaus ausgehalten hat, sind dies insbesondere meine Betreuer, Brigitte Falkenburg und Wolfgang Rhode, die mir regelmäßig Rückmeldung und Anregung gegeben haben. Ohne Euch wäre der hier begangene Spagat zwischen Philosophie und Physik sicherlich nicht gelungen. Insbesondere ist Brigitte Falkenburg für das Verständnis zu danken, das sie mir mit Blick auf meine Familie entgegengebracht hat. Innerhalb unsicherer Rahmenbedingungen konnte ich doch immer auf Dich vertrauen. Dank gebührt auch Francisco Soler-Gil, der, nur um als Prüfer bei meiner Disputation anwesend sein zu können, den weiten Weg von Lübeck nach Dortmund auf sich genommen hat – ein Einsatz, der sicherlich nicht selbstverständlich ist. Weiterer Dank sei der Fritz Thyssen Stiftung, die es mir im Rahmen eines Projekts zur Modellbildung und Vereinheitlichung in der Astroteilchenphysik ermöglicht hat, einen tieferen Einblick in die Astroteilchenphysik zu erlangen, was schließlich hier teils zu tragen kommen konnte. Für ihre Rückmeldung und viele hilfreiche Anregungen danke ich zudem Christian Bispinck-Funke, Holger Blumensaat, Robert Bolinger, Florian Braun, Silvia De Bianchi, Tobias Häusler, Julia Rimkus und Hein van den Berg, die darüber hinaus, sofern sie an der TU Dortmund gearbeitet haben, durchwegs für ein angenehmes und kollegiales Arbeitsklima gesorgt haben. In diesem Sinne ist nahezu allen Mitgliedern des Instituts für Philosophie und Politikwissenschaft – damaligen wie aktuellen – zu danken ebenso wie weiten Teilen der Arbeitsgruppe des Lehrstuhls E5b (Astroteilchenphysik), Teilen des IEEM sowie singulären Bestandteilen der Fakultäten für Informatik und der Fakultät 12 (dem „Licht im Dunkel“) – alle TU Dortmund –, dafür, dass ich mich stets heimisch fühlen konnte. Schlussendlich danke ich Frank Castle, Al Simmons, Rick Grimes sowie Hal und dem Corps dafür, dass sie mich zwischenzeitlich auf andere Gedanken kommen ließen. Dasselbe gilt für Loreena McKennitt, Big Al Calhoun, Chris Rea, Abdullah Ibrahim und Nirvana, deren Musik mich über weite Teile der Arbeit im Hintergrund begleitet hat.

Inhalt Vorwort | VII Abbildungsverzeichnis | XI 1

Einleitung | 1

2 2.1 2.2 2.2.1 2.2.2 2.2.3 2.2.4 2.2.5 2.3 2.3.1 2.3.2 2.3.3 2.4

Physikalische Theorien | 4 Historische Entwicklung des Theorienbegriffs | 5 Der received view of theories | 12 Grundlagen des received view | 12 Correspondence rules und theoretische Terme | 16 Die Rolle wissenschaftlicher Modelle | 22 Das Problem fehlender Formalisierungen | 30 Abschließende Anmerkungen zur Kritik am received view | 32 Der semantic approach of theories | 33 Der Ansatz von Suppes | 35 Der semantic approach nach Balzer, Moulines und Sneed | 38 Kritik an der modelltheoretischen Theorienauffassung | 50 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 57 Scheibes Theorienverständnis in Abgrenzung von BMS | 59 Die Rolle der Hauptbasismengen bei Scheibe | 68 Strukturalistische Rekonstruktionen und die Rolle von Modellen | 79 Zwischenfazit: Abgleich unterschiedlicher Theorienkonzeptionen | 85

2.4.1 2.4.2 2.4.3 2.5

3 3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.1.5

Konzeptionen physikalischer Theorienreduktionen | 89 Grundlegende Reduktionsmodelle | 92 Das explanatorische Reduktionsmodell von Kemeny und Oppenheim | 93 Das Standardmodell nach Nagel | 97 Die Kritik von Feyerabend und Kuhn | 105 Modifikationen in Reaktion auf die Rationalitätskritik: Sklar und Schaffner | 113 Approximative und Asymptotische Reduktionen nach Nickles, Spector und Berry | 118

X | Inhalt 3.1.6 3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.3

Reduktionen im Semantic Approach | 124 Die Reduktion physikalischer Theorien nach Erhard Scheibe | 134 Die Rolle empirischer Reduktionen | 136 Exakte Reduktionen | 138 Approximative Reduktionen | 147 Partielle Reduktionen | 154 Zwischenfazit: Reduktionen physikalischer Theorien | 155

4 4.1 4.2 4.3 4.4

Reduktion und Vereinheitlichung in der Astroteilchenphysik | 159 Herkunft und Aufbau der Astroteilchenphysik | 160 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung | 163 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne | 175 Zwischenfazit: Ergebnis der Falluntersuchungen | 192

5

Zusammenfassung und Fazit | 194

Literatur | 199 Stichwortverzeichnis | 211

Abbildungsverzeichnis Abb. 2.1

Abb. 2.2

Abb. 3.1 Abb. 3.2

Abb. 4.1 Abb. 4.2 Abb. 4.3 Abb. 4.4 Abb. 4.5

Messverfahren in unterschiedlichen Skalenbereichen (logarithmisch skaliert). Die Abbildung ist angelehnt an http://de.wikipedia.org/wiki/Entfernungsmessung (Stand: 10.05.2014). | 75 Vergleich der Rolle von Modellen im received view, bei BMS und CMMB. | 86 Darstellung einer indirekten Verallgemeinerung. Angelehnt an Scheibe (1997, S. 123). | 146 Das offene und das geschlossene Reduktionsquadrat. Angelehnt an Scheibe (1997, S. 208 / 212). | 155 Prozess der Fermi-Beschleunigung nach Fermi und Longair. Die Darstellung ist angelehnt an Longair (1981, S. 377). | 165 Schockfrontbeschleunigung nach Fermi. | 170 Graphische Aufbereitung des Modells eines aktiven galaktischen Kerns; angelehnt an Bailer-Jones (2000, S. 59). | 177 Modellierung einer Akkretionsscheibe. Darstellung angelehnt an Carroll und Ostlie (2007, S. 694). | 180 Graphische Darstellung der Submodelle und ihrer Einbettung in ein Gesamtmodell. Abbildung und Beschriftung angelehnt an Bailer-Jones (2000, S. 65). | 189

1 Einleitung In den modernen Wissenschaften wird Wissen in Form von Theorien präsentiert. Die Mathematik kennt die Zahlentheorie ebenso wie eine Theorie der Transformationsgruppen oder Euklidische und nicht-Euklidische Geometrien. Die Physik behandelt die Newtonsche Mechanik, die allgemeine Relativitätstheorie oder die Quantenmechanik. In der Psychologie gibt es unterschiedliche Theorien der geistigen Entwicklung von Kindern und Jugendlichen, wie den psychoanalytischen und den psychosozialen Ansatz (vgl. Oerter und Montada, 2002); die Biologie setzt sich mit Evolutions- sowie (historisch) miteinander konkurrierenden Gentheorien, z.B. von Mendel, Galton und Castle, auseinander (vgl. Mayr, 1984, S. 620 ff). Aufgrund dieser und weiterer Beispiele ist die Frage nach Beschaffenheit und Aufbau wissenschaftlicher Theorien im 20ten Jahrhundert immer mehr ins Interesse philosophischer Untersuchungen gerückt. Eine Vielzahl der in diesem Kontext zu nennenden Autoren haben sich in bester philosophischer Manier darauf konzentriert, einen weiteren der für das Überleben unserer Zunft so notwendig erscheinenden Ismen in die Welt zu setzen. Dies gilt verstärkt für die logischen Positivisten des Wiener Kreises, deren Ziel unter anderem die Einheitswissenschaft war, also die formale Rekonstruktion aller oben aufgeführter und weiterer Einzelwissenschaften „aus einem Guss“ (vgl. Carnap, 1929, 1936c). Die Waffe der Wahl war die durch Frege neu entwickelte Prädikatenlogik, der Feind die Gemeinschaft der Fachwissenschaftler, die Taktik lang anhaltende Diskussionen in Schützengräben, die dem Schutz vor Unannehmlichkeiten wie Unvollständigkeit und wissenschaftlicher Praxis dienten. Eine Sonderrolle bei diesen Bemühungen nahm die Physik ein (vgl. u.a. Carnap, 1931b). Ein Grund war mit Blick auf den Positivismus, dass ihr Fundament aus Tatsachenbehauptungen zu bestehen schien. Zudem erweckte die zentrale Bedeutung der Mathematik die Hoffnung einer vollständigen prädikatenlogischen Rekonstruktion – eine Fiktion, die im Fahrwasser von Freges und Russells Logizismus aufgekommen war. Und auch wenn diese Hoffnung durch Gödels Unvollständigkeitssatz enttäuscht wurde, empfiehlt sich die Physik weiterhin als vielversprechender Kandidat zur Anwendung formalisierender Ansätze. Der Grund sind historische Teilerfolge, die in diesem Bereich erzielt werden konnten, denn „[t]he most successful examples of fruitful axiomatization come from physics, and include the axiomatizations of such theories as classical particle and rigid body mechanics, relativistic mechanics, and so on by McKinsey, Suppes and others.“ (Suppe, 1974, S. 66) Mit einer glaubwürdigen Rekonstruktion bzw. Axiomatisierung können auch einige philosophische Fragen unter einem formalen Blickwinkel angegangen wer-

2 | 1 Einleitung den. Etwa die Frage nach wissenschaftlich-theoretischem Fortschritt, d.h. einem Fortschritt, der sich unmittelbar aus der Weiterentwicklung der beteiligten Theorien ergibt und der in Richtung einer einheitlicheren und präziseren Beschreibung der Phänomene weist – so jedenfalls die Idealvorstellung.1 Beispielsweise können Keplers Gesetze zur Beschreibung der Planetenbahnen und Galileis Fallgesetz durch die Newtonsche Mechanik vereinheitlicht werden (vgl. Scheibe, 1997, S. 166 ff / 201 ff; Vollmer, 1989) . Diese beschreibt Bewegungen schneller Teilchen wiederum schlechter als Einsteins spezielle Relativitätstheorie. Die Charakterisierung theoretischen Fortschritts muss über die Untersuchung des formalen intertheoretischen Zusammenhangs der beteiligten Theorien verlaufen. Ist dieser hinreichend stark, spricht man auch von einer Reduktion, was dem Begriff nach zunächst Zurückführung bedeutet. Sind beide Theorien axiomatisiert, besteht auch hier berechtigte Hoffnung auf eine formale Darstellung: To begin, realise, that theories in physics are mathematical; they are formal systems, embodied in equations. Therefore we can expect questions of reduction to be questions of mathematics: how are equations, or solutions of equations, of one theory, related to those of another? (Berry, 1994, S. 598)

Folgend werde ich mich auf die Betrachtung physikalischer Theorien beschränken. Mein Ziel ist ein Beitrag zum besseren Verständnis der Rolle mathematischer Axiomatik und theoretischer Modelle in der Physik als empirische Wissenschaft. Wie schaffen es physikalische Theorien, Aussagen über die Welt zu machen? Was ist der Zusammenhang von Formalismus und beschriebenem Phänomenbereich? Wir werden sehen, dass die Antwort an der Frage nach der Rolle wissenschaftlicher Modelle nicht vorbei kommt. Zur Beantwortung der Fragen werde ich in Kapitel 2 zunächst der Rekonstruktion physikalischer Theorien nachgehen. Nach einer kurz gehaltenen historischen Einleitung beginne ich mit der Darstellung des received view of theories der logischen Positivisten und des sich historisch anschließenden semantic approach. Dem folgt die Wiedergabe des Formalisierungsansatzes nach Erhard Scheibe. Ich werde dafür argumentieren, dass dieser dem semantic approach nahe steht, an zentraler Stelle aber Unterschiede aufweist. Erst dadurch wird eine adäquate Beschreibung der Rolle wissenschaftlicher Modelle möglich. Scheibe schafft es insgesamt, die zentralen Kritikpunkte an den Vorgängerpositionen zu vermeiden und eine sinnvolle Grundlage zum Verständnis des Zusammenspiels von Phänomenen, Modellen und Theorien zu liefern.

1 Eine kritische Auseinandersetzung hiermit erfolgt in Unterabschnitt 3.1.3.

1 Einleitung | 3

In Kapitel 3 folgt die Auseinandersetzung mit der Reduktion physikalischer Theorien. Dies geschieht angelehnt an die meines Wissens nach zur Zeit ausführlichste Arbeit über Theorienreduktionen nach Erhard Scheibe (1997, 1999). Scheibe zeigt eine Vielzahl intertheoretischer Beziehungen auf, die ich weitestgehend mit den aus der historischen Debatte erwachsenen Konzepten identifizieren werde. Da Scheibe auf dem zuvor dargestellten Theorienkonzept aufbaut, wird sich ergeben, dass Philosophen, die über Theorienreduktionen in der Physik arbeiten, gut damit beraten sind, Scheibes Ansatz als Ausgangspunkt zu wählen. In Kapitel 4 bringe ich mit der Modellierung der Fermi-Beschleunigung erster und zweiter Ordnung sowie der Modellierung aktiver galaktischer Kerne die Erkenntnisse der beiden vorangegangenen Kapitel zur Anwendung. Mit der Modellierung der Fermi-Beschleunigung werde ich zeigen, dass die Reduktionsarten nach Scheibe notwendig für das pragmatische Vorgehen der Astroteilchenphysiker sind. Anhand der aktiven galaktischen Kerne stelle ich heraus, dass sie dennoch nicht hinreichend für die Modellierung sind. Neben einem Beitrag zur Philosophie der Physik im Allgemeinen habe ich damit auch einen Beitrag zum Verständnis der Astroteilchenphysik geliefert, jenem jungen Teilgebiet der Physik, in dem von der kosmischen Strahlung auf deren Quellen zurück geschlossen wird. Ich werde einige der von den Astroteilchenphysikern verwendeten pragmatischen Vorgehensweisen und deren Grenzen aufzeigen und erläutern können.

2 Physikalische Theorien Bevor ich in Kapitel 3 auf Reduktionen als intertheoretische Beziehungen eingehen werde, muss ich Klarheit schaffen, was unter einer Theorie zu verstehen ist. Das Ziel des vorliegenden Kapitels ist die historische und systematische Aufarbeitung des Ansatzes zur Rekonstruktion physikalischer Theorien nach Erhard Scheibe. Abgesehen von der kurz gehaltenen Darstellung der Genese des Theorienbegriffs seit der griechischen Antike (Abschnitt 2.1), die der Einbettung des Folgenden in einen gesamt-philosophischen Kontext dient, liegt der Schwerpunkt der historischen Betrachtung bei der Darstellung von zwei der einflussreichsten Formalisierungsansätze des 20ten Jahrhunderts: Dem received view of theories der logischen Positivisten (Abschnitt 2.2)2 und dem semantic approach in der auf Wolfgang Balzer, Ulisses C. Moulines und Joseph D. Sneed zurückgehenden Version (Abschnitt 2.3). Das gewählte Vorgehen ist sinnvoll, da ich hierdurch auf die zentralen Kritikpunkte und Probleme beider Rekonstruktionsansätze hinweisen kann, an denen sich auch die Arbeit von Scheibe messen lassen muss. Ich werde die Kritik am received view bereits bei seiner Aufarbeitung einfließen lassen. Da Balzer, Moulines und Sneed ihren semantic approach ausdrücklich als Alternative zum received view konzipiert haben, überrascht es kaum, dass sie auch explizit versuchen, Lösungen für dessen zentrale Probleme zu finden. Auch ich werde den semantic approach in Abgrenzung vom received view darstellen. Die zentrale Kritik am semantic approach wurde stark gemacht von Nancy Cartwright, Mary Morgan, Margaret Morrison und Daniela Bailer-Jones, indem sie auf Schwächen hinwiesen bezüglich der Rolle, die Modelle in ihm einnahmen. Ich werde nachweisen, dass der Ansatz von Scheibe dem semantic approach nahe genug steht, um die Probleme des received view zu umgehen, dass er aber auch hinreichend viele Neuerungen beinhaltet, um die Modellrolle adäquat zu beschreiben (Abschnitt 2.4). Dies ist schon für sich genommen ein nicht zu unterschätzender Beitrag zur aktuellen Diskussion in Teilen der Wissenschaftsphilosophie. Insgesamt werde ich zeigen können, dass ein Theorienverständnis nach Scheibe adäquater ist als dessen Vorgängerkonzepte (Abschnitt 2.5). Es ist eine solide Grundlage für die sich in Kapitel 3 anschließende Auseinandersetzung mit der Reduktion physikalischer Theorien.

2 The received view wird ins Deutsche teils mit der received view (der Standpunkt, etwa Haase, 1995; Wiltsche, 2013), teils mit die received view (die Sicht, etwa Puntel, 2006; Haller, 1986) übersetzt. Beide Übersetzungen sind gerechtfertigt. Da ich bei meiner eigenen Recherche zunächst die maskuline Version gefunden habe, werde ich auch folgend diese verwenden.

2.1 Historische Entwicklung des Theorienbegriffs

| 5

2.1 Historische Entwicklung des Theorienbegriffs Es folgt ein rudimentärer Überblick der historischen Grundlagen des heutigen Theorienbegriffs. Für den grundlegenden Aufbau der Darstellung antiker und neuzeitlicher Positionen orientiere ich mich an Thiel (1996) und Mittelstraß (1996). Bei den Ausführungen erhebe ich keinen Anspruch auf Vollständigkeit, da für die thematisch zentralen Abschnitte der vorliegenden Arbeit Theorien in erster Linie unter formalen Gesichtspunkten von Interesse sein werden. Damit liegt es nahe, ausgehend von der Antike, wo die Ursprünge des heutigen Theorienbegriffs zu finden sind, einen möglichst klaren roten Faden zu spinnen, der in den ersten formalistischen Ansätzen des 20ten Jahrhunderts mündet. Dass diese stark positivistisch waren, hat auch meine Auswahl der bei der historischen Betrachtung herangezogenen Autoren bestimmt. So finden etwa Leibniz und Kant keine Erwähnung, wohl aber Bacon, Whewell und Mill. Der Pythagoräismus ist nach Russell (2009, S. 55) der Grund dafür, dass der aus orphischer Tradition stammende Begriff „ϑϵωρ´ι α“ nicht mehr als rein emotionale, sondern als in mathematische Erkenntnis mündende, intellektuelle Einfühlung, verstanden wurde. Damit war der Grundstein für eine Bedeutungsverschiebung gelegt, die in unserem heutigen Verständnis resultierte. Das in Form von theoretischen Sätzen und Beweisen gegebene Wissen wurde von den Vorsokratikern schnell als Begründungswissen verstanden, das jedoch noch nicht von der sinnlichen Wahrnehmung gelöst war (Mittelstraß, 1996, S. 259; Wimmer und Blasche, 1996). In der platonischen Zweiweltenlehre tritt der konstituierende Charakter theoretischer Erkenntnis besonders deutlich hervor. Durch Einführung der vollkommenen und unveränderlichen Ideen wird der Bereich des Theoretischen zudem vom rein Weltlichen gelöst. Die Ideen sind Urbilder der weltlichen Dinge; Kenntnis über sie führt zu Wissen (˘ϵ πιστ η´ µη), Kenntnis über den Bereich des Sichtbaren lediglich zu Meinen (δ o´ ξα) (Platon, 2008b, 504a ff; Platon, 2008a, 132 ff). Ähnlich schreibt später Aristoteles, „das Ziel, nach dem das rein theoretische Verhalten ringt, ist die Wahrheit, wie das Ziel der Praxis die Anwendung ist.“ (Aristoteles, 1907, S. 1 f) Obwohl sich Aristoteles gegenüber Platon eher in Beziehung zum Empirismus denn zum Idealismus der Neuzeit setzen lässt, ist für ihn die höchste Form der Praxis die theoretische Lebensform (βι o´ ς θϵˆ o ρ´ϵ τικoς), die höchste Form des Wissens die Weisheit (σoφ´ι α). Beide fallen zusammen in der als Tätigkeit der Vernunft (νo˜ υ ς) bestimmten Theorie. Der Weise kann seine Betrachtungen im Idealfall unabhängig von anderen Menschen durchführen. Auch würde von den Tugenden nur die Weisheit um ihrer Selbst Willen geschätzt. Da die Vernunft nach Aristoteles zwar sowohl Menschen als auch Göttern zukommt, in Vollkommenheit

6 | 2 Physikalische Theorien aber rein göttlich sei, könne die theoretische Lebensform von Menschen nicht erreicht werden. Dennoch kommt dem Theorienverständnis damit ein von der Praxis unabhängiges Element zu, wie es bei Platon zuvor noch nicht gegeben war (Aristoteles, 1907, 1177a ff; Mittelstraß, 1996, S. 259). Dieser kontemplative Aspekt des aristotelischen bios theoreticos wurde unter anderem von der hellenistischen sowie der neuplatonischen und neupythagoräischen Philosophie immer wieder aufgegriffen. Theophrast sowie andere Peripatetiker betonten die Bedeutung der theoretischen Lebensform, Philon von Alexandria zeichnete sie sogar als asketisch aus. Im Stoizismus und überspitzt im Kynismus wurde die Abkehr vom Weltlichen zur grundlegenden Lebenseinstellung. Durch Erhebung zur über Spekulation die unmittelbare Schau des Einen (´ϵ ν) ermöglichenden höchsten Form geistiger Tätigkeit, erhielt die theoretische Lebensform über Proklos und Plotin als vita contemplativa Einzug in die mittelalterliche Philosophie, wo sie unter anderem bei Boethius und Thomas von Aquin von der vita activa abgegrenzt und über diese erhoben wurde (Thiel, 1996; Gatzmeier, 1996). Einen bedeutenden Schritt hin zum modernen Theorienverständnis machte Francis Bacon durch seinen Angriff auf das mittelalterliche Primat des Kontemplativen (Klein, 2012; Krohn, 1999). Er kritisierte sowohl die Humanisten der Renaissance, die Scholastik, als auch einen strikten Empirismus, wenn er schreibt: Die, welche die Wissenschaften betrieben haben, sind Empiriker oder Dogmatiker gewesen. Die Empiriker, gleich den Ameisen, sammeln und verbrauchen nur, die aber, die die Vernunft überbetonen, gleich den Spinnen, schaffen die Netze aus sich selbst. Das Verfahren der Biene aber liegt in der Mitte; sie zieht den Saft aus den Blüten der Gärten und Felder, behandelt und verdaut ihn aber aus eigener Kraft. (Bacon, 1620, I a95)

Wissenschaftliche Forschung muss nach Bacon eine aktive („scientia activa“) sein, in der die Theorie einher geht mit einer tätigen experimentellen Beobachtung (Bacon, 1620, I a117; Krohn, 1999, S. XV). Aus dieser sollen mit der induktiven Methode Ursachen und Grundsätze abgeleitet werden, die dann wieder zu neuen Experimenten führen. Klein vergleicht dieses Vorgehen mit der Zusammenfügung einzelner Teile zu einer systematischen Kette (Klein, 2012, Abschnitt 5). Die Grundsätze erreichen dabei eine immer fundamentalere Ebene. Mit Betonung der induktiven Methode wird das Theoretische – hier bereits im Sinne naturwissenschaftlicher Theorien zu verstehen – wieder verstärkt an die Welt gebunden. Dennoch muss Bacon eine sträfliche Ignoranz der Mathematik vorgehalten werden. Diese konnte sich in der Physik seit Galilei immer stärker durchsetzen und führte mit Newton zu einer mathematischen Wissenschaftsauffassung. Bei Bacon nimmt sie jedoch lediglich die Rolle einer Hilfswissenschaft bzw. Dienerin von Physik und Metaphysik ein (Krohn 1999, S. XXVII f; Büttemeyer,

2.1 Historische Entwicklung des Theorienbegriffs

| 7

2003, S. 22). Zentrale Eigenschaften dieser mathematischen Wissenschaftsauffassung finden sich detailliert dargestellt bei Büttemeyer (2003, S. 25 f). Auch wenn ein wie bis dahin als Auflistung von Einzelfällen verstandener naiver Induktivismus zurückgewiesen wird, weist Krohn (1999, S. XXIV ff) auf den Kontrast zwischen der induktiven Methode bei Bacon und logischer Induktion hin. Erstere dient der Entdeckung neuer Tatsachen, letztere zur Rechtfertigung allgemeiner Sätze aus einzelnen Beobachtungen. Dies betonen auch Gadenne und Visintin (1999, S. 10 ff). Zur wissenschaftlichen Begründung physikalischer Theorien bedurfte Bacons Ansatz also weiterer Ergänzungen. Eine solche findet sich zunächst bei W. Whewell. Dieser versteht sich in der Nachfolge Bacons und schließt teilweise die zwischen Entdeckung und Begründung entstandene Kluft durch Einführung des geistigen Akts der Kollogation (collogation), der als einheitsstiftende Verbindung die Phänomene unter dem Dach fundamentaler Ideen zusammenhält (Snyder, 2012). Diese an Kants Formen der Anschauung bzw. Kategorien der Vernunft erinnernden Konzepte wie Raum, Zeit, Zahl, Kraft, Masse und andere, stellen Grundstruktur und Organisationsinstrument wissenschaftlich zu behandelnder Sinnesdaten dar.3 Gegen dieses rationalistische Element hat sich der in Tradition des Lockeschen Empirismus stehende J.S. Mill (1859) gewendet (vgl. Scarre, 1998). „Empirismus“ bezeichnet dabei – in groben Zügen – die auf A. Comte zurückgehende Position, die den Anspruch erhebt, Wissen auf Basis von sinnlicher Wahrnehmung, d.h. von positiven Tatsachenbehauptungen, zu erlangen. Damit einher geht sowohl die Zurückweisung metaphysischer und theologischer Spekulationen als auch der damit zusammenhängende Versuch einer Eliminierung nichtdeskriptiver Aussagen und das Postulat der Einheit des Wissens (Haller, 1993, S. 9 ff; Kambartel, 1996). In diesem Sinne war für Mill die induktive Methode ein für die Fundierung wissenschaftlicher Theorien durch Notwendigkeit hinreichend begründetes Prinzip. Sie lieferte eine Ansammlung von Aussagen, die in ein deduktiv geordnetes System empirischer Gesetze überführt werden konnte (Thiel, 1996, S. 267; Büttemeyer, 2003, S. 30 ff) . Als Rechtfertigungsinstanz trat an Stelle der Kollogation die eliminative Methode; die so erhaltenen Gesetze waren für Mill hinreichend gesicherte Wahrheiten. Die oben angesprochene Anordnung in ein deduktives System diente lediglich als mögliche Absicherung weniger gut fundierter Aussagen, änderte aber nichts an ihrer Gewinnung a posteriori und der Bestätigung durch die Empirie:

3 Trotz der angedeuteten (und offensichtlichen) Nähe zu Kants Transcendentalphilosphie gibt es im Detail viele Unterschiede zwischen dieser und dem Ansatz von Whewell, auf die hier aber nicht weiter eingegangen werden kann. Für Details siehe Snyder (2012, Abschnitt 2: Induction).

8 | 2 Physikalische Theorien Die Aufteilung eines komplizierten Phänomens ist nicht wie eine zusammenhängende interdependente Beweiskette. Wenn ein Glied einer solchen Kette bricht, fällt das Ganze zu Boden, aber ein Schritt einer Analyse behält seinen Wert, selbst wenn wir niemals in der Lage sein sollten, einen zweiten zu tun. (Mill, 1859; zitiert nach Scheibe, 2007, S. 305)

Trotz des plausibel erscheinenden Ansatzes war wahrscheinlich Mills Fachfremdheit in der Physik Grund für das in zentralen Punkten vom tatsächlichen Vorgehen der Wissenschaftler abweichende Theorienverständnis (Scarre, 1998, S. 114 f). Zunächst ist ein rein induktives Erklärungsgerüst schon für die Entwicklung neuer Theorien bereits in der Zeit vor Einstein wenig einleuchtend. Die Entdeckung von Gesetzen „kann nicht durch irgendein mechanisches Verfahren oder durch feste Regeln erfüllt werden; sie wird eher erfüllt durch Intuition, Inspiration und das Glück des Wissenschaftlers.“4 (Carnap, 1953, S. 110) Weiter ergibt sich aus dem obigen Zitat Mills ein kumulatives Verständnis physikalischen Fortschritts, dessen Falschheit nachzuweisen ebenso nicht erst einer allgemeinen Relativitätstheorie oder Quantenmechanik bedurft hätte. So verweist Boltzmann bereits 1895 mit Blick auf die historische Entwicklung der Physik auf einen sprunghaften Fortschritt derselben (vgl. Scheibe, 2007, S. 304 ff). Teils ähnliche, teils abweichende Positionen auf dem Weg zu einem modernen Theorienverständnis finden sich auch in der deutschen Wissenschaftsphilosophie des ausgehenden 19ten und anfangenden 20ten Jahrhunderts (Suppe, 1974). Von den 50er bis in die 80er Jahre des 19ten Jahrhunderts war der mechanistische Materialismus die vorherrschende ontologische Position unter den deutschen Wissenschaftlern. Seinem Hauptvertreter Ludwig Büchner folgend, lässt sich diese Position wie folgt pointieren: Science [. . . ] gradually establishes the fact that macrocosmic and microcosmic existence obeys, in its origin, life, and decay, mechanical laws inherent in things themselves, discarding every kind of super-naturalism and idealism in the exploration of natural events. There is no force without matter; no matter without force. (Büchner, 1855; zitiert nach Suppe, 1974, S. 8)

Dieser eher pragmatische Ansatz war unter Verweis auf die von der damaligen Psychologie und Physiologie betonte Subjektivität der Sinneswahrnehmungen unbefriedigend, was zu einer im Laufe der 1870er Jahre immer stärker werdenden Kritik führte. Eingeleitet von Helmholtz entwickelte sich als Konsequenz auf der einen Seite eine schnell an Bedeutung gewinnende neukantianische Schule, die

4 Auch wenn das Zitat aus der Zeit nach Einstein und der Entwicklung der Quantenmechanik stammt, ist es ebenso bezogen auf die Zeit davor zu verstehen. Die von Carnap der Logik beigemessene Rolle werde ich später noch eingehender untersuchen.

2.1 Historische Entwicklung des Theorienbegriffs

| 9

bis 1900 eine führende Rolle in der deutschen Wissenschaftsphilosophie übernahm, und deren Hauptvertreter Ernst Cassirer und Hermann Cohen waren. Ziel der Wissenschaften war es danach – beispielsweise bei Cohen (1871, S. 105 ff) – ein über die Phänomene vermitteltes Wissen über in ihrer Absolutheit quasi platonische Strukturen zu erlangen. Damit erhielt zwar entgegen den Vorstellungen Mills wieder ein metaphysisches Element Einzug in die Naturbetrachtung; dieses schaffte es aber im Gegenzug, trotz Einbeziehung subjektiver Sinnesdaten, eine Absicherung des erhaltenen Wissens zu begründen (Suppe, 1974, S. 9). Auf der anderen Seite stand die empiristische Position von Ernst Mach (1922, 1926). Auch wenn Mach seine Überlegungen nie in geschlossener Form formuliert hatte, ist seine Position vor allem aufgrund ihres Einflusses auf die Entwicklung der Philosophie ernst zu nehmen (Haller, 1993, S. 32 ff; Suppe, 1974). Grundsäulen seiner Auffassung sind ein Phänomenalismus auf der einen sowie das Ökonomieprinzip auf der anderen Seite (vgl. Scheibe, 2007, S. 51 ff). Der Erstgenannte stellte für Mach das Zusammenfallen der physischen sowie psychischen Elemente unserer Wahrnehmungsakte dar, wodurch die Psychologie Teil der Naturwissenschaften wird und die Möglichkeit einer Einheitswissenschaft geschaffen ist. Wissenschaft und insbesondere die Physik sind damit nicht mehr Erkenntnis von apriorischen Dingen-an-sich bzw. Strukturen im Neukantianischen Sinn, sondern von den gegenseitigen Abhängigkeiten der Empfindungen. Metaphysische Annahmen spielen keine Rolle mehr: Man könnte nun z.B. in Bezug auf Physik der Ansicht sein, dass es weniger auf Darstellung der sinnlichen Tatsachen als auf die Atome, Kräfte und Gesetze ankommt, welche gewissermaßen den Kern jener sinnlichen Tatsachen bilden. Unbefangene Überlegung lehrt aber, dass jedes praktische und intellektuelle Bedürfnis befriedigt ist, sobald unsere Gedanken die sinnlichen Tatsachen vollständig nachzubilden vermögen. Diese Nachbildung ist nun Ziel und Zweck der Physik, die Atome, Kräfte, Gesetze aber sind nur die Mittel, welche uns jene Nachbildungen erleichtern. Der Wert der letzteren reicht nur so weit als ihre Hilfe. (Mach, 1922, S. 254)

Das Ökonomieprinzip hängt zusammen mit einem Wissenschaftsdarwinismus, der heutzutage in Form der evolutionären Erkenntnistheorie wieder zunehmend an Bedeutung gewinnt. Es impliziert die Auffassung, nach der Theorien eine möglichst gute Zusammenfassung möglichst vieler Phänomenen liefern sollen, da sie sonst überholt werden (vgl. Scheibe, 2007). Damit einher geht das Kontinuitätsprinzip, das uns eine Verallgemeinerung ermöglicht und das besagt, dass wir bei quantitativer Verfeinerung eines Vorgangs Vorstellungen, die wir in einem gröberen Stadium als Phänomene gewonnen haben, auch auf die feineren Stadien ausdehnen sollen, selbst wenn die früheren Erscheinungen verschwunden oder andere geworden sind. (Scheibe, 2007, S. 75)

10 | 2 Physikalische Theorien Für die Position der Wissenschaftsphilosophie zu Beginn des 20ten Jahrhunderts lässt sich soweit zusammenfassend festhalten: By the turn of the century, the three main philosophical positions held in the German scientific community were mechanistic materialism, neo-Kantianism, and Machian neopositivism, with neo-Kantianism being the most commonly held. (Suppe, 1974, S. 10)

Neben diese genuin philosophischen Positionen trat noch ein in weiten Teilen der Physikergemeinschaft vertretenes realistisches Weltverständnis. Postulat dieses Realismus war die Existenz von den Erscheinungen unterliegenden Dingen-ansich – eine Auffassung, die dem Empirismus diametral gegenübergestellt war. Die daraus entstandenen Spannungen entluden sich teils heftig, wie beispielsweise in der Planck-Mach-Debatte (vgl. Scheibe, 2007, S. 51 ff). Eine Stärke des Realismus war, dass er eine sinnvolle Erklärung für den Erfolg der Physik vor allem in der Vorhersage von Ereignissen lieferte. Die konkurrierenden philosophischen Positionen taten sich demgegenüber schwer, adäquat auf die Relativitätstheorien und die Quantenmechanik einzugehen und bedurften dringender Modifikationen.5 Für den mechanischen Materialismus erwies sich dies aufgrund seines starken Bezugs zur klassischen Mechanik als nicht möglich. Der Neukantianismus wurde 1910 von Cassirer in einer modifizierten und vertretbaren Form wiedergegeben (vgl. Suppe, 1974, S. 11). Der Ansatz von Mach fand Aufnahme in einer die Mittel der Logik betonenden neopositivistischen Position, die erstmals von einer Gruppe Wiener und Berliner Wissenschaftler vertreten wurde. Die Ursprünge dieser neopositivistischen Bewegung finden sich bereits 1907 in einem Wiener Arbeitskreis bestehend aus dem Physiker Philipp Frank, dem Mathematiker Hans Hahn sowie dem Sozialwissenschaftler Otto Neurath (vgl. Stölzner und Uebel, 2006; Uebel, 2014; Haller, 1993; Carnap, 1929). Nach Berufung von Moritz Schlick als Nachfolger Boltzmanns auf den ehemaligen Lehrstuhl Machs und der darauf folgenden Institutionalisierung der regelmäßigen Treffen, gewann die Gruppe schnell neue Mitglieder, von denen der Fregeschüler Rudolf Carnap besonders hervorzuheben ist.6 Am 16. September 1929 trat der Wiener Kreis auf

5 Eine Ausdifferenzierung verschiedener Realismuskonzepte werde ich hier nicht durchführen. Die folgenden Betrachtungen sind von der Frage, ob und in wie fern den beobachtbaren Phänomenen eine wie auch immer geartete Realität unterliegt, unabhängig. Eine gute Argumentation für den kritischen Realismus findet sich bei Külpe (1895). In Bezug auf die Probleme der philosophischen Positionen mit dem Aufkommen der modernen Physik siehe Suppe (1974, S. 10 f) bzw. Bartels (2007). 6 Carnap hatte durch Einleitung der logizistischen Wende eine bedeutende Rolle für die Entwicklung des Wiener Kreises gespielt. Obwohl richtungsweisend, waren aber weder er noch die zuvor

2.1 Historische Entwicklung des Theorienbegriffs

| 11

dem fünften deutschen Physikertag und der Tagung der Deutschen MathematikerVereinigung in Prag erstmals geschlossen in Erscheinung und gewann schnell weltweit an Einfluss in der philosophischen Landschaft. Die wissenschaftliche Weltauffassung des Wiener Kreises war deutlich geprägt durch den bereits in der Gesprächsrunde von Frank, Hahn und Neurath verehrten Mach und den damit zusammenhängenden Positivismus (vgl. Carnap, 1929, S. 305 ff). Die Betonung der Sinnesempfindungen als Basis wissenschaftlicher Erkenntnis war für sie ebenso zentral wie das Ziel der Einheitswissenschaft und eine ablehnende Haltung gegenüber der Metaphysik. Hat sich jedoch Mach noch gegen die Annahme der Existenz apriorischer Dinge wie Atome zur Wehr gesetzt, werden bei den Neopositivisten derartige Aussagen nicht als falsch, sondern als sinnlos augezeichnet:7 Die Leugnung der Existenz einer transzendenten Außenwelt wäre genauso gut ein metaphysischer Satz wie ihre Behauptung; der konsequente Empirist verneint daher nicht etwa das Transzendente, sondern erklärt seine Verneinung wie seine Bejahung gleichermaßen als sinnleer. (Schlick, 1932, S. 30)

Neu war zudem die Hervorhebung der Bedeutung der formalen Logik, die um die Jahrhundertwende durch den Einfluss von Größen wie Boole, Peano, Frege oder Whitehead/Russell stark an Bedeutung gewonnen hatte. Sie lieferte den Vertretern des Wiener Kreises die Grundlage zur Begründung der analytischen Philosophie. Die Verifizierbarkeit von Aussagen diente ihnen – zumindest in den ersten Jahren ihrer Arbeit – als Demarkationskriterium wissenschaftlicher Theorien. Dieses stellte sich aber bei genauer Untersuchung als nicht haltbar heraus. Die Verifizierbarkeit wurde durch die schwächere kognitive Signifikanz ersetzt. Aber auch diese erwies sich als inadäquat. Auch zeigten sich über die Jahre immer mehr Schwächen der Position der logischen Positivisten, von denen ein Großteil mit ihrem Theorienverständnis, dem received view zusammenhing. Im folgenGenannten als Zentrum zu verstehen, um das sich der Rest der Gemeinschaft nur herum gruppierte. Unter den bisher nicht genannten Mitgliedern waren ebenfalls Größen wie H. Feigl, K. Gödel, E. Zilsel oder R. Neumann, die aus der Gruppe nicht weg zu denken waren. Dazu kamen noch bedeutende Vertreter der Berliner Gesellschaft für Wissenschaftsphilosophie, allen voran H. Reichenbach, K. Grelling oder R.v. Mises sowie eine Vielzahl von Randpersonen und Sympathisanten wie L. Wittgenstein, B. Russell, A. Tarski, C.G. Hempel, A.J. Ayer, E. Nagel, W.V.O. Quine oder H. Putnam. Es gibt viele Auflistungen der Mitglieder des Wiener Kreises und die Hervorhebung der individuellen Beiträge, so dass wir hier nicht mehr weiter darauf eingehen werden. Für eine Einleitung in die Entstehungsgeschichte des Wiener Kreises siehe Stölzner und Uebel (2006); Uebel (2014). 7 Zu Mach und der Kontroverse über die Realität von Atomen siehe Scheibe (2007, S. 80 ff).

12 | 2 Physikalische Theorien den Abschnitt werde ich diesen Rekonstruktionsansatz darstellen und auf die zentralen Kritikpunkte hinweisen.

2.2 Der received view of theories Eng verbunden mit den Grundlagen der Philosophie des Wiener Kreises ist das Theorienverständnis, das als „received view“ oder „syntactic approach“ bezeichnet wird. Aufgrund seiner zentralen Bedeutung für das Programm der logischen Positivisten und damit für die Wissenschaftsphilosophie des 20ten Jahrhunderts wundert es kaum, dass der received view über die Jahrzehnte einer starken Kritik ausgesetzt war, in deren Folge er mehrmals modifiziert wurde. Dies kommt auch in den vielen Darstellungen dieses Rekonstruktionskonzepts zum Tragen. Zusammenfassungen der zentralen Gedanken hinter dem received view finden sich bei van Fraassen (1987, S. 108 f), Suppes (1967, S. 56), Psillos (2000, S. 158 ff) sowie Spector (1965, S. 121 ff) und Lutz (2010, S. 2). Bei meiner Darstellung der Urversion des received view in Unterabschnitt 2.2.1 sowie den Ausführungen zur daran geübten Kritik in den Unterabschnitten 2.2.2 bis 2.2.4 habe ich mich im ersten Ansatz an Suppe (1974, S. 16 ff) orientiert: In Unterabschnitt 2.2.2 gehe ich auf zentrale Probleme der Beziehung der theoretischen Terme mit den Ausdrücken eines Observablenvokabulars ein. In Unterabschnitt 2.2.3 folgt die Auseinandersetzung mit der problematischen Rolle, die wissenschaftliche Modelle im received view einnehmen. Unterabschnitt 2.2.4 betont den Mangel von wirklichen mit dem received view durchgeführten Rekonstruktionen relevanter wissenschaftlicher Theorien. Ich werde aufzeigen, dass diese Kritikpunkte auch mit Blick auf späte Versionen des received view nach Carnap (1956) oder Hempel (1965) ernst zu nehmen sind. In Unterabschnitt 2.2.5 fasse ich die vorangegangenen Ausführungen hinsichtlich der sich in Abschnitt 2.3 anschließenden Betrachtung des semantic approach zusammen.

2.2.1 Grundlagen des received view Der hinter dem received view stehende Gedanke besagt verkürzt, dass es möglich ist, jede wissenschaftliche Theorie als Klasse von Aussagen in einem logischen Formalismus L – inklusive Kalkül K – zu formulieren. Dabei erhält das vorkommende nicht-logische, theoretische Vokabular V t seine Bedeutung durch eine Anzahl ebenfalls in L formulierter correspondence rules C, welche die theoretischen Ausdrücke an mit direkten Beobachtungen verknüpfte Ausdrücke eines Observablenvokabulars V o binden (vgl. Carnap, 1956).

2.2 Der received view of theories | 13

Nach Suppe (1974, S. 16) war für L in den ersten Ansätzen des received view nur die Prädikatenlogik erster Stufe vorgesehen. Erst im Laufe der Jahre, als Folge lauter werdender Kritik, wäre diese Forderung abgeschwächt worden, so dass in späten Versionen jede formale Sprache mit einer hinreichenden Stärke „erlaubt“ war. Demgegenüber argumentiert Lutz (2010, S. 82) überzeugend dafür, dass Prädikatenlogik erster Stufe und Russellsche Typentheorie nicht vor 1935 ausdifferenziert waren, die ersten Publikationen zum received view jedoch aus den 1920er Jahren stammen. Er verweist dazu auf Campbell (1920) sowie Carnap (1923). Hinzu käme, dass Gödel seine Unvollständigkeitssätze erst 1930 formuliert hätte (vgl. Gödel, 1931), die Typentheorie also bis dahin von uneingeschränkter Bedeutung war. Lutz folgert daraus, dass „given Carnap’s focus on type theory in his research on axiomatics, it would be rather surprising if he had demanded first-order axiomatization.“ (Lutz, 2010, S. 82) Auch nach der Veröffentlichung von Gödels Unvollständigkeitssatz finden sich bei Carnap Bezüge zur Typentheorie. So führt Carnap (1934) eine formale Sprache II ein, die auf der einfachen Typentheorie von Russell und Whitehead aufbaut (vgl. Russell und Whitehead, 1910, S. 55 ff; Carnap, 1934, S. 74 ff; Carnap, 1931a), und deren Zweck die Erweiterung der zuvor durch eine Sprache I eingeführte Prädikatenlogik zur Formalisierung der Mathematik ist.8 In der Tat haben sich die Vertreter des received view in ihren Aussagen bezüglich der zu verwendenden Sprache an vielen Stellen allgemein gehalten, weshalb auch ich folgend von einer nicht weiter spezifizierten formalen Sprache hinreichender Stärke ausgehen werde. Die Festlegung auf ein bestimmtes System – explizit die Prädikatenlogik mit eingebetteter Mengentheorie – wird erst in Bezug auf den semantic approach in Abschnitt 2.3 notwendig werden. Die Elemente von V o sind entweder Ausdrücke, die als direkt wahrnehmbare Eigenschaften (z.B. „rot“, „auflösend“, „groß“) bzw. Beziehungen von Ereignissen und Dingen (z.B. „x ist wärmer als y“, „x ist größer als y“, „x liegt auf der Verbindungsstrecke von y und z“) interpretiert werden können, oder als eben diese makroskopisch wahrnehmbaren Ereignisse und Dinge (z.B. „Mond“, „Die Nadel dieses Instruments“, „Das Aufleuchten auf dem Bildschirm“; vgl. Carnap, 1956, S. 41; Hempel, 1965, S. 60) . Damit zerfällt L in verschiedene Teilsprachen: Die Observablensprache L o ist einzig aus logischen Ausdrücken und den Elementen von V o aufgebaut, die theoretische Teilsprache L t ist analog zusammengesetzt aus logischem Vokabular, möglicherweise Observablenausdrücken, aber mindestens einem theoretischen Term, also einem Element von V t , wie „Masse“, „Elektron“oder

8 Für einen Vergleich von Carnaps Sprache II mit der axiomatisierten Mengenlehre siehe (Carnap, 1934, S. 87 f).

14 | 2 Physikalische Theorien „Gravitationsfeld“. Die Sätze der theoretischen Sprache, die ausschließlich logisches und theoretisches Vokabular verwenden, können wir verkürzt als Formeln darstellen. Im Fall der klassischen Teilchenmechanik lässt sich das zweite Newtonsche Gesetz unter Heranziehen des „üblichen“Kalküls ausdrücken durch: f (p, t) = m(p) · ¨x(p, t)

(2.1)

„t“, „m(*)“, „f(*,*)“etc. sind Abkürzungen für die Elemente von V t und haben als solche zunächst keine Bedeutung im Fregeschen Sinn; die obige Formel (2.1) ist als bloße Hintereinanderreihung von Zeichen zu verstehen. Die correspondence rules C sind in einer Teilsprache von L t formuliert, die neben dem logischen Vokabular jeweils mindestens einen Ausdruck aus V o und V t enthält und erfüllen drei miteinander verwobene Aufgaben: (1) Sie definieren die theoretischen Terme durch Ausdrücke des Observablenvokabulars, (2) sie sorgen für die kognitive Signifikanz der Ausdrücke und (3) sie geben experimentelle Vorgehensweisen an, welche die observablen Terme an die Phänomene binden (vgl. Suppe, 1974, S. 17). In den Diskussionen des Wiener Kreises werden correspondence rules teils auch als koordinierende Definitionen, Wörterbücher, Interpretative Systeme, Operationale Definitionen, Epistemische Korrelationen oder Interpretationsregeln bezeichnet. Beispielsweise ließe sich die Masse durch den Beobachtungsterm „x ist schwerer als y“ und der correspondence rule m(p) > m(q) :↔ p ist schwerer als q.

(2.2)

bestimmen. Weitere Beispiele finden sich bei Carnap (1956, S. 47 f). In späteren Fassungen des received view wurde dazu übergegangen, zur Bestimmung theoretischer Ausdrücke anstelle von Definitionen sogenannte Reduktionssätze9 heranzuziehen (vgl. Carnap, 1936c). Die Gründe hierfür sowie Details werde ich in Unterabschnitt 2.2.2 ausführen. Zunächst ist relevant, dass in beiden Fällen die theoretischen Terme in Beziehung zu den observablen Ausdrücken gesetzt werden. Vorausgesetzt dafür ist die Kenntnis der Bedeutung des Definiens, hier der Aussage „Schwerer als etwas sein“. Ist dies nicht gegeben, muss die Grundlage anders gewählt werden, in etwa durch Einführung einer alternativen Definition der Art: Lege ich p und q jeweils auf eine der Seiten eim(p) > m(q) :↔ ner Balkenwaage, so neigt sich die Seite auf der (2.3) p liegt nach unten. 9 Dieser Begriff sollte im Rahmen des vorliegenden Abschnitts bezogen auf die kognitive Signifikanz der theoretischen Terme, also auf den hier gegebenen Kontext, verstanden werden und nicht unmittelbar mit der Bedeutung von „Reduktionen“ im Sinne von Kapitel 3.

2.2 Der received view of theories | 15

Im Regelfall genügen Aussagen der Art (2.2); zur Erfüllung von (3) ist eine Zurückführung auf (2.3) entsprechende correspondence rules streng genommen notwendig. Die Frage, wann eine solche Definition ausreichend ist, geht einher mit der Frage, wie sich observable von theoretischen Termen unterscheiden lassen. Das Auffinden eines Demarkationskriteriums stellt aber ein nicht-triviales Problem dar, wie ich noch erkläutern werde. Der hinter dem received view stehende Grundgedanke ist leicht nachvollziehbar und lässt sich bei gängigen Formalisierungen beispielsweise der Newtonschen Mechanik in Grundzügen wiederfinden. McKinsey et al. (1953, S. 256 f) führen die Ausdrücke „Geschwindigkeit“, „Ort“, „Zeit“, „Masse“ und „Kraft“durch physikalische Interpretationen ein, auf denen sie ihre theoretischen Betrachtungen aufbauen. Hamel (1908, S. 350 f) unterscheidet zwischen der Axiomatisierung einer Newtonschen Mechanik mit Massenpunkten, starren Körpern und Volumenelementen als Grundbestandteilen und verweist auf die Konsequenzen für die weitere Verallgemeinerung der Theorie aufgrund des implizierten Anwendungsbereichs. Simon (1954) betont in der Diskussion seiner Axiomatisierung, dass: The viewpoint taken in [Simons axiomatization] is that in the axiomatization of a piece of physical theory we are concerned not only with the formal and analytic aspects of the axiom system, but equally with the semantical relations between the system and the phenomena it purports. (Simon, 1954, S. 349)10

Dies sei nicht nur ein philosophischer Standpunkt, sondern komme auch den Vorstellungen der Physiker selbst nahe. Diese hätten „for some time recognised the necessity, in the axiomatization of a physical theory, for ‚semantic‘, ‚operational‘ or ‚epistemic‘ definitions of concepts to connect them with measurement procedures.“ (Simon, 1954, S. 342) Nicht nur wohlwollend gelesen legt diese Äußerung Simons Überschneidungen zwischen der Theorienauffassung der logischen Positivisten und den tatsächlich von Physikern durchgeführten Formalisierungsansätzen nahe – und in der Tat gibt es für diese Annahme Gründe, legt man den received view nur weit genug aus. Im Folgenden werde ich zunächst von einem solchen weiten Verständnis absehen und stattdessen ein möglichst enges voraussetzen, wonach sowohl die correspondence rules explizit in einer formalen Sprache dargestellt werden müssen als auch eine allgemeine Unterscheidung der Elemente des theoretischen und des observablen Vokabulars gegeben sein muss. Diese Einschränkung ist dadurch gerechtfertigt, dass sie dem Verständnis einer Vielzahl der Kritiker des received view entspricht, deren in Abschnitt 2.3 dargestelltes

10 Simon (1954, S. 349 ff) bezieht sich hier auf seine Axiomatisierung aus dem Jahre 1947.

16 | 2 Physikalische Theorien Theorienkonzept gerade als sinnvolle Alternative zu einer solch engen Auslegung gedacht war.

2.2.2 Correspondence rules und theoretische Terme Um metaphysische und damit im Sinne des logischen Positivismus nicht-wissenschaftliche Ausdrücke zu vermeiden, müssen den logischen Positivisten zu Folge alle in einer Rekonstruktion vorkommenden theoretischen Terme in Beziehung zu Phänomenen bzw. diesen entsprechenden observable Ausdrücke gesetzt werden (vgl. Schlick, 1932). Die Bedeutung der sich daraus ergebenden Frage nach der kognitiven Signifikanz einer Theorie wird von Psillos hervorgehoben, wenn er schreibt „the received view evolved and revolved around the problem of the meaningfulness or otherwise of theoretical terms.“ (Psillos, 1995, S. 108) In frühen Versionen des received view entsprach die kognitive Signifikanz der Forderung einer (zumindest grundsätzlich möglichen) Verifizierbarkeit ganzer theoretischer Aussagen durch aus ihnen ableitbaren Protokollsätzen. Da sich jedoch keiner der entwickelten Ansätze – weder in ursprünglicher noch in modifizierter Version – als tragbar erwiesen hatte, wurde bald dazu übergegangen, die explizite Definition theoretischer Terme durch observable Ausdrücke, wie hier in (2.2) geschehen, zu verlangen.11 Aber auch dies erwies sich in vielen physikalisch relevanten Fällen als nicht möglich (vgl. Carnap, 1936c, S. 364 f). Ein in den Diskussionen des Wiener Kreises aufgetretenes Problem ergab sich bei der Frage, wie sich Dispositionsprädikate wie „zerbrechlich“ oder „wasserlöslich“ definieren lassen. Da nach den logischen Positivisten jede prüfbare physikalische Eigenschaft als eine einem Ding innewohnende Disposition verstanden werden konnte, bedurfte es dringend einer Antwort.

11 Im Rahmen der Protokollsatzdebatte wurden anfangs zwei Sprachformen aufgezeigt; in der ersten wurden die Protokollsätze als außerhalb der formalen Sprache L liegend angesehen, für die dann eine Übersetzung geliefert werden musste, in der zweiten wurden die Protokollsätze als in L formuliert angenommen, so dass eine Übersetzung zwischen den verschiedenen Sprachen überflüssig war. Für Beiträge zur Protokollsatzdebatte siehe Carnap (1931b); Neurath (1932); Carnap (1932). Die zweite Auffassung sollte nicht mit oben dargestellten Endversion des received view verwechselt werden. Zwar werden die Protokollsätze auch in L formuliert; sie sind aber Folgerungen theoretischer Aussagen. Die empirische Signifikanz entspringt der Verifikation der abgeleiteten Aussagen, nicht der Bedeutungszuweisung einzelner Satzbestandteile wie von Carnap (1956) verlangt. Zur Forderung der Falsifizierbarkeit physikalischer Theorien siehe Popper (1934). Für die Entwicklung der Bedeutung von “Kognitive Signifikanz“ siehe Hempel (1965).

2.2 Der received view of theories | 17

Ein erster Ansatz zur Formalisierung der Aussage „Das Buch in meiner Hand ist brennbar“ (vgl. Goodman, 1947) kann wie folgt aussehen: B(b) :↔ (A(b) → F(b))

(2.4)

Das Buch b ist demnach genau dann brennbar (B(*)), wenn es unter der Bedingung, dass ich es anzünde (A(*)) in Flammen aufgeht (F(*)).12 Rein logisch ist damit aber auch ein von mir nicht angezündeter Stein brennbar: Das Antezedens des Definiens ist falsch und damit – ex falso quodlibet – die Implikation und ergo die Brennbarkeitsaussage wahr, obwohl wir den Stein nicht als „brennbar“ bezeichnen würden. Als Lösung dieses Problems präsentierte Carnap die in Unterabschnitt 2.2.1 bereits angesprochenen Reduktionssätze (vgl. Carnap, 1936c). Mit zu (2.4) analogen Bezeichnungen ist ein solcher für die Darstellung der Brennbarkeit eine Allaussage von folgender Form: ∀x : A(x) → (B(x) ↔ F(x))

(2.5)

Durch diese sei, so Carnap, „tatsächlich die Bedeutung des neuen Begriffes bestimmt; denn wir wissen, was wir zu tun haben, um im einzelnen Fall empirisch festzustellen, ob der neue Begriff einem gegebenen Ding b zukommt oder nicht.“ (Carnap, 1936c, S. 367) Als Konsequenz müssen die correspondence rules die theoretischen Terme nicht mehr vollständig definieren, sondern können Teilaspekte angeben. Die Brennbarkeit ließe sich für das Buch sowohl nachweisen durch Werfen in einen Kamin (K(x)), als auch durch anzünden mit einem Streichholz (S(x)), so dass anstelle des bisherigen Ansatzes auch die folgenden Reduktionssätze herangezogen werden können: ∀x : K(x) → (B(x) ↔ F(x)) ∀x : S(x) → (B(x) ↔ F(x))

(2.6)

Jeder Reduktionssatz kann jetzt so verstanden werden, dass er ein bestimmtes Messverfahren zur Prüfung einer physikalischen Eigenschaft eines gegebenen Systems angibt. Anstelle der direkten Definition durch eine correspondence rule treten damit durch Messverfahren bestimmte partielle Interpretationen. Fragwürdig wird, wie noch von kognitiver Signifikanz gesprochen werden kann, da

12 Das Problem wird hier vereinfacht dargestellt. Natürlich ist streng genommen nicht nur das Anzünden des Buches vorausgesetzt, sondern noch weitere Randbedingungen, wie zum Beispiel, dass das Buch zum Zeitpunkt des Anzündens nicht wassergetränkt ist etc.. Eingehen auf diese Details würde (a) eine Detaildiskussion weit abseits des hier zu behandelnden Themas bedeuten und ist (b) bereits an anderer Stelle ausführlich geschehen (vgl. Goodman, 1947).

18 | 2 Physikalische Theorien zur vollständigen Bestimmung eines theoretischen Terms alle Reduktionssätze miteinander konjugiert werden müssten. Dies setzt aber auch die Kenntnis aller möglicher Messverfahren voraus; und eben dies könne nicht gegeben sein (vgl. Putnam, 1962, S. 248 ff; Suppe, 1971); . Hempel findet die Methode, theoretische Terme durch partielle Interpretationen zu bestimmen, auch im tatsächlichen Vorgehen von Physikern wieder. Er bezieht sich auf quantitativ messbare Ausdrücke wie „Masse“, „Länge“ oder „Kraft“, wenn er schreibt: Terms of this kind are not introduced by definition or reduction chains based on observables; in fact they are not introduced by any piecemeal process of assigning meaning to them individually. Rather, the constructs used in a theory are introduced jointly, as it were, by setting up a theoretical system formulated in terms of them and by giving this system an experimental interpretation, which in turn confers empirical meaning on theoretical constructs. (Hempel, 1952, S. 32)

Grund hierfür sei, so Hempel weiter, nicht lediglich eine Präferenz der Wissenschaftler, sondern die oben beschriebene prinzipielle Unmöglichkeit einer vollständigen Bestimmung theoretischer Terme (vgl. Hempel, 1952; Suppe, 1974, S. 24). Er schließt daraus that cognitive significance in a system is a matter of degree: Significant systems range from those whose entire extralogical vocabulary consists of observational terms, through theories whose formulation relies heavily on theoretical constructs, on to systems with hardly any bearing on potential empirical findings. (Hempel, 1965, S. 117)

Es gibt Möglichkeiten zur Erwiderungen auf diese Kritik (vgl. Suppe, 1974, S. 24). Die Auseinandersetzung im Umfeld der logischen Positivisten endete in einer Detaildebatte, die immer weitere Modifikationen der ursprünglichen correspondence rules hinter sich her zog. Das Ergebnis waren zusätzliche Abschwächungen der kognitiven Signifikanz. Fast schon resignierend fasst Carnap das Resultat der Diskussionen zusammen: Today I think, in agreement with most empiricists, that the connection between the observation terms and the terms of theoretical science is much more indirect and weak than it was conceived either in my earlier formulation or in those of operationism. Therefore a criterion of significance for L t must likewise be very weak. (Carnap, 1956, S. 53)

Ob ein derart schwaches Kriterium noch mit den Grundüberzeugungen der logischen Positivisten vereinbar ist, muss an anderer Stelle diskutiert werden. Hier soll zunächst auf ein weiteres, schwerwiegenderes Problem in Bezug auf die theoretischen Terme eingegangen werden: Bei den bisherigen Ausführungen ist grundsätzlich davon ausgegangen worden, dass eine Differenzierung zwischen theoretischem und observablem Vokabular möglich ist. Was aber, wenn sich kein

2.2 Der received view of theories | 19

allgemeines Demarkationskriterium finden lässt? In dem Fall würde die Grenze zwischen Aussagen über die Welt und theoretischen Aussagen verwischen – und damit eine der Grundüberzeugungen der logischen Positivisten unhaltbar werden. Eine erste Kritik in Richtung einer allgemeinen theoretisch-observablenDichotomie wurde von Peter Achinstein formuliert, der die Unverträglichkeit des der Unterscheidung zugrundeliegenden Beobachtungsbegriffs mit einem allgemeinen, für unseren Erkenntnisgewinn relevanten, herausgestellt hat. Suppe gibt die Kriterien von Achinstein für einen solchen wieder: ‘Observation’ in the relevant sense, involves attending to something, and has the following characteristics [. . . ]: (1) how many aspects of an item, and which ones, I must attend to before I can be said to observe it will depend upon my concerns and knowledge; (2) observing involves paying attention to various aspects and features of the items observed, but does not always require recognizing the kind of item being observed; (3) it is possible to observe something even though it is in a certain sense hidden from view – for example, a forest ranger observes the fire even though he can only see smoke – so observing an item does not necessarily involve seeing or looking at it; (4) it is possible to observe something when seeing an intermediary image – for example, when looking at myself in a mirror; (5) it is possible to describe what I am observing in the sky as a moving speck or an airplane. (Suppe, 1974, S. 81 mit Verweis auf Achinstein, 1968, S. 160 ff)

Mit einem wie oben charakterisierten Beobachtungsbegriff lassen sich theoretische Terme im Sinne der logischen Positivisten nach Achinstein auch als observable Ausdrücke verstehen; so „Elektron“ nach (3) oder „Temperatur“ nach (4). Darüber hinaus würde der received view eine eindeutige sprachliche Darstellung eines theoretischen Terms verlangen, was nach (5) ebenfalls nicht erforderlich sei (vgl. Achinstein, 1968, S. 160; Suppe, 1974, S. 80 ff).13 Davon ausgehend schloss er konsequent darauf, dass der Beobachtungs-Begriff im logischen Positivismus in einem speziellen, technischen Sinn verwendet wird. Nach Untersuchung verschiedener Unterscheidungskriterien kommt Achinstein zur folgenden Konklusion: What has been shown is not that divisions are impossible but that, using any one of these criteria, many distinctions will emerge; these will be fairly specific ones applicable only to certain classes of terms employed by scientists; and each will be different, so that a term classified as observational (or theory-dependent, and so forth) on one criterion will be nonobservational (or theory-dependent, and so forth) on another. In short, none of these

13 Achinstein geht bei seiner Kritik des logischen Positivismus von einem Beobachtungsverständnis nach Carnap (1936a, 1937) aus. Dieser betont, dass sich observable Ausdrücke in Beziehung zu direkten Beobachtungen setzen lassen müssen.

20 | 2 Physikalische Theorien labels will generate the very broad sort of distinction so widely assumed in the philosophy of science. (Achinstein, 1968, S. 199)

Das Problem der theoretischen Terme geht damit nahtlos über in das Problem der Theoriegeladenheit der Beobachtung, wie es von Kuhn (1962) und Hanson (1958) betont wurde (vgl. Falkenburg, 2007, S. 62 ff; Unterabschnitt 3.1.3 hier) Die Unterscheidung, so Achinstein weiter, habe dennoch ihre Rechtfertigung, nämlich sofern man sich anstelle der Frage, ob ein Term theoretisch bzw. beobachtbar sei, die Frage stelle, in welcher Weise („In what way“; Achinstein, 1968, S. 200) er es sei. Daraus ergäben sich interessante philosophische Schlussfolgerungen, die eine strikte Unterteilung nicht voraussetzten. Dennoch kann eine solche Relativierung des Beobachtungsbegriffs für einen Vertreter des received view nicht befriedigend sein. Auf der einen Seite, da die empirische Grundlage wissenschaftlicher Erkenntnis als Konsequenz zerfällt und zu einer Frage der Konvention wird. Damit zusammenhängend aber auf der anderen Seite auch, da als Konsequenz jedem von Physikern als Theorie verstandenen Gebilde gleich mehrere formalisierte Theorien entsprächen – je nachdem, wie der Schnitt zwischen theoretischen und observablen Termen gesetzt wird. Mit seinem Vorgehen kann Achinstein jedoch nur die Symptomatik einer möglichen Ununterscheidbarkeit aufzeigen, nicht jedoch eine Diagnose stellen. Seine Untersuchung zeigt die Probleme zuvor getroffener Demarkationskriterien auf, sagt aber nichts über den Allgemeinfall (vgl. Suppe, 1974, S. 82). Anders ist dies bei Putnam, dessen Kritik auf die Negation der Existenz genuin observabler Terme sowie den Nachweis der Unschärfe der Klasse der theoretischen Terme abzielt. Nach ihm könnten zunächst observable Terme nicht so charakterisiert werden, dass sie sich ausschließlich auf observable Dinge bezögen, da es keinen einzigen solchen Ausdruck gäbe, der nicht auch ohne Änderung seiner Bedeutung auf nicht-beobachtbare Dinge anwendbar sei. Putnam (1962) nennt exemplarisch Newtons Verwendung von „rot“ in der Aussage, rotes Licht bestünde aus roten Korpuskeln. Folglich könnten observable Ausdrücke nur dadurch charakterisiert werden, dass sie sich auch auf beobachtbare Dinge anwenden ließen. Damit die Dichotomie von theoretischen und observablen Ausdrücken bei einem solchen Verständnis von observablen Termen weiterhin aufrecht gehalten werden kann, dürften sich theoretische Terme dann aber nie auf beobachtbare Dinge beziehen (vgl. Putnam, 1962; Suppe, 1974, S. 82 ff). . Dies bedeute aber, dass „many theoretical terms (for example ‘gravitational attraction’, ‘electrical charge’, ‘mass’) will be observation terms since, for example, I can determine the presence of electrical charge by sticking my finger on a terminal.“ (Suppe, 1974, S. 83) Putnam kommt zu dem Schluss, dass die Differenzierung von theoretischen und observablen Ausdrücken nicht haltbar ist:

2.2 Der received view of theories | 21

What I mean when I say that the dichotomy is ‘completely broken-backed’ is this: 1. If an ‘observation term’ is one that cannot apply to an unobservable, then there are no observation terms. 2. Many terms that refer primarily to what Carnap would class as „unobservables“ are not theoretical terms; and at least some theoretical terms refer primarily to observables. 3. Observational reports can and frequently do contain theoretical terms. 4. A scientific theory, properly so-called, may refer only to observationables (Darwins theory of evolution, as originally put forward, is one example.) (Putnam, 1962, S. 241)

Auch wenn Putnam seine Kritik ebenfalls auf Carnap (1936a, 1956) aufbaut, ist sie stärker als die von Achinstein, da sie die Begriffsunterscheidung auf fundamentaler Ebene trifft. Als Resum´ee fasst Suppe das Ergebnis von Putnams Kritik zusammen: What these considerations indicate is that the meaning of most nonlogical terms in a natural scientific language are such that they can be used both with reference to what might plausibly be termed observables and also with reference to what plausibly might be construed as nonobservables. According there is no natural division of terms into the observable and the nonobservable. (Suppe, 1974, S. 83)

Die Möglichkeit des Ziehens einer künstlichen bzw. willkürlichen Grenze ist dadurch nicht untergraben. Eine solche schlägt Suppe mit der Unterteilung des doppeldeutigen Vokabulars in zwei Teilvokabulare – einem mit theoretischer, einem mit observabler Bedeutung – vor, bemerkt aber zugleich, dass das Problem dadurch auch keine Lösung findet, da diese künstliche Unterteilung das untergrabe, was er als „epistemologische Relevanz“ des received view bezeichnet. Diese liegt nach ihm in (1) der kognitiven Signifikanz, die ohne die theoretisch-observablenDichotomie sinnlos wäre, (2) der Unterscheidung von analytischen und synthetischen Sätzen, die mit der empirischen Grundforderung des Aufbaus der Wissenschaft auf Beobachtungen zusammenhängt, und (3) der epistemischen Katalogisierung von Termen anhand relevanter Eigenschaften (vgl. Suppe, 1974, S. 80 ff). Die Unterscheidung von theoretischen und observablen Termen ist damit nach Suppe obsolet und er folgert: „The observational-theoretical distinction obviously is untenable. As such most of the epistemological interest of the received view is lost. Insofar as the observational-theoretical distinction is essential to the received view, the received view is inadequate.“ (Suppe, 1974, S. 85 f) Eine letzte Möglichkeit, das Problem der theoretischen Terme auszuhebeln, ist die Umformulierung der Frage nach einer Unterscheidung von theoretischen und observablen Termen im Allgemeinen zu der nach einer Unterscheidung in Bezug auf eine bestimmte Theorie. Dies jedenfalls ist die bezogen auf den in Ab-

22 | 2 Physikalische Theorien schnitt 2.3 dargestellten semantic approach of theories von Joseph D. Sneed (1971) vorgeschlagene Lösung, die mit Blick auf das tatsächliche Vorgehen der Physiker ihre Berechtigung findet. Diese wüssten im Einzelfall sehr wohl, welche Ausdrücke eine direkte empirische Entsprechung besitzen und welche nicht. In diesem Sinn hatte schon Hamel geschrieben: Die Begriffe selbst sind nicht unklar, nur die Bücher drücken sich über sie oft recht metaphysisch und dunkel aus. Und was verschlägt es, wenn die Brauchbarkeit der Begriffe merkwürdig ist – vielleicht ein wenig rätselhaft? Wenn die Grundgesetze der Mechanik tiefer sind als mancher es bequem findet, und sich nicht mit ein paar eleganten Worten, wie Konventionen und Ökonomie des Denkens, Abstraktion und Idealisierung abtun lassen? (Hamel, 1908, S. 354)

So sei im Prinzip klar, wie sich Masse und Kraft messen ließen und welche Beobachtungen zur Bestätigung einer Theorie dienten. Ob der Begriff „rot“ einer für jede Theorie eindeutig abgrenzbaren observablen Sprache angehört ist irrelevant, solange nur Einigkeit darüber besteht, dass der farbige Punkt in meiner Auswertung von Daten für einen bestimmten Detektor einem bestimmten in die Rechnung einfließenden Wert entspricht (vgl. Abschnitt 2.4.2). Aber selbst bei Akzeptanz dieser Lösung bleibt die Frage nach der epistemologischen Relevanz des received view offen. Auch wenn es in späten Werken aus dem Umfeld der Positivisten Überlegungen zur Einbettung einer solchen Position gab (vgl. Hempel, 1974), können diese dem ursprünglich geforderten, starken Erkenntnisanspruch, nicht gerecht werden.

2.2.3 Die Rolle wissenschaftlicher Modelle Auch wenn es noch viel Klärungsbedarf gibt, besteht in der aktuellen philosophischen Debatte zumindest Konsens darüber, dass wissenschaftliche Modelle, wie das Bohrsche Atommodell, das Billardball-Modell eines Gases oder das MITBag-Modell, bei der Entwicklung und Anwendung von Theorien von zentraler Bedeutung sind (vgl. Unterabschnitt 2.3.3). Diese Auffassung musste sich erst entwickeln und kann für weite Teile des 20ten Jahrhunderts nicht als Allgemeingut angesehen werden. Nach da Costa und French, an deren Arbeit ich mich für die Darstellung dieses Unterabschnitts orientiert habe, wurde im received view unter einem Modell eine Interpretation des formalen Apparates einer Theorie T verstanden (vgl. daCosta und French, 2000). Dies entspricht dem Modellbegriff, wie er sich in der modernen Logik in Anlehnung an Tarski entwickelt hat (vgl. Chang und Keisler, 1990, S. 18 ff). So schreibt Braithwaite, „an [. . . ] explication of model for a theory can be given by saying that a model is another interpretation of the

2.2 Der received view of theories |

23

theory’s calculus“ (Braithwaite, 1962, S. 225), und bei Nagel findet sich die folgende Textpassage: Let P be a set of postulates; let P* be a set of statements obtained by substituting for each predicate variable in P some predicate that is significant for a given class of elements K; and finally, let P* consist only of true statements about the elements of K. By a model for P we understand the statements P* , or alternately the system of elements K characterised by the properties and relations that are designed by the predicates of P* . (Nagel, 1961, S. 96)

Achinstein zieht eine analoge Definition zur Charakterisierung des Modellverständnisses im received view heran (vgl. Achinstein, 1968, S. 228). Nagel selbst beruft sich auf Definitionen von Carnap, Tarski, aber auch Suppes.14 Aus Sicht des received view ergeben sich die Modelle einer Theorie damit durch Anwendung der correspondence rules auf V t , womit sie schlicht aus dem theoretischen Teil von T deduzierbar sind. Dies führt zu zwei grundlegenden Positionen, die von Seiten des logischen Positivismus in Bezug auf die Rolle von Modellen eingenommen werden können. Braithwaite unterscheidet zwischen den Kontextualisten und den Modellisten (vgl. Braithwaite, 1962). Modellistische Ansätze räumen Modellen trotz des oben geschilderten Umstands zumindest eine heuristische Bedeutung für das Verstehen wissenschaftlicher Theorien ein. Danach sei es sinnvoll, die theoretischen Terme einer abstrakten Theorie T auf Begriffe einer einfacheren, bereits verstandenen Theorie T ′ zurückzuführen (vgl. Braithwaite, 1962, S. 227 f). Es gibt hier eine starke Beziehung zum Konzept der Theorienreduktion, genauer, zu heterogenen Reduktionen im Standardmodell nach Nagel, bei denen in einem ersten Schritt eine Beziehung zwischen den Termen der zu reduzierenden und denen der reduzierten Theorie hergestellt wird, um dann in einem zweiten Schritt die entsprechenden Gesetze abzuleiten (vgl. Unterabschnitt 3.1.2). Braithwaite fasst die zentralen Aspekte der modellistischen Position mit den folgenden Worten zusammen: What the modelists [. . . ] think necessary is that the correlates, in the model, of the theoretical concepts of the theory should be understood, and they may be understood as being theoretical concepts of a simpler theory which is already understood. Attempts to understand electromagnetic theory by constructing mechanical models for it did not depend upon supposing that all the mechanical concepts involved e.g. kinetic energy, potential energy, actions, were observable, but only that the theory of mechanics using these as theoretical

14 Mit Blick auf Suppes als einen der ersten Vertreter des semantic approach unterscheiden sich der Modellbegriff im received view und im semantic approach in der Tat nicht signifikant voneinander. Der Unterschied ergibt sich vielmehr durch die Verwendung von Modellen in und deren Bedeutung für wissenschaftliche Theorien (vgl. Abschnitt 2.3).

24 | 2 Physikalische Theorien concepts had been previously understood so that all its concepts were familiar. (Braithwaite, 1962, S. 227)

Auf diese Weise würde sich, so Braithwaite weiter, eine Hierarchie von Theorien ergeben. Zum Verständnis der theoretischen Konzepte einer Theorie T1 sei das Verständnis einer weiteren, grundlegenden Theorie T2 erforderlich, deren Verständnis ggf. eine Theorie T3 erfordert usw.. Dennoch führe die Fortsetzung dieser Kette dazu, dass am Ende eine Theorie T n stünde, deren theoretisches Vokabular auf observable Ausdrücke zurückführbar sei. Vertreter einer modellistischen Auffassung ist Norman R. Campbell (1920), der von einer wissenschaftlichen Theorie verlangt, intellektuell befriedigend zu sein. Hierfür liefere der mathematische Formalismus zwar die Grundlage; wirklich zugänglich würde die Theorie aber erst durch ein entsprechendes Modell, das nach Campbell in einer Analogiebeziehung zum eigentlich zu beschreibenden Phänomenen steht. Der Zusammenhang von Analogien und Modellen geht für Campbell so weit, dass er die zugehörigen Begriffe synonym benutzt: Analogies are not ‘aids’ to the establishment of theories; they are an utterly essential part of theories, without which theories would be completely valueless and unworthy of the name. It is often suggested that the analogy leads to the formulation of the theory, but that once the theory is formulated the analogy has served its purpose and may be removed or forgotten. Such a suggestion ist absolutely false and perniciously misleading. (Campbell, 1920, S. 129; zitiert nach Hesse, 1966, S. 5 f)

In anderen modellistischen Darstellungen des received view wird die gesonderte Rolle von Modellen explizit hervorgehoben, wie bei Nagel, der Modelle als eigenständige Theorienkomponenten aufführt, wenn er schreibt: For the purpose of analysis, it will be useful to distinguish three components in a theory: (1) an abstract calculus that is the logical skeleton of the explanatory system, and that ‘implicitly defines’ the basic notions of the system; (2) a set of rules that in effect assign an empirical content to the abstract calculus by relating it to the concrete materials of observation and experiment; and (3) an interpretation or model for the abstract calculus which supplies some flesh for the skeletal structure in terms of more or less familiar conceptual or visualizable materials. (Nagel, 1961, S. 90)

Aber auch dies darf nicht darüber hinwegtäuschen, dass Modelle immer noch aus dem formalen Apparat der Theorie ableitbar sind und eine grundlegende Rückführbarkeit auf theoretische Ausdrücke – wenn auch über andere Theorien – gegeben sein muss: Die explizite Aufnahme von Modellen in Nagels Definition ist lediglich heuristisch begründet.

2.2 Der received view of theories |

25

Als Vertreter kontextualistischer Ansätze nennt Braithwaite Carnap, Frank, Hempel sowie sich selbst. Die Bedeutung von Modellen ist hier noch geringer als nach modellistischer Auffassung: Briefly, the contextualists hold that the way in which theoretical concepts function in a scientific theory is given by an interpretation of the calculus expressing the theory which works from the bottom upwards. The final theorems of the calculus are interpreted as expressing empirically testable generalisations, the axioms of the calculus are interpreted as propositions from which these generalisations logically follow, and the theoretical terms occurring in the calculus are given a meaning implicitly by their context, i.e. by their place within the calculus. So an understanding of a theoretical concept in a scientific theory is an understanding of the role which the theoretical term representing it plays in the calculus expressing the theory and the empirical nature of the theoretical concept is based upon the empirical interpretation of the final theorems of the calculus. If such a contextualist account of the meaning of theoretical terms is adequate, thinking of a model for a theory is quite unnecessary for a full understanding of the theory. (Braithwaite, 1962, S. 230 f)

Die modellistische Position, so Braithwaite weiter, würde lediglich einen Zwischenschritt zwischen der vollständigen Interpretation des Kalküls und den Phänomenen liefern; für manche Menschen sei dies leichter eingängich, an der grundsätzlichen Überflüssigkeit von Modellen ändere dies allerdings nichts: [T]he essential step, philosophically speaking, is the same for the modelist as for the contextualist – to interpret the calculus, from the base upward, so that it expresses the theory. The modelist does this by re-interpreting an originally interpreted calculus which he has previously disinterpreted; the contextualist does it by interpreting an originally uninterpreted calculus. The modelist does not escape the semantic ascent: he dodges having to speak explicitly of a calculus by talking of model and theory having the same deductive structure, but to understand this presupposes a semantic ascent. (Braithwaite, 1962, S. 231)

Sowohl für modellistische als auch für kontextualistische Ansätze gilt also, was da Costa und French bezogen auf Carnap (1939) formulieren, wenn sie schreiben: „Models are therefore ultimately dispensable [. . . ]. At best they have an aesthetic, didactic, or heuristic value [. . . ] but are ‘quite unnecessary’ when it comes to understanding or successfully applying a theory.“ (daCosta und French, 2000, S. 117) Der Ausgangspunkt für ein Umdenken und damit auch für die Kritik am received view findet sich zuerst in den Arbeiten von Mary B. Hesse (1966) und Peter Achinstein (1968), deren Positionen von Stathis Psillos als „Analogical Approach“ zusammengefasst werden. Die folgende Darstellung beruht teils auf Psillos (1995). Hesse (1966, S. 1 – 56) setzt mit ihren Überlegungen bei Campbell an. In einem fiktiven Dialog stellt sie einen Anhänger der Überzeugung Campbells, Modelle hätten eine Berechtigung in der Wissenschaftsphilosophie, einem überzeugten Du-

26 | 2 Physikalische Theorien hemisten gegenüber, dessen dem Kontextualismus nahe Position sich in Hesses Worten wie folgt zusammenfassen lässt: [. . . ] I do not deny of course that models may be useful guides in suggesting theories, but I do not think they are essential, even as psychological aids, and they are certainly not logically essential for a theory to be accepted as scientific. When we have found an acceptable theory, any model that may have led us to it can be thrown away. (Hesse, 1966, S. 7)

Das vom fiktiven Campbellianer dargestellte grundsätzlich neue an Hesses Position ist, dass nicht mehr von einer bestehenden Theorie ausgegangen wird, sondern von einem zu modellierenden Zielsystem X. Bei diesem könne es sich um eine von Wissenschaftlern zu untersuchende Phänomen-Klasse handeln, die in einer vorausgesetzten Ähnlichkeitsbeziehung zu einem weiteren System Y stehen müsse (vgl. Psillos, 1995, S. 111 ff). Im Falle des Billardballmodells eines Gases ist das Zielsystem X die zu untersuchende Ansammlung von Gas und das System Y eine Ansammlung von Billardbällen. Die Ähnlichkeitsbeziehung entspricht jetzt einer Analogiebeziehung zwischen X und Y. Hesse (1966, S. 8 ff) unterscheidet drei Arten von Analogien (vgl. Psillos, 1995; Frigg und Hartmann, 2012): 1. Positive Analogien entsprechen denjenigen Eigenschaften und Relationen von Eigenschaften, die sowohl von X als auch von Y erfüllt werden. Im Falle des Billardballmodells sind dies Bewegung und Aufprall der einzelnen Systembestandteile. Die Kenntnis positiver Analogien ist somit Grundlage einer erfolgreichen Modellbildung, ihre Adäquatheit hingegen bleibt Bestandteil späterer Überprüfungen. 2. Negative Analogien stellen Eigenschaften und deren Relationen dar, in denen sich die beiden Systeme unterscheiden – im Beispiel die makroskopisch wahrnehmbare Farbe der Billardbälle. 3. Bei neutralen Analogien ist offen, ob es sich um positive oder negative Analogien handelt. Durch ihre Untersuchung lassen sich weitere Rückschlüsse von System Y auf System X ziehen. Hesse differenziert zwischen zwei Arten von Modellen. Ein model1 beinhaltet sowohl die positiven als auch die negativen Analogien, womit sich eine dreiwertige Relation ergibt: „M modelliert ein Zielsystem X auf Basis von Y“. Demgegenüber steht das physikalisch realisierte System Y, das Hesse als „model2 “ bezeichnet. Ein Modell vom Typ „model1 “ entspricht damit einem fiktiven Gegenstand. Dies ist am Beispiel des Billardballmodells what we imagine when we try to picture gas molecules as ghostly little objects [. . . ]. The model1 is the imperfect copy (the billiard balls) minus the known negative analogy, so that we are only considering the known positive analogy, and the (probably open) class of proper-

2.2 Der received view of theories |

27

ties about which it is not yet known whether they are positive or negative analogies. (Hesse, 1966, S. 9)

In Hesses weiteren Ausführungen kommt der Differenzierung von model1 und model2 keine weitere Bedeutung zu. In seiner Wiedergabe von Hesses Position bezeichnet Psillos (1995, S. 112) diesen Umstand als „unglücklich“ und betont zurecht die unterschiedlichen von beiden Modelltypen in den Wissenschaften eingenommenen Rollen. Spreche ich folgend von einem Modell im Sinne Hesses, meine ich damit zunächst „model1 “. Für die zur Modellierung vorausgesetzten positiven Analogien muss von Idealisierungen, Vereinfachungen sowie Approximationen ausgegangen werden. Am Beispiel des Billardballmodells entspricht die Annahme der vollständigen Elastizität der Billardbälle einer Idealisierung, die Vernachlässigung der Dauer der Anstöße einer Approximation und die Vernachlässigung intermolekularer Kräfte einer Vereinfachung. Als Konsequenz ergibt sich, dass ein Verständnis von Modellen als aus der Theorie ableitbar nicht mehr Aufrechterhalten werden kann: Eine Theorie ist nach dem received view eine Zusammenfassung von wörtlich zu verstehenden Aussagen über ein physikalisches System X. Diese Aussagen müssen als wahr angenommen werden, da die Theorie andernfalls ihre Funktion einer Beschreibung der Welt nicht erfüllt und als inadäquat verworfen werden muss. Aufgrund der Differenzierung in positive, negative und neutrale Analogien kann dasselbe über Modelle aber nicht gesagt werden. Psillos schreibt hierzu: When a theoretical model M is employed to provide a set of assumptions about the physical system X, one does not start off with the belief that M provides a literal description of X [. . . A] theoretical model M of X based on Y is a heuristic tool for the study of X. It is a set of assumptions about X, where these assumptions have been borrowed from another system Y on the basis of some substantive similarities between Y and X. However, it is not, and should not be taken as, representing X fully and in all its aspects. In fact, a theoretical model is open to all sorts of modifications, in the light of new experience, in an attempt to capture more accurately the phenomena under investigation. So one can employ a model even though one believes it to be only an approximation, or even a simplified, inaccurate and, at any rate, literally false representation of X. [. . . ] a model M of X based on Y represents X only in certain respects – specified by the positive analogies between X and Y – and to certain degrees – specified by the conditions of approximation and the idealisation employed in the model. (Psillos, 1995, S. 114 f)

Psillos bezieht sich bei seiner Aussage bereits auf Achinstein, dessen Position ich folgend darstellen werde. Der Punkt lässt sich aber auch unverändert auf Hesses Überlegungen anwenden: Ließen sich alle wissenschaftlich relevanten Modelle entsprechend der obigen Forderungen ableiten, würde ein und dasselbe physikalische Phänomen in der Welt in zwei teils widersprüchlichen Weisen repräsentiert

28 | 2 Physikalische Theorien werden – als Ansammlung von Gasmolekülen oder als Ansammlung von Billardbällen. Suppe (1974, S. 98) schreibt sogar von einer „Zweiteilung der Welt“. Dies ist mit den logischen Grundlagen des received view offensichtlich nicht vereinbar. Als Konsequenz muss Modellen eine andere Rolle zukommen als die ursprünglich antizipierte. Welche dies ist, bleibt unklar. In dieselbe Stoßrichtung geht auch die von Achinstein (1968, S. 203 ff) angeführte Kritik. Er verweist auf unterschiedliche Typen wissenschaftlich relevanter Modelle, die nach ihm keine adäquate Entsprechung im received view finden. Die von ihm entwickelte Taxonomie von Modellklassen kommt derjenigen von Hesse nahe, differenziert allerdings stärker. Damit lieferte er die Grundlage für eine moderne Taxonomie wissenschaftlicher Modelle (vgl. Frigg und Hartmann, 2012), auf die ich in Unterabschnitt 2.3.3 zurückgekommen werde. Achinstein unterscheidet grundlegend drei Arten von Modellen: Bei materiellen Modellen handelt es sich um physisch gegebene, vergrößerte oder verkleinerte Kopien des von ihnen repräsentierten Systems X. Beispiele sind Flugzeugmodelle zum Test in Windkanälen oder einfach Spielzeugautos. Die Stärke der Übereinstimmung mit X kann von einer nahezu vollständigen Gleichheit der Eigenschaften, beim Modell einer Brücke für Stabilitätstests, bis hin zu lediglich einer grundlegenden strukturellen Übereinstimmung, wie bei einem Schaltplan, variieren.15 Repräsentative Modelle nach Achinstein entsprechen damit Modellen vom Typ model2 nach Hesse. Hesses model1 -Klasse findet bei Achinstein eine weitere Differenzierung. Theoretische Modelle auf der einen Seite stellen ähnlich wie bei Hesse Behauptungen über das Zielsystem X dar und ordnen ihm damit eine durch Vereinfachungen und Approximationen bestimmte innere Struktur zu. Auch Achinstein hebt das häufige Vorhandensein einer Analogie-Beziehung hervor, die auf einer weiteren – möglichst intuitiv zugänglichen – Theorie beruhe, wie die klassische Elektrodynamik und Mechanik beim Bohrschen Atommodell. Nach Achinstein sind sowohl materielle als auch theoretische Modelle grundlegend von der Gestalt, dass sie ein physikalisches oder zumindest physikalisch mögliches System – sei es materiell oder nur in der Vorstellung gegeben – darstellen. Dies ist bei

15 Achinstein (1968, S. 209) verwendet statt „material model“ selbst den Begriff „representational model“. Mit Blick auf die aktuelle Debatte, nach der es zentrale Eigenschaft aller Modelle ist, zu repräsentieren, würde der Begriff zu einer Doppeldeutigkeit führen, die hier möglichst vermieden werden soll. In Bezug auf die übernommenen Eigenschaften differenziert Achinstein (1968, S. 209 ff) zudem zwischen true models, adequate models, distorted models und analogue models. Diese diskrete Unterteilung leuchtet wenig ein, weshalb eine Auflistung von materiellen Modellen und dem Verweis, dass diese in unterschiedlichen Graden mit dem von ihnen repräsentierten System übereinstimmen, ohne explizite Grenzen hierfür anzugeben, sinnvoller erscheint.

2.2 Der received view of theories |

29

imaginären Modellen nicht mehr gegeben. Sie sind zwar wie theoretische Modelle auch Klassen von Aussagen; doch werden Annahmen vorausgesetzt, die logisch, nicht aber physikalisch erfüllbar sein müssen. Achinstein nennt hier Poincar´es Modell einer nichteuklidischen Geometrie: Suppose, for example, a world enclosed in a large sphere and subject to the following laws: The temperature is not uniform; it is greatest at the centre, and gradually decreases as we move towards the circumference of the sphere, where it is absolute zero. The law of this temperature is as follows: If R be the radius of the sphere, and r the distance of the point considered from the centre, the absolute temperature will be proportional to R2 − r2 . Further, I shall suppose that in this world all bodies have the same co-efficient of dilatation, so that the linear dilatation of any body is proportional to its absolute temperature. Finally, I shall assume that a body transported from one point to another of different temperature is instantaneously in thermal equilibrium with its new environment. (Poincare, 1952, S. 65; zitiert nach Achinstein, 1968, S. 219)

Zusammengefasst differenziert Achinstein selbst die Modelle gemäß der von ihnen eingenommenen Rolle innerhalb der wissenschaftlichen Forschung: In short, when the scientist proposes a theoretical model of X, he wants to approximate to what X actually is by making assumptions about it. In an [representative] model of X he wants to construct or describe some different item Y that bears certain analogies to X. In an imaginary model of X he wants to consider what X could be like if it were to satisfy conditions he specifies. (Achinstein, 1968, S. 222)16

Diese plausible Unterteilung sei, so Achinstein (1968, Überschrift zu Kapitel 8), unverträglich mit der „semantical theory of models“, womit er das Modellverständnis im received view meint. So erfüllten repräsentative Modelle nicht einmal die grundlegende Eigenschaft, sprachliche Gebilde zu sein (vgl. Achinstein, 1968, S. 211). Auf theoretische und imaginäre Modelle auf der anderen Seite träfe das zwar zu; diese beschrieben aber nicht mehr etwas von der Theorie verschiedenes, was Achinstein als eine notwendige Forderung an Modelle im received view ansieht: Das Billardballmodell beschreibt also kein Gefäß mit Billardbällen, sondern eine Anzahl von Gasmolekülen, die dem theoretischen Teil der Theorie zugeordnet sind (vgl. Achinstein, 1968, S. 231). Auch würde ein Modellverständnis im Sinne des received view in Bezug auf die imaginären Modelle zur Folge haben, dass sich kontrafaktische Aussagen über die Welt ableiten ließen. Achinstein kommt zu folgendem Ergebnis: „The semantical theory attempts to supply a condition both

16 Zur Vermeidung von Überschneidungen mit der Terminologie von Hesse und etwaigen daraus resultierenden Unklarheiten, habe ich hier den Begriff „analogue“ durch den von Achinstein im gegebenen Kontext synonym verwendeten Begriff „representative“ ersetzt.

30 | 2 Physikalische Theorien necessary and sufficient for a model or an analogy. What I have argued is that this theory fails to characterize the cases to which its proponents want to apply it.“ (Achinstein, 1968, S. 256) Der received view ist also ungeeignet, allen in wissenschaftlichen und physikalischen Theorien vorkommenden Modellen gerecht zu werden. Diese Position wird auch in jüngster Vergangenheit von Frigg und Hartmann mit den folgenden Worten vertreten: If, for instance, we take the mathematics used in the kinetic theory of gases and reinterpret the terms of this calculus in a way that makes them refer to billiard balls, the billiard balls are a model of the kinetic theory of gases. Proponents of the syntactic view believe such models to be irrelevant to science. Models, they hold, are superfluous additions that are at best of pedagogical, aesthetical or psychological value. (Frigg und Hartmann, 2012, Abschnitt 4.1.)

Dass sich Modelle als integrale Bestandteile wissenschaftlicher Arbeit nicht ohne Weiteres in den received view, wie von den logischen Positivisten gegeben, integrieren lassen, heißt nicht, dass dies prinzipiell unmöglich ist. Dennoch gab es diesbezüglich noch keine befriedigende Antwort und DaCosta und French stehen mit ihrer Meinung nicht allein, wenn sie bezogen auf den received view in der Retrospektive schreiben: „A critical factor in [its] death was the apparent failure to adequately accommodate the nature and role of models in scientific practice.“ (daCosta und French, 2000, S. 116)

2.2.4 Das Problem fehlender Formalisierungen Zu Ende von Unterabschnitt 2.2.1 habe ich bereits auf einige von Physikern durchgeführte Formalisierungen verwiesen und angemerkt, dass die Nähe zum received view unter Voraussetzung seiner strengen Auslegung trügerisch ist. Bei den aufgeführten Formalisierungen wurden die genannten semantischen Beziehungen entweder explizit, aber umgangssprachlich mit einem intuitiven Element, oder als heuristisches Mittel ohne konkrete Zuweisung von Beobachtungstermen, angegeben, nie jedoch in rigoroser Form, wie vom received view in strenger Auslegung verlangt.17

17 Ersteres machen McKinsey et.al. sowie Simon. Die Auffassung der Grundobjekte als Massenpunkte, starre Körper und Volumenelemente nach Hamel kann in der Tat als heuristisches Element aufgefasst werden, das wie in der Mathematik Hilfestellung bei der Herleitung weiterer Theoreme gibt, aber nur unter dem Blickwinkel eines strengen Konstruktivismus auf Objekte des Phänomenbereichs bezogen werden kann.

2.2 Der received view of theories | 31

Die Forderung nach einer strikt formalen Darstellung im logischen Positivismus ist das Pendant der allen Ismen innewohnenden Verallgemeinerungen, von denen abzuweichen einem Infrage-stellen des gesamten Ansatzes gleich kommt. In der Tat werden die Forderungen in Anbetracht anhaltender Kritik von späten Vertretern des logischen Positivismus nur noch als ein Ideal angesehen, das es nicht zwangsläufig zu erfüllen gilt: It must be acknowledged, moreover, that in a few if any of the various scientific disciplines in active development is this requirement of maximum explicitness fully realized, since in the normal practice of science it is rarely necessary to spell out in detail all the assumptions that may be involved in attacking a concrete problem. This requirement of explicitness is thus an ideal demand rather than a description of the actual state of affairs that obtains at a given time. (Hempel, 1965, S. 345)

Damit wird aber fraglich, wie glaubwürdig ein formales Theorienverständnis sein kann, wenn sich an Stelle der expliziten Rekonstruktion einer relevanten Theorie nicht nur in Ausnahmefällen, sondern in der Regel entweder auf triviale oder nicht zu Ende geführte Beispiele zurückfallen gelassen wird. So bei Carnap (1956, S. 47 f), der als Beispiel den Ansatz der Formalisierung einer allgemeinen RaumZeit-Theorie liefert, sich aber bei der Formulierung der correspondence rules wieder auf einen allgemeinen Standpunkt zurückzieht. Ähnlich sieht dies Suppes, wenn er schreibt: The most striking thing about [the received view] is its highly schematic nature. Concerning the first part of a theory the logical calculus, it is unheard of to find a substantive example of a theory actually worked out as a logical calculus in the writings of most philosophers of science. Much handwaving is indulged in to demonstrate that this working out of the logical calculus is simple in principle and only a matter of tedious detail, but concrete evidence is seldom given. (Suppes, 1967, S. 56)

Die Formalisierungsforderung ist wohlgemerkt nicht willkürlich, sondern verbunden mit einem für die logischen Positivisten zentralen Aufgabengebiet der Philosophie, denn wir finden also zwei Arten von Objekten wissenschaftlicher Untersuchungen: Auf der einen Seite die Dinge, Vorgänge, Fakten usw., auf der anderen Seite die sprachlichen Formen. Die Untersuchung der Fakten ist die Aufgabe der realwissenschaftlichen, empirischen Forschung, die der Sprachformen ist die Aufgabe der logischen, syntaktischen Analyse. Wir finden keinen dritten Gegenstandsbereich neben dem empirischen und dem logischen. (Carnap, 1936b, S. 265)

Konsequenz des Wegfalls des logisch-syntaktischen Teils der Wissenschaften und Einführung eines anarchistischen Elements ist damit die Unmöglichkeit der Phi-

32 | 2 Physikalische Theorien losophie im Verständnis der Vertreter des Wiener Kreises.18 Ob der Mangel einer vollständigen Formalisierung als Symptom hierfür gesehen werden soll, sei dahingestellt. Fakt ist, dass es kaum bis zum Abschluss durchgeführte Formalisierungen im Sinne des received view gibt und in Anbetracht der zuvor geschilderten Unklarheiten berechtigte Kritik an der Adäquatheit dieses Theorienverständnisses geäußert werden konnte und auch wurde.

2.2.5 Abschließende Anmerkungen zur Kritik am received view Die vorangegangenen Ausführungen stellen in zweierlei Hinsicht keine erschöpfende Kritik des received view dar. Auf der einen Seite, da neben dem Problem der theoretischen Terme bzw. der Theoriegeladenheit der Beobachtung, den Unklarheiten in Bezug auf die von Modellen eingenommene Rolle und dem schlichten Fehlen konsequent durchgeführter Formalisierungen in der Literatur noch eine Vielzahl weiterer Kritikpunkte angeführt wird. Beispiele sind die Frage nach einem Demarkationskriterium von analytischen und synthetischen Ausdrücken oder Detailfragen zur Rolle der correspondence rules. All diese Probleme sind nicht unabhängig voneinander, sondern an vielen Stellen miteinander verwoben (vgl. Suppe, 1974, S. 115 ff). Dass ich mich lediglich auf eine Auswahl konzentriert habe ist dadurch gerechtfertigt, dass auch von den Vertretern des semantic approach in erster Linie auf die in den Unterabschnitten 2.2.2 bis 2.2.4 ausgeführten Punkte explizit eingegangen wird. Die nicht dargestellten Probleme ergeben sich für das modelltheoretische Theorienverständnis erst gar nicht, wie sich in Folgeabschnitt 2.3 herausstellen wird. Zudem ist meine Darstellung nicht erschöpfend, da die Kritik in der aktuellen Debatte zum Teil wieder eine Relativierung erfährt. So argumentiert Lutz (2010) dafür, dass die Grundlage vieler Kritikpunkte eine Fehlinterpretation der kritisierten Texte sei. Schon die logischen Positivisten hätten keine Formalisierung ausnahmslos jedes Aspekts einer Theorie verlangt, wodurch die grundsätzliche Adäquatheit ihres Ansatzes dennoch nicht angegriffen werde. Auch beziehe sich die Kritik in Bezug auf die Rolle von Modellen lediglich darauf, dass sich Carnap und Hempel dagegen ausgesprochen hätten, Modellen eine Bedeutung im Erklä-

18 Die strenge Forderung der anfangs geforderten logischen Formalisierung auch der Reduktionsbeziehung zweier Theorien war der Hauptkritikpunkt von Feyerabend an dem auf dem received view aufbauenden Reduktionsverständnis, da aufeinander folgende Theorien nach ihm inkompatibel miteinander sind und eine logische Ableitbarkeit hier nicht gegeben ist. Das Problem wird hier in Abschnitt 3.1 noch im Detail besprochen.

2.3 Der semantic approach of theories

| 33

rungszusammenhang einzuräumen. Für den Entdeckungszusammenhang sei die Sachlage eine andere: Like Hempel, Carnap does not dismiss theoretical models or questions the usefulness of analogical models in the context of discovery [. . . ]. He only objects to the demand that every formalism be supplied with an analogical model in terms of macroprocesses; that is, he objects to analogical models as necessary for the theory’s application. (Lutz, 2010, S. 97)

Am Ende seiner Untersuchung einzelner Kritikpunkte kommt Lutz zum folgenden Schluss: These results counter some of the criticism of the received view, but by no means all of them. It is noteworthy, however, that it was not even necessary to engage with the content of the criticism, but only with their presumptions about the received view. Given this comparatively easy defense, there is hope that the received view can be resurrected as a viable method in the philosophy of science. In Carnap’s spirit, one would hope that such a resurrection brings with it improvement and generalizations not only of the received view itself, but also of the explications that rely on it. (Lutz, 2010, S. 28 f)

Dem ist entgegen zu halten, dass Lutz bei seiner Argumentation auch bezogen auf Detailfragen von der Existenz des received view ausgeht. Aber gerade bei Detailfragen sind sich die logischen Positivisten gar nicht einig, wie ich bereits zu Beginn dieses Abschnitts aufgeführt habe Suppe (vgl. auch 1974). Der received view sollte deshalb nicht als einheitliches Konzept verstanden werden, sondern als oberflächliche Zusammenfassung von Einzelpositionen. Als Folge lässt er sich aber auch nicht durch einzelne Autoren, selbst wenn es sich um Carnap oder Hempel handelt, rechtfertigen – dies gilt zumindest so lange, wie sich nicht auf eine einheitliche Formulierung festgelegt wird. Festzuhalten ist, dass der schon längst tot geglaubte received view (vgl. daCosta und French, 2000) damit Wiederbelebungsversuchen ausgesetzt ist, auf die hier nicht weiter eingegangen werden soll und kann. Mein Ziel war es, die grundlegende Motivation der Vertreter des semantic approach nachvollziehbar zu machen und das Fundament für den folgenden Abschnitt zu legen. Dies habe ich erreicht und es schließt sich eine Darstellung des semantic approach selbst an.

2.3 Der semantic approach of theories Die in Abschnitt 2.2 ausgeführte Kritik am received view machte es seinen Vertretern schwierig bis unmöglich, Glaubwürdigkeit zu bewahren. Die Alternative, wissenschaftliche Erkenntnis als willkürliche, ungeordnete Ansammlung von

34 | 2 Physikalische Theorien Wissen aufzufassen, wirkte ebenso unbefriedigend wie kontra-intuitiv. Ausweg aus diesem Zwiespalt der Skylla einer inadäquaten Formalisierung wissenschaftlicher Theorien und der Charybdis einer formlosen Wissenschaft, lieferte der semantic approach of theories. Seine Wegbereiter waren unter anderem Patrick Suppes (1957) mit seinem einflussreichen Werk Introduction to Logic sowie Evert W. Beth (1948, 1949, 1960) (vgl. für eine Zusammenfassung van Fraassen, 1970). Grundlage meiner folgenden Darstellung des semantic approach im Allgemeinen sind die Arbeiten von Werner Diederich (1996) und Dimitrios Portides (2005). Van Fraassen beschreibt die Position von Beth, einem ursprünglichen Anhänger des received view, mit folgenden Worten: He does not view physical theory as, ideally, a kind of Principia Mathematica cum nonlogical postulates. His approach takes into account the essential role of models in science. In Beth’s account, the mathematics is not part of the physical theory, but is used to construct the theoretical frameworks. (van Fraassen, 1970, S. 337)

Die formale Sprache diente bei Beth der Auszeichnung einer Klasse imaginärer oder realer Systeme bzw. einer Klasse von Modellen, die sich mit der Theorie identifizieren ließ. Auch wenn seine formale Darstellung nicht ausgereift war, legte dies den Grundstein für alle folgenden Ausprägungen des semantic approach. In der Introduction to Logic schließlich verband Suppes diese allgemeinen wissenschaftsphilosophischen Überlegungen mit einer mengentheoretischen Rahmenkonstruktion im Sinne Bourbakis. Da ich mich beim Abgleich des semantic approach mit dem Theorienverständnis nach Scheibe in Abschnitt 2.4 primär für formale Aspekte interessieren werde, ist mein Ausgangspunkt die ebenfalls formale Arbeit von Suppes (Unterabschnitt 2.3.1). Diese liefert die Grundlage zum Verständnis der Position von Balzer, Moulines und Sneed (BMS, Unterabschnitt 2.3.2). Den Ansatz von BMS habe ich anderen Ausprägungen des semantic approach, etwa nach Bas van Fraassen oder Frederick Suppe, gegenüber aus drei Gründen vorgezogen: Zunächst ist seine Ausarbeitung in An Architectonic for Science (Balzer et al., 1987) sehr detailliert und weist viele Parallelen zur Rekonstruktion nach Scheibe auf, was meinen späteren Vergleich vereinfachen wird. Darüber hinaus hatten BMS einen sehr starken Einfluss auf die wissenschaftsphilosophische Landschaft.19 Ihr Rekonstruktionsansatz wird damit zu einem idealen Verbindungsstück zwischen Scheibe und vergleichbaren Ansätzen. In Unterabschnitt 2.3.3 werde ich mich der von Cartwright, Morgan, Morrison und Bailer-Jones (CMMB) aufgeworfenen Kritik widmen und

19 Eine bis in die 90er Jahre reichende Liste von Autoren, die sich weitestgehend auf Sneed berufen findet sich bei Diederich et al. (1989, 1994) sowie Schmidt (2014).

2.3 Der semantic approach of theories

| 35

zeigen, dass diese einen Großteil der semantischen Theorienkonzeptionen trifft. Eine Ausnahme bilden die Ansätze von Erhard Scheibe und Günther Ludwig (vgl. Abschnitt 2.4).

2.3.1 Der Ansatz von Suppes Für Patrick Suppes zählt die Rekonstruktion wissenschaftlicher Theorien neben der Formulierung realistischer Messtheorien und der Begründung von Wahrscheinlichkeitskonzepten bereits 1954 zu den Hauptaufgaben der Wissenschaftsphilosophie (vgl. Suppes, 1954). Die Rolle einer formalen Sprache nimmt bei ihm aber kein Logik-Kalkül, sondern die informelle Mengenlehre ein. Eine Menge ist für ihn „any kind of a collection of entities of any sort.“ (Suppes, 1954, S. 177). Dies entspricht dem Konzept, auf dem schon Georg Cantor Ende des 19ten Jahrhunderts die Mathematik aufbauen wollte, wenn er schreibt: „Unter einer ‚Menge‘ verstehen wir jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die ‚Elemente‘ von M genannt werden) zu einem Ganzen.“ (Cantor, 1932, S. 282) Die logischen Positivisten sind bei ihren Formalisierungen von einem uninterpretierten, syntaktischen Kalkül ausgegangen, dem sie über correspondence rules eine Domäne zugeordnet hatten (vgl. Abschnitt 2.2). Suppes dreht das Verhältnis um: Mit dem Postulat von Mengen wird die Existenz der Domäne vorausgesetzt und die logische Wahrheit einer Formel in deren Abhängigkeit gestellt. Logische Wahrheiten sind damit entgegen dem klassischen Verständnis abhängig von Existenzaussagen – für einen braven logischen Positivisten undenkbar.20 Das Vorgehen von Suppes und seiner Nachfolger war also kein syntaktisches, sondern ein semantisches. Der Unterschied wird durch die unten folgenden Beispiele verdeutlicht werden. Dass Suppes die naive Mengenlehre zur Grundlage seiner Theorie gewählt hat, verwundert auf den ersten Blick. Damals bekannte Axiomensysteme wie das von Zermelo (1908) und Fraenkel (1921) mit Auswahlaxiom (ZFC) oder von Neumann, Bernays und Gödel (NBG; wiedergegeben in Mendelson, 1997) lieferten be20 Mit der Voraussetzung von Existenzaussagen zur Formalisierung ist auch die Trennung zwischen Kalkül und Objektbereich aufgehoben, was ich schon in Unterabschnitt 2.2.2 in Übereinstimmung mit Suppe als einen Angriff auf die epistemische Relevanz des received view herausgestellt hatte. Die Wahl von Existenzaussagen zum Ausgangspunkt war nicht zuletzt der Grund dafür, dass die Principia Mathematica von Whitehead und Russell (1963) zwar eine hervorragende Grundlegung der Arithmetik lieferte, entgegen Russells Überzeugungen aber keine des Logizismusprogramms, da mit Auswahl- und Unendlichkeitsaxiom auch Existenzaussagen mit in die Reihen der Axiome aufgenommen werden mussten.

36 | 2 Physikalische Theorien reits eine solide Fundierungsmöglichkeit, wohingegen die naive Mengenlehre Tür und Tor für die Zermelo-Russellsche Antinomie öffnet.21 Auch Suppes erkennt das Problem, gibt aber die folgende Erklärung seiner Entscheidung: some readers may feel that it would be more appropriate to develop the theory of sets axiomatically rather than intuitively. However, there are good grounds for introducing the concepts of set theory informally. The concepts of arithmetic are familiar to everyone; an axiomatic presentation of arithmetic may continually call upon familiar facts to guide and motivate its lines of development. Although the concepts of set theory are logically simpler in several respects than those of arithmetic, they are not generally familiar. The purpose of [the following chapters in Suppes’ book] is to provide such familiarisation. (Suppes, 1954, S. 177)

Das Argument ist plausibel, hält man sich vor Augen, dass die Introduction to Logic als Lehrbuch für die Aussagen- und Prädikatenlogik gedacht war. Die Wahl der informellen Mengenlehre war also primär didaktisch motiviert. Ziel einer Formalisierung ist für Suppes die Bestimmung eines mengentheoretischen Prädikats, dessen Extension die Modelle einer Theorie liefert. Der verwendete Modellbegriff entspricht dem der logischen Positivisten und damit dem der modernen Logik (vgl. Chang und Keisler, 1990, S. 18 ff), wonach „a model of a theory may be defined as a possible realisation in which all valid sentences of the theory are satisfied, and a possible realisation of the theory is an entity of the appropriate settheoretical structure.“ (Suppes, 1962, S. 24) Dass dieser Modellbegriff nicht alle physikalisch relevanten Modelle einbezieht, habe ich bereits in Unterabschnitt 2.2.3 gezeigt. In der Tat geht auch die zentrale Kritik am semantic approach in diese Stoßrichtung. Ich komme hierauf in Unterabschnitt 2.3.3 zurück. Seine Überlegungen verdeutlicht Suppes mit dem Prädikat „. . . ist eine Halbordnung“. A ist dabei genau dann eine Halbordnung, wenn es eine Menge X und eine zweiwertige Relation ≤ gibt, so dass A = (X, ≤) gilt und ≤ reflexiv, transitiv und antisymmetrisch bezüglich X ist (vgl. Suppes, 1957, S. 250). Dabei müssten die Reflexivität, die Transitivität und die Antisymmetrie streng genommen explizit in mengentheoretischer Schreibweise angegeben werden. Da die Auszeichnung eines mengentheoretischen Prädikats nach Suppes auch ohne die

21 Verkürzt gesagt verbietet die naive Mengenlehre entgegen ZFC und NBG nicht die Bildung der Menge aller Mengen, die sich nicht selbst enthalten – {x | x ∈ / x} (vgl. Frege, 1980, S. 58 ff). Dies entdeckten nahezu zeitgleich Bertrand Russell und Ernst Zermelo. Da eine gängige Grundlegung der Mathematik zur damaligen Zeit in der Tat die (naive) Mengenlehre war (bzw. eine logizistische Begründung von Frege, die aber ebenfalls von der Antinomie betroffen war), diese aber die obige widersprüchliche Mengenbildung in ihrem Fundament zuließ, resultierte die sogenannte Grundlagenkrise der Mathematik. Für einen ersten Einblick in die Thematik siehe Horsten (2012).

2.3 Der semantic approach of theories

|

37

hierfür notwendigen umständlichen Formalisierungen nachvollziehbar ist, habe auch ich aus Gründen der Verständlichkeit darauf verzichtet. Dass „≤“ eine zweiwertige Relation bezeichnet, bedeutet, dass es sich um eine Zusammenfassung von 2-Tupeln mit Einträgen aus X handelt, also um ein Element der Potenzmenge von X × X. „X“ selbst bezeichnet eine beliebige Menge. Die Kenntnis der mathematischen Bedeutung aller vorkommenden Zeichen vorausgesetzt, liefert damit beispielsweise X

:=



:=

{1, 2}

{(1, 2), (1, 1), (2, 2)}

das Modell einer Halbordnung. Dieses Vorgehen erinnert nicht nur zufällig an die Arbeit der Bourbaki-Bewegung, die mit ähnlichen Formalisierungen große Erfolge bei der Fundierung der modernen Mathematik verzeichnen konnte (vgl. Bourbaki, 1968, Kapitel IV). Neu bei Suppes ist die Betonung, dass durch das Offenlassen der Bedeutung der Elemente von X die Möglichkeit von mehr als einer rein mathematischen Anwendung gegeben ist. Steht „X“ für die Menge der Markierungen auf einem Lineal, lassen sich diese mit einer entsprechend festgelegten Relation ebenfalls als eine Halbordnung auffassen. Suppes schöpft dieses Potential selbst nicht voll aus, sieht aber bereits dessen Bedeutung für die Entwicklung realistischer Messtheorien (vgl. Suppes, 1957, S. 260 ff bzw. Unterabschnitt 2.4.2 hier). Modelle sind im semantic approach, anders als im received view (vgl. Unterabschnitt 2.2.3), von zentraler Bedeutung: Schon für Suppes ist die Formulierung eines mengentheoretischen Prädikats lediglich ein Mittel zum Zweck des Aufzeigens der Modelle einer Theorie. Es spräche aber auch Nichts gegen eine Charakterisierung mit anderen Mitteln wie der Prädikatenlogik erster Stufe: When the theory of groups is axiomatized directly in first-order logic, the notion of model is defined so that the same set-theoretical entities are models for the theory thus formulated, and similarly for other theories which may be axiomatized either directly in first-order logic or by defining a set-theoretical predicate: the two axiomatizations have the same entities as models. (Suppes, 1957, S. 253)

Wissenschaftliche Theorien sind folglich unabhängig von der zu ihrer Darstellung verwendeten formalen Sprache. Stattdessen werden sie mit der Klasse ihrer Modelle identifiziert. Diese prinzipielle Sprachunabhängigkeit war die grundlegende Überzeugung vieler Nachfolger Suppes’ und damit eng verbunden mit den Grundlagen des semantic approach. In der Introduction to Logic ging Suppes auf keines der Probleme, die der received view hinterlassen hatte, explizit ein. Von diesen wog die Frage nach dem Zusammenhang formalsprachlicher Elemente mit den durch Modelle beschriebe-

38 | 2 Physikalische Theorien nen Phänomenen am schwersten. Einen naheliegenden Lösungsansatz formuliert Diederich im folgenden Zitat und schließt ihn gleichzeitig wieder aus: A straightforward answer would be that the claim connected with a theory is the claim that the entities to which the theory is to be applied actually bear the structure proposed by the theory. This construal, however would lead to the well-known ‘problem of theoretical terms’ as soon as such terms are involved in the description of the entities to which the theory is to apply. (Diederich, 1996, S. 16)

Zum Problem der theoretischen Terme aus Sicht des logischen Positivismus habe ich in Unterabschnitt 2.2.2 bereits ausführlich etwas geschrieben. Bezogen auf den semantic approach formuliert es Zoglauer damit übereinstimmend wie folgt: Im traditionellen Modell messen wir Funktionen um eine Theorie T zu verifizieren oder zu falsifizieren. Die Messung dient als Rechtfertigung und Begründung für die Theorie. In der strukturalistischen Wissenschaftstheorie wird dieser Begründungszusammenhang offenbar auf den Kopf gestellt: Wir brauchen die Theorie T um die Werte der theoretischen Funktionen bestimmen zu können. Wir sind also in einem logischen Zirkel gefangen. Theorie und Messung stehen in einem Wechselverhältnis, wobei das eine das andere bedingt. (Zoglauer, 1991, S. 35)

Die Introduction to Logic war also kein abgeschlossenes Opus, sondern die Grundlage für ausgeklügeltere Folgeprogramme. Diese Position vertritt auch Stegmüller: Die mengentheoretischen Axiomatisierungen von Suppes liefern stets nur den allerersten Schritt in der Richtung auf eine Klärung der Struktur physikalischer Theorien. Man beschränkt sich dabei, so könnte man sagen, auf den rein mathematischen Aspekt einer physikalischen Theorie und damit auf die Menge M der Modelle dieser Theorie. (Stegmüller, 1987, S. 178)

Suppes hat mit seiner Arbeit den Grundstein für eine Vielzahl von Formalisierungsansätzen gelegt. Im Folgenden werde ich einen von ihnen, nämlich den auf BMS zurückgehenden, eingehender betrachten.

2.3.2 Der semantic approach nach Balzer, Moulines und Sneed Einen fundamentalen Beitrag zum Durchbruch des semantic approach lieferte Joseph D. Sneed (1971) mit seinem Werk The Logical Structure of Mathematical Physics, welches später unter der Mitarbeit von Wolfgang Balzer und Ulisses C. Moulines mit An Architectonic for Science (Balzer et al., 1987) eine Verfeinerung fand. Nach beiden Werken liegt der Fehler vorausgehender Ansätze im Umgang mit dem Problem der theoretischen Terme in der Vermengung der theoretisch-

2.3 Der semantic approach of theories | 39

nichttheoretisch-Dichotomie mit der observabel-nichtobservabel-Dichotomie. Nur die zweite verlange jedoch nach einer allgemeinen Lösung; die erste könne auch relativ zu einer gegebenen Theorie behandelt werden. Aus den theoretischen Termen der Vertreter des received view wurden damit die theoretischen Terme bezüglich einer Theorie T ihrer Nachfolger (vgl. Diederich, 1996, S. 15 f; Zoglauer, 1991, S. 33 f). Für die folgenden Ausführungen zum semantic approach nach BMS habe ich mich an der Zusammenfassung von Moulines (1996) orientiert sowie an der detaillierten Darstellung in der Architectonic for Science (Balzer et al., 1987) selbst, der die Grundstruktur sowie sinngemäß die Definitionen des vorliegenden Unterabschnitts entnommen sind. Die Notationen habe ich, soweit nötig, angepasst. Ausgangspunkt für BMS ist der auf Bourbaki zurückgehende Begriff einer Strukturart, auf den sich schon Suppes bezogen hatte. Eine Strukturart ist ein formaler Ausdruck, der wie folgt aufgebaut ist:22 Σ(X, A, s) := Σ(X1 , . . . , X λ ; A1 , . . . , A µ ; s1 , . . . , s ν ) Die X und A sind Familien sogenannter Basismengen, wobei BMS wie schon Suppes die naive und keine formalisierte Mengenlehre voraussetzen. Konnte Suppes seine in der Introduction to Logic getroffene Wahl noch didaktisch begründen, stellen die Architectonic for Science und im Sinn von BMS verfasste Folgeschriften jedoch Fachbücher dar. Die Wahl dieser Grundlage bleibt damit fragwürdig. Eine auf NBG basierende, streng formale Grundlegung wurde in jüngerer Vergangenheit von Peter Hinst (1996) gegeben. Die Einteilung der Basismengen in zwei Klassen kommt dem Umstand entgegen, dass Physiker teils auf mathematische Objekte wie Zahlbereiche zurückgreifen, die als von Seiten der Mathematik gegeben vorausgesetzt werden. Die Elemente der Klasse der Hilfsbasismengen A entsprechen diesen mathematischen Objekten. Dem gegenüber steht die Klasse der Hauptbasismengen X. Ihre Elemen22 Die folgenden Ausführungen zur Strukturart sind allgemeine Darstellungen und keine, die speziell auf die Arbeit von BMS beschränkt sind. Sowohl Bourbaki als auch BMS fangen bei ihren Ausführungen eine Ebene tiefer an, nämlich bei der Definition sogenannter k-Typen. Diese geben ein formal stringent definiertes Verfahren, um eine Auswahl aus einer gegebenen Familie von Mengen zu treffen. Vgl. für eine detaillierte Darstellung Bourbaki (1968, S. 259 ff) sowie Balzer et al. (1987, S. 6 ff). Da das so dargestellte Verfahren recht sperrig ist, nehme ich die Operationen des Bildens einer Potenzmenge sowie eines Kartesischen Produkts als elementar an. Dieses Vorgehen ähnelt damit bereits eher dem von Scheibe (1997, S. 63 ff). Auch wenn ich den Ansatz von Scheibe in Abgrenzung von BMS erst im folgenden Abschnitt 2.4 besprechen werde, ist dies insofern unproblematisch, als dass das strukturalistische Grundgerüst in allen soeben genannten Fällen als formal gleich verstanden werden kann. Die Unterschiede im Vorgehen sind unter Voraussetzung einer möglichen streng formalen Begründung lediglich als didaktisch zu verstehen.

40 | 2 Physikalische Theorien te sind der empirisch interpretierbare Teil der Theorie, der von außerhalb der Theorie – in der Regel durch eine Messtheorie – bestimmt wird. Die Elemente von s werden als „typisierte Terme“ bezeichnet und ihrerseits durch Leitermengen determiniert. Eine solche entsteht durch ein- oder mehrfache Anwendung der Operationen Potenzmenge bilden und Bilden eines kartesischen Produkts auf der Familie der Haupt- und Hilfsbasismengen. Formal werden sie dargestellt durch: φ(X; A) Die typisierten Terme werden dann bestimmt mittels: s i ∈ φ i (X; A) So ist etwa eine Halbordnung (vgl. auch Unterabschnitt 2.3.1) als zweiwertige Relation im Sinne von BMS typisierbar durch: ≤∈ P(X × X) Die Zusammenfassung der soeben bestimmten Mengen (X; A; s) wird als „Struktur“ bezeichnet. Damit lassen sich noch keine aus wissenschaftsphilosophischer Sicht interessanten Theorien behandeln, da weitere Einschränkungen in Form von Axiomen gefordert werden müssen. Sind α1 , . . . , α m alle für eine Theorie relevanten Axiome, erhalten wir eine Strukturart durch Konjunktion der Forderung ihrer Erfülltheit für die Struktur: Σ(X; A; s) :⇔ α1 (X; A; s) ∧ · · · ∧ α m (X; A; s) Ähnlich wie bei Suppes ist bei BMS die genaue Wahl der Axiome nicht von Relevanz. Auch hier dient die Mengentheorie lediglich als Mittel zum Zweck der Auszeichnung einer Klasse von Modellen, die dann mit der Theorie identifiziert wird. Formal äquivalente Axiomensysteme liefern damit ein und dieselbe Theorie: The choice of the particular axioms to be satisfied by the models of this class, is considered by structuralism as a relatively unimportant question. It is just a matter of convenience. The really important matter is that the set of axioms chosen exactly determine the class of models we need to represent a certain field of phenomena we are interested in for some reason. (Moulines, 1996, S. 5)

Die Betonung der Sprachunabhängigkeit von Theorien scheint zunächst im Widerspruch zur formal-strukturalistischen Rekonstruktion zu stehen. Doch BMS gehen durch Auszeichnung einer weiteren, auf der rein formalen aufbauenden Ebene noch einen Schritt weiter. Auf dieser Ebene sprechen sie nur noch über Klassen von Modellen; die formale Grundlage gerät in den Hintergrund. Zum

2.3 Der semantic approach of theories |

41

leichteren Verständnis verdeutliche ich den Übergang an einem Beispiel aus der Architectonic for Science (vgl. Balzer et al., 1987, S. 4 ff).23 Nach BMS kann die folgende Definition einer ausgedehnten Struktur als Grundlage einer Messtheorie für Volumina, Massen oder Längen der Elemente von X verstanden werden. x ist danach genau dann eine ausgedehnte Struktur, wenn es X, , ◦ gibt mit: 1. x = (X, , ◦) 2. X ist eine nicht-leere Menge 3. ≤ ist eine zweiwertige Relation auf X 4. ◦ : X × X → X 5. ∀a, b, c ∈ X : (a  b ∧ b  c → a  c) ∧ ((a  b) ∨ (b  a)) 6. ∀a, b, c ∈ X : (a ◦ (b ◦ c)  (a ◦ b) ◦ c) ∧ ((a ◦ b) ◦ c  a ◦ (b ◦ c)) 7. ∀a, b ∈ X : (a ◦ b  b ◦ a) ∧ (b ◦ a  a ◦ b) 8. ∀a, b, c, ∈ X : (a  b) ↔ (a ◦ c  b ◦ c) 9. ∀a, b, c, d ∈ X, ∃n ∈ N : (a  b) ∧ ¬(b  a) → (na ◦ c  nb ◦ d) Dabei ist: na := a ◦ · · · ◦ a n−mal

Die durch „“ dargestellte Relation fordert von den Elementen von X die prinzipielle Möglichkeit, sie anzuordnen. Da es sich nach 3. um eine zweiwertige Relation handelt, ist sie typisiert durch: ∈ P(X × X)

„◦“ stellt eine Abbildung dar, die das Aufaddieren der zu messenden Objekte ermöglicht. Diese ist eine dreiwertige Relation: ◦ ∈ P((X × X) × X) 23 Um die Anzahl verwendeter Grundzeichen auf ein Minimum zu beschränken, habe ich teils zu denen von BMS gewählten äquivalente Axiome herangezogen. Auch habe ich die Korrektur eines Fehlers in der Architectonic for Science, bezogen auf die Reihenfolge der einzelnen Punkte, vorgenommen, der sich auch auf die die folgenden Ausführungen bezüglich der Einteilung in aktuelle und potentielle Modelle ausgewirkt hätte. Die entsprechenden in der Architectonic for Science gemachten Ausführungen sind mit der dort gewählten Nummerierung sinnlos, sofern nicht die Punkte 4 und 5 vertauscht werden. Diese Vertauschung habe ich hier vorgenommen. Auf Messtheorien im Allgemeinen werde ich in Abschnitt 2.4 noch zu sprechen kommen. Auch das hier gegebene Beispiel in Abgleich mit aktuellen Positionen werde ich noch einmal kritisch hinterfragen.

42 | 2 Physikalische Theorien Da Funktionen mehr-eindeutige Abbildung sind, muss zusätzlich gefordert werden: (∀a, b ∈ X, ∃c ∈ X : a, b, c ∈ ◦) ∧ (∀a, b, c, c′ ∈ X : (a, b, c) ∈ ◦ ∧ (a, b, c′ ) ∈ ◦ → c = c′ )

(2.7)

Die neun oben aufgeführten Forderungen an eine ausgedehnte Struktur werden von BMS in zwei Klassen unterteilt. Die erste Klasse wird von den Forderungen der Punkte 1. bis 4. gebildet. Mit diesen würden im vorliegenden Fall, aber auch allgemein, lediglich die Hauptbasismengen eingeführt sowie Relationen typisiert und Funktionen als solche ausgezeichnet werden. Die eigentlichen Axiome folgen erst danach. Dennoch ist die erste Klasse fundamentaler Forderungen konstitutiv für eine Menge von Modellen, deren Elemente von BMS als „Potentielle Modelle“ bezeichnet und formal durch „M p “ dargestellt werden. Sie werden unterschieden von den mit der Menge M gegebenen aktuellen Modellen, die zusätzlich die eigentlichen Axiome 5. – 9. erfüllen.24 Potentielle und aktuelle Modelle lassen sich nach BMS zu einem Modellelement zusammenfassen: < Mp , M > Wir können jetzt Sneeds Lösung des Problems der theoretischen Terme nahtlos in das bisher Gesagte einbetten. Mit den Worten Balzers ist für Sneed „[a] concept t [. . . ] called theoretical relative to theory T (or just T-theoretical) iff every determination of (a relation belonging to) T in any application of T presupposes the existence of at least one actual model of T.“ (Balzer et al., 1987, S. 55) Bei einer entsprechenden Formalisierung der Teilchenmechanik würde beispielsweise zur Bestimmung von Kräften bereits die Kenntnis der Axiome der Theorie vorausgesetzt. „Kraft“ ist also ein theoretischer Term im Sinne von BMS (vgl. Balzer et al., 1987, 24 Die Differenzierung in aktuelle und potentielle Modelle ist nicht so banal, wie es auf den ersten Blick wirkt, da mit ihr auch die Frage nach der Gesetzesartigkeit von Aussagen und somit ein zentrales Thema der Wissenschaftsphilosophie inklusive einer umfangreichen Debatte angesprochen wird (vgl. Moulines, 2008, S. 94 ff). Was unterscheidet die „richtigen“ Axiome von Forderungen wie (2.7)? BMS geben das folgende Kriterium: „All the formulas A i of the structure species determining a potential model will be either typifications or characterisations. The structure species determining an actual model will contain in addition formulas which are neither typifications nor characterizations.“ (Balzer et al., 1987, S. 14) Aber auch dabei handelt es sich um eine willkürliche Festlegung. Der Frage nach der Gesetzesartigkeit von Aussagen muss an anderer Stelle nachgegangen werden. Man beachte, dass in der hier gegebenen Messtheorie keine Unterscheidung gemacht wird zwischen den aktuellen Modellen und einer Quantifizierung in Form von Zahlen. Sowohl mathematische als auch physikalische Modelle werden auf einer Ebene behandelt. Wie sinnvoll das ist, werde ich später in Abschnitt 2.4 diskutieren.

2.3 Der semantic approach of theories

|

43

S. 54 f).25 Auf der anderen Seite kann die Länge als Hauptbasismenge auch von außerhalb der Theorie bestimmt werden, so dass „Länge“ ein nicht-theoretischer Term ist ebenso wie die in der Definition einer ausgedehnten Struktur mit „X“ gegebenen Größen – jedenfalls bezüglich der dortigen Theorie. Für eine zur Bestimmung von „X“ vorausgesetzte weitere Theorie muss dies nicht gelten. Insgesamt gibt dies BMS Anlass zur Einführung einer weiteren Klasse von Modellen: „The class of substructures satisfying only the axioms for the ‘T-non-theoretical’ concepts represents the (relative) basis of data for T. These substructures receive a special name: ‘partial potential models’. Their class is symbolized by ‘M pp ’.“ (Moulines, 1996, S. 7) Die Klasse der partiell-potentiellen Modelle ergibt sich damit aus derjenigen der potentiellen Modelle durch Fortlassen der theoretischen Konzepte. Wird die Klasse der typisierten Terme s in die Teilklassen der nicht-theoretischen Ausdrücke s1 und der theoretischen s2 separiert, motiviert dies zur Einführung der wie folgt gegebenen Abbildung: r : M p → M pp , (X; A; s1 ; s2 ) → (X; A; s1 ) Diese kann erweitert werden auf die entsprechenden Potenzmengen (vgl. Balzer et al., 1987, S. 83): ¯r : P(M p ) → P(M pp ), ¯r(X) → {r(x) | x ∈ X } Einzelne physikalische Theorien befassten sich aber in der Regel nicht mit dem gesamten Universum, sondern beschrieben lediglich einen Teil davon.26 Daraus ergäbe sich ein weiteres, einer Lösung bedürftiges Problem, das BMS wie folgt formulieren: 25 Nach ebd. ist auch „Masse“ ein theoretischer Term, was verwundert. Dass für jede Bestimmung eines theoretischen Konzepts ein aktuelles Modell vorausgesetzt werden muss, ist bei „Kraft“ einleuchtend, nämlich da zur Berechnung der Kraft eine bestimmte Verknüpfung der mit den Hauptbasismengen gegebenen Werte vorausgesetzt wird. Hier ist die Forderung notwendig, da formal. Dass dies aber auch im Fall der Masse gegeben ist, bleibt aufgrund der geforderten Erfüllung der Allaussage für jedes zukünftige Messverfahren fraglich. Ergibt sich in der Zukunft eine alternative Massenbestimmung, wird „Masse“ dadurch zu einem nicht-theoretischen Term – und das, obwohl sich beim eigentlichen theoretischen Teil nichts ändert. Insgesamt stellt sich mit einem solchen, an keinen Formalismus gebundenen Kriterium, das altbekannte Problem der theoretischen Terme erneut. Da im Sinne von BMS eine Sprachunabhängigkeit gegeben sein muss, liefert dieser Ansatz keine Möglichkeit zur Lösung. Eine syntaktische Rückführung ist nötig, so wie sie sich letztendlich bei Scheibe wiederfindet. Vgl. hierzu Abschnitt 2.4 für einen alternativen Ansatz. 26 In wie weit unter dem Blickwinkel strukturalistischer Rekonstruktionen die Kosmologie hier einen Sonderfall darstellt, ist bestenfalls problematisch. Aber auch wenn es sich um eine Ausnahme handelt, beeinflusst dies die folgenden Ausführungen nicht, weshalb ich im Folgenden

44 | 2 Physikalische Theorien Local applications may overlap in space and time, they may influence each other (even if they are separated in space and time), certain properties of T’s objects may remain the same if the objects are transferred from one application to another one. Any connection of this sort will be captured by what we call constraints. Constraints express physical or real connections between different applications but they also can express mere conceptual connections. (Balzer et al., 1987, S. 41)

Die Klasse der constraints einer Theorie stellen sie mit „C“ dar. Aus formaler Sicht verbinden constraints Elemente aus der Menge der potentiellen Modelle miteinander, womit gilt: C ⊆ P(M p ) Ein Beispiel ist die Erde, die in der Newtonschen Mechanik sowohl im System Erde-Sonne als auch im System Erde-Mond auftreten kann, deren Masse aber in beiden Fällen als gleich vorausgesetzt werden muss. Ähnlich muss auch für die mit der Definition einer ausgedehnten Struktur gegebene Messtheorie gefordert werden, dass gleichen, in verschiedenen Modellen vorkommenden Objekten derselbe Wert für die zu messende Größe zugesprochen wird. Solche equalityconstraints gewährleisten eine solche Normierung ohne Einführung eines Koordinatensystems. Constraints stellen ebenso wie Typisierungen und Axiome Forderungen dar, die von innen an die Theorie getragen werden. Physikalische Theorien stehen aber nicht für sich allein, sondern sind in Beziehung zu anderen Theorien zu betrachten. Um dem gerecht zu werden, führen BMS die Klasse L der links ein. Für jedes λ ∈ L gilt für paarweise verschiedenen Theorien angehörende Modelle M p , M ′p : λ ⊆ M p × M ′p

(2.8)

Allgemein lasse sich in Bezug auf links die folgende Differenzierung vornehmen: there are two fundamental sorts of links: entailment and determining links. All other links come out of these two types either by putting some further restrictive conditions on them or by combining them. Entailment links are ‘global’ in the sense that they relate whole classes of structures of different theories; determining links are term-to-term connections. Reduction, equivalence and approximations are clearly made up of special kinds of entailment

nicht weiter hierauf eingehen werde. BMS selbst gehen ähnlich vor, wenn sie schreiben: „The only example of this sort we can think of is the alleged case of general relativity theory. But even such an exceptionable case would not put any restriction to the scope of our approach. Since one big universal application can be regarded as a special case of ‘local’ applications, we shall concentrate on the latter case. By ‘local’ we mean ‘bounded to a part of the universe’.“ (Balzer et al., 1987, S. 41)

2.3 Der semantic approach of theories |

45

links; theoretization and other terms-connecting links with no particular label (like the link connecting pressure in hydrodynamics with energy and volume in thermodynamics) [. . . ] are determining links. (Moulines und Polanski, 1996, S. 223)

Durch Verbindung der Hauptbasismenge mit einer Messtheorie liefern die determining links eine Möglichkeit der gewünschten Bestimmung von Außen. In Abschnitt 2.4 werde ich im Rahmen einer ausführlichen Behandlung von Messtheorien darauf zurück kommen. Entailment-links werden dem gegenüber in Auseinandersetzung mit den in Kapitel 3 behandelten Reduktionen noch eine entscheidende Rolle spielen.27 Mit den bisherigen Ausführungen können theoretische Modelle ausgezeichnet werden, d.h. Modelle, deren Aufbau sich an einer gegebenen Theorie orientiert.28 Diese genügen zur Beschreibung einer platonischen Welt. Um die Theorien aber auf die empirische Welt anwendbar zu machen, müssen Approximationen zugelassen werden, denn in der Praxis werden kleinere Abweichungen zwischen Modellen und Daten ignoriert. So liefert die Newtonsche Mechanik auch bei Berechnungen für beliebig langsame Teilchen streng genommen falsche Ergebnisse. Trotzdem kann ein geworfener Ball als Modell für ein klassisches Teilchen dienen. Der Grund ist, dass es für Theorien einen Toleranzbereich gibt, in dem sie von den exakten Vorhersagen abweichen dürfen.29 BMS tragen dem Rechnung in Form der Klasse von admissible blurs A, die durch topologische Uniformitäten beschrieben werden (vgl. Balzer et al., 1987, S. 332): Ist M p eine Klasse potentieller Modelle, dann ist U genau denn eine Uniformität auf M p , wenn die folgenden Bedingungen erfüllt sind: 1. ∅  = U ⊆ P(M p × M p ) 27 Wir werden sehen, dass es angelehnt an die Reduktionsdebatte entgegen der Auffassung von BMS auch seine Berechtigung hat, die im obigen Zitat separat aufgelisteten Approximationen und Äquivalenzen als Reduktionen aufzufassen. Die vorangegangene Darstellung von links und constraints als separate Konzepte entspricht grundsätzlich dem von Balzer et al. (1987). In späteren Arbeiten von Moulines und Polanski (1996), die sich auf Moulines (1992) bezieht, wird eine andere Herangehensweise gewählt. Constraints und links werden hier jeweils als eine Unterklasse von allgemeinen, Modelle verbindenden Brückenprinzipien angesehen, wobei constraints als Brücken zwischen Modellen ein- und derselben Theorie angesehen werden, links hingegen als Brücken zwischen Modellen jeweils unterschiedlicher Theorien. Ich werde im Folgenden nicht dahingehend differenzieren, ob wir beide als verschiedene Ausprägungen ein und desselben Grundkonzepts betrachten oder als jeweils separat für sich auffassen (Vgl. für eine Definition von allgemeinen Brückenprinzipien Moulines und Polanski, 1996, S. 220). 28 Ich werde den Begriff eines theoretischen Modells in Unterabschnitt 2.3.3 noch differenzierter betrachten. 29 Der received view geriet an dieser Stelle mit Blick auf die von Kuhn und Feyerabend geäußerte Kritik in einen starken Erklärungsnotstand (vgl. Unterabschnitt 3.1.3).

46 | 2 Physikalische Theorien 2. 3. 4. 5. 6.

∀u1 , u2 ∈ M p × M p : (u1 ∈ U) ∧ (u1 ⊆ u2 ) → (u2 ∈ U) ∀u1 , u2 ∈ M p × M p : (u1 ∈ U) ∧ (u2 ∈ U) → (u 1 ∩ u2 ∈ U) ∀u ∈ U : ∆(M p ) ⊆ u ∀u ∈ U : u −1 ∈ U ∀u1 ∈ U, ∃u2 ∈ U : u 1 * u2 ⊆ U

„∆(M p )“ bezeichnet die Diagonale, die Klasse aller Paare identischer Elemente von M p . Für u, u1 , u2 ∈ U ist weiter: u−1

:=

u1 * u2

:=

{(y, x) | ∃x, y ∈ M p : (x, y) ∈ u}

{(x, y) | ∃z : ((x, y) ∈ u1 ) ∧ ((z, y) ∈ u2 )}

Mit dieser Definition können BMS beginnen, „topologische Schläuche“ um die exakt bestimmten theoretischen Modelle zu legen. Da die sechs Bedingungen oben keine metrische, sondern eine topologische Struktur bestimmen, kann dies durch den direkten Vergleich von Modellen geschehen – also koordinatenunabhängig. Sei U dazu eine Uniformität auf einer Klasse potentieller Modelle M p einer gegebenen Theorie (vgl. Balzer et al., 1987, S. 348). Dann ist A die Klasse der admissible blurs bzw. der zulässigen Unschärfe, wenn die folgenden Bedingungen erfüllt sind: 1. (A ⊆ U) ∧ (A  = ∅) 2. ∀u ∈ U : (u ∈ A) → (u−1 ∈ A) 3. ∀u, u′ ∈ U : ((u ∈ A) ∧ (¯r(u) = ¯r(u′ ))) → (u′ ∈ A) 4. ∀u ∈ A, ∃u s ∈ Bound(A) : u ⊆ u s Dabei ist: Bound(A) := {u ∈ U | ∀u′ ∈ U : ((u ⊆ u′ ) → (u′ ∈/ A)) ∧ ((a′ ⊂ u) → (u′ ∈ A))} eine Grenzbedingung, durch die das Maß an Genauigkeit angepasst wird. Der (theoretische) Kern K einer Theorie kann jetzt nach Moulines (1996, S. 8) bestimmt werden durch K = (M p , M, M pp , C, L, A)

(2.9)

Hinzu kommt die Domäne der intendierten Anwendungen I, bei der es sich, um ein Pendant zur Semantic des received view handelt (vgl. Stegmüller, 1980, S. 6). Aus ontologischer Sicht sei diese neither ‘pure reality’ nor ‘pure experience’ – whatever these expressions may mean. That is, the domain in question does not consist of pre-conceptual ‘things-in-themselves’ or of sense-data. Scientific theories don’t have access to that sort of stuff – if anybody has access

2.3 Der semantic approach of theories

|

47

to it at all. Rather, the assumption is that the domain of intended application of a theory is conceptually determined through concepts already available. The real question is whether all concepts available or only some of them must be employed to describe that domain. (Moulines, 1996, S. 8; Hervorhebungen im Original)

Darüber hinaus sei die Bestimmung des Bereichs der intendierten Anwendung Kontextabhängig: I is a kind of entity strongly depending on pragmatic and historical factors which, by their very nature, are not formalizable (at least not by means of presently available formal tools). It is at this point, at the latest, that structuralism ceases to be a ‘purely formalistic’ or ‘set theoretical’ view of science. This is seen by structuralism itself neither as an absolute virtue nor as an absolute fault. It is rather an unavoidable consequence of the nature of theories and of the tools available to analyze them. (Moulines, 1996, S. 9)

Auch wenn zur Bestimmung des Bereichs der intendierten Anwendung mehr nötig sei als reine Mengentheorie, könne er mit dem theoretischen Kern durch I ⊆ M p bzw. I ⊆ M pp in Beziehung gesetzt werden. Welche dieser Beziehungen zutreffend ist, sei Teil der Debatte (vgl. Moulines, 1996, S. 8 f). Die bisherigen Ausführungen illustriert Stegmüller am Beispiel: In der klassischen Partikelmechanik (in Newtonscher Formulierung) besteht I aus gewissen Systemen sich bewegender Partikel. M pp besteht aus allen möglichen derartigen Systemen. M p besteht aus den letzteren, nachdem jedes Partikel dieser Systeme mit Werten der Kraftund Massefunktionen versehen worden ist. M schließlich ist die Menge derjenigen auf diese Weise ‘theoretisch ergänzten’ Partikelsysteme, die außerdem das zweite Gesetz von Newton erfüllen. (Stegmüller, 1980, S. 10; Hervorhebungen im Original)

Eine Theorie ist nur so hilfreich, wie mit ihr prüfbare Aussagen über den Bereich der intendierten Anwendung formuliert werden können. Zu dem Übergang von einer mengentheoretischen Rahmenkonstruktion zu entsprechenden Aussagen schreibt Moulines: According to structuralism, theories are not sets of statements. But, of course, this is not to deny that it is very important for science to make statements – things that can be true or false, that can be verified, falsified or somehow checked. What structuralism maintains is that theories are not statements but are used to make statements – which, of course, have then to be checked. The statements made by means of scientific theories are, intuitively speaking, of the following kind: that a given domain of intended applications may actually be subsumed under the theory’s principles (laws, constraints, and links). (Moulines, 1996, S. 9)

Dies geschieht durch die Menge Cn(K) des theoretischen Inhalts der Theorie bezüglich des formalen Kerns (vgl. Moulines, 1996, S. 9 f): Cn(K) := P(M) ∩ C ∩ P(L)

48 | 2 Physikalische Theorien bzw. alternativ unter Berücksichtigung der T-theoretisch/T-nicht-theoretischUnterscheidung: Cn(K) := r(P(M) ∩ C ∩ P(L))

Für beide Fälle ist eine prüfbare Aussage bestimmbar mit: I ⊆ Cn(K)

(2.10)

T := (K, I)

(2.11)

Zusammen mit dem Kern einer Theorie K und dem Anwendungsbereich I definieren BMS ein Theorienelement: Ein Theorienelement ist die kleinste, aber nicht die einzige Einheit, die als Theorie verstanden werden könne: However, one of structuralism’s important claims is that, on a careful analysis, the term ‘theory’ reveals to be polysemic: the knots appear to have different levels of aggregation. More precisely, an adequate formal representation of the intuitive notion of a theory leads to at least three different explicants. They are, of course, mutually related, but they are located, so to speak, on three different structural layers. On the inferior (simpler) level, we encounter theory-elements; on the medium level, we find theory-nets; and the most complex units are called theory-holons. The concept of a theory-net is what comes closest to the most frequent intuitive usage of the term ‘theory’. (Moulines, 2002, S. 4)

Ähnlich äußern sich BMS bereits zuvor in der Architectonic for Science (vgl. Balzer et al., 1987, S. 167): Ein Theoriennetz N sei die Zusammenfassung verschiedener mittels einer Klasse von Spezialisierungen σ i verbundener Theorienelemente zu einem Ganzen. Ist beispielsweise die Rede von der klassischen Teilchenmechanik, ist nicht ein einziges Theorienelement gemeint, sondern ein hierarchisch geordnetes, einheitliches Netzwerk, dessen Bestandteile durch Hinzufügen einzelner Gesetze, dem Hookschen oder dem dritten Newtonschen Gesetz, zu einer Reihe fundamentaler Forderungen, wie der Impulserhaltung, entstehen. Eine graphische Darstellung des Theoriennetzes der klassischen Teilchenmechanik nach BMS findet sich etwa in Balzer et al. (1987, S. 191). Die in ebd. vorgeschlagene Differenzierung der klassischen Mechanik in Teiltheorien ist keine Eigenart des Semantic Approach, sondern findet sich auch in Arbeiten zum syntaktischen Theorienverständnis (vgl. Spector, 1978, S. 15). Die Entstehung einer Theorie T1 aus einer anderen T2 stellen BMS wie folgt dar: T1 σT2 Da sowohl die Klasse der potentiellen als auch die der partiell potentiellen Modelle beider Theorien nicht von zentralen Axiomen abhängen, entsprechen sie sich. Damit gilt nach Moulines (1996, S. 11):

2.3 Der semantic approach of theories

M 1p = M 2p , M 1pp = M 2pp

|

49

(2.12)

Die Beziehung der weiteren Bestandteile der Theorienelemente ist abhängig von der Art der gestellten Forderung. Es ergeben sich nach Moulines (1996, S. 11) folgende Beziehungen: M 1 ⊆ M 2 , C1 ⊆ C2 , L1 ⊆ L2 und I 1 ⊆ I 2

(2.13)

Theorien-Holons sind die Zusammenfassung mehrerer mittels hinreichend starker links wie Reduktionen (in einem noch zu erläuternden Sinn), Äquivalenzen oder Approximationen verbundener Theoriennetze. Auf Details gehe ich aus naheliegenden Gründen erst in der expliziten Auseinandersetzung mit Reduktionen in Unterabschnitt 3.1.6 und Abschnitt 3.2 ein. Das Konzept der Theoriennetze kommt der historischen Dynamik der Entwicklung einer Theorie entgegen. Da ich mich in dieser Arbeit mit statischen Theorien beschäftige, führe ich sie mit den Worten Moulines’ nur der Vollständigkeit halber auf: A theory-net is the standard structuralist concept of a scientific theory considered synchronically. Let us consider it now diachronically, that is as a genidentical entity. Then, we have to undertake some substantial modifications of the notion of a theory-net. The reason is that a theory in the diachronic sense is not just a theory-net which keeps existing in the same form through history. Normally, theory-nets experience some more or less drastic changes in the course of scientific development even if those changes don’t amount to a scientific revolution or ‘paradigm-change’. The theory-nets ‘evolve’. The resulting entity is called by structuralists ‘a theory-evolution’. (Moulines, 1996, S. 11)

Schreibe ich folgend von einer „Theorie“ im Sinne von BMS, meine ich damit, sofern nicht anders ausgeführt, den Begriff im Sinne von „Theorienelement“. Bezüglich der Abgrenzung des semantic approach nach BMS vom received view ist festzuhalten, dass BMS auf die zentralen Kritikpunkte (vgl. Unterabschnitte 2.2.2 bis 2.2.4) reagieren konnten: Dem Problem der theoretischen Terme sind sie durch Differenzierung in die theoretisch-nichttheoretisch-Dichotomie und die observabel-nichtobservabel-Dichotomie entgegengetreten und haben die Theoretizität von Termen in Abhängigkeit einer Bezugstheorie gesetzt. Bezüglich des Problems mangelnder Formalisierungen haben sie bereits mit der Architectonic for Science viele Anwendungen geliefert, die in späteren Arbeiten noch ergänzt wurden (vgl. Diederich, 1996). Auch haben BMS die Rolle wissenschaftlicher Modelle stärker betont, indem sie Theorien mit Klassen von Modellen identifiziert haben. Aber gerade dieser letzte Punkt war der Ansatz für die zentrale Kritik am semantic approach, die ich im folgenden Unterabschnitt darstellen werde.

50 | 2 Physikalische Theorien 2.3.3 Kritik an der modelltheoretischen Theorienauffassung Im vorangegangenen Unterabschnitt habe ich das modelltheoretische Theorienverständnis nach BMS als eine vielversprechende Alternative zum stark kritisierten received view of theories dargestellt. BMS konnten sowohl das Problem der theoretischen Terme umgehen als auch eine Vielzahl von physikalisch relevanten Rekonstruktionen liefern. Zudem haben sie die Rolle von Modellen ins Zentrum der wissenschaftsphilosophischen Aufmerksamkeit gerückt. Dies geschah durch Identifikation von Theorien mit sprachunabhängigen Klassen von Modellen. Modelle waren damit nicht mehr nur Beiwerk eines Kalküls, und der von Hesse und Achinstein am received view geübten Kritik wurde auf diese Weise entgegengetreten. Dies reiche aber nach Daniela Bailer-Jones nicht aus: However, the possibility to reconstruct certain existing scientific theories along the lines of the Semantic View is no proof that the Semantic View relates to scientific practice. While providing a tidy formal account is an admirable goal, the chances are that such an account does not do justice to the great variety of scientific models encountered in scientific practice. (Bailer-Jones, 2009, S. 131)

Bailer-Jones deutet den Hauptkritikpunkt am semantic approach an, den vor ihr schon Mary S. Morgan und Margaret Morrison stark gemacht hatten. Danach kann die Bedeutung von Modellen für die wissenschaftliche Praxis zwar kaum unterschätzt werden; die ihnen im semantic approach zugewiesene Rolle sei dennoch inadäquat (vgl.Morgan und Morrison, 1999b; Morrison 1999; Bailer-Jones 2009, S. 134 ff). Sie seien nicht mit der Theorie identifizierbar, sondern nähmen eine von dieser und von den Phänomenen teil-unabhängige Rolle ein. In die Literatur ist dieses Theorie-Modell-Phänomen-Verhältnis unter den Schlagworten „models as autonomous agents“ und „models as mediators“ eingegangen (vgl. Morgan und Morrison, 1999a). Die von Bailer-Jones angeführte „great variety of scientific models“ geht zunächst auf Hesse und Achinstein zurück (vgl. Unterabschnitt 2.2.3), wurde aber in der Diskussion der Folgejahre noch weiter ergänzt. Die Vielzahl der Positionen hat dazu geführt, dass „[f]ew terms are used in popular and scientific discourse more promiscuously than ‘model’.“ (Goodman, 1968, S.171; zitiert nach Beisbart, 2011, S.89) Meine folgende Taxonomie von Modellbegriffen geht zurück auf die Arbeiten von Frigg und Hartmann (2012) sowie Beisbart (2011, S. 92 ff). Sie legt den Fokus auf die zentralen Positionen der aktuellen Debatte. Gemein ist allen Modellen, dass sie ihr Zielsystem X repräsentieren. In Bezug auf materielle Modelle nach Achinstein bzw. Modelle vom Typ model2 nach Hesse ändert sich damit nichts. Hier gibt es keine Bedeutungsverschiebung. Nach wie

2.3 Der semantic approach of theories

| 51

vor fallen physische Objekte, die einige Eigenschaften mit dem von ihnen repräsentierten System X teilen, in diese Klasse (vgl. Beisbart, 2011, S. 92). Die von Achinstein getroffene Differenzierung in (kontrafaktische) imaginäre und (realisierbare) theoretische Modelle ist mittlerweile obsolet. Schon Achinstein nimmt zur Bestimmung theoretischer Modelle Idealisierungen, Vereinfachungen und Approximationen vor, durch die der Bezug zum repräsentierten System geschwächt wird. Bezogen auf die Realisierbarkeit liegen damit graduelle Abweichungen und keine diskrete Unterteilung vor. Warum sollte das Bohrsche Atommodell realisierbar sein, das Poincar´e’sche Modell einer nichteuklidischen Geometrie aber nicht? Beide Klassen fallen zusammen in die Klasse der notational models (Beisbart, 2011, S. 92) bzw. idealized Models (Frigg und Hartmann, 2012), deren zentrale Eigenschaft die sprachliche Beschreibung eines Zielsystems ist.30 Darüber hinausgehend führt Beisbart noch mathematische Modelle als eine eigenständige Klasse an: Mathematical models are mathematical equations with an interpretation that connects them to their target. Typically, the terms figuring in the equations are supposed to trace the values that empirical, quantitative characteristics – a particle’s mass, energy and so on – take. (Beisbart, 2011, S. 93)

Die Frage, wie mathematische Modelle repräsentieren, so Beisbart, sei Bestandteil der aktuellen Debatte. Grundsätzlich gebe es zwei Möglichkeiten: Direkt und indirekt. Eine direkte Repräsentation setze Approximationen voraus, eine indirekte Repräsentation ein notational model, das seinerseits in einer direkten Repräsentationsbeziehung zum Zielsystem stehe (vgl. Beisbart, 2011, S. 93). In dem von mir in Abschnitt 2.4 unterbreiteten Vorschlag zum Verständnis der Theorie-ModellPhänomenbeziehung werden sich mathematische Modelle ebenfalls als indirekt repräsentierend erweisen. Inwieweit sind wissenschaftliche Modelle aber autonom und wie lässt sich ihre zwischen Theorien und Daten vermittelnde Rolle verstehen? Die Antwort liegt nach Morgan und Morrison (1999a, S. 10 f) in ihrer Konstruktion und ihrer Funktion. Für beide Aspekte liefern sie signifikante Beispiele: Die Autonomie bezüglich der Konstruktion werde ersichtlich bei der Messung der lokalen Fallbeschleunigung g mit einem Pendelgravimeter. Die folgenden Beispiele habe ich den Arbeiten der beiden Autorinnen entnommen (vgl. Morrison, 1999, S.48 ff; Morgan und

30 Die Inhalte dieser Klasse entsprechen wieder Hesses Modellen vom Typ model1 . Frigg und Hartmann (2012) führen noch eine Klasse von analogen Modellen an, stellen es aber zur Diskussion, inwieweit diese mit der Klasse der idealized models zusammen fällt. Ich setze folgend die Identität beider Klassen voraus.

52 | 2 Physikalische Theorien Morrison 1999a, S.14 f). Ausgehend von der Periodendauer T sowie der Länge l des Pendels lässt sich g in einem ersten Ansatz bestimmen durch: g=

4π2 l T2

(2.14)

Gleichung (2.14) liefert nach Morgan und Morrison ein notationales Modell, dessen Verhalten gegenüber dem des materiellen Pendels eine Idealisierung darstelle. Für eine genauere Bestimmung der Gravitationsbeschleunigung müssten aber noch Korrekturen angefügt werden. So erhalte das Pendel nach dem Archimedischen Prinzip aufgrund der von ihm verdrängten Luft Auftrieb. Das in die Rechnung einfließende Gewicht der Pendellinse müsse also reduziert werden um das Gewicht der verdrängten Luft. Als Korrekturterm ergäbe sich: ∆T 1 m a = · T 2 m wobei „m“ die Masse der Pendellinse darstellt sowie „m a “ die Masse der verdrängten Luft. Darüber hinaus ließe sich für kleine Fehler ∆θ der Pendelauslenkung zusammen mit der Gleichung zur Bestimmung der Schwingung eines Pendels im Vakuum .. g θ + sin θ = 0 l

als zusätzlicher Korrekturterm der Periode der folgende Ausdruck bestimmen: 2   ∞  ∆T  11 4 (2n)! ∆θ 1 2n = (∆θ)2 + θ +... sin = T 2 16 3072 0 22n (n!)2 n=1

Auch ließen sich weitere Korrekturgleichungen zur Berücksichtigung des Luftwiderstands oder zur Kompensation der Elastizität des Seils anwenden. All diesen Modifikationen sei gemein, dass sie eine Anwendung der Newtonschen Mechanik auf das notationale Pendelmodell bedeuten, denn: Newtonian mechanics provides all the necessary pieces for describing the pendulum’s motion but the laws of the theory cannot be applied directly to the object. The laws describe various kinds of motion in idealised circumstances, but we still need something separate that allows us to apply these laws to concrete objects. The model of the pendulum plays this role; it provides a more or less idealised context where theory is applied. From an initially idealised model we can then build in the appropriate corrections so that the model becomes an increasingly realistic representation of the real pendulum. (Morgan und Morrison, 1999a, S. 14 f)

Das Modell erfahre seine Autonomie von der Theorie dadurch, dass es nicht nur aus deren Postulaten ableitbar sei. Die Autonomie von den Phänomenen rühre

2.3 Der semantic approach of theories

| 53

von den Idealisierungen, die bei der Anwendung des Formalismus zugelassen werden.31 Ein weiteres Beispiel eines autonomen Modells ist das MIT-bag-model des quark confinement. In einer frühen Phase ihrer Entwicklung konnte die Quantenchronodynamik nicht begründen, warum Quarks nicht einzeln beobachtbar waren. Zieht man aber einzelne Terme aus der Theorie heran, so argumentiert Hartmann (1999), ließe sich eine sinnvolle Erklärung finden. Als ad-hoc-Annahme eingeführt, war das MIT-bag-model ursprünglich Teil einer vorläufigen Physik: Es diente als Substitut einer antizipierten theoretischen Untermauerung und ist als solches unabhängig von der Theorie entstanden.32 Eine zweite Klasse von Modellen vorläufiger Physik sind Patchworkmodelle, für die es keine einheitliche theoretische Grundlage gibt (vgl. Cartwright, 1999a). Ein Beispiel ist das Bohrsche Atommodell, das auf Quantenpostulaten sowie Elementen der klassischen Mechanik beruht (vgl. Bohr, 1913a,b,c). Auch eine Vielzahl der Modelle der Astroteilchenphysik (ATP) sind nach Falkenburg und Rhode (2007) Patchworkmodelle. Die ATP ist ein junges Teilgebiet der Physik, in dem von der kosmischen Strahlung auf deren Quellen zurück geschlossen wird. Dazu stützt sie sich neben dem Standardmodell der Kosmologie, das auf der allgemeinen Relativitätstheorie beruht, auch auf die Teilchen- und damit auf die Quantenphysik. Ich werde in den Abschnitten 4.2 und 4.3 die Existenz von zwei Arten von Patchworkmodellen in der ATP nachweisen. Die Modelltypen zeichnen sich durch die Rolle aus, die Reduktionsbeziehungen in ihnen einnehmen. Auch die ATP untermauert damit die folgende Aussage von Morgan und Morrison: The lesson we want to draw from these accounts is that models, by virtue of their construction, embody an element of independence from both, theory and data (or phenomena): it is because they are made up from a mixture of elements, including those from outside the original domain of investigation, that they maintain this partially independent status. (Morgan und Morrison, 1999a, S. 14; Hervorhebung im Original)

Auch hätten Modelle im wissenschaftlichen Kontext eine andere Funktion als Theorien und Phänomene (vgl. Morgan und Morrison, 1999a, S. 18 ff). Sie wür-

31 Nicht alle wissenschaftlichen Modelle müssen autonom in diesem Sinn sein. Der harmonische Oszillator der Quantenmechanik oder ein Wechselstromkreis in der Elektrodynamik sind Beispiele für Modelle, die echte Modelle von Theorien sind. Für die Argumentation hier interessiert allerdings nur, dass es Fälle von autonomen Modellen gibt, die nicht ignoriert werden dürfen, will man eine adäquate Rekonstruktion der Physik gewährleisten. 32 Weitere Beispiele von Modellen, die kaum mehr sind als phänomenologische Gesetze, beruhen auf den Keplerschen und Galileischen Gesetzen. Vor deren Einbettung in die Newtonsche Mechanik waren die auf beiden Gesetzesklassen aufbauenden Modelle in dem Sinne autonom, dass es für sie keine theoretische Grundlage gab.

54 | 2 Physikalische Theorien den (1) beitragen zur Entwicklung und Untersuchung von Theorien33 und seien (2) potentielle Hilfestellungen für Messungen, wie das oben modellierte Pendel. Schließlich gelte, dass Modelle (3) in Bezug auf die Entwicklung konkret verwendbarer Technologien eine andere Rolle einnähmen: A paradigm case of this is the use of various kinds of optics models in areas that range from lens design to building lasers. Models from geometrical optics that involve no assumptions about the physical nature of light are used to calculate the path of a ray so that a lens can be produced that is free from aberration. (Morgan und Morrison, 1999a, S. 23)

Ein ähnlicher Ansatz stammt aus der Feder von Daniela Bailer-Jones. Auch sie verortet Modelle zwischen Phänomenen und Theorie, kritisiert aber die von Morgan und Morrison verwendeten Metaphern: I find the talk of autonomy of models misleading. There is no denying that there always exists some relationship between a model and some theory from which the model draws, and between a model and the phenomenon of which it is a model. (Bailer-Jones, 2009, S. 135; Hervorhebung im Original)

Auch bezüglich der Mittlerrolle findet sie klare Worte: Models are positioned between theories and phenomena. They customize theory in a way that makes theory applicable to phenomena. So one could say that models ‘mediate’ between theories and phenomena, but this claim has not quite the same connotations as in Morrison’s work. (Bailer-Jones, 2009, S. 152; Hervorhebung im Original)

Für ihre eigene Charakterisierung des Verhältnisses von Phänomenen, Modellen und Theorien orientiert sich Bailer-Jones (2009, S. 136 ff) an Nancy Cartwright und der Metapher von Modellen als Fabeln.34 Eine Theorie entspräche, so Cartwright (1991), der Moral einer Fabel und sei ausgezeichnet durch ein hohes Maß an Abstraktheit. Bailer-Jones fasst die Position zusammen:

33 So hatte beispielsweise das Bohrsche Atommodell einen starken Einfluss auf die Entwicklung der Quantenmechanik genommen und das MIT-bag-Modell trage zur Untersuchung der QCD bei (vgl. Morgan und Morrison, 1999a, S. 18 ff). 34 Bailer-Jones (2009) stellt die Entwicklung von Cartwrights Überlegungen zum Modellbegriff ausgehend von der Darstellung von models as fictions (Cartwright, 1983) über die Darstellung von models as fables (Cartwright, 1991), der toolbox of science (Cartwright et al., 1995) und der Position, Modelle seien repräsentativ (Cartwright, 1999b) bis hin zur Auffassung von models in a dappled world (Cartwright, 1998). Die von Bailer-Jones gegebene Darstellung, welche sich ebenso bei Bailer-Jones (2008) findet, liefert eine sinnvolle Zusammenfassung der Positionen von Cartwright, weshalb sich hier lediglich auf die für den hier als Grundlage dienenden Ansatz von BailerJones selbst unmittelbar relevanten Teile konzentriert wird.

2.3 Der semantic approach of theories

| 55

Fables have a moral that is abstract and they tell a concrete story that instantiates that moral, or ‘fits out’ that moral. A moral of a fable may be ‘the weaker is prey to the stronger’, and a way to ‘fit out’ (Cartwright’s formulation) this abstract claim is to tell the story of concrete events of the marten eating the grouse, the fox throttling the marten, and so on. Similarly, an abstract physical law, such as Newton’s force law, F = ma, can be fitted out by different more concrete situations: a block being pulled by a rope across a flat surface, the displacement of a spring from the equilibrium position, the gravitational attraction between two masses. Thus Newton’s law may be fitted out by ‘different stories of concrete events’. (Bailer-Jones, 2009, S. 138)

Theorien seien danach abstrakter als Phänomene: Phenomena involve properties. Abstraction I take to be a process where properties are ‘taken away’ from a phenomenon and ignored. That which is abstract lacks certain properties that belong to any concrete phenomenon. To put it very crudely, something concrete becomes abstract when certain properties that belong to the ‘real thing’ (and that make it concrete) are taken away from it. (Bailer-Jones, 2009, S. 146)

Am Beispiel bedeutet dies, dass sich ein empirisches Pendel durch eine unüberschaubare Anzahl von Eigenschaften auszeichnet. Damit eine Theorie hierauf angewendet werden kann, muss zunächst ein Modell entwickelt werden. Dies geschieht nach Bailer-Jones, indem auf der Erfahrung unterschiedlicher Anwendungsfälle aufgebaut wird: We need to go through different example problems to understand how F = ma is instantiated in different models. The theory is that which has been ‘distilled’ from several concrete instantiations. In this sense, the abstract theory is not directly about concrete phenomena in the world. The properties that are missing in such an abstract formulation as F = ma have to do with how the force makes itself noticed in different individual situations. [. . . ] To establish a theory, we need models that tell us how the theory is to be applied to the phenomenon or process modeled. (Bailer-Jones, 2009, S. 146)

Das Modell selbst entstünde durch einen von dieser Erfahrung bedingten Idealisierungsprozess. Neben irrelevanten Eigenschaften wie der Farbe im Falle des Pendels, könnten auch Eigenschaften beiseite gelassen werden, die den Modellierungsprozess erschweren. Welche Eigenschaften dies sind, sei kontextabhängig. Im Fall des Pendels ließen sich das Gewicht des Fadens, der Luftwiderstand, etc. zunächst vernachlässigen und je nach Bedarf im Nachhinein modellieren (vgl. oben bzw. Bailer-Jones, 2009, S. 149). Den Ansätzen sowohl von Morgan, Morrison, Bailer-Jones und Cartwright (CMMB) ist die Etablierung dreier Ebenen gemein: Die in der Welt gegebenen Phänomene werden repräsentiert von Modellen, die ihrerseits in Beziehung zu (abstrakten) Theorien stehen (vgl. auch Abbildung 2.2 später). Dem gegenüber

56 | 2 Physikalische Theorien identifiziert aber der semantic approach sowohl nach Suppes (vgl. Unterabschnitt 2.3.1) als auch nach BMS (vgl. Unterabschnitt 2.3.2) eine Theorie mit der Klasse ihrer Modelle. Dies ist unverträglich mit der Position von CMMB, die durch die praxisnahen Beispiele stark gestützt ist. Bailer-Jones äußert damit zurecht den „concern [. . . ] to what extend the Semantic view can capture and do justice to the role models play in scientific practice.“ (Bailer-Jones, 2009, S. 151) Noch schärfer formuliert Morrison ihre Kritik: my claim is that if we want to broaden understanding of the role models play in providing scientific knowledge or even an account of theory structure, then the logical/modeltheoretic apparatus of the semantic view(s) doesn’t really help us, especially in identifying and differentiating crucial aspects of theories and models. Because the use and construction of theories/models in scientific contexts bears little, if any, resemblance to model-theoretic structures, it becomes difficult to see how the latter aid in understanding the former. (Morrison, 2007, S. 202 f)

Die Kritik trifft nicht nur die Ansätze von Suppes und BMS, sondern nahezu alle Varianten des semantic approach. Bei der Darstellung seines eigenen Theorienverständnisses betont beispielsweise auch van Fraassen als ein weiterer Vertreter des semantic approach im folgenden Zitat den Primat der Modelle gegenüber der sprachabhängigen Formulierung einer Theorie: The syntactic picture of a theory identifies it with a body of theorems, stated in one particular language chosen for the expression of that theory. This should be contrasted with the alternative of presenting a theory in the first instance by identifying a class of structures as its models. In this second, semantic, approach the language used to express the theory is neither basic nor unique; the same class of structures could well be described in radically different ways, each with its own limitations. The models occupy centre stage. (van Fraassen, 1980, S. 44)

Wie beim received view wird auch für den semantic approach fraglich, inwieweit er wissenschaftliche Theorien adäquat formalisieren kann. Die Rolle von Modellen, die weder derjenigen von Theorien noch derjenigen von Phänomenen entspricht, ist kaum von der Hand zu weisen. Aus der Kritik folgt allerdings unmittelbar ein schwerwiegendes Problem: Wenn sich Theorien weder nach dem received view noch nach dem semantic approach adäquat darstellen lassen, wie sollen sie dann verstanden werden? Bei CMMB habe ich hierauf bisher keine befriedigende Antwort gefunden. Die vagen von ihnen gegebenen Formulierungen können kaum eine formale Rekonstruktion ersetzen. Dies gilt sowohl für die Auszeichnung von Theorien als abstrakt, als auch als Moral einer Fabel. Hinzu kommt, dass die Kritik die Ansätze der Kritiker selbst trifft: Wie können Modelle als mediators (Morgan und Morrison,

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 57

1999a) verstanden werden, wenn der Theorienbegriff als eine der beiden Dinge, zwischen denen sie vermitteln, unklar bleibt? Wovon sind Modelle als autonomous agents (vgl. ebd.) autonom? Ohne einen adäquaten Theorienbegriff müssen auch diese Ausdrücke unklar bleiben. Zumindest Morrison ist sich des Problems im Klaren, wenn sie schreibt: Although the recent emphasis on models in philosophy of science has been an important development, the consequence has been a shift away from more traditional notions of theory. Because the semantic view defines theories as families of models and because much of the literature on “scientific” modeling has emphasized various degrees of independence from theory, little attention has been paid to the role that theory has in articulating scientific knowledge. This paper is the beginning of what I hope will be a redress of the imbalance. (Morrison, 2007, Abstract)

Im folgenden Abschnitt werde ich mich dem Theorienverständnis nach Erhard Scheibe widmen und zeigen, dass Scheibes Ansatz in der Lage ist, eine Antwort auf das von CMMB aufgeworfene Problem zu geben. Keine der Autorinnen scheint einen Einspruch dagegen zu haben, physikalische Theorien durch mathematische Formeln auszuzeichnen. Die offene Frage ist, wie der Formalismus mit den Phänomenen zusammenhängt und wie wissenschaftliche Modelle ihre Rolle adäquat spielen können.

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe Bisher habe ich gezeigt, dass CMMB überzeugend für die Inadäquatheit der Identifikation von Theorien mit Klassen von Modellen argumentiert hatten. Wissenschaftliche Modelle seien autonomous agents bzw. mediators (Morgan und Morrison, 1999a), die weder ganz der Phänomen- noch der Theorienebene angehörten, sondern dazwischen angesiedelt seien (Bailer-Jones, 2009). Mit Scheitern von sowohl semantic approach (Unterabschnitt 2.3.3) als auch received view (Unterabschnitte 2.2.2 bis 2.2.4) musste aber die Ausgangsfrage, was eine physikalische Theorie sei, unbeantwortet bleiben. Die Ausführungen der Kritiker gaben hierüber keinen Aufschluss. Ich werde folgend eine alternative Rekonstruktionsmöglichkeit vorstellen, die auf dem Ansatz Erhard Scheibes beruht. Erste Arbeiten zu seinem Theorienverständnis hat er bereits in den 1970er und 1980er Jahren verfasst (Scheibe, 1979,

58 | 2 Physikalische Theorien 1980, 1982, 1984).35 Bei meiner Darstellung habe ich mich neben älteren Arbeiten von Scheibe (1979) auch an der jüngeren Darstellung in dessen Reduktion physikalischer Theorien (Scheibe, 1997, S. 45 ff) orientiert. Auch wenn Erhard Scheibe in einer strukturalistischen Rahmenkonzeption arbeitet, ist die Behauptung, er stehe„in der Tradition der strukturalistischen Schule der Wissenschaftstheorie, die im Wesentlichen von Sneed (1971) begründet und später von Stegmüller, unter anderem in Stegmüller (1976), weiterentwickelt und popularisiert wurde“ (Gutschmidt, 2009, S. 46; die Literaturverweise wurden von mir angepasst) fragwürdig. Sneed und Scheibe bauen beide auf Bourbaki (1968) auf, weshalb formale Übereinstimmungen kaum verwundern. Warum Scheibe aber dadurch direkt in der Tradition von Sneed stehen soll, ist nicht ersichtlich. Dies gilt umso mehr, als sich BMS in der Literaturliste des ersten Kapitels ihrer Architectonic for Science (Balzer et al., 1987) explizit auf Scheibe (1979) beziehen und nicht anders herum. Scheibe selbst sieht sich dem semantic approach zwar nahe, grenzt sich an zentraler Stelle aber auch explizit von diesem ab. Trotz einiger Unklarheiten in seiner Schrift sind Theorien für ihn gerade keine Klassen von Modellen. Damit vermeidet er die Kritik von CMMB. Ich werde zeigen, dass es entgegen dem vereinheitlichenden Denken von Gutschmidt sinnvoller ist, ähnlich wie Schmidt (2014), den semantic approach in mehrere Strömungen aufzugliedern. Ich werde dafür argumentieren, dass eine Differenzierung in strukturalistische und modelltheoretische Rekonstruktionsansätze den relevanten Unterschied begrifflich sinnvoll wiedergibt. In Unterabschnitt 2.4.1 werde ich das Theorienkonzept von Scheibe in Abgrenzung von BMS darstellen und zeigen, dass Scheibe eine formale von einer Ebene der Phänomene unterscheidet. Damit ergibt sich die Frage, wie diese beiden Ebenen zusammenhängen. Ich werde in Unterabschnitt 2.4.2 zeigen, dass eine Antwort durch Erörterung der Rolle der Hauptbasismengen gegeben werden muss. Hilfreich wird hier die Arbeit von Brigitte Falkenburg sein, die mir als Grundlage einer elaborierten Antwort dient. Physikalische Modelle können sinnvoll in Scheibes Theorienkonzept eingebaut werden. Dieses Ergebnis stelle ich in Unterabschnitt 2.4.3 noch einmal dar.

35 Das unveröffentlichte Vorlesungsskript (Scheibe, 1980) zu Scheibes Theorienbegriff und Theorienvergleich der im Sommersemester 1980 an der Universität Göttingen gehaltenen Veranstaltung liegt derzeit im Scheibe-Archiv der TU Dortmund vor. Eine Edition dieser inhaltlich reichhaltigen Schrift findet hoffentlich in naher Zukunft statt.

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 59

2.4.1 Scheibes Theorienverständnis in Abgrenzung von BMS Ich habe bereits zuvor auf die Ähnlichkeit der Grundlagen der Theorienkonzepte von BMS und Scheibe hingewiesen. So ist auch für Scheibe eine Strukturart nach Bourbaki Σ(X, A, s) := Σ(X1 , . . . , X λ ; A1 , . . . , A µ ; s1 , . . . , s ν ) Ausgangspunkt der Untersuchung. Wie in Abschnitt 2.3 seien im Folgenden die X i Hauptbasismengen, die A j Hilfsbasismengen und die s k typisierte Terme. Sofern sie die strukturalistische Ebene nicht verlassen, gelten für Scheibe auch die weiteren Ausführungen aus ebd. analog. Den Schritt, zusätzlich unterschiedliche Klassen von Modellen, wie potentielle oder partiell potentielle Modelle zu bestimmen, geht Scheibe jedoch nicht mit. Er bleibt formal sehr nahe an Bourbaki, woraus sich der in Unterabschnitt 2.4.1 dargestellte Hauptunterschied zu BMS ergibt. Zudem fordert Scheibe die kanonische Invarianz gegenüber Isomorphismen von Strukturen bzw. die Transportabilität (vgl. Scheibe, 1997, S. 65 f). Diese Eigenschaft geht auf Bourbaki (1968, S. 259 ff) zurück und findet sich ebenso in dem zu Scheibes artverwandten Ansatz von Günther Ludwig (1978, S. 56 ff).36 Zwei Strukturen (X; A; s) und (X ′ ; A; s′ ) heißen genau dann isomorph (in Zeichen: „∼ = “), wenn es eine bijektive Abbildung von X nach X ′ gibt und wenn in diesem Fall s bezüglich X und A in gleicher Weise typisiert ist wie s′ bezüglich X ′ und A. Mit entsprechendem Leiterterm φ gilt: ′ ′ ′ ′ (X; A; s) ∼ = (X ; A; s ) → (s ∈ φ(X; A) ↔ s ∈ φ(X ; A))

(2.15)

Für die typisierten Terme sei diese Forderung unproblematisch. Dasselbe gelte aber nicht für jede über eine Strukturart formulierbare Aussage α. So ließe sich nach Scheibe (1997, S. 66) etwa über zwei Hauptbasismengen aussagen, sie hätten kein Element gemeinsam. Eine solche Forderung wäre inkompatibel mit der Transportabilität, weshalb diese als zusätzliche Forderung an die Axiome gestellt werden müsse. Angelehnt an (2.15) formuliert Scheibe (vgl. 1997, S. 66) diese Forderung entsprechend dem folgenden Ausdruck: ′ ′ ′ (X; A; s) ∼ = (X ; A; s ) → (α(X; A; s) ↔ (α(X; a; s ))

Die Transportabilität grenzt damit zwei Klassen von über Strukturen getroffene Aussagen voneinander ab. Man könne sagen „that canonical invariance is a very 36 Sowohl Bourbaki als auch Ludwig bezeichnen die verlangte Eigenschaft als „Transportabilität“, während Scheibe durchwegs von der kanonische Invarianz spricht. Ich werde beide Begriffe im Folgenden synonym verwenden.

60 | 2 Physikalische Theorien weak condition of lawlikeness of the physical axioms, and this would be desirable at any rate.“ (Scheibe, 1994a, S. 505) Das Kriterium selbst wird auch von BMS aufgeführt, die dessen Relevanz allerdings zurückweisen: The general concept of a structure species goes back to Bourbaki’s foundational work on mathematics. However, note that our definition of a structure species is weaker then Bourbaki’s in that we do not require the formulas [. . . ] to be ‘invariant under canonical transformations’. (Balzer et al., 1987, S. 11)

Sie begründen den Schritt mit der Unbeweisbarkeit der kanonischen Invarianz aus der Mengentheorie heraus und den Einschränkungen, die sie der Rekonstruktion von Theorien auferlege: In the present set-theoretical frame this kind of invariance cannot be proved, for set-theoretic formulas in general do not preserve their truth-value under bijective mappings (consider ’x ⊆ y’ as an example). In spite of the formal attraction exerted by this invariance condition we choose not to impose it in general for this would represent a strong formal restriction of the way in which theories have to be represented. (Balzer et al., 1987, S. 12)

Die Kritik lässt sich auch so formulieren, dass die Transportabilität als willkürlich erscheinendes notwendiges Demarkationskriterium von gesetzesartigen und nicht-gesetzesartigen Aussagen noch nicht absehbare Konsequenzen hätte. Diese gelte es möglichst zu vermeiden. Aber auch die Ablehnung der kanonischen Invarianz löst das Differenzierungsproblem nicht, sondern verschiebt es nur: So taucht es bei BMS bei der Unterscheidung von aktuellen und potentiellen Modellen wieder auf, der ebenfalls ein willkürliches Kriterium unterliegt (vgl. Unterabschnitt 2.3.2). Aber auch abgesehen davon ist fraglich, wie nicht-invariante Axiome mit der strukturalistischen Rahmenkonzeption vereinbar sind, da sie Aussagen über die als von außerhalb der Theorie bestimmt angenommenen Basismengen treffen müssten. Die Basismengen wären damit variabel, was im klaren Widerspruch zur mengentheoretischen Grundlagen steht. Ein zweiter sowohl formaler als auch begrifflicher Unterschied von BMS und Scheibe betrifft physikalische Invarianzforderungen, mit denen sich Scheibe (1994a) an anderer Stelle auseinander setzt. Die Transportabilität ist für ihn eine bedingungslose Invarianz. Sie sei unabhängig von den sonstigen bezüglich einer Theorie geltenden Axiomen und unterscheide sich von einer durch die Axiome bedingten, nur die Basismengen und typisierten Terme betreffenden, Invarianz. Da die Basismengen von außerhalb der Theorie bestimmt werden, sei diese Eigenschaft für sie grundsätzlich erfüllt. Bezeichnen wir die so invarianten Bestandteile einer Theorie mit hochgestelltem „◦“, ist: X = X ◦ und A = A◦

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe |

61

Für die typisierten Terme könne dies nicht vorausgesetzt werden und es gelte zu differenzieren: s = (s◦ , s′ ), wobei s′ der nicht-invariante Teil der typisierten Termen von T ist. Beispiele sind Galilei und Lorenzinvariante Größen in der Physik sowie geometrische Formen unter Symmetrieabbildungen in der Euklidischen Geometrie. Die Zusammenfassung der invarianten Größen einer Theorie (X ◦ ; A◦ ; s◦ ) = (X; A; s◦ ) bezeichnet Scheibe (1997, S. 67) als den Kern einer Theorie und die Axiome, die nur etwas über den Kern aussagen, als Kernaxiome. Bei dem Kern handele es sich um jenen Teil der Theorie, der allen Systemen, welche der Theorie genügen, gemeinsam ist. Im Falle der Newtonschen Mechanik, so Scheibe (1997, S. 52), seien etwa Raum und Zeit inklusive ihrer metrischer Strukturen Kernbestandteile. Der Kern nach Scheibe ist nicht zu verwechseln mit dem theoretischen Kern nach BMS aus Formel (2.9). So impliziert der Kern nach BMS den intendierten Anwendungsbereich, der auf diese Weise zum integralen Theorienbestandteil wird. Scheibe (1997, S. 75) äußert sich bezüglich der Rolle des Anwendungsbereichs hingegen neutral. So sei es nicht klar, in wiefern er Bestandteil der respektiven Theorie sei, da er sich im Laufe der Zeit ändern könne. Eine Theorie würde dem gegenüber eine größere Beständigkeit aufweisen: Nicht jede Änderung des Anwendungsbereichs impliziere auch den Übergang von einer Theorie zu einer anderen. Schlussendlich sei „[d]as größte mit dem fraglichen Begriff zusammenhängende Problem [. . . ] aber die Beantwortung der Frage, wie ein Anwendungsbereich zu kennzeichnen ist.“ (Scheibe, 1997, S. 75) Mit Blick auf die Kritik am semantic approach besteht der Hauptunterschied zwischen Scheibe und alternativen Ansätzen darin, dass Scheibe durchwegs über Strukturen spricht, nicht jedoch über Modelle. Bei der im Folgenden formulierten Kritik bezieht er sich explizit auf Suppe (1974), van Fraassen (1980) und Balzer et al. (1987): It has become fashionable to replace the syntactical approach of (the earlier) Carnap by a so called ‘semantical’ approach [. . . ]. Apart from the elimination of some irrelevancies I can see no essential advantage of this approach. If we come down to special cases, it is hard to see how we can do without having to resort to the languages. (Scheibe, 1993, S. 354, Fußnote)

Scheibe verlangt also nach einer stärkeren Betonung der verwendeten Sprache. Ebenfalls mit Bezug auf die oben genannten Autoren schreibt er einige Jahre später:

62 | 2 Physikalische Theorien Man ersetze eine formale Theorie zunächst durch die Klasse ihrer Modelle und rede dann in einem weiteren Schritt nur noch von Strukturklassen ohne Rücksicht auf ihre formale Herkunft. Dies ist eine grandiose (in Wahrheit noch viel weiter getriebene) Verallgemeinerung, aber mit Semantik hat es nichts zu tun, solange man nicht doch wieder zu Formalisierungen auf Objektebene zurückkehrt. Eben diese Rückkehr ist für dieses Buch [Gemeint ist die Reduktion physikalischer Theorien] beabsichtigt, und unser Unternehmen könnte daher zurecht als ein ‚semantic approach‘ bezeichnet werden. (Scheibe, 1997, S. 47)

Für eine bestmögliche Differenzierung werde ich den Ansatz nach Scheibe sowie zu diesem artverwandte Positionen folgend als „strukturalistische Positionen“ bezeichnen und von den „modelltheoretischen Auffassungen“ im Sinne von BMS, van Fraassen, Stegmüller et al. abgrenzen. In der Literatur sind beide Begriffe ebenfalls bekannt, werden aber bisher synonym verwendet. Neben Scheibe und Bourbaki, der sich lediglich für mathematische Strukturen interessiert, gehören auch die Ansätze von Ludwig (1970, 1978) sowie Ludwig und Thurler (2006) in diese Kategorie. Scheibe betont an mehreren Stellen die Nähe seines Ansatzes zu dem von Ludwig. Die zentralen Aspekte von Ludwigs Position lassen sich wie folgt pointieren: His underlying ‘philosophy’ is the view that there are real structures in the world which are ‘pictured’ or represented, in an approximate fashion, by mathematical structures, symbolically PT = W (-) MT. The mathematical theory MT used in a physical theory PT contains as its core a ‘species of structure’ Σ. This is a meta-mathematical concept of Bourbaki which Ludwig introduced into the structuralistic approach. The contact between MT to some ‘domain of reality’ W is achieved by a set of correspondence principles (-), which give rules for translating physical facts into certain mathematical statements called ‘observational reports’. These facts are either directly observable or given by means of other physical theories, called ‘pre-theories’ of PT. In this way a part G of W, called ‘basic domain’ is constructed. But it remains a task of the theory to construct the full domain of reality W, that is, the more complete description of the basic domain that also uses PT-theoretical terms. (Schmidt, 2014, Abschnitt 4.2.1., Hervorhebungen im Original)

Eine explizite Diskussion der Details von Ludwigs Ansatz würde hier zu weit gehen und ist mit Blick darauf, dass ich in Abschnitt 3.2 ein Reduktionskonzept vorstellen werde, das auf Scheibe und nicht auf Ludwig beruht, auch nicht nötig. Ich werde mich folgend auf die Auseinandersetzung mit der Arbeit von Scheibe konzentrieren.37 Ein wie oben verstandener Strukturalismus zeichnet sich also dadurch aus, dass er statt über Klassen von aktuellen, potentiellen oder partiell potentiellen 37 Für den Ansatz eines Abgleichs der Arbeiten von Scheibe und Ludwig (aber auch BMS) siehe Schmidt (2014).

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 63

Modellen zu sprechen darauf plädiert, die dafür notwendige sprachliche Ebene erst gar nicht einzuführen. Stattdessen behandelt er Strukturarten, die an ihre mengentheoretische Beschreibung gebundenen sind. Gegenüber den modelltheoretischen Auffassungen bedeutet dies einen Rückschritt, da sich auf deren Voraussetzungen beschränkt wird. Doch erst dies ermöglicht eine adäquate Reaktion auf die Kritik von CMMB, wie ich unten zeigen werde.38 Mit der Sprachabhängigkeit tritt das Fundierungsproblem aus Abschnitt 2.3 erneut in den Vordergrund. Die Probleme, die sich aus einer Formalisierung mit der naiven Mengenlehre ergeben, lassen sich nur in einem modelltheoretischen Ansatz unter Verweis darauf zurückweisen, dass zur Bestimmung der Modelle jedes Mittel recht ist. Ein strukturalistischer Ansatz benötigt eine andere Grundlage. Die Lösung des Problems ist jedoch denkbar einfach: Scheibe (1997, S. 56) schlägt die Prädikatenlogik erster Ordnung mit eingebetteter Mengenlehre vor, so wie sie im System ZFC nach Zermelo und Fraenkel mit Auswahlaxiom gegeben ist. Als einen der primären Gründe für diese Wahl gibt er an, „dass die Physik in hohem Maße mathematisiert ist und eine mögliche Grundlage für die Mathematik eben eine Mengenlehre ist [. . . ].“ (Scheibe, 1997, S. 56) Bemerkenswert ist hier dreierlei: Zunächst liefert ZFC eine Begründung, wie sie sich Scheibe für seine „Rückkehr zu Formalisierungen auf Objektebene“ (Scheibe, 1997, S. 47) stärker kaum wünschen kann. Weiter hebt er durch Betonung der Bedeutung mathematischer Formalisierungen für die Physik noch einmal hervor, dass es ihm nicht um ein allgemein-wissenschaftliches Theorienverständnis geht, sondern lediglich um eines physikalischer Theorien. Am wichtigsten ist, dass mit ZFC eine syntaktische Ebene ausgezeichnet wird, deren Etablieren in modelltheoretischen Ansätzen ohne Modifikation zentraler Aspekte der jeweiligen Position nicht möglich ist. Ein von Scheibe selbst gewähltes Beispiel ist die Beschreibung eines Teilchens mit Hilfe der Newtonschen Mechanik (vgl. Scheibe, 1997, S. 47 ff). Die folgenden Formeln habe ich mit nur leichten formalen Anpassungen ebd. entnommen, wobei Scheibes Darstellung gegenüber der hier gegebenen ausführlicher ist. Mit der Newtonschen Mechanik lässt sich die Bewegung eines Teilchens in einem allgemeinen Kraftfeld beschreiben durch: d2 x i αf i (x) , i = 1, 2, 3 = m dt2

(2.16)

38 Der Schritt zurück ist historisch zu verstehen. Bei Lektüre des Literaturverzeichnisses der ersten beiden Kapitel der Arbeit von Balzer et al. (1987, S. 34 f / 93 f) sind frühe Arbeiten von Scheibe (1979) und Ludwig (1978) angegeben. Während BMS also durch Einführung einer Metaebene eine bewusste Erweiterung von Scheibe vornehmen, lehnt Scheibe dies ebenso bewusst ab.

64 | 2 Physikalische Theorien m entspricht der Masse eines Teilchens, x i (t) den Ortskoordinaten zur Zeit t, α einem weiteren, vom Teilchen abhängigen Parameter wie der Ladung, und f i (x) der Kraftkomponente am Ort x. Da die beschriebenen Bewegungen im Euklidischen Raum stattfinden, gilt es zunächst, einen solchen zu axiomatisieren. Ausgangspunkt hierfür sind eine Punktmenge S, die mit einer Abstandsstruktur d versehen wird: (S; R; d) Der Einfachheit halber werde ich die Abstände nicht physikalisch interpretieren, sondern unmittelbar auf die reellen Zahlen abbilden. Da bei einer Abstandsbestimmung allgemein zwei Punkten von S eine reelle Zahl zugeordnet wird, ist d typisiert durch: d ∈ P(S × S × R) Damit diese Abstandsstruktur Euklidisch wird, muss sie noch axiomatisiert werden. Scheibe unterscheidet eine direkte von einer indirekten Axiomatisierung. Bei einer indirekten Axiomatisierung werden die Axiome bezüglich eines zuvor für S geforderten Koordinatensystems φ formuliert. Dies entspricht einem Isomorphismus: φ : S → R3

(2.17)

Dass es sinnvoll ist, hier von einer Isomorphie zu sprechen, werde ich in Unterabschnitt 2.4.3 noch verdeutlichen. Unter Voraussetzung eines entsprechenden Koordinatensystems ist eine Euklidische Abstandsstruktur nach Scheibe (1997, S. 50) bestimmbar durch das Axiom:   d(x, y) = (y φi − x φi )2 (2.18) i=1,2,3

φ φ x i und y i sind die Koordinaten von x und y in φ. Es ist bereits impliziert, dass es sich bei d um eine Funktion handelt. Die Formulierung einer direkten Axiomatisierung ist komplizierter, liefert aber einen leichteren Zugang zur physikalischen Interpretation (vgl. Scheibe, 1997, S. 82 f). In der Tat gibt es eine Redundanz zwischen einer physikalischen, koordinatenunabhängigen Darstellung und einer mathematischen Beschreibung, auf die ich in 2.4.2 zurückkommen werde. Bis dahin werde ich beide Möglichkeiten zur Axiomatisierung als gleichwertig auffassen. Einzelne geometrische Objekte lassen sich jetzt bestimmen über:

M i ∈ P(S)

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 65

Ein Kreis ist also nicht ein Kreis für sich, sondern ein Kreis relativ zu einem gegebenen Raum mit einer bestimmten Metrik. Da räumliche Bewegungen von Körpern in einer kinematische Struktur in der Zeit verlaufen, muß mit „T“ eine zweite Hauptbasismenge für alle möglichen Zeitpunkte eingeführt werden, die ebenfalls mit einer Abstandsstruktur e zu versehen ist. Da die Zeit nur in eine Richtung verläuft, kommt noch eine Ordnungsstruktur e1 hinzu. Auch die Zeitabstände sollen direkt auf die reellen Zahlen abgebildet werden. Ausgangspunkt der Typisierung ist damit das Quadrupel: (T, R, e, e i ) e sei analog zu d typisiert durch: e ∈ P(T × T × R) und zur linearen Anordnung der Zeitpunkte ist e1 zunächst allgemein bestimmt mittels: e1 ∈ P(T × T) Auch auf T fordert Scheibe (1997) die Existenz eines Koordinatensystems φ:T→R Damit lassen sich e und e1 sinnvoll axiomatisieren, durch: i) e(t1 , t2 ) = |t1φ − t2φ | ii) (t1 , t2 ) ∈ e1 ↔ t1φ < t2φ Es ist mit i) für e wie zuvor für d implizit gefordert, dass es sich um eine Funktion handelt. t φi sind die Koordinaten von t i ∈ T in φ. Im nächsten Schritt wird das Kraftfeld f bestimmt. In der Newtonschen Mechanik entspricht dies einer Funktion, die jedem Punkt des Raumes eine bestimmte Kraft zuordnet. Wir führen die neue Hauptbasismenge K ein, die der Menge aller möglichen Feldstärken entspricht. Das Kraftfeld f wird dann typisiert durch: f ∈ P(S × K) Jedem Punkt eines jeden Euklidischen Koordinatensystems φ auf S, wie es bei indirekten Axiomatisierungen bereits mit (2.18) aufgetaucht ist, wird damit ein weiteres Koordinatensystem auf K eindeutig zugeordnet. Dies liefert ein globales Koordinatensystem F mit: F ∈ P(P(S × R3 ) × P(K × R3 ))

66 | 2 Physikalische Theorien Sei ψ ein weiteres Koordinatensystem auf S, so muss erfüllt sein, dass für jede Koordinatentransformation auf S mit  xψ a ij x φj + a i i = i=1,2,3

eine Transformation der Kraftkomponenten entspricht, die bestimmt ist durch:  F F fi ψ = a ij f j φ i=1,2,3

Ist a ij orthogonal und a i ∈ R, müssen die so eingeführten Koordinatensysteme auf S und K noch mit einer (üblichen) Vektorraumstruktur sowie einer Abstandsstruktur versehen werden. Diesen formal umständlichen Schritt spare ich aus. Die Details sind in hinreichender Ausführlichkeit gegeben bei Scheibe (1997, S. 47 ff). Mit Auszeichnung der globalen Raum- und Zeitstrukturen sowie der allgemein gehaltenen Kräfte sei nach Scheibe (1997, S. 52) der Kern der zu formalisierenden Theorie bestimmt. Im variablen Teil werden darüber hinaus die Masse m, der Parameter α sowie die Bewegung des Teilchens x(t) bestimmt: m, α ∈ R+ und

x ∈ P(T × S)

(2.19) (2.20)

Dass m und α direkt den reellen Zahlen entstammen, entspricht unmittelbar dem Vorgehen von Scheibe (1997, S. 54), der die Redundanz bezüglich mathematischer und physikalischer Objekte betont. So müssten neben den bisherigen Hauptbasismengen streng genommen noch weitere Hauptbasismengen eingeführt werden, welche den physikalischen Werten entsprächen. Die Masse hätte sich beispielsweise ebenfalls typisieren lassen via m ∈ M, wobei M als Hauptbasismenge allen möglichen (physikalischen) Werten für die Masse entspricht. In Unterabschnitt 2.4.3 werde ich einen Ansatz zur Erklärung und teils zur Rechtfertigung dieser Redundanzen geben, der über die Überlegungen Scheibes hinausgeht. Zunächst kann m jedoch problemlos wie in (2.19) typisiert angenommen werden. Das Ziel war die Entwicklung einer Theorie, welche die Bewegung eines Teilchens über Formel (2.16) beschreibt. Doch kommt in (2.16) die Bewegung nicht direkt vor, sondern nur in Form der zweiten Ableitung. Auch hier müssen wir ein Koordinatensystem voraussetzen: x ∈ P(P(S × R3 ) × P(R × R3 ))

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 67

Dabei sei x eine stetige Funktion. Dieses Vorgehen, das Scheibe (1997, S. 54) zutreffend als „hoch redundant“ bezeichnet, ist die Grundlage dafür, die Beschleunigung aufbauend auf x zu bestimmen über: d2 x : R → R3 dt2 Um die Redundanz ein wenig aufzulösen, ließe sich eine Transformation mit Hilfe der auf S und T gegebenen Koordinatensysteme durchführen. Sei B die Zusammenfassung dieser Koordinatensysteme auf Raum und Zeit und weiter φ ∈ B, so könne nach (Scheibe, 1997, S. 54) unter Verwendung einer rein physikalischen Interpretation von x eine koordinatenabhängige Funktion definiert werden durch: x φ : R → R3 , x φ (t φ ) = φ(x(φ−1 (t φ )))

(2.21)

Das Redundanzproblem ist damit noch nicht gelöst, sondern lediglich verschoben auf die Frage, ob T und S als physikalisch oder mathematisch zu verstehen sind. Ich werde später dafür argumentieren, dass aufgrund der gegebenen Isomorphismen und des damit einfachen Wechsels zwischen beiden Auffassungen, eine Entscheidung nicht notwendig ist (vgl. Unterabschnitt 2.4.2). Das wie bisher bestimmte Axiomensystem sei nach Scheibe (1997, S. 55) jedoch noch nicht wahrheitsfunktional. Vielmehr handele es sich bei ihm um eine Aussagenform, die erst auf einen intendierten Anwendungsbereich A bezogen werden müsse. Steht „Σ“ für die Zusammenfassung der Axiome, so ist die resultierende All-Aussage gegeben mit: ∀a : a ∈ A → Σ(S, T, K, d, . . . , m a , α a , x a )

Es sind m a , α a , x a die für a spezifische Masse, Bewegung und charakteristischer Parameter. Die Frage, ob eine Aussage über die Anwendung einer Theorie auf einen Anwendungsbereich wahr ist oder nicht, könne nach Scheibe (1997, S. 94) nicht mit einem absoluten Exaktheitsanspruch gestellt werden. Wie schon Kuhn und Feyerabend vor ihm (vgl. Unterabschnitt 3.1.3), attestiert auch Scheibe, dass jede Theorie streng genommen falsifiziert sei, würde man nur hinreichend genau messen. Da dies allerdings im Widerspruch zum unbestreitbaren Erfolg von als mittlerweile falsifiziert geltenden Theorien wie der Newtonschen Mechanik steht, führt Scheibe (1997, S. 94 ff) als Konsequenz ähnlich wie BMS zuvor (vgl. Unterabschnitt 2.3.2) einen „topologischen Schlauch“ um die exakten Messdaten ein, der die Fehlertoleranz bezogen auf die respektive Theorie widerspiegelt.39 Dieser

39 Die formalen Details finden sich bei Scheibe (1997, S. 94 ff).

68 | 2 Physikalische Theorien topologische Schlauch wird hier in Bezug auf die Frage nach der Art von Beziehungen von Theorien untereinander relevant sowie der von Theorien und Daten im Kontext explanatorischer Reduktionen, weshalb ich in Abschnitt 3.2.1 hierauf noch einmal zurückkommen werde. Zuvor werde ich der Frage nachgehen, wie sich abgesehen von dieser Ungenauigkeit die theoretische, sprachabhängige Ebene in Beziehung zum Anwendungsbereich setzen lässt. Es sollte bereits ersichtlich geworden sein, dass der Ansatzpunkt dafür die Hauptbasismengen sein werden. Im folgenden Unterabschnitt werde ich zunächst Scheibes Ausführungen hierzu wiedergeben und dann mit Hilfe eines Ansatzes von Brigitte Falkenburg über diese hinausgehen. Dadurch ergibt sich eine neue Sicht auf die Rekonstruktion physikalischer Theorien, die zwischen received view und semantic approach eine Antwort auf die Kritik von CMMB geben kann.

2.4.2 Die Rolle der Hauptbasismengen bei Scheibe Die Formalisierung physikalischer Theorien nach Scheibe geschah auf rein syntaktischer Ebene. Wie aber lässt sich diese in Beziehung zu den Phänomenen bzw. den Daten bringen? Eine erste in Anbetracht der durch ZFC gegebenen Grundlage plausibel erscheinende Auffassung ist das Verständnis der durch sie ausgewiesenen Strukturen als rein mathematisch. Dies würde auch den Ansatz einer Brücke zu den in Abschnitt 2.3.3 dargestellten Positionen liefern. Dort hatte Bailer-Jones (2009) Theorien im Verhältnis zu den Phänomenen, auf die sie sich beziehen, als „abstrakt“ bezeichnet. Dies stimmt überein mit strukturalistischen Positionen aus der Philosophie der Mathematik, nach denen „mathematics is concerned principally with the investigation of structures of various types in complete abstraction from the nature of individual objects making up those structures.“ (Hellman, 1989, S. vii; zitiert nach Heck und Price, 2000, S.341) Leider ist es nicht ganz so einfach. Gegen eine Gleichsetzung dieser syntaktischen Ebene mit allein mathematischen Strukturen spricht, dass unter dieser Voraussetzung nicht mehr von physikalischen, sondern nunmehr von mathematischen Theorien die Rede sein muss; die Grenzen zwischen beiden Wissenschaften würden verwischt werden. Die einzige Möglichkeit, dem argumentativ entgegen zu wirken, scheint es zu sein, eine für die Physik (wie auch immer zu verstehende) stärkere Bedeutung des Anwendungsbereichs zu betonen. Aber auch dies hilft nicht weiter, da dieser als nach Voraussetzung von außerhalb der Theorie kommend für ein formales Theorienverständnis auch keinen Unterschied macht. Ihn andersherum als zur Theorie gehörig zu verstehen, ist kaum weniger problematisch. Bereits oben habe ich Scheibe angeführt, nach dem es „fraglich ist, ob

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 69

der Anwendungsbereich einer Theorie zu ihren Bestandteilen gehört.“ (Scheibe, 1997, S. 75) So sprechen wir nicht jedes Mal von einer neuen Theorie, wenn sich nur der Anwendungsbereich, nicht aber ebenfalls ein Teil der theoretischen Ebene, ändert. Zudem ist in diesem Fall erneut unklar, welche Rolle Modelle einnehmen können, wenn zur Auszeichnung der Theorie bereits Formalismus und Anwendungsbereich als bekannt vorausgesetzt sind. Die Modelle wiederum als der Theorie zugehörig zu verstehen, würde die oben herausgearbeitete Grenze zwischen modelltheoretischer und strukturalistischer Auffassung verwischen. Die Möglichkeit, Abstraktheit als Anknüpfungspunkt an CMMB zu wählen, wird damit zwar nicht allgemein disqualifiziert, wohl aber ihre Auslegung im Sinne mathematischer Strukturen. Anders herum dürfen mathematische Strukturen auch nicht einfach ignoriert werden, da sie gerade in der Physik von Bedeutung sind: That there is something like the mathematical structure of physical theory is perhaps obvious from any modern textbook in theoretical physics. In opening such a book the overwhelming impression of what is going on there is that of more or less complicated mathematical reasoning. (Scheibe, 1979, S. 161)

Es muss eine Lesart gefunden werden, in der die mathematische Struktur einer physikalischen Theorie zwar klar als solche aufgezeigt werden kann, dies allerdings nicht in Form eines separat beschriebenen Theorienbestandteils geschieht, dessen Verbindung mit Modellen und Anwendungsbereich als ebenfalls separate Bestandteile eine allgemeine Beschreibung erfährt. Mit anderen Worten: Die mathematische Struktur einer physikalischen Theorie muss aufgezeigt werden, ohne jedoch als solche eine eigenständige Rolle zu spielen. Das zu behandelnde Problem verlangt damit nach einer Antwort auf die Frage des Zusammenhangs von sprachabhängiger Strukturebene und Phänomenebene. Ist diese Antwort gefunden, lässt sich in einem zweiten Schritt überlegen, ob und wo sich wissenschaftliche Modelle verorten lassen. Als Ausgangspunkt der Suche bietet sich eine Betrachtung der Hauptbasismengen an. Scheibe charakterisiert sie wie folgt: Die X µ sind physikalischer, die A λ mathematischer und die s ν , je nach ihrer Bildung [. . . ] ebenfalls physikalischer, mathematischer oder gemischter Natur. Die jeweilige Natur der s ν braucht also nicht eigens gefordert zu werden, da sie sich von selbst ergibt. Zu fordern ist aber ph(X µ ), ma(A λ ) (2.22) (Scheibe, 1997, S. 64; die Nummerierung ist der vorliegenden Arbeit angepasst.)

Die Forderung nach einer physikalischen Natur der Hauptbasismengen widerspricht nicht der Wahl von ZFC als grundlegendes Axiomensystem. Auch wenn

70 | 2 Physikalische Theorien in gängigen Axiomatisierungen der modernen Mathematik beispielsweise die Zahlbereiche auf der leeren Menge aufgebaut werden, hatte schon Zermelo selbst stattdessen nicht-mengentheoretisch gegebene Urelemente als grundlegendes Konzept zum Aufbau von Theorien vorgesehen. Implizit äußert er sich dazu in einem Schreiben vom 20ten Januar 1924 an Fraenkel: „It seems questionable to demand that each element of a set should be a set itself. Well, formally this works and simplifies the formulation. But how is it then with the application of set theory to geometry and physics?“ (Zermelo zitiert nach Ebbinghaus, 2007, S.190) Trotz der Notwendigkeit weiterer Ausführungen liefern Urelemente also eine Möglichkeit, physikalische Größen in ansonsten formalisierte Theorien einfließen zu lassen. Für die Rekonstruktion physikalischer Theorien ist dies unumgänglich, denn: Even in a book on theoretical physics the language used is not entirely mathematical. Rather it contains such general physical terms as ‘particle’, ‘field’, ‘state’, ‘quantity’, ‘probability’ etc. and very often also more special terms such as ‘time’, ‘space’, ‘position’, ‘energy’, ‘temperature’ etc. The use of such terms indicates that the book is not just about mathematical entities but also and mainly about the real world. (Scheibe, 1993, S. 161)

Die Begriffe sind nicht als observable Begriffe im Sinne des received view zu verstehen. Scheibe kannte das Problem der Theoriegeladenheit der Beobachtung, weshalb er sicherlich nicht in einen schnöden Positivismus zurückgefallen ist – zumal er seine eigene Position als „between rationalism and empiricism“ sah (vgl. Scheibe, 1994b). So schreibt er über die Verortung der Physik in Bezug auf rationalistische und empiristische Elemente: it seems that our accomplishments can only be represented as compromises between extremes, extremes which cannot be realized simultaneously, even though each for itself would represent a considerable value. And the more frequently we arrive at this conclusion the more it seems reasonable to suspect that with these extremes we are allowing ourselves to be guided by traditional categories which are wholly inadequate to what we can actually accomplish. (Scheibe, 1994b, S. 86)

Wie aber lässt sich die Beziehung von Theorie und Phänomenen über die Rolle der Hauptbasismengen beschreiben? Für Scheibe ist hier die von ihm getroffene Differenzierung zwischen Anwendungsbereich und physikalischer Interpretation einer Theorie zentral, wie sie in der folgenden Passage deutlich hervortritt: In this respect my own use of the term ‘physical interpretation’ would be such that it does not yet include the actual or possible referents of a theory. Rather it is confined to whatever is necessary in order to identify the intended referent by physical means, e.g. measuring instruments. The intended or actual application of a physical theory are better viewed under a separate aspect: As compared with a physical interpretation in the sense indicated the an-

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 71

nouncement of a range of intended or actual referents of a theory is a new logical step. Its distinction from a mere physical interpretation approximately mirrors the general distinction between meaning and fact. (Scheibe, 1979, S. 161)

Eine physikalische Interpretation im obigen Sinn lässt sich als theoretisches Modell einer Theorie verstehen. Zusammen mit dem Anwendungsbereich liefert dies die gewünschte Dreiteilung in eine Theorie-, eine Modell- und eine Phänomenebene. Wie aber hängen diese Ebenen miteinander zusammen und wie lassen sich materielle Modelle hier einordnen? Wer sich eine Darstellung der Beziehungen von Scheibe selbst erhofft, wird enttäuscht. Abgesehen von der Etablierung dieser grundsätzlich wünschenswerten Dreiteilung finden sich schwerlich Arbeiten von ihm, die das Verhältnis näher beleuchten. Ein ausschlaggebender Grund hierfür dürfte sein, dass Scheibes Theorienverständnis für seine Arbeit ein Mittel zum Zweck war. In seinen Ausführungen zur Reduktion physikalischer Theorien (vgl. Scheibe, 1993, 1997, 1999 sowie Unterabschnitt 3.2) kommt es ihm auf den Zusammenhang der theoretischen Bestandteile einer Theorie an, nicht jedoch auf ein Verständnis der von Modellen eingenommenen Rolle. Bei der folgenden Untersuchung der Beziehung von Phänomen-, Modell-, und Theorienebene gehe ich über die Arbeit von Scheibe hinaus. Dennoch werden sich keine Widersprüche zu zentralen Aspekten von Scheibes Überlegungen ergeben. Die folgenden Seiten sind damit als Ergänzungen zu verstehen. Ausgangspunkt zur Bestimmung der physikalischen Natur der Hauptbasismengen ist ein Vorschlag von Brigitte Falkenburg (2007), Messungen als Grundlage zur Bildung von Äquivalenzklassen zu verstehen. In ihrem Buch Particle Metaphysics (ebd.) schreibt sie: Thus, measurement serves to generate well-defined classes of physical objects or processes. Each class of objects or processes corresponds to a physical property, say, the property of having a length of 1cm, lasting a time of 3ns, or having a temperature of 3K. A physical property corresponds to the class of objects or processes that share that property. All classes of experimental results are expressed in terms of real numbers and the dimension ‘length’, ‘time’, ‘mass’, ‘temperature’ of the respective quantity. Each real number expresses a physical property in terms of a multiple of the unit of the appropriate scale. The scale ranges from 0 to ∞. It represents one class of physical properties, for example, all possible mass values. It corresponds to all physical properties of this type. The physical quantity ‘mass’ is represented by the mass scale. The mass scale is the abstract class of all classes of concrete bodies of equal weight. (Falkenburg, 2007, S. 44)

Bemerkenswert ist, dass auch Falkenburg Anlass zur Etablierung dreier Ebenen gibt, deren unterste aus den Phänomenen besteht. Diese werden durch konkrete Messverfahren in Klassen eingeteilt, von denen jede einem physikalischen Wert entspricht. Die Messung selbst muss auf einer Messtheorie beruhen, zu der weiter

72 | 2 Physikalische Theorien unten noch Ausführungen folgen. Werden die Werte-Klassen skaliert und in eine Ordnung gebracht, entspricht das Ergebnis einer physikalischen Größe. Für einen nahtlosen Anschluss an die Arbeit Scheibes sind noch einige über das bisher Gesagte hinausgehende Erläuterungen nötig. Die Durchführung einer Messung dient zunächst dem Versuch, Phänomene bzw. gewisse ihrer qualitativen Eigenschaften durch den Vergleich mit einer Norm quantitativ zu erfassen. Dies ist jedoch nicht für jede sinnvoll abgrenzbare Phänomenklasse möglich. So ist beispielsweise die Schönheit einer Person eine Eigenschaft, die in Zahlen zu verstehen (wenn überhaupt) nur über eine komplexe zusätzlichen Theorie möglich ist und es abgesehen von dieser theoriegeladenen Messung keine weitere Möglichkeit einer objektiven Bestimmung gibt (vgl. Lesche, 2011, S. 1).40 Damit eine bestimmte Phänomenklasse als messbar angesehen werden kann, muss für die mit einer bestimmten Messmethode erhaltenen Werte also eine relationale Struktur postuliert werden. Die Aufgabe der Axiomatisierung dieser Struktur kommt der formalen Messtheorie zu. Die in Unterabschnitt 2.3.2 gegebene Grundlage einer solchen im Sinne von BMS kann hier zwar als (historisches) Beispiel dienen, ist aber noch nicht der Weisheit letzter Schluss. Dies gilt umso mehr, als unklar ist, wie auf den unterliegenden modelltheoretischen Ansatz, dessen Probleme es hier ja schließlich zu vermeiden gilt, verzichtet werden kann. Abgesehen davon sollten aber ohnehin über die Betrachtung von Beispielen hinaus möglichst allgemeine Eigenschaften von Messtheorien aufgezeigt werden. Wie dies aussehen kann findet sich im Appendix A von Falkenburgs Particle Metaphysics (Falkenburg, 2007, S. 343 ff), wonach mit der Definition grundlegender operationaler Beziehungen aus dem Phänomenbereich, der derselben sowie einer numerischen Repräsentation die Festlegung dieser relationalen Struktur (D Q , ⊕, ) in drei Schritten vonstatten geht: 1.

For a class D Q of empirical objects or processes, two empirical operations are defined: i) a concatenation ⊕ (e.g., combining rods along a straight line), and ii) a comparison  (e.g., setting two rods parallel to each other and observing whether one of them is longer).

40 Mit den weiter unten folgenden Anmerkungen lässt sich der Unterschied zwischen als messbar angenommenen physikalischen Größen wie der Masse und anderen, nicht messbaren wie der Schönheit auch so formulieren, dass es für die ersten eine objektive Grundlage gibt, von der aus extrapoliert wird. So ist die Messung unseres Abstands von Sternen über die Rotverschiebung zwar ebenfalls hochgradig theoriegeladen. Dennoch lässt sie sich über weitere Messverfahren in Verbindung bringen mit direkten Messungen über den Vergleich mit dem Standard-Meter. Eine solche direkte Vergleichsmöglichkeit gibt es für die Schönheit nicht. Deren Messverfahren stellt keine Extrapolation von objektiven Vergleichsverfahren dar.

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 73

2.

A set of axioms is chosen. They fix the algebraic structure with an ordering relation that defines equivalence classes on D Q : ∀a, b ∈ D Q : a ∼ b ↔ a  b ∧ b  a

3.

(2.23)

A representation theorem postulates the existence of a homomorphism (that is unique up to isomorphism) f : (D Q , ⊕, ) → (R, +, ≤),

(2.24)

from the structure (D Q , ⊕, ) to the real numbers R with their usual arithmetic structure. In particular: i) a unit is chosen, i.e., an element 1* ∈ Q D that maps to 1 (e.g. the standard meter). ii) to the other elements of the empirical structure, numbers r ∈ R are assigned that express their magnitude in multiples of the unit. (Falkenburg, 2007, S. 343 f; Notationen und Nummerierungen wurden angepasst)

Die folgende Darstellung beruht zu weiten Teilen auf (Falkenburg, 2007, S. 343 ff). Im vorangegangenen Zitat ist D Q der Anwendungs- bzw. der Objektbereich der Messtheorie, d.i. die Unterklasse derjenigen Phänomene, für die eine Messung der Größe V Q erst sinnvoll ist. Sein Inhalt ist abhängig von der Erfahrung sowohl des einzelnen Forschers im Speziellen als auch von der Erfahrung der wissenschaftlichen Gemeinschaft im Allgemeinen. Mit Blick auf das Folgende bedarf es aber noch weiterer Konkretisierungen sowie Modifikationen. So ist die Bezeichnung von (D Q , ⊕, ) als „Struktur“ für den ersten Schritt missverständlich bis unzutreffend. Natürlich wird bereits der Grundstein für die spätere Formalisierung gelegt. Dennoch darf die Betonung noch nicht auf den Zeichen „⊕“ und „“ liegen, sondern vielmehr auf die durch diese dargestellten Messtechniken. Andernfalls würden auch hier die Phänomene ebenfalls nur als empirische Strukturen und damit als Modelle verstanden werden können. Mit der Theorie würde lediglich über Modelle gesprochen werden, womit die Kritik am semantic approach nicht ausgehebelt wäre. Zur unmissverständlichen Differenzierung von operationalen Messverfahren und mengentheoretischen Relationen sollten im ersten Punkt „⊕“ und „“ durch die Zeichen „⊕* “ und „* “ ersetzt werden, wobei die letzten für operationale Beziehungen stehen, die entsprechend durch keine Axiomatik bestimmt sind. „⊕“ und „“ sind hingegen mengentheoretische Objekte. Ähnliches gilt mit Blick auf die hier bisher erbrachte Vorarbeit für Relation (2.23), welche die Grundlage zur Bestimmung der als Werte zu verstehenden Äquivalenzklassen liefert. „“ und „⊕“ bezeichnen ausdrücklich bereits axiomatisierte Relationen, womit die Phänomene auch bei Bildung der Äquivalenzklassen lediglich als Strukturen in die Theorie einfließen würden. Damit ist auch hier die obige Messtheorie nichts anderes als eine Umformulierung des in der Definition nach BMS in Unterabschnitt

74 | 2 Physikalische Theorien 2.3.2 gegebenen Ansatzes – die modelltheoretische Ebene wird nicht verlassen. Dies resultiert erneut in der in Unterabschnitt 2.3.3 dargestellten Kritik. Zur Vermeidung sollte „∼“ operational festgelegt werden. (2.23) ist damit zu ersetzen durch: ∀a, b, ∈ D Q : a ∼* b ↔ a * b ∧ b * a

(2.25)

Für eine noch offensichtlichere Differenzierung zwischen vor-axiomatischer und axiomatischer Ebene, sollte (2.25) unter dem ersten Punkt von Falkenburgs ursprünglicher Darstellung (vgl. Seite 72) auftauchen. Die so gegebene Äquivalenzrelation und damit auch die den physikalischen Werten entsprechenden Äquivalenzklassen sind ebenfalls zunächst durch ein konkretes Messverfahren bestimmt und folglich hochgradig abhängig von der durch die verwendeten Instrumente induzierten Messgenauigkeit.41 So ist die Genauigkeit der Messung mit einem Maßband abhängig von der Breite der Markierungen und liefert operationale Äquivalenzen für Phänomene, die für die Messung mit einem Lasersensor Repräsentanten unterschiedlicher Äquivalenzklassen sind. Da die Welt auf Phänomenebene widerspruchsfrei bleiben muss, müssen die sich durch Messungen mit niedriger Genauigkeit ergebenen Äquivalenzklassen aus der Vereinigung der durch Messungen mit höherer Genauigkeit erhaltenen ergeben. Dies gilt natürlich nur unter Voraussetzung möglicher Messfehler. Eine bestimmte tolerierte Messungenauigkeit vorausgesetzt, tragen Messungen hoher Präzision damit indirekt zur Etablierung der Äquivalenzklassen weniger präziser Messungen bei. Dies gilt schwächer auch vice versa. Damit erhalten die Werte eine zunehmende Unabhängigkeit von den konkreten Messverfahren. Messtechniken, die in diesem Sinn zur gegenseitigen Etablierung der von ihnen bestimmten Äquivalenzklassen beitragen, werde ich folgend als äquivalente Messverfahren bezeichnen. Bemerkenswert ist, dass äquivalente Messverfahren die Möglichkeit zur Überbrückung von unterschiedlichen Skalenbereichen liefern. Die Entfernung zweier wenige Meter auseinander liegender Punkte kann mit einem Maßband ebenso durchgeführt werden wie mit Hilfe eines Lasers oder über Triangulation. Gewisse akzeptable Messfehler vorausgesetzt, liefern alle drei Verfahren dieselben Werte. Bei der Bestimmung des Abstands Erde-Mond ist dank der lunar laser ranging retroreflector arrays eine Bestimmung mit Hilfe eines Lasers ebenfalls möglich, nicht aber mit einem Maßband. Diese kann dennoch als prinzipiell möglich in dem

41 Die Klassenbildung beruht hier im Wesentlichen auf einer naiven Mengentheorie, nicht auf einer axiomatisierten nach ZFC. Der zentrale Unterschied ist, dass die mengentheoretischen Symbole nicht innerhalb der Theorie bestimmt werden, sondern von außerhalb.

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 75

Sinn angesehen werden, dass es unter Voraussetzung unrealistischer Randbedingungen, wie der Existenz eines entsprechend langen Maßbands und der Möglichkeit, dieses auch sinnvoll zu positionieren, zumindest vorstellbar ist, auch auf diese Weise einen entsprechenden Wert zu erhalten. Dass die prinzipielle Möglichkeit einer alternativen Messung nicht abwegig erscheint, liegt daran, dass es einen Phänomenbereich gibt, in dem beide Messverfahren Anwendung finden: Sie induzieren die gleichen Äquivalenzklassen, wovon ausgehend in Skalenbereiche, in denen nur noch eines von beiden Verfahren anwendbar ist, extrapoliert werden kann. Ähnliches gilt für das Triangulationsverfahren oder die Rotverschiebung, mit denen Abstände zu weit entfernten Galaxien gemessen werden können. Anders herum versagt aber die Rotverschiebung bei Messungen im mesoskopischen Bereich. Abbildung 2.1 zeigt unterschiedliche Skalenbereiche und einige darauf anwendbare Messverfahren. Es ist erkennbar, dass sich von der optischen Interferometrie zur Messung von Quarks und Atomen bis hin zur Rotverschiebung, mit der die Abstände von ganzen Galaxien gemessen werden können, jeweils Bereiche finden lassen, in denen mehrere Messtechniken gleichzeitig anwendbar sind. In diesen Bereichen können sich Messverfahren als äquivalent herausstellen. So lassen sich mehrere Verbindungen von Messungen vom Atto- bis zum Yottameterbereich finden. Dies liefert eine Erklärung dafür, dass im Mikro- wie im Makroskopischen dieselbe Skala verwendet wird.

Abb. 2.1. Darstellung von Messverfahren in unterschiedlichen Skalenbereichen (logarithmisch skaliert). Die Überschneidungen liefern die Möglichkeit zur Etablierung äquivalenter Messtechniken.

Bei einer Vielzahl von Messungen gilt, dass die gesuchten Werte nur indirekt bestimmt werden können. Dies geschieht über physikalische Größen, die zu der eigentlich zu bestimmenden Größe nur über eine komplizierte Hilfs-Theorie in Beziehung gesetzt werden können. Die Komplexität solcher Hilfs-Theorien kann, wie bei der zur Triangulation vorausgesetzten Euklidischen Geometrie, auf der einen

76 | 2 Physikalische Theorien Seite recht niedrig sein, auf der anderen Seite aber auch, wie bei den zur Auswertung astroteilchenphysikalischer Experimente verwendeten Computerprogrammen, nahezu beliebig hoch. Die Äquivalenz von Messverfahren liefert auch hier eine Erklärung dafür, warum ein solches Vorgehen zumeist gerechtfertigt ist und im Allgemeinen nicht hinterfragt wird: Komplexe Messverfahren mussten sich zunächst im Abgleich mit anderen, „vertrauenswürdigen“ Verfahren bewähren und konnten davon ausgehend ihre Eigenständigkeit rechtfertigen. Die Klasse V Q der so durch äquivalente Messverfahren als unabhängig von konkreten Messungen verstehbaren Werte einer physikalischen Größe kann axiomatisiert werden. Bei der folgenden Darstellung einer Messtheorie und der Aufstellung einer Werte-Algebra habe ich mich an der Arbeit von Lesche (2011, 2014) orientiert. Die folgenden Gleichungen habe ich unter formalen Anpassungen weitestgehend ebd. entnommen. Ausgangspunkt ist bei mir allerdings eine Ordnungs- und keine Äquivalenzrelation. Bereits mit Blick auf eine Darstellung durch reelle Zahlen werden für Eigenschaften Q a , Q b ∈ V Q mit dazugehörigen Phänomenen a, b ∈ D Q , das Relationszeichen „“ sowie das Operationszeichen „⊕“ in Bezug zu den operationalen Relationen gesetzt: a * b ↔ Q a  Q b

(2.26)

Q a = Q a′ ∧ Q b = Q b′ → Q a ⊕ Q b = Q a′ ⊕ Q b′

(2.28)

Q a⊕* b = Q a ⊕ Q b

(2.27)

Zu Bedingung (2.28) vgl. Lesche (2011, S. 2). Das Gleichheitszeichen „=“ ist entsprechend (2.23) festgelegt durch: ∀a, b ∈ D Q : Q a = Q b :↔ Q a * Q b ∧ Q b * Q a

Forderung (2.26) sorgt für die gleiche Reihenfolge der Ordnung von Messung und Wert, (2.27) fordert zudem, dass es sich bei der Abbildung von einem Phänomen auf seine Äquivalenzklasse um einen Homomorphismus handelt. (2.28) sichert die Unabhängigkeit der Operation von der Wahl des Repräsentanten. Alle drei Forderungen sind keine Axiome, sondern als Postulate Grundvoraussetzung einer sinnvollen Anwendung mathematischer Methoden. Unter einem Postulat verstehe ich eine induktiv gewonnene Annahme, deren Allgemeingültigkeit als notwendig für einen wissenschaftlichen Zugang zur Welt vorausgesetzt werden muss. Für die Axiomatisierung von Theorien folgt, dass Postulate in diesem Sinn stillschweigend vorausgesetzt werden, ohne explizit Aufnahme in die Axiome zu finden. Dasselbe gilt für die folgenden Forderungen (2.29) bis (2.38), mit denen V Q mit einer algebraischen Struktur versehen wird. Zunächst sind dazu die Kommutativität und die Assoziativität festzuhalten (vgl. Lesche, 2011, S. 2):

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 77

Qa ⊕ Qb = Qb ⊕ Qa

Q a ⊕ (Q b ⊕ Q c ) = (Q a ⊕ Q b ) ⊕ Q c

(2.29) (2.30)

Forderung (2.27) ermöglicht jetzt den Übergang zu Repräsentanten aus D Q , die eine durch die Messverfahren motivierte physikalische Interpretation der auf V Q lediglich formal definierten Relation nahelegen. Werden beispielsweise a ∈ Q a und b ∈ Q b als Stäbe unterschiedlicher Länge interpretiert, liegt eine Auslegung der entsprechenden operationalen Relation „⊕* “ als deren Hintereinanderreihung entlang einer geraden Linie nahe. Die Kommutativität (2.30) würde sodann interpretiert bedeuten, dass es keinen Unterschied macht, welcher Stab als erstes hingelegt wird und welcher als zweites. Nicht für jede Klasse zusammengehöriger Repräsentanten muss es eine entsprechend naheliegende Interpretation geben. Bei der Messung mit einem Lasersensor ist eine Interpretation der Kommutativität nicht ebenso offensichtlich. Anders herum kann ein im Rahmen der Messgenauigkeit ohne Zeitverlust zurückgeworfener Strahl als sinnvolle Motivation zur Einführung eines additiv neutralen Elements via ∀Q a ∈ V Q : Q a ⊕ 0 := Q a ,

(2.31)

dienen (vgl. Lesche, 2011, S. 2). Wird als Messverfahren allerdings eine mathematisch interpretierte Triangulation gewählt, ist es schwer, die Messung in Einklang mit der grundlegenden Euklidischen Geometrie zu bringen. Die Unabhängigkeit der physikalischen Größen von einem bestimmten Messverfahren liefert damit die Möglichkeit zwischen Interpretationen der formal bestimmten Operationen und Relationen zu wechseln. Anders herum können einzelne Messverfahren auch formale Relationen induzieren. Insgesamt ergibt sich die Möglichkeit der Einführung der für eine spätere Mathematisierung notwendigen Axiome. In diesem Sinne lässt sich auch ein additiv inverses Element bestimmen über (vgl. Lesche, 2011, S. 3): ∀Q a ∈ V Q , ∃ − Q a : Q a ⊕ (−Q a ) = 0

(2.32)

Im Fall aneinandergereihter Stäbe lässt sich das Anfügen eines additiv neutralen Elements als die Anreihung in umgekehrte Richtung verstehen bzw. die Wegnahme eines entsprechenden Stabes. Auch für die Triangulation ist eine sinnvolle Interpretation möglich, indem ausgehend von einer gegebenen Grundseite Dreiecke in beide Richtungen angetragen werden. Die Messung mit einem Lasersensor auf der anderen Seite beruht auf einer Zeitmessung, womit eine entsprechende Auslegung im Rahmen eines Experiments nicht möglich ist. Über das bisher Gesagte

78 | 2 Physikalische Theorien hinaus lässt sich für n ∈ N mit „“ über „⊕“ eine multiplikative Verknüpfung definieren (vgl. Lesche, 2011, S. 3): n  Q a := Q a ⊕ · · · ⊕ Q a   

(2.33)

n-mal

Diese kann verwendet werden, um (V Q ; ) mit den Forderungen ∀Q a , Q b , Q c ∈ V Q : Q a  (Q b  Q c ) = (Q a  Q b )  Q c *

*

*

∀ Q a ∈ V Q , ∃1 ∈ V q : Q a  1 = 1  Q a = Q a

∀Q a ∈

V Q , ∃Q−1 a

∈ VQ : Qa 

Q−1 a

=

∀Q a , Q b ∈ V Q : Q a  Q b = Q b  Q a

Q−1 a

* Qa = 1

*

(2.34) (2.35) (2.36) (2.37)

zu einer kommutativen Gruppenstruktur zu erweitern. Die Wahl der Einheit 1* beruht auf Konvention. Wird nun noch über a  (b ⊕ c) = a  b ⊕ b  c

(2.38)

die Distributivität gefordert (vgl. Lesche, 2011, S. 3 f), ergibt sich insgesamt mit (V Q , ⊕, ) eine Körperstruktur, deren Operationen durchweg auf einer physikalischen Größe definiert sind. Es lassen sich in Abhängigkeit von den gewählten Repräsentanten auch die Forderungen (2.34) bis (2.38) entsprechend den Ausführungen zur additiven Verknüpfung mehr oder weniger sinnvoll interpretieren. Das zuvor mit (2.24) gegebene Repräsentationstheorem zerfällt somit in drei Teile: Zunächst wird über die Postulate (2.26) bis (2.28) eine Beziehung zwischen operationalen Relationen und den später zu axiomatisierenden Verknüpfungen auf der als Klasse von Äquivalenzklassen verstandenen physikalischen Größe hergestellt. Dies geschieht ohne Formulierung axiomatischer Forderungen. Wir zwingen der Phänomenebene auf diese Weise keine Struktur auf; diese kommt erst in Bezug auf die physikalischen Größen ins Spiel. Aber auch diese „Axiome“ gehören nicht der Axiomatik einer bestimmten physikalischen Theorie an, sondern sind die grundlegenden Postulate der Mathematisierung, durch die (V Q ; ⊕; ) eine Körperstruktur wird. Für den dritten Schritt nach Falkenburg (2007), der Abbildung in die reellen Zahlen, ergibt sich zunächst die folgende Isomorphie: (V Q ; ⊕; ) ∼ = (Q; +, ≤)

(2.39)

Damit haben wir sowohl mehr als auch weniger erreicht als beabsichtigt. „Mehr“ deswegen, weil mit (2.24) lediglich ein Homomorphismus gefordert wird. Durch

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 79

die Isomorphie (2.39) folgt, dass neben zumindest theoretisch messbaren Werten auch solche relevant werden, die sich jeder Messung entziehen, wie Temperaturen unter 0K oder Werte unterhalb der Plancklänge. Dies ist unproblematisch: Der Wertebereich selbst ist vor-theoretisch und auf ihn getroffene Einschränkungen ergeben sich, wie zu erwarten, erst durch theoretische Überlegungen. Weniger erreicht haben wir, da (2.24) auf eine Abbildung in die reellen Zahlen abzielt, die Grundlage vieler physikalischer Berechnungen sind. Von (V Q ; ⊕; ) muss somit noch die Ordnungsvollständigkeit gefordert werden (vgl. Amann und Escher, 2002, S. 98). Dazu muss die physikalische Größe um einen „irrationalen“ Teil ergänzt werden. Dieser hat keine Entsprechung in D Q , da hierfür eine faktisch unendliche Messgenauigkeit notwendig wäre. Mehr noch als zuvor werden diese Ergänzungen bei einer Vielzahl von Berechnungen, etwa bei der Bestimmung von Integralen, vorausgesetzt. Insgesamt führt dies zur folgenden, ebenfalls als Postulat zu verstehenden, Voraussetzung: (V Q ; ⊕; ) ∼ = (R; +, ≤) Die so bestimmte Wertemenge V Q , deren Körpereigenschaften und Ordnungsvollständigkeit als Postulate gefordert werden, entspricht nun endgültig einer physikalischen Größe, die als Hauptbasismenge Einzug in eine Strukturart erhalten kann. Ein Vorteil, physikalische Größen wie zuvor zu verstehen, ist es, dass sie trotz ihrer Abstraktheit einen nachvollziehbaren Bezug zur Phänomenebene besitzen. Darüber hinaus liefern sie eine Erklärung der Rolle der Mathematik innerhalb physikalischer Theorien: Die Isomorphie von R und V Q ermöglicht einen fließenden Übergang von einer mathematischen auf eine physikalische Lesart. Die mathematischen Strukturen können somit jederzeit in physikalische übersetzt werden und vice versa. Im folgenden Unterabschnitt werde ich unter Voraussetzung der vorangegangenen Bestimmung des physikalischen Größenbegriffs die mögliche Rolle von Modellen in Scheibes strukturalistischen Rahmenkonzept verorten.

2.4.3 Strukturalistische Rekonstruktionen und die Rolle von Modellen Wo lässt sich im Vorangegangenem die Rolle von Modellen verorten und wie kann der Ansatz von Erhard Scheibe adäquat auf die Kritik von CMMB eingehen? In Unterabschnitt 2.3.3 habe ich zwischen drei Klassen von Modellen, nämlich mathematischen-, theoretischen- und materiellen Modellen, unterschieden. Ich konnte zeigen, dass die Identifikation von Theorien mit Klassen von Modellen in modelltheoretischen Ansätzen mehr Fragen aufwarfen, als sie beantwortete. Folgend weise ich nach, dass in einem strukturalistischen Rahmenkonzept be-

80 | 2 Physikalische Theorien rechtigte Hoffnung besteht, eine Lösung des Problems zu finden. Dazu baue ich auf dem Ansatz von Scheibe (vgl. Unterabschnitt 2.4.1) und dessen Erweiterung (Unterabschnitt 2.4.2) auf. Zur Verdeutlichung greife ich das Beispiel zur klassischen Beschreibung der Bewegung eines Teilchens in einem allgemeinen Feld aus Unterabschnitt 2.4.1 auf. Die Formalisierung baute dort auf den Hauptbasismengen S, T und K zur Darstellung von Raum- und Zeitpunkten sowie möglicher Kräften, auf. Hinzu kamen optional die Menge M zur Darstellung aller möglicher Massenwerte und die Menge D aller möglicher Abstände. Grundlage für den physikalischen Gehalt der Menge S sind i von einem vorausgesetzten Fixpunkt ausgehende räumliche Abstandsmessungen. „i“ entspricht der Dimension des sich ergebenden Raumes. S ist damit die abkürzende Schreibweise eines Ausdrucks der Art: S1 × · · · × S i Es ist jedes der S j isomorph zu R. Ohne Abstandsstruktur liegt dieser Bestimmung, abgesehen von der für die einzelnen Koordinaten vorausgesetzten Messtheorie, noch keine weitere Theorie zugrunde. Auch ist die Höhe der Dimension nicht geklärt. Theoretisch ließen sich noch zusätzliche Dimensionen etablieren, die später als linear abhängig verstanden werden müssten. Ein Ausschluss hiervon ist erst mit der Typisierung des Abstands möglich. Ist dieser Raum erst einmal mit einer Euklidischen Struktur versehen, lassen sich Teilstrukturen bestimmen, deren Beschreibung zunächst mathematisch verläuft. Für konkrete d1 ∈ d sowie s1 ∈ S kann dies beispielsweise geschehen durch: O := {s ∈ S | d(s, s1 ) = d1 }

(2.40)

Diese Beschreibung der Menge O aller Punkte s, die von einem gegebenen Punkt s1 bezüglich d denselben Abstand d1 haben, werden zusammengefasst auch als „topologischer Ball“ bezeichnet (vgl. Amann und Escher, 2002, S. 160 ff) bzw. in den Fällen i = 2, 3 auch als „Kreis“ oder „Kugel“. All diese Anschauung darf aber nicht darüber hinweg täuschen, dass es sich dennoch nur um eine rein abstrakte Darstellung in einem formalen Kalkül handelt. Damit bleibt die Frage offen, wo diese Begriffe herkommen und warum ihre Verwendung kaum überrascht. Betrachten wir den zweidimensionalen Fall und setzen eine vormathematische Kenntnis eines Kreises voraus, liegt der erfragte Grund in der physikalischen Interpretation der Mengen S und D. S lässt sich verstehen als eine zweidimensionale Ebene, deren Punkte im Rahmen einer Fehlertoleranz durch Angabe zweier Koordinaten beschrieben werden. Ein solcher Punkt s1 kann damit überall dort fix

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 81

gesetzt werden, wo eine solche Angabe auf Basis eines bestimmten Messverfahrens möglich ist – so auf einem DinA4-Blatt, auf dem mit einem Geodreieck von einer Ecke jeweils entlang der Kanten gemessen wird, oder ein Pixel auf einem Bildschirm. Definition (2.40) beschreibt dann ein Objekt in dieser Ebene, dessen Bestandteile alle einen bestimmten Abstand von s1 haben, oder anders ausgedrückt: Man erhält einen Repräsentanten von O, indem alle Punkte der gewählten Ebene ausgezeichnet werden, die unter Voraussetzung ein- und desselben Messverfahrens zur selben Werteklasse führen – durch das Zeichnen mit einem Zirkel auf Basis eines hierauf beruhenden Verständnisses gleicher Länge. Und auch dies geht nur soweit, wie es die Genauigkeit der Messung zulässt. So hat die gezeichnete Linie eine bestimmte Breite, als deren Folge am Ende kein mathematischer Kreis steht. Dennoch liegt das Resultat im Rahmen dieses Messfehlers in der entsprechenden Äquivalenzklasse, die dann durch reelle Zahlen repräsentiert werden kann. Der Gedanke, den es folgend auch für die Newtonsche Bewegungstheorie zu verallgemeinern gilt, ist, dass Modelle durch Verbindung einzelner Repräsentanten unterschiedlicher zusammengehöriger Äquivalenzklassen gebildet werden. Es ist der Wahl der einzelnen Repräsentanten zunächst keine Grenze gesetzt, solange nur die entsprechenden durch die Theorie vorgegebenen physikalischen Größen herangezogen werden. Es müssen die gewählten Repräsentanten keine Anwendungsfälle für die entsprechende Theorie sein; wird ein theoretisches Modell aus heuristischen Zwecken aufgestellt, kann es beliebig abstrakt sein: Billardbälle verhalten sich nicht wie Gase; dennoch erfüllen sie die grundlegende Eigenschaft, räumlich und zeitlich gegeben zu sein, so dass das Billardballmodell seine Berechtigung hat. Angewendet auf die obigen Ausführungen bedeutet dies, dass der konkrete mit einem Zirkel gezeichnete Kreis ein materielles Modell für einen Kreis in der Euklidischen Geometrie ist, das über ein Messverfahren und der dadurch entstehenden abstrakten physikalischen Größe in Beziehung zum Kalkül steht. Da auf der einen Seite Messfehler unumgänglich sind, genügt es, wenn die Bestimmung der Werte im Rahmen einer vorausgesetzten Fehlertoleranz geschieht. Auf der anderen Seite gibt es aber auch Werte, die bei exakter Prüfung nie bestätigt werden könnten. So ließe sich ein Kreis mit einem Radius von π als Modell angeben bzw. auch zuvor in der Theorie berechnen. Ein solcher Kreis kann dann lediglich als imaginärer Gegenstand, als ein theoretisches Modell, verstanden werden. Ein entsprechendes materielles Modell lässt sich hier wiederum nur unter Verweis auf eine bestimmte Fehlertoleranz finden. Da theoretische Modelle durch die Theorie bestimmt sind, verlangen sie nach einer exakten Erfüllung der Vorgaben einer Theorie. Für Kreise mit einem Radius von π bedeutet dies eine beliebig dünne Kreislinie, die aber auch für die Vor-

82 | 2 Physikalische Theorien stellung schwer zugänglich sind. Um dennoch einen anschaulichen Zugang zu erlangen, lässt sich hier auf einen anderen Repräsentanten dieser auf Messungenauigkeit beruhenden Werteklasse zurückgreifen, der dann einen anschaulichen, gegebenenfalls auch materiellen Counterpart besitzt. Für den dreidimensionalen Fall gilt Ähnliches. Da die einzelnen Werte der physikalischen Größe auf äquivalenten Messverfahren beruhen, können mit ihnen zur Bildung von Modellen auch Übergänge zwischen Skalenbereichen durchgeführt werden, solange die Eigenschaft, auf die sich berufen wird, auf ein und derselben Skala aufbaut. Liefert eine Theorie für die Größe eines Protons einen Wert von 10−15 m, gibt es hierfür keinen direkten anschaulichen Zugang. Um dennoch ein Modell zu erhalten, lässt sich ein Objekt für eben diesen Skalenbereich von einem anderen Skalenbereich „ausleihen“ – etwa ein Tischtennisball. Für diesen ist bekannt, wie er veranschaulicht werden kann. Sein Radius im FemtoMeter-Bereich wird dann als analog messbar zu seinem Radius im mesoskopischen Bereich gedacht. Grundlage hierfür ist die Annahme, dass äquivalente Messverfahren auf allen Skalenbereichen grundsätzlich zumindest theoretisch gleiche Werte liefern. Es sind alle weiteren Eigenschaften des extrapolierten Objekts nebensächlich, solange nur Übereinstimmung in Bezug auf die betrachtete physikalische Größe – hier der Länge – besteht. Anstelle eines Tischtennisballs ließe sich auch eine entsprechend kleine Gaswolke, ein kleiner blauer Quader oder ein 10−15 fm großer Planet vorstellen. Ob ein solches Modell an anderer Stelle ebenfalls eine positive Analogie zum Elektron besitzt, muss sich dann erst herausstellen und womöglich erweist es sich als schrecklich inadäquat; die Untersuchung hiervon muss aber Gegenstand weiterer empirischer Prüfungen bleiben. Eine Nähe zu Hesses positiven, negativen und neutralen Analogien (vgl. Unterabschnitt 2.2.3) ist unverkennbar: Positive Analogien müssen lediglich in Bezug auf die in den Hauptbasismengen verwendeten physikalischen Größen bestehen; alle anderen Eigenschaften dürfen sich ruhig als negative Analogien herausstellen. In Bezug auf die Frage, ob es sich um ein Modell handelt oder nicht, wirkt sich dies nicht aus. Neutrale Analogien liefern dann wie zuvor schon bei Hesse die Möglichkeit, über zusätzliche Theorien, in denen die entsprechende physikalische Größe ebenfalls verwendet wird, weitere Erkenntnisse über das gegebene System zu erhalten. Die Euklidische Geometrie ist lediglich das einfachste Beispiel einer physikalischen Theorie (sofern man sie überhaupt als solche verstehen möchte). Um sie auf eine kinematische Struktur zu erweitern und damit die Grenze zur Physik endgültig zu überschreiten, muss mit T noch eine weitere Hauptbasismenge eingeführt werden, die erst durch die Bewegung x, die als Bewegung eines Teilchens verstanden wird, mit dem Raum in Beziehung gesetzt wird. Auch die Be-

2.4 Strukturalistisches Theorienverständnis nach Erhard Scheibe | 83

schreibung der Bewegung eines solchen Teilchens geschieht wiederum im Rahmen von Messfehlern: Einem bestimmten Raum-Zeitpunkt wird trotz dieser Ungenauigkeit ein bestimmter Wert zugewiesen. Anders herum wird ein exakter Wert durch einen anderen Repräsentanten seiner Werteklasse repräsentiert, durch den eine Anschauung möglich wird. Als materielle Modelle ließen sich ein geworfener Tennis- oder Medizinball angeben, als theoretische Modelle die Vorstellung von diesen oder ein kleiner blauer Kasten, der durch die Bewegung des Schnittpunkts seiner Diagonalen beschrieben wird. Da x eine stetige Funktion ist, müssen all diese Modelle eine entsprechende Kontinuität aufweisen. Darüber, dass die Menge K aller möglicher Kräfte theoretisch bezüglich der Newtonschen Mechanik ist, besteht Einigkeit. Dennoch lassen sich Kräfte zumindest in ihrer Auswirkung direkt erfahren, wenn auch hierbei keine unmittelbare Wertzuweisung möglich ist: Ein Stoß, die von einem sich zusammenziehenden Gummiband ausgeübte Kraft oder die Wirkung eines Magneten auf einen metallischen Gegenstand. In all diesen Fällen, in denen die konkreten Werte zunächst über eine Theorie bestimmt werden müssen, können die mesoskopischen Erfahrungen später als (sehr ungenaue) Repräsentanten einer Werteklasse auf der Kräfte-Skala dienen – bzw. auf einem analog zum Raum aus solchen Skalen zusammengesetzten Vektor. Die Gravitationskraft beispielsweise lässt sich vorstellen als die Anziehung zwischen einem Magneten und einem metallischen Gegenstand oder als ein wie auch immer initiierter Stoß. Grundlage zur Bildung der Massenskala sind Gewichtsmessungen auf der Erdoberfläche. Repräsentanten unterschiedlicher Werte können Elektronen sein ebenso wie Tischtennisbälle oder ganze Planeten; aber auch ein blauer Quader mit der Masse eines Tennisballs bietet sich als anschaulicher Gegenstand an. Im Falle eines theoretischen Modells ist bemerkenswert, dass die Herstellung eines Weltbezugs umso einfacher ist, je mehr Übereinstimmungen zwischen dem Repräsentanten und einem System in der Welt bestehen. Schon ein blauer Quader stellt einen Bezug zur Erde her; dieser ist aber bei einer idealen Kugel mit darauf abgebildeten Kontinenten umso stärker. Die einzelnen beschriebenen Komponenten werden jetzt durch die Bewegungsgleichung (2.16) miteinander in Beziehung gesetzt. Es ergibt sich ein interessanter Aspekt: Von Seiten der Theorie gibt es keinen Grund, warum die Masse ausgerechnet dem durch die Bewegungsgleichung beschriebenen Teilchen zukommen soll, an dem noch die Kraft ansetzt. Es ließen sich ebenso die Masse des Mars mit der Beschleunigung einer Rakete auf der Erde sowie einem Kraftfeld in einem Lichtjahr Entfernung miteinander in Beziehung setzen. Die Anordnung der einzelnen Werte wird erst durch die Modelle gegeben. Allgemein schreibt eine Theorie also vor, welche physikalischen Größen sich in Modellen wiederfinden lassen müssen sowie welche Werte relativ zueinander

84 | 2 Physikalische Theorien zulässig sind. Darüber hinaus scheint es aber abgesehen von individuellen Vorlieben der Modellierenden und einer gewissen Pragmatik mit Blick auf die Anwendung keine grundsätzlichen Regeln für die Wahl der Repräsentanten zu geben. Diese können beliebig abstrakt oder konkret sein. Der Vorstellung sind keine Grenzen gesetzt – solange der repräsentierte Wert unangetastet bleibt. Soll beispielsweise einem Schüler die zuvor dargestellte Theorie erklärt werden, lässt sich dies mit Hilfe des durch die folgende Geschichte gegebenen Modells machen: „Stelle Dir einen gelben Tennisball in Raum und Zeit mit einer Masse von 57g vor, den ich zu Boden fallen lasse. Nach einem Meter, seinem Abstand vom Boden, bewegt er sich dann mit dieser und jener Beschleunigung. Er schlägt dann mit einer bestimmten Kraft auf dem Boden auf, die diese und jene Auswirkung hat.“ Der Mittelpunkt des Tennisballs entspricht dem bewegten Masseteilchen; er ist also in einer bestimmten Äquivalenzklasse bezüglich der Masse ebenso wie in einer bestimmten Äquivalenzklasse bezüglich seiner Bewegungsbahn. Die Werteklasse hinsichtlich der Kraft wird dann von der Theorie vorgegeben – es ist unvereinbar mit der Theorie, die Geschichte damit enden zu lassen, dass die auf den Tennisball wirkende Kraft dazu ausreicht, um einen Krater zu schlagen. Der wie oben beschriebene Tennisball liefert lediglich ein theoretisches Modell, das dann mit möglichen materiellen Modellen verglichen werden kann. Die relevanten Eigenschaften des Modell-Tennisballs sind seine Bewegung und seine Masse, die eine bestimmte wie-auch-immer manifestierte Kraft beim Aufschlag ausüben; weitere Eigenschaften – wie Farbe oder Form – sind beliebig austauschbar und für die Modellbildung von untergeordnetem Interesse. Anstelle des Tennisballs ließe sich die Theorie ebenso auf ein rotes Buch oder einen blauen Quader anwenden, solange nur Gleichung (2.16) erfüllt ist. Wir können weitere Repräsentanten mit möglichst wenigen bzw. allgemeinen Eigenschaften wählen – also farblose Billardbälle statt rote Bücher, um ausgehend von dem Modell über weitere Berechnungen zusätzliche positive Analogien zu bestimmen. Je spezieller der Repräsentant gewählt ist, desto eingeschränkter sind auch die mit ihm möglichen Verallgemeinerungen. Modelle müssen nicht immer sinnvoll sein. Eine sich im Gravitationsfeld der Sonne bewegende Zwiebel mit der Masse der Erde ist ebenfalls ein Modell der Gravitationstheorie - wenn auch ein nicht realisierbares. Insgesamt konnten die zuvor genannten Modellklassen sinnvoll in Bezug zur formalen Ebene einer Theorienrekonstruktion nach Scheibe gesetzt werden: Theoretische Modelle sind danach aus Repräsentanten der Werteklassen zusammen gesetzte imaginäre oder realisierte Veranschaulichungen, die sprachlich repräsentiert werden. Welche physikalischen Größen verwendet werden und welche Werteklassen miteinander kombinierbar sind, wird von der Theorie vorgegeben. Abgesehen davon sind den Möglichkeiten bei der Modellierung aber kaum Grenzen gesetzt. Mathematische Modelle ergeben sich aufgrund des Postu-

2.5 Zwischenfazit: Abgleich unterschiedlicher Theorienkonzeptionen | 85

lats der Isomorphie von R zu einer gegebenen physikalischen Größe. Sie erlauben die Anwendung formaler mathematischer Verfahren, wobei über die Hauptbasismengen zumeist eine Rückführung auf eine physikalische Größe und damit eine physikalische Interpretation möglich ist. Materielle Modelle lassen sich durch Abgleich mit theoretischen Modellen bestimmen. Dieser Abgleich ist umso einfacher, je mehr Eigenschaften des materiellen Modells im theoretischen Modell gedacht werden. Der folgende Abschnitt fasst die zentralen Ergebnisse dieses Kapitels noch einmal zusammen.

2.5 Zwischenfazit: Abgleich unterschiedlicher Theorienkonzeptionen Im vorliegenden Kapitel habe ich in Abschnitt 2.1 einen Einblick in die historischen Ursprünge des Theorienbegriffs seit der griechischen Antike gegeben sowie eine Antwort auf die Frage, was in empirischer Tradition seit der Neuzeit unter einer (physikalischen) Theorie verstanden wird. Auch wenn ich keinen Anspruch auf Vollständigkeit erhoben habe, sind zentrale Positionen zu Wort gekommen, die in den Ursprüngen des logischen Positivismus im 20ten Jahrhundert mündeten. In der Auseinandersetzung mit dem received view of theories in Abschnitt 2.2 habe ich aufgezeigt, dass der logische Positivismus eine kaum zu unterschätzende Rolle bei der Entwicklung der Wissenschaftsphilosophie gespielt hatte. Dennoch ist der received view kein tragfähiges Formalisierungskonzept. Der Grund ist eine Vielzahl von Kritikpunkten, von denen ich mit dem Problem der theoretischen Terme, dem Mangel an tatsächlich durchgeführten Rekonstruktionen zentraler wissenschaftlicher Theorien sowie der unklaren Rolle von Modellen nur die zentralen Problemfelder angesprochen habe. Als historische Konsequenz habe ich in Abschnitt 2.3 den semantic approach of theories als alternative Rekonstruktionsmöglichkeit dargestellt. Dabei habe ich mich auf die Arbeiten von Patrick Suppes und die Darstellung nach Wolfgang Balzer, Joseph D. Sneed und Ulisses C. Moulines (BMS) beschränkt. Ausschlaggebend für diese Wahl war die detaillierte formale Ausarbeitung, an die ich später anknüpfen konnte. Ich habe aufgezeigt, wie der semantic approach einen Großteil der Kritik am received view vermeiden konnte: Neben einer Vielzahl von durchführbaren Formalisierungen konnte auch das Problem der theoretischen Terme von Sneed ausgehebelt werden. Lediglich die zentrale Rolle von Modellen stellte sich weiterhin als ein Problem heraus: Aufbauend auf einer mengentheoretischen Axiomatik im Sinne Bourbakis identifizieren BMS Theorien mit Klassen von

86 | 2 Physikalische Theorien Modellen. Da es sich hierbei um eine ihrer Grundüberzeugungen handelte, wurden die Vertreter des semantic approach von der vorrangig von Nancy Cartwright, Margaret Morrison, Mary S. Morgan und Daniela Bailer-Jones (CMMB) angeführten Kritik empfindlich getroffen. Diese argumentierten glaubhaft dafür, dass wissenschaftliche Modelle eine zwischen Phänomenen und Theorien einzuordnende Rolle spielten. Die auf Morgan und Morrison zurückgehende Charakterisierungen von models as mediators bzw. models as autonomous agents stellt deren Position pointiert dar. Die von Modellen im received view, im semantic approach und nach CMMB eingenommenen Rollen habe ich in Abbildung 2.2 vergleichend skizziert.

Abb. 2.2. Links entspricht der Rolle von Modellen im received view: Zwar konnte hier eine Ebene der (logischen) Modelle ausgezeichnet werden; diese wurde aber als irrelevant angesehen. Die Darstellung in der Mitte entspricht dem semantic approach, nach dem der Unterschied zwischen Theorien- und Modellebene verwischt wird. Die rechte Darstellung spiegelt die Position von Morgan und Morrison wider, wonach Modelle eine eigene Ebene einnehmen, die nach Bailer-Jones als zwischen Theorien und Phänomenen verstanden werden muss.

Aber auch an den Kritikern zog die eigene Kritik nicht spurlos vorüber. Schon an den soeben aufgezeigten Schlagworten wird deutlich, dass sie die Rolle von Modellen lediglich in Abhängigkeit eines vorausgesetzten Theorienverständnisses bestimmten. Was aber ist eine Theorie, wenn sowohl received view als auch semantic approach inadäquat sind? Ohne eine Antwort muss auch die Rede von Modellen als mediators oder autonomous agents leer bleiben. Positionen, die Theorien wie Cartwright als „morals of fables“ oder wie Bailer-Jones als „abstrakt“ verstehen, sind ebenfalls zu allgemein und greifen nicht weit genug. In Abschnitt 2.4 habe ich auf der Suche nach einer Lösung des Problems den Rekonstruktionsansatz nach Erhard Scheibe herangezogen. Dieser kann in gewis-

2.5 Zwischenfazit: Abgleich unterschiedlicher Theorienkonzeptionen | 87

ser Weise als dem semantic approach nahe verstanden werden: Den Blick einzig auf physikalische Theorien gerichtet, verwendet auch Scheibe einen mengentheoretischen Ausgangspunkt im Sinne Bourbakis und übernimmt so die damit zusammenhängenden Vorteile gegenüber dem received view. Andererseits grenzt er sich durch das Verständnis seiner Rekonstruktionen als sprachabhängig explizit von einer Vielzahl von Ausprägungen des semantic approach ab. Theorien werden hier nicht mehr als Klassen von Modellen verstanden, sondern als durch mengentheoretische Strukturen gekennzeichnete Formeln. Einen Bezug zur Welt stellt Scheibe durch die „physikalische Natur“ der Hauptbasismengen her. Die Ausführungen gaben Anlass zur begrifflichen Differenzierung von strukturalistischen Positionen im Sinne Scheibes und modelltheoretischen Ansätzen nach BMS et al. Allein aus Scheibes Arbeit wurde jedoch nicht klar, was wir unter der „physikalische Natur“ verstehen sollen. Zur Klärung des Begriffs habe ich die Hauptbasismengen über einen an Brigitte Falkenburg angelehnten Ansatz in Verbindung mit der Messung physikalischer Größen gebracht. Ich habe herausgestellt, dass Messungen Anlass zur Etablierung von durch operationale Äquivalenzrelationen induzierte Klassen von Phänomenen geben, die jeweils als ein physikalischer Wert verstanden werden können. An diese abstrakten Wertklassen habe ich dann Forderungen in Form von für eine Mathematisierung notwendige Postulate herangetragen. Durch diese Forderungen erfährt die Menge der auf Messungen beruhenden Werte eine Erweiterung um „irrationale Werte“, denen keine Messung zugrunde liegen kann bzw. muß. Die so erhaltene Klasse (V Q ; ⊕; ) ist damit isomorph zu (R; +; ≤). Der Wertebereich kann durch eine Theorie Σ(X; A; S) eingeschränkt werden, wobei V Q die Rolle von X übernimmt. Jede der resultierenden Klassen aus Werteklassen ließ sich als eine physikalische Größe verstehen. Die Phänomenebene blieb damit unabhängig von der Axiomatisierung, womit sie nicht als aus Modellen bestehend verstanden werden musste. Verfahren, die so zur Etablierung teils gleicher Werteklassen führten, habe ich als „äquivalente Messverfahren“ bezeichnet. Sie lieferten eine Erklärung für die Verwendung der gleichen Skala sowohl im Mikro- als auch im Makroskopischen: Von einem zur Etablierung der Äquivalenz grundlegenden Phänomenbereich, auf den mehrere Verfahren angewendet werden können, lässt sich auf einen Bereich extrapolieren, in dem nur noch eines oder wenige der Verfahren anwendbar sind. Im konkreten Fall habe ich für Längenmessungen Verbindungen vom Atto- bis zum Yotta-Meter-Bereich aufgezeigt (vgl. Abbildung 2.1). Theoretische Modelle waren in diesem Bild zusammengesetzt aus Repräsentanten der Elemente von V Q . Die Theorie gab die zu verwendenden physikalischen Größen sowie die erlaubten Kombinationen von Werten vor – die Wahl des einzelnen Repräsentanten lag beim Modellierenden. Mathematische Modelle konnten dann aufgrund der für die Mathematisierung postulierten Äquivalenz der Werte-

88 | 2 Physikalische Theorien menge zu den reellen Zahlen als eine Verdopplung der theoretischen Modelle angenommen werden. Materielle Modelle waren darüber hinaus als unter Vorbehalt von Messfehlern bestimmte Wertklassen repräsentierende physikalische Objekte. Ich konnte zeigen, dass es bei der Modellierung möglich war, zwischen verschiedenen Skalenbereichen zu wechseln, indem durch die vorausgesetzte Äquivalenz von Messverfahren Messungen aus einem Bereich für andere Bereiche als „theoretisch möglich“angenommen wurden. Ein Beispiel war die Darstellung eines 10−15 m großen Protons durch einen wie im mesoskopischen vorstellbaren Billardball. So aufgefasst nehmen theoretische Modelle in der Tat die von CMMB geforderte vermittelnde Rolle ein: Während sich Theorien auf der einen Seite ausschließlich auf abstrakte Wertklassen beziehen, sind die Phänomene eine unstrukturierte Gesamtheit. Beides kann erst vermittelt durch Modelle aufeinander bezogen werden. Die bisherigen Ausführungen gelten lediglich für Modelle, die auch eine einheitliche theoretische Grundlage besitzen. In Unterabschnitt 2.3.3 habe ich bereits auf Patchwork-Modelle, wie das Bohrsche Atommodell oder die Modelle der Astroteilchenphysik, hingewiesen. Diese lassen sich in einer wie oben dargestellten Modellierung nicht rekonstruieren. Ich werde in Kapitel 4 zeigen, dass für die Beschreibung des Zusammenhangs solcher Modelle teils die von Erhard Scheibe als „Reduktionen“ bezeichneten Theorienbeziehungen notwendig sind. Zuvor werde ich aber im folgenden Kapitel Scheibes Ansatz zur Reduktion physikalischer Theorien darstellen.

3 Konzeptionen physikalischer Theorienreduktionen Der Begriff „Reduktion“ stammt ab vom Lateinischen „reducere“ – „zurückführen“. Im wissenschaftsphilosophischen Kontext wird er verwendet, „wenn man zwei dem Anschein nach verschiedene Sachbereiche, Theorien oder Disziplinen hat, von denen der eine auf den anderen zurückgeführt werden kann.“ (Hoyningen-Huene, 2007, S. 178) Auch wenn diese Bestimmung sehr weit ist, liefert sie eine gute Zusammenfassung von dem, was in der Fachliteratur unter einer Reduktion verstanden wird, denn der Begriff ist hochgradig polisem. Dies attestiert auch Sarkar. Mit Blick auf eine mögliche Taxonomie zentraler Reduktionsmodelle bleiben für ihn „the relations between the various analyses of reduction [. . . ] obscure. It is no longer even clear that there is a single concept of reduction that is being explicated in all these approaches.“ (Sarkar, 1992, S. 168 f) Sarkar unterscheidet in ebd. drei Arten philosophisch relevanter Reduktionen, nämlich Theorienreduktionen, erklärende Reduktionen und konstitutive bzw. ontologische Reduktionen. Ähnlich sehen die grundlegende Differenzierung auch Mayr (1984, S. 49 ff) und Scheibe (1999, S. 113 ff). In Anlehnung an die Arbeit von Hoyningen-Huene (2007) bezeichne ich folgend den reduzierenden Bereich mit „A“ und den reduzierten Bereich mit „B“. Bei Theorienreduktionen sind sowohl A als auch bei B wissenschaftliche Theorien. Die Beziehung beider Bereiche wird in einem logischen oder mathematischen Formalismus beschrieben. Da dies eine vorangegangene Rekonstruktion von A und B selbst voraussetzt, lassen sich paradigmatische Fälle vorrangig in Mathematik und Physik finden. Ein wichtiges Beispiel ist die Reduktion von Newtonscher Mechanik und spezieller Relativitätstheorie. Das Konzept von Theorienreduktionen hat seinen Ursprung in den Arbeiten von Ernest Nagel (1961, vgl. Unterabschnitt 3.1.2) sowie denen des darauf aufbauenden Kenneth Schaffner (1967, vgl. Unterabschnitt 3.1.4). Danach muss B aus A (im Rahmen gewisser Ungenauigkeiten und unter folgend näher zu bestimmenden Bedingungen) logisch ableitbar sein. Ähnlich äußert sich auch Thomas Nickles (1973, vgl. Unterabschnitt 3.1.5), betont jedoch zusätzlich die Bedeutung mathematischer Approximationsprozesse. All diese Autoren haben ein Theorienverständnis, das dem received view zumindest nahe kommt. Sarkar (1992) nennt darüber hinaus als drittes Modell für Theorienreduktionen die auf dem semantic approach aufbauende Position von Balzer et al. (1987, vgl. Unterabschnitt 3.1.6). Bei explanatorischen Reduktionen können die aus B erklärbaren Phänomene oder Daten auch mit den in A zur Verfügung stehenden Mitteln erklärt werden. Dies muss einer gleichzeitigen Theorienreduktion nicht widersprechen. So wird

90 | 3 Konzeptionen physikalischer Theorienreduktionen im Standardmodell nach Nagel eine explanatorische Reduktion nach Kemeny und Oppenheim (1956, vgl. Unterabschnitt 3.1.1) sogar als notwendige Bedingung für eine Theorienreduktion gesehen. Ob mit einer explanatorischen Reduktion eine Theorienreduktion einher geht bzw. vice versa ist abhängig vom verwendeten Erklärungsbegriff. Dieser ist für Nagel (1961) in Form des DN-Modells nach Hempel und Oppenheim (1948) gegeben. Ein Modell explanatorischer Reduktionen anderer Art liefert Wimsatt (1976), der sich auf den Erklärungsbegriff nach Salmon (1971) bezieht, und bei dem eine explanatorische Reduktion keine Theorienreduktion impliziert (vgl. Sarkar, 1992, S. 175 ff). Sarkar (1992, S. 171) verwendet die Begriffe „explanatorische Reduktion“ und „epistemologische Reduktion“ synonym, was in späteren Taxonomien nicht immer übernommen wurde. Bei epistemologischen Reduktionen geht es allgemein um die Frage, in wie fern Wissen über Phänomene aus dem Bereich B auf Wissen über Phänomene aus dem Bereich A zurückgeführt werden kann; so bei der Behauptung einer Reduktion der Biologie auf Physik und Chemie (vgl. HoyningenHuene, 2007). Epistemologische Reduktionen im engeren Sinn setzen damit keinen bestimmten Erklärungsbegriff voraus. Modelle von Fodor und Davidson liefern für Sarkar (1992) die Grundlage zur Etablierung von konstitutiven Reduktionen, bei denen der Frage nach einer einzig substantiellen Beziehung zweier Phänomenbereiche nachgegangen wird. Danach ist „constitutive reductionism [an] ontological reductionism without any necessary epistemological pretensions.“ (Sarkar, 1992, S. 171) Der Begriff „Reduktionismus“ wird von Sarkar wohlgemerkt in einer anderen Bedeutung als der für die aktuelle Debatte üblichen verwendet. Der Verweis auf das Vorhandensein einzelner wie-auch-immer gearteter Reduktionen zeichnet eine Position noch lange nicht als reduktionistisch aus; die Verallgemeinerung dieser Auffassung auf einen ganzen meist ausgedehnten Bereich allerdings schon. So ist die physikalische Erklärung einzelner Phänomene nicht gleichzusetzen mit einem radikalen Physikalismus, der die Möglichkeit einer solchen Erklärung für alle Phänomene fordert. Ausgangspunkt der Entwicklung von Modellen der von Sarkar genannten ontologischen Reduktionen war die wegweisende Arbeit Oppenheim und Putnam (1958). Hoyningen-Huene schreibt dazu: Die ontologische Reduktion betrifft die Frage, ob sich die B-Phänomene ihrer Substantialität nach von den A-Phänomenen unterscheiden. Beispielsweise behauptet die Position des ontologischen Reduktionismus der Biologie auf Physik und Chemie, dass biologische Phänomene der Sache nach physikalische und chemische Phänomene sind. (Hoyningen-Huene, 2007, S. 181)

Mit einem solchen Schluss vom Vorhandensein einzelner ontologischer Reduktionen auf die Richtigkeit einer reduktionistischen Position wird Biologen im Bei-

3 Konzeptionen physikalischer Theorienreduktionen | 91

spiel ihr Forschungsgegenstand abgesprochen, bzw. sie selbst zu Chemikern und Physikern (umgangssprachlich) reduziert. Damit wird ersichtlich, warum Debatten im Umfeld reduktionistischer Positionen in der Regel nicht ohne ein gewisses Maß an Polemik auskommen. Aufgrund der Kompromisslosigkeit reduktionistischer Forderungen ist für Brooks (1994) mit Blick auf den Physikalismus ein Reduktionist „an imperialist in the service of physics. His ideal is that of a unified science. At bottom everything ontologically is physical. Everything is also ultimately determined by what happens at the lowest physical or micro-physical level.“ (Brooks, 1994, S. 803; zitiert nach Lausen, 2012, S. 23) Die Attestierung einzelner ontologischer Reduktionen impliziert jedoch noch keine reduktionistische Position, auch wenn die Überzeugung des Vorhandenseins gewisser ontologischer Reduktionen eine notwendige Bedingung für einen Reduktionismus ist. Scheibe schreibt dazu: Ontologische Reduktionen haben mit Reduktionismus nicht mehr zu tun als irgendwelche anderen Arten von Reduktionen. Ihr gemeinsames Auftreten beruht allein auf dem historischen zufälligen Umstand, daß man an keine anderen als ontologische Reduktionen dachte, wenn man von Reduktionen sprach. Und der Sache nach drängt sich der Terminus ‚Reduktionismus‘ auch dann nicht auf, wenn es um ontologische Reduktionen geht. (Scheibe, 1999, S. 112)

Das von Hoyningen-Huene gewählte Beispiel der Reduktion der Biologie auf Physik und Chemie verdeutlicht gut, dass sich ontologische und epistemologische bzw. explanatorische Reduktionen nicht gegenseitig ausschließen. Dass im Falle einer bestehenden ontologischen Reduktionsbeziehung Wissen über APhänomene auch Konsequenzen für das Wissen über B-Phänomene impliziert, überrascht kaum. Ontologische Reduktionen werden in der Literatur teils als „Mikro-Reduktionen“ bezeichnet. Der dahinter stehende Gedanke ist, ein Ganzes durch seine Teile zu beschreiben. So könne ein Organismus durch seine Zellen beschrieben werden, die Zellen durch ihre Moleküle und die Moleküle durch ihre Atome (vgl. Hoyningen-Huene, 2007, S. 181; Scheibe, 1999, S. 109 ff). Von den genannten Reduktionsarten werde ich mich folgend vorrangig mit Theorienreduktionen auseinandersetzen; explanatorische und konstitutive Reduktionen kommen nur dort ins Spiel, wo sie aufgrund der oben genannten Überschneidungen der unterschiedlichen Reduktionsmodelle mit den Theorienreduktionen zusammenhängen. Spreche ich also folgend von einer Reduktion im Allgemeinen, meine ich damit Reduktion im Sinne von Theorienreduktion. Eine Ausnahme ist lediglich Unterabschnitt 3.1.1, in dem ich das für das Standardmodell nach Nagel und damit die gesamte Reduktionsdebatte grundlegende Modell explanatorischer Reduktionen nach Kemeny und Oppenheim vorstellen werde.

92 | 3 Konzeptionen physikalischer Theorienreduktionen In Abschnitt 3.1 werde ich grundlegende Reduktionsmodelle behandeln, die aus der historischen Debatte erwachsen sind. Auf der einen Seite werden dies Modelle sein, die den Diskussionen um den received view entstammen. Neben dem Standardmodell nach Nagel in ursprünglicher sowie der durch Sklar und Schaffner erweiterten Version, werde ich auch auf Modelle von Nickles, Spector und Berry eingehen. Ich werde die Abkehr von einer ursprünglich prädikatenlogisch formulierten Reduktionsbeziehung zugunsten mathematischer Relationen aufzeigen. In Unterabschnitt 3.1.6 folgt die Darstellung das Reduktionsverständnisses nach Balzer, Moulines und Sneed (BMS) (vgl. Balzer et al., 1987). Ich werde nachweisen, dass viele der in Abschnitt 3.1 aufgezeigten Reduktionsbeziehungen ebenfalls bei BMS vorkommen – wenn auch nur als allgemeine intertheoretische Beziehungen. Scheibes Reduktionsverständnis werde ich in Abschnitt 3.2 wiedergegeben. Dies geschieht unmittelbar in Auseinandersetzung mit den zuvor dargestellten Positionen. Ich werde zeigen, dass sich für alle historischen Reduktionsmodelle eine Entsprechung in Scheibes Ansatz finden lässt. Auch mit Rückblick auf Kapitel 2 folgt daraus, dass es zusammen mit der nachgewiesenen Adäquatheit von Scheibes Theorienkonzept ratsam ist, für die formale Betrachtung der Rekonstruktion und Reduktion physikalischer Theorien, ein Theorienverständnis im Sinne Scheibes voraus zu setzen. Dieses Ergebnis werde ich in Abschnitt 3.3 noch einmal zusammenfassen.

3.1 Grundlegende Reduktionsmodelle In Abschnitt 2.2 habe ich bereits intensiv die Grundlagendes received view of theories erläutert. Er konnte trotz der seit den 60er Jahren lauter werdenden Kritik einen bedeutenden Beitrag zu vielen fruchtbaren Diskussionen in der Wissenschaftsphilosophie liefern. So gehen die ersten ernst zu nehmenden Ansätze zum Verständnis der Reduktion wissenschaftlicher Theorien zurück auf Kemeny und Oppenheim (1956) sowie Nagel (1961) – und damit auf Vertreter des received view. Beim Aufbau des folgenden Abschnitts habe ich mich an den Arbeiten Carrier (1996) und Nickles (1973) orientiert. Ausgangspunkt meiner Untersuchung ist in Unterabschnitt 3.1.1 das explanatorische Reduktionsmodell nach Kemeny und Oppenheim (1956). Auch wenn ich mich im weiteren Verlauf dieses Kapitels auf Theorienreduktionen beschränken werde, waren Kemeny und Oppenheim die Grundlage für das Standardmodell der Reduktion nach Nagel (1961, vgl. Unterabschnitt 3.1.2). Darüber hinaus wird das Auftreten einer explanatorischen Reduktionsbeziehung oft als notwendige Bedin-

3.1 Grundlegende Reduktionsmodelle |

93

gung für Theorienreduktionen angesehen. Die Ausführungen in 3.1.1 sind damit obligatorisch. In Unterabschnitt 3.1.3 lasse ich mit Feyerabend (1962) und Kuhn (1978) die Hauptkritiker am Konzept der Theorienreduktionen zu Wort kommen. Nach ihnen bestünden zwischen reduzierter und reduzierender Theorie lediglich approximative, aber keine deduktiven Beziehungen, wie es Nagel (1961) verlangt hatte. Vermeintliche Beispiele historischer Reduktionen seien damit Illusionen. Wissenschaftler gingen viel willkürliche vor, als es die logischen Positivisten wahrhaben wollten. Eine Reaktion auf die Kritik kam nahezu zeitgleich von Lawrence Sklar (1967) und Kenneth Schaffner (1967). In Unterabschnitt 3.1.4 werde ich die Reduktionsprogramme beider Autoren darstellen und zeigen, dass sie sich immer noch im Rahmen des logischen Positivismus bewegen. Vorgeworfen wurde ihnen dies zunächst von Thomas Nickles (1973). Dieser betont mit seinem eigenen Reduktionsverständnis die Rolle mathematischer Grenzwertprozesse und löst sich damit vom received view. Seine Position findet Anklang bei Marshall Spector (1978) und Michael Berry (1994). Am Ende von Unterabschnitt 3.1.5 stehen die auf Nickles, Spector und Berry zurückgehenden approximativen und asymptotischen Reduktionen. Das Reduktionsverständnis des semantic approach werde ich in Unterabschnitt 3.1.6 erläutern. Ich werde zeigen, dass es viele der zuvor aufgeführten Konzeptionen aufnimmt. Mit der Darstellung von Reduktionen im modelltheoretischen Theorienverständnis habe ich schließlich alles zusammen für den Vergleich mit Scheibes Reduktionsansatz, der sich in Abschnitt 3.2 anschließen wird.

3.1.1 Das explanatorische Reduktionsmodell von Kemeny und Oppenheim Kemeny und Oppenheim (1956) haben sich mit ihrem Modell explanatorischer Reduktionen nicht als erste mit wissenschaftlichen Reduktionen auseinander gesetzt. So hatten bereits Joseph H. Woodger (1952) sowie (ein früher) Ernest Nagel (1951) eigene Ansätze geliefert. Wie Kemeny und Oppenheim (1956, S. 9) überzeugend darstellen, können diese als Spezialfälle ihrer eigenen Theorie verstanden werden, die ich damit als Ausgangspunkt nehme. Einer der von Kemeny und Oppenheim angeführten Hauptkritikpunkte ist, dass sowohl für Nagel als auch für Woodger nur die formalen Beziehungen von Theorien von Interesse sind, nicht aber deren Erklärungsleistung. Weitere Details sowie teils auch der Wortlaut der Kritik von Kemeny und Oppenheim an Nagel finden sich in Unterabschnitt 3.1.2. Bei ihrer Arbeit setzen Kemeny und Oppenheim einige Vereinfachungen voraus, nämlich (1) eine mögliche und strikte Trennung observabler und theoreti-

94 | 3 Konzeptionen physikalischer Theorienreduktionen scher Terme, (2) die formale Gleichheit von Erklärung und Vorhersage sowie (3) die Verträglichkeit der betrachteten Theorien mit den verfügbaren Daten. Die erste Annahme habe ich bereits in Unterabschnitt 2.2.2 ausführlich kommentiert. „Erklärung“ im zweiten Punkt ist im Sinne von „DN-Erklärung“ nach Hempel und Oppenheim zu verstehen. Diese äußern sich bereits 1948 bezüglich des Zusammenhangs von Erklärung und Vorhersagen, wonach „the same formal analysis [. . . ] applies to scientific prediction as well as to explanation. The difference between the two is of a pragmatic character.“ (Hempel und Oppenheim, 1948, S. 138) Diese Gleichsetzung hat in den Folgejahren Kritik erfahren (vgl. Scriven, 1962), die mit Blick auf die Reduktionsdebatte allerdings von untergeordnetem Interesse ist. In dieser war zunächst die logische Beziehung von Theorien von Relevanz, nicht jedoch die Frage, ob diese als Erklärung oder Vorhersage verstanden werden müsse. Mit Forderung (3) muss eine das explanatorische Modell abschwächende Ungenauigkeit einhergehen, denn bereits für ein einfaches Beispiel, wie der Reduktion der Keplerschen Gesetze auf die Newtonsche Mechanik, gilt die folgende Aussage: the laws hold only approximately – as far as we can neglect the interaction of the planets. While these points are of fundamental importance, there is no way of taking them into account as long as we tacitly assume that our theories are correct. If we abandon this (contrato-fact) assumption, then the problem of reduction becomes hopelessly complex. Hence we will go along with the previous authors in their first oversimplification. (Kemeny und Oppenheim, 1956, S. 13)

Unter diesen Voraussetzungen ist Reduktion für Kemeny und Oppenheim ein der Ansammlung reinen Faktenwissens gegenübergestellter theoretischer Fortschritt, für dessen Verständnis die ausschließliche Betrachtung des theoretischen Anteils einer Theorie dennoch nicht ausreiche (vgl. Kemeny und Oppenheim, 1956). Vielmehr müssten alle von der zu reduzierenden Theorie T2 erklärten Phänomene ebenso von der reduzierenden Theorie T1 erklärt werden. Dies solle nach dem DN-Modells der Erklärung geschehen (vgl. Hempel und Oppenheim, 1948). Das heißt, durch Deduktion eines das zu beschreibende Phänomen darstellenden Satzes des Observablenvokabulars, das Explanandum, aus den Axiomen der Theorie sowie einer Anzahl von Aussagen über Antezends-Bedingungen. Die letzten beiden Satzgruppen ergeben zusammengefasst das Explanans. Weiter fordern Kemeny und Oppenheim (1956) das Vorkommen von Ausdrücken im theoretischen Vokabular von T2 , die nicht Bestandteil des theoretischen Vokabulars von T1 sind. Dadurch werde vermieden, dass T2 lediglich eine Teiltheorie von T1 ist. Dies sichere einen wirklichen Erkenntnisgewinn. Die in der ersten Bedingung noch vorhandene Symmetrie wird somit aufgebrochen. Es wird Platz für eine Asymmetrie und damit die Unterscheidung von reduzierter und

3.1 Grundlegende Reduktionsmodelle |

95

reduzierender Theorie geschaffen. Den Spezialfall, dass das Vokabular von T1 eine Teilmenge des Vokabulars von T2 ist, lassen Kemeny und Oppenheim nur als interne Reduktion zu. Auch wird eine bessere Systematisierung der reduzierenden Theorie gegenüber der reduzierten verlangt, was der Einführung eines Gütekriteriums gleichkommt. Die Systematisierung umfasst zwei Teilaspekte, namentlich (1) den Grad der Erklärungsleistung der Theorie und (2) den Aufwand der Berechnungen. Eine besser systematisierte Theorie erklärt mehr Phänomene mit einem geringem Aufwand als eine schlechter systematisierte Theorie (Für ein Beispiel vgl. Kemeny und Oppenheim, 1956, S. 10 f). Das explanatorische Modell stellt einen ersten ernstzunehmenden Ansatz zum Verständnis des Reduktionsbegriffs dar, der aber auch einer starken Kritik ausgesetzt war. Neben den Problemen des dem Reduktionsmodell zugrunde liegenden received view wies das Modell bei genauerer Betrachtung einige Merkwürdigkeiten auf, wie beispielsweise Hempel bemerkte: Suppose that two theories are equally well systematized, that they have no theoretical terms (and hence no theoretical principles) in common, and that each of them explains a certain set of data O. Then either of the theories would count as reduced to the other (relative to O), even though they do not share a single theoretical term or principle. (Hempel, 1969, S. 193)

Ebenso findet sich bei Spector mit Bezug auf Kemeny und Oppenheim die folgende Äußerung: They argued that the relation of reduction is best analyzed by comparing the theories in question directly with the ‘observation’ they are intended to explain, rather than by attempting to draw any direct connection between the two theories themselves. They claimed, in essence, that T2 is reducible to T1 or T1 can explain any observation that T2 can explain. But in my view this weaker relation comes close to being mere theory replacement – not reduction. (Spector, 1978)

Sklar geht noch einen Schritt weiter und stellt das Reduktionsverständnis nach Kemeny und Oppenheim als eine lediglich notwendige,aber nicht hinreichende Bedingung heraus: It is hard to find in the history of science any examples of reduction, intuitively so-called, which satisfy the account; or, more correctly, it is hard to find any examples which satisfy the Kemeny-Oppenheim account without satisfying the much more demanding accounts [. . . ]. (Sklar, 1967, S. 115)

Das explanatorische Reduktionsmodell wird damit zur Minimalanforderung degradiert, die für sich genommen nur einen geringen Erkenntnisgewinn impliziere. Die von Sklar genannten „more demanding accounts“ stellen dann im Idealfall

96 | 3 Konzeptionen physikalischer Theorienreduktionen Beziehungen zwischen den Theorien selbst her, ermöglichen also mit gewissen Hilfsaussagen eine Ableitung der Gesetzte von T1 aus denen von T2 über die Beziehung (vgl. Sklar, 1967, S. 117):42 L t (T1 ) ∧ γ v  L t (T2 )

(3.1)

„L t (T i )“ bezeichnet die Menge des theoretischen Ausdrücke von T i , γ v die Konjunktion der Antezedensbedingungen. Es müssen alle theoretischen Terme von T2 herleitbar sein. Bezeichnet „γ o “ weitere empirische Anfangsbedingungen, lassen sich darüber hinaus aus T2 Aussagen über einen Phänomenbereich E ableiten. Es gilt also: L t (T2 ) ∧ γ o  E

(3.2)

Aus (3.1) und (3.2) folgt zusammen: L t (T1 ) ∧ γ v ∧ γ o  E

(3.3)

γ :⇔ γ v ∧ γ o

(3.4)

Wird jetzt

definiert und setzt man dies ein in (3.3), ergibt sich mit oben genannter Abschwächung des Erklärungsbegriffs eine Erklärung des Explanandum E durch die Theorie T1 . Eine Reduktion im Sinne Kemeny und Oppenheims ist somit Konsequenz einer direkten, deduktiven Reduktion. Anders herum gilt lediglich: γ o (T1 ) ∧ L t (T1 )  E sowie γ o (T2 ) ∧ L t (T2 )  E,

γ o (T i ) sind die notwendigen Antezedensbedingungen, die erst eine Ableitung von E aus T i ermöglichen. Da diese aber nicht weiter eingeschränkt sind, lassen sich hier keine Rückschlüsse auf die logische Form der beiden Theoriensprachen ziehen, womit auch nichts über den logischen Zusammenhang der beiden Theorien gesagt ist; T2 könnte eine vollkommen andere logische Struktur besitzen als T1 und dennoch dieselben Phänomene erklären. Sklar bringt das Ergebnis der vorangegangenen Erläuterungen auf den Punkt, wenn er schreibt: 42 Bereits in ihrem Paper zur DN-Erklärung haben Hempel und Oppenheim (1948, S. 136) die Möglichkeit der Erklärung von Theorien durch andere gesehen; in dem Fall handelt es sich beim Explanandum nicht mehr einzig um observable Terme, sondern um eine Theorie, bei der ein oder mehrere Parameter konstant gesetzt werden. Wir werden später sehen, dass es sinnvoll ist, anstelle einer solchen Festsetzung auch mathematische Operationen und Schlussfolgerungen zuzulassen.

3.1 Grundlegende Reduktionsmodelle |

97

To summarize, the Kemeny-Oppenheim account fails to hold for any reductions except those satisfying much more stringent and illuminating conditions. In other words, the only reductions which hold between theories making the same observational predictions within the range of phenomena ‘covered’ by the reduced theory, are reductions which display an important relationship between the theoretical parts of the reduced and reducing theory. (Sklar, 1967, S. 115 f)

Um ein stärkeres Kriterium zu erhalten, darf eine Reduktion also nicht nur über die empirische Erklärungsleistung einer Theorie bestimmt werden, sondern muss auch Aussagen über den theoretischen Teil der Theorie machen. Einen ersten ernstzunehmenden Ansatz in diese Richtung lieferte Ernest Nagel (1961) mit seinem Standardmodell der Reduktion.

3.1.2 Das Standardmodell nach Nagel Ebenso wie Kemeny und Oppenheim (1956) steht Nagel (1961) in der Tradition des logischen Positivismus. Auch er bezieht sich auf das DN-Modell der Erklärung und nimmt es als Grundlage für seinen Reduktionsansatz. Sein Reduktionsverständnis ist aber nicht mehr ein indirektes, durch das Theorien nur über einen Umweg über die Empirie miteinander verbunden werden, sondern ein direktes, das die Theorien selbst miteinander in Beziehung setzt. Nach Nagel ist „[r]eduction, in the sense in which the word is here employed, [. . . ] the explanation of a theory or a set of experimental laws established in one area of inquiry, by a theory usually thought not invariably formulated for some other domain.“ (Nagel, 1961, S. 338) Das Standardmodell ist eine Weiterentwicklung des von Kemeny und Oppenheim (1956) kritisierten Ansatzes von Nagel (1951). Grundlegend für Nagel (1961) ist die Unterscheidung von homogenen und heterogenen Reduktionen. Bei ersteren besitzt die reduzierende Theorie gegenüber der reduzierten einen erweiterten Anwendungsbereich bzw. Änderungen im Axiomensystem, wobei die theoretischen Ausdrücke eine weitestgehend unveränderte Bedeutung haben und keine neuen Konzepte eingeführt werden müssen. Als Beispiel führt Nagel die Reduktion einer ursprünglich nur auf Punktmassen angewendeten klassischen Mechanik auf eine auch ausgedehnte Körper behandelnde Theorie sowie die Reduktion von Galileis Fallgesetze auf die Newtonsche Mechanik und fasst zusammen:43

43 Es ist problematisch, Nagels Ansatz und auch seine Beispiele aus heutiger Sicht objektiv darzustellen, da die Kritikpunkte an seiner Konzeption im Wesentlichen bekannt sind. So haben Kuhn (1978) und Feyerabend (1962) darauf hingewiesen, dass bei der Reduktion der Galileischen Fallgesetze auf die Newtonsche Mechanik weder von gleichbleibenden Konzepten gesprochen

98 | 3 Konzeptionen physikalischer Theorienreduktionen In reductions of the sort so far mentioned, the laws of the secondary science employ no descriptive terms that are not also used with approximately the same meanings in the primary science. Reduction of this type can therefore be regarded as establishing deductive relations between two sets of statements that employ a homogenous vocabulary. (Nagel, 1961, S. 339)

Was genau „Approximately the same meaning“ bedeuten soll, bleibt bei Nagel zunächst offen und lieferte einen Ansatzpunkt für spätere Kritik (vgl. Unterabschnitt 3.1.3). Für Nagel (1961, S. 339) selbst waren Homogene Reduktionen von untergeordnetem Interesse, da sie nach ihm (1) aufgrund der direkten Übertragbarkeit der jeweiligen theoretischen Terme eine einfache logische Struktur haben, (2) derartige Fälle in der Praxis kaum vorkommen und (3) sie sich als Sonderfall der folgend von Nagel dargestellten heterogenen Reduktionen auffassen lassen. Als Konsequenz hat er den homogenen Reduktionen kaum Beachtung geschenkt und sein Hauptaugenmerk auf die heterogenen Reduktionen gelegt. Diese unterscheiden sich von homogenen Reduktionen dadurch, dass in T1 theoretische Ausdrücke auftreten, die so in T2 nicht vorkommen. Nagels Standardbeispiel ist die Reduktion der Thermodynamik auf die statistische Mechanik und der in beiden Theorien dargestellte Temperaturbegriff (vgl. Nagel, 1961, S. 338). Im einen Fall sei er ein makroskopisch z.B. durch ein Thermometer messbares Faktum, im anderen die mittlere kinetische Energie einer Menge von Gasmolekülen; zwei konzeptuell vollkommen verschiedene Beschreibungen. Konnten die theoretischen Terme im Fall einer homogenen Reduktion noch mittels der Identität bzw. verhältnismäßig einfachen Bijektionen übernommen werden, müsse jetzt ein zusätzliches komplexes Brückengesetz hinzukommen, mit dem das theoretische Vokabular der reduzierenden Theorie mit dem der reduzierten Theorie in Beziehung gesetzt wird. Die (heterogenen) Reduktionen von Theorien müssen nach Nagel insgesamt vier Bedingungen erfüllen, von denen zwei formal und die anderen beiden informell sind. Als erste formale Bedingung fordert Nagel unter Voraussetzung einer gegebenen syntaktischen Darstellung beider Theorien die connectability, die für eine prädikatenlogisch formulierte Übersetzung der nicht in T2 vorkommenden theoretischen Terme von T1 in das Vokabular von T2 steht. Als Übersetzungsgesetze schlägt er drei mögliche Kandidaten vor, namentlich (1) deduktive Gesetze, die sich rein formal aus der reduzierenden Theorie ableiten lassen, (2) durch bezüg-

werden könne, noch eine strenge Deduktion möglich sei (vgl. Unterabschnitt 3.1.3) . Auch wenn es mit den Konsequenzen dieser Feststellungen zum Teil übertrieben wird, liegen dem dennoch richtige und wichtige Gedanken zugrunde. Trotz der mittlerweile bekannten und in groben Zügen zumeist anerkannten Kritik an Nagel (1961) sollen die Kritikpunkte in diesem Unterabschnitt zunächst übergangen werden.

3.1 Grundlegende Reduktionsmodelle |

99

lich der Wissenschaft externe Konventionen festgesetzte Gesetze und (3) empirische, durch Faktenmaterial erhaltene Verknüpfungsbedingungen (vgl. Nagel, 1961, S. 354 ff). Um eine Entscheidung zwischen den Vorschlägen treffen zu können, führt Nagel eine exemplarische Untersuchung am Gesetz von Boyle-Charles und dessen Ableitung aus der kinetischen Gastheorie durch. Er kommt zu dem Schluss, dass die Brückengesetze im Allgemeinen nicht plausibel als logisch angenommen werden können. Bezüglich der beiden anderen Fälle zeigt er sich unentschieden. Es sei nicht möglich „to decide in general whether the postulate is a coordinating definition or a factual assumption, except in some given context in which the reduction of thermodynamics to mechanics is being developed.“ (Nagel, 1961, S. 357) Nagels zweite formale Bedingung wird in der Literatur als „derivability“ bezeichnet und fordert die Ableitbarkeit der Gesetzt der reduzierten aus denen der reduzierenden Theorie mit Hilfe der Brückengesetze. Homogene Reduktionen werden damit zu einem Sonderfall heterogener Reduktionen, sofern die Identität als Brückengesetz verstanden wird (vgl. Sklar, 1967, S. 186 f). Bezeichnet „γ“ die Konjunktion der Brückengesetze, werde auf der anderen Seite die heterogene Reduktion von T1 auf T2 (mit den Axiomensystemen Σ1 und Σ2 ) aber auch zu einer homogenen Reduktion, nämlich durch die Ableitung von Σ1 aus Σ2 ∧ γ. Es gilt also: Σ2 ∧ γ  Σ1

(3.5)

Bereits in seinen frühen Arbeiten zum Reduktionsbegriff machten die formalen Bedingungen den Kern von Nagels (1951) Ansatz aus. Sie waren die einzigen von ihm an eine Reduktion gestellten Bedingungen, was – wie zuvor ausgeführt – von Kemeny und Oppenheim kritisiert wurde, für die „the existence of reduction cannot be understood by comparing only the two theories; we must bring in the observations.“ (Kemeny und Oppenheim, 1956, S. 13) Auch wenn sich die Autoren selbst für eine übertriebene Betonung der empirischen Erklärungsleistung entscheiden (vgl. Unterabschnitt 3.1.1), scheint ihre Kritik zunächst gerechtfertigt. Sowohl Nagel als auch Kemeny und Oppenheim stellten bei der Entwicklung ihrer Modelle noch starke sowohl ontologische als auch epistemologische Forderungen an eine Reduktion. Um in diesem Rahmen von einer erfolgreichen Reduktion sprechen zu können, war der Erhalt der Erklärungsleistung sicherlich eine der Minimalanforderungen. Diese konnte aber nur mit Bezug auf die Empirie abgehandelt werden. In seinem Standardmodell nimmt Nagel die Kritik in Form von zwei zusätzlichen informellen Forderungen auf:

100 | 3 Konzeptionen physikalischer Theorienreduktionen The two formal conditions for reduction [. . . ] do not suffice to distinguish trivial from noteworthy scientific achievements. If the sole requirement for reduction were that the secondary science is logically deducible from arbitrary chosen premises, the requirement could be satisfied with relatively little difficulty. In the history of significant reductions, however, the premises of the primary science are not ad hoc assumptions. (Nagel, 1961, S. 358)

Die Entwicklung einer fiktiven Theorie, die in starkem Widerspruch zur gemachten Erfahrung steht, ist wenig sinnvoll. Zur Vermeidung derart absurder Randfälle fordert Nagel (1961, S. 358) als erste informelle Bedingung, dass die reduzierende Theorie eine gute Stützung durch die Empirie besitzt – was wohlgemerkt nicht der Forderung der Wahrheit gleichkommt. Ein Wahrheitskriterium sei zu stark, was einher geht mit der oben bereits beschriebenen nur approximativen Leistung der Brückengesetze. Nagel erkennt hier wie auch seine späteren Kritiker, dass Theorien zumindest im streng logischen Sinn keinen Wahrheitsanspruch erheben können, unterschätzt aber noch die damit zusammenhängenden Probleme. Die zweite informelle Bedingung findet sich pointiert bei Carrier (1996) wieder. Danach sollte die Reduktion „bekannte empirische Gesetze korrigieren, überraschende Verbindungen zwischen ihnen aufzeigen oder neue vorhersagen, [. . . ]“ (Carrier, 1996, S. 517) was stark an die Systematisierung bei Kemeny und Oppenheim (1956) erinnert. In der Tat müssen die Forderungen des explanatorischen Modells auch im Standardmodell der Reduktion gelten – auch wenn in letzterem die Betonung eindeutig auf dem Formalismus der Theorie liegt. Das Standardmodell nach Nagel (1961) liefert also einen formalen Unterbau für das explanatorische Reduktionsmodell nach Kemeny und Oppenheim (1956), womit es sich um einen der „much more demanding accounts“ handelt, wie zu Ende von Unterabschnitt 3.1.1 ausgeführt. Vom intuitiven Standpunkt aus ist das Konzept nachvollziehbar. Bei Nagels Standardbeispiel für heterogene Reduktionen müssen beispielsweise zunächst die mittlere kinetische Energie der Bestandteile eines Gases mit der Temperatur in Verbindung gesetzt werden. Erst mit dieser Übersetzung könnten aus den Gesetzen der kinetischen Gastheorie die Gesetze der Thermodynamik abgeleitet werden. Eine detaillierte Darstellung hiervon findet sich bei Dizadji-Bahmani et al. (2009). Dennoch fand das Standardmodell einige Verfeinerungen, von denen eine erste aus der Feder von Hempel (1969) stammte. Nagel (1951) hatte in seinem ursprünglichen Reduktionskonzept als Brückengesetze noch Bijektionen gefordert, diese Forderung aber nicht mit ins Standardmodell übernommen. Ein Grund hierfür dürfte unter anderem die Kritik von Kemeny und Oppenheim (1956, S. 12 f) gewesen sein (vgl. Unterabschnitt 3.1.1). Hempel (1969, S. 188 ff) hingegen betont, ein abzuleitendes Gesetz von T2 sei im einfachsten Fall eine Allaussage der Form: ∀x : P T2 (x) → Q T2 (x)

(3.6)

3.1 Grundlegende Reduktionsmodelle |

101

Für die Deduktion aus einem Gesetz von T1 der Art: ∀x : P T1 (x) → Q T1 (x)

(3.7)

müssten jetzt die theoretischen Terme der einen Theorie in diejenigen der anderen Theorie durch Brückengesetze überführt werden. Die grundsätzliche von ihm bei Nagel (1961) gesehene Form entspräche zunächst einer Implikation. Es ist also: ∀x : P T2 (x)

∀x : Q T1 (x)



P T1 (x)

(3.8)



Q T2 (x)

(3.9)

Damit (3.6) durch (3.7) aber reduziert, d.h. für Hempel vollständig ersetzt, werden könnte, reichten einfache Implikationen als Brückengesetze wie in (3.8) bzw. (3.9) nicht aus. Stattdessen müssten die Gesetze über Bijektionen eingeführt werden, womit die gewünschte Substitution möglich sei. Hempels Überlegungen sind noch strikt prädikatenlogisch. Hierüber gehen die Ansätze von Kenneth Schaffner (1967, S. 143) und Lawrence Sklar (1967, S. 120 ff) hinaus, indem sie unabhängig voneinander allgemeine synthetische Identitätsaussagen als Brückengesetze fordern. Was mit „Identitätsaussage“ gemeint ist, wird bei Schaffner nicht unmittelbar klar. Eine gute Erläuterung findet sich bei Hooker (1981b, S. 202), der Korrelationen von gesetzesartigen Zusammenhängen und Identitäten als verschiedene Klassen von Relata unterscheidet, die nach dem Grad der Intimität der von ihnen verbundenen Dinge geordnet sind. Die folgenden Ausführungen finden sich ähnlich bei Lorenz (1996a,b). Ein gesetzesartiger Zusammenhang bestehe zwischen zwei Dingen n und m genau dann, wenn Eigenschaften oder Zustände A1 von n immer oder zumindest meistens gleiche Eigenschaften oder Zustände A2 von m hinter sich her ziehen. Ein von Hooker (1981b) angeführtes Beispiel sind zwei ähnlich aussehende Uhren, bei denen das Ticken der ersten kausal zu einem Ticken der zweiten führt. Diese Art von Relation ist für die Etablierung von Brückengesetzen im Sinne von Sklar (1967) von untergeordneter Rolle. Zwei Gegenstände n, m heißen weiter genau dann korreliert, ununterscheidbar bzw. logisch gleich bezüglich eines bestimmten Aussagenbereich B (in Zeichen: „=“), wenn gilt: ∀A ∈ B : A(n) ↔ A(m)

(3.10)

So seien in die Zeichen „||“ und „◦◦“ ununterscheidbar bezüglich der Menge aller arithmetischer Aussagen bei denen es lediglich auf die Anzahl der verwendeten Zeichen ankommt (vgl. Lorenz, 1996a). Dasselbe gilt für zwei gleich aussehende Uhren, die gleichzeitig schlagen, bezüglich der Menge aller Aussagen über die von ihnen gemessene Zeit und deren Aussehen.

102 | 3 Konzeptionen physikalischer Theorienreduktionen Die für die Brückengesetze relevante Identität (≡) sei ein über die Korrelation herausgehender Spezialfall, die sich auszeichnet durch (1) Reflexivität (n ≡ n; jedes Ding ist identisch mit sich selbst) und (2) Substitutivität ((n ≡ m) → (A(n) → A(m)); sind n und m identisch, so gilt jede Aussage von n auch von m). Dies impliziert alle Eigenschaften einer Äquivalenzrelation. Am Uhren-Beispiel lässt sich dies als Ticken ein und derselben von zwei Personen gleichzeitig beschriebenen Uhr darstellen. Von der Korrelation unterscheidet sich die Identität durch das Wegfallen des Aussagenbereichs B, wodurch auch vor allem eine prädikatenlogische Formulierung nicht möglich war. Dies ist auch der Unterschied zu den von Hempel (1969) vorgeschlagenen Bikonditionalen, die eine Prädikatenlogische Formulierung fordern und damit eine Quantifizierung über einen nicht definierbaren Bereich verlangen. Mit anderen Worten: Bezüglich der Prädikatenlogik sind Korrelationen objektsprachliche Aussagen, Identitäten jedoch metasprachliche. Trotz dieses metasprachlichen Elements müssen die obigen Ausführungen keinen vollkommenen Formalisierungsverzicht zur Folge haben, denn in logischen Systemen höherer Stufe sowie in der Prädikatenlogik mit eingebetteter Mengenlehre ist die Äquivalenz von Korrelation und Identität herleitbar. Dies wird später in Abschnitt 3.1.5 wieder von Interesse, wenn Nickles (1973) explizit mathematische Approximationen als Brückengesetze zulässt. Der zweite Teil von Schaffners und Sklars Forderung, nämlich dass die Gesetze synthetisch sein müssen, lässt sich unter Rückbezug auf den von Schaffner (1967) herangezogenen Feigl (1958) verstehen. Schaffner (1967) schließt sich der Terminologie der logischen Positivisten an. Da von diesen synthetische Urteile a priori für die Wissenschaften als inakzeptabel angesehen wurden, blieben nur noch analytische Urteile a priori sowie synthetische Urteile a posteriori als mögliche Kandidaten für die Konstituierung der Brückengesetze. Bezogen auf Nagels Standardbeispiel klammert Feigl jetzt die erste Möglichkeit aus. „Gasdruck“ sei nicht definiert durch die mittlere kinetische Energie von Teilchen: [A]s Ernest Nagel has made it clear, if we mean by ‘the pressure of a gas’ that property of it which is measurable by manometers, and which has a variety of well known lawful connections with the volume, the temperature, etc. of the gas, and thus ‘manifests’ itself in a variety of ways, then clearly it was a discovery, yielding new information, that revealed to us the relation of gas pressure (the ‘macro’-concept) to certain aspects of molecular motion. This is clearly synthetic. (Feigl, 1958, S. 441)

Sklar (1967) argumentiert für die Notwendigkeit seiner Forderung nach synthetischen Identitätsaussagen, indem er sich auf das Wiedmann-Franz-Gesetz bezieht. Formal ist dieses gegeben mit:

3.1 Grundlegende Reduktionsmodelle |

103

λ = LT σ wobei „T“ die Temperatur bezeichnet und „L“ für die Lorenz-Zahl steht. Das Gesetz besagt, dass das Verhältnis der elektrischen Leitfähigkeit σ zur thermischen Leitfähigkeit λ eine Funktion der Temperatur ist(vgl. Sklar, 1967, S. 119). Daraus ließe sich mit einer rein formalen Äquivalenz ein Brückengesetz der Art Die elektrische Leitfähigkeit eines Metallstücks beträgt σ



Die thermale Leitfähigkeit eines Metallstücks beträgt σTL

(3.11)

definieren, das eine Übersetzung der Ausdrücke der Theorie der Wärmeleitfähigkeit von Metall in eine Theorie der elektrischen Leitfähigkeit erlaubt – und zwar unter Erfüllung von Nagels Reduktionsbedingungen. Dennoch werde im folgenden Fall nicht von einer Reduktion gesprochen: But why doesn’t this correlation count as a reduction? The answer seems clear. The derivation of the laws of the reduced theory, T1 , from those of the reducing, T2 , requires the introduction of the independent laws of the correlating set. Call their conjunction TC. But the fact that T1 can be deduced from T2 and TC is evidence only of the reducibility of T1 to the now expanded theory, ‘T2 and TC’. This reduction is not inhomogenous, since the conjunction of T2 and TC contains all the concepts present in T1 ; infact, it is a simple derivational reduction. But this reduction is not the reduction of T1 to T2 alone originally sought for. (Sklar, 1967, S. 119; der Formalismus wurde von mir angepasst)

Ähnlich äußert sich auch Nickles (1973, S. 190 f). Sklars Punkt ist, dass eine beliebige, lediglich auf Konventionen beruhende Einführung von Brückengesetzen bezüglich der ursprünglich antizipierten heterogenen Reduktion zugunsten einer ganz anderen, homogenen Reduktion in die Irre führen kann. Dass bei diesem Argument mit Sicherheit auch ein ontologischer Aspekt mitschwingt, liegt auf der Hand. Die von T2 beschriebenen Phänomene sollen nicht nur irgendwie mit denen von T1 beschriebenen in Verbindung gesetzt werden, sondern auch substantiell mit diesen zusammenhängen. Die Konsolidierung dieser stärkeren Beziehung verläuft über die Empirie. Die drei oben dargestellten, von Nagel gesehenen Möglichkeiten für die Beschaffenheit der Brückengesetze werden damit auf eine einzige zusammengestrichen. Sklar (1967, S. 120 f) stellt drei zentrale Eigenschaften der Identifikationsaussagen heraus. Sie seien zunächst (1) nicht Identitätsaussagen über Einzeldinge, sondern in der Regel Allaussagen. Weiter seien sie (2) fundamental verschieden von physikalischen Gesetzen, da es beispielsweise sinnlos sei zu fragen, warum Lichtwellen elektromagnetische Wellen seien und (3) sie erlauben nicht eine einfache Vertauschung salva veritate der Begriffe, da dies den Sinn der physikalischen Aussage verändern könne.

104 | 3 Konzeptionen physikalischer Theorienreduktionen Aber auch durch diese Einschränkung ist kein Kriterium gegeben, das streng genug wäre, relevante Fälle von Reduktionen von irrelevanten zu unterscheiden. Nickles (1973, S. 192) bemerkt zutreffend, dass auch durch ausschalten von Brückengesetzen der Art (3.11) durch Identitätsaussagen nicht alle PseudoReduktionen eliminiert werden können. Aus der Optik wüssten wir, dass Lichtstrahlen in einem Medium höherer optischer Dichte abgelenkt werden. Weiter erfülle die Identitätsaussage, welche die Gleichheit dieser Strahlen mit elektromagnetischer Strahlung einer bestimmten Frequenz feststellt, die Forderungen von Sklar (1967) und Schaffner (1967). Als Konsequenz ergibt sich, dass sich Strahlen elektromagnetischer Wellen einer bestimmten Wellenlänge in optisch dichteren Medien ablenken lassen. Nickles wendet ein: The first premise is a law of geometric optics, the second an identificatory statement; but no one would claim that we have hereby reduced a law of electromagnetic theory to a law of geometric optics, or that we have partially reduced electromagnetic theory to geometric optics. (Nickles, 1973, S. 192)

Der verwendete Identitätsbegriff sei, so Nickles, zu unpräzise, das von Sklar und Schaffner geforderte Kriterium je nach Auslegung zu stark oder zu schwach für die Anwendung in der Physik. Auch wenn man den synthetischen Charakter der Brückengesetze wörtlich nähme, gelte: it is frequently very difficult to know what entities, states, or processes to identify with which. This problem becomes especially thorny when one attempts to reduce nonstatistical theories like CM or phenomenological thermodynamics to statistical theories like QT or statistical mechanics. [. . . ]. But as Sklar himself has pointed out, there usually are alternative concepts of mean kinetic energy and other key terms available in the statistical theory, base on different ways averaging, for example [. . . ] The problem then is which statistical concept to identify with temperature. (Nickles, 1973, S. 193)

Je nach gewähltem Konzept ergeben sich unterschiedliche Eigenschaften für die theoretischen Objekte und damit eine jeweils verschiedene Bedeutung für die Reduktion. Aber auch unter Postulierung einer tragfähigen Bedeutung von „Identität“ bleiben für Nagels Ansatz schwerwiegende Probleme bestehen. Der approximative Charakter physikalischer Theorien und damit die Unmöglichkeit logischer Ableitbarkeit, die bereits Nagel zur oben angesprochenen Relativierung des Ansatzes genötigt hatte, lieferten im Nachhinein den Hauptkritikpunkt, durch den somit nicht nur die heterogenen, sondern vor allem die homogenen Reduktionen betroffen sind. So schreibt später Scheibe über Nagel: er [hat] (zu Unrecht) die homogenen Reduktionen links liegen gelassen und auch die Reduktion der Gesetze im heterogenen Fall rein deduktiv gefasst und als Routine angesehen,

3.1 Grundlegende Reduktionsmodelle |

105

wenn erst einmal jene conditions of connectability als zusätzliche Prämissen zur Verfügung stehen. (Scheibe, 1997, S. 26)

Ich werde in Abschnitt 3.2 aufzeigen, dass es viele Differenzierungsmöglichkeiten im Bereich der homogenen Reduktionen gibt. Im weiteren Verlauf der Debatte konnte der vage Verweis auf eine approximative Reduktion nicht genügen. Die wohl stärkste Kritik in diese Richtung kam von Thomas S. Kuhn und Paul Feyerabend. Nahezu zeitgleich stellten diese 1962 die Inkommensurabilität wissenschaftlicher Theorien – wenn auch mit unterschiedlicher Terminologie – als ein zentrales Problem der Wissenschaftsphilosophie im Allgemeinen, aber auch für die Auseinandersetzung mit Theorienreduktionen im Speziellen heraus. Im folgenden Unterabschnitt werde ich die zentralen Aspekte dieser Kritik darstellen.

3.1.3 Die Kritik von Feyerabend und Kuhn Zwei bedeutende Überzeugungen der logischen Positivisten waren die Kontinuität des wissenschaftlichen Fortschritts sowie die Rationalität im Vorgehen der Wissenschaftler. Bereits Popper (1934) hatte im kritischen Rationalismus auf die Probleme eines strikt kumulativen Wissenschaftsverständnisses hingewiesen. Er betont die Unmöglichkeit der Verifikation von Allaussagen und schlägt stattdessen die Falsifizierbarkeit als Demarkationskriterium für Wissenschaftlichkeit vor: Wissenschaftler sollen möglichst gewagte Hypothesen aufstellen, aus denen Aussagen über die Welt ableitbar sind. Diese müssten fortwährenden empirischen Tests unterzogen werden. Jetzt könne zweierlei geschehen: Entweder bestehen die abgeleiteten Aussagen die Tests, und die Theorie erhält dadurch ein höheres Maßan Bestätigung, oder sie bestehen die Tests nicht, wonach – gemäß Popper – die eigentliche Theorie als widerlegt angesehen werden müsse. Die Konsequenzen dieser Forderung für das Wissenschaftsverständnis sind schwerwiegend, denn in einer von Popper vorgeschlagenen Weise ist kein gesichertes wissenschaftliches Wissen mehr möglich. Jede Theorie hat den bloßen Status einer Hypothese und kann sich somit jederzeit als falsch herausstellen. Auch wenn der kritische Rationalismus eine wichtige Ergänzung zur naiven Vorstellung eines kumulativen Wissenszuwachses liefert, kann er aus heutiger Sicht nur als überspitzte Forderung, nicht jedoch als adäquate Beschreibung wissenschaftlichen Vorgehens, gesehen werden: Auch bei Auftreten eines oder mehrerer mit den abgeleiteten Aussagen unverträglicher Phänomene werden nicht gleich ganze Theorien als falsch angesehen und fallen gelassen (vgl. Lakatos, 1974). Die Abweichung der Theorie von den Daten kann immer, beispielsweise

106 | 3 Konzeptionen physikalischer Theorienreduktionen durch einen Messfehler, erklärbar sein. An einem fiktiven Fall erläutert Lakatos das aus seiner Sicht tatsächliche Vorgehen von Physikern: Die Geschichte betrifft einen imaginären Fall planetarischer Unart. Ein Physiker in der Zeit vor Einstein nimmt Newtons Mechanik und sein Gravitationsgesetz N sowie die akzeptierten Randbedingungen A und berechnet mit ihrer Hilfe die Bahn eines eben entdeckten kleinen Planeten p. Aber der Planet weicht von der berechneten Bahn ab. Glaubt unser Newtonianer, daß die Abweichung von Newtons Theorie verboten war und daß ihr Beweis die Theorie N widerlegt? – Keineswegs. Er nimmt an, daß es einen bisher unbekannten Planeten p′ gibt, der die Bahn von p stört. Er berechnet Masse, Bahn etc. dieses hypothetischen Planeten und ersucht dann einen Experimentalastronomen, seine Hypothese zu überprüfen. Aber der Planet p′ ist so klein, daß selbst das größte vorhandene Teleskop ihn nicht beobachten kann: Der Experimentalastronom beantragt einen Forschungszuschuß, um ein noch größeres Teleskop zu bauen. In drei Jahren ist das neue Instrument fertig. Wird der unbekannte Planet p′ entdeckt, so feiert man diese Tatsache als einen neuen Sieg der Newtonschen Wissenschaft. Aber man findet ihn nicht. Gibt unser Wissenschaftler Newtons Theorie und seine Idee des störenden Planeten auf? – Nicht im mindesten! (Lakatos, 1974, S. 98 f)

Lakatos führt das Beispiel noch in ähnlicher Form weiter, und in der Tat wirkt das von ihm gezeichnete Bild des Vorgehens von Wissenschaftlern adäquater als dasjenige Poppers. Darüber hinaus kommt bei Popper hinzu, dass auch falsifizierte Theorien in gewissen Grenzen immer noch eine Berechtigung haben – die Newtonsche Mechanik ist ein eindeutiges Beispiel. Kurz: Wissenschaftler verfahren nicht so, wie Popper es gerne hätte. Auch ergibt sich aufgrund der Gültigkeit von ∃x : P(x) ⇔ ¬∀x : ¬P(x)

(3.12)

dass die Falsifikation einer Existenzaussagen die Verifikation einer Allaussage bedeutet. Da Existenzaussagen in den Wissenschaften keine Seltenheit sind – man denke an die Postulierung von Teilchen in der Physik – sieht sich Popper also demselben Problem ausgesetzt, das er den logischen Positivisten zugeschrieben hatte. Schon vor Popper fiel Ludwig Boltzmann (1979) die Differenz zwischen dem wissenschaftlichem Ideal eines stetigen Wissenszuwachses und der wissenschaftlichen Realität auf (vgl. Scheibe, 1997, S. 300 ff). In Abschnitt 2.1 habe ich in der Auseinandersetzung mit Mill bereits auf Boltzmann verwiesen, der sich in Bezug auf die Physik wie folgt äußert: Der Laie stellt sich da vielleicht die Sache so vor, dass man zu den aufgefundenen Grundvorstellungen und Grundursachen der Erscheinungen immer neue hinzufügt und so in kontinuierlicher Entwicklung die Natur immer mehr und mehr erkennt. Diese Vorstellung ist aber eine irrige, und die Entwicklung der theoretischen Physik war vielmehr stets eine sprungweise. Oft hat man eine Theorie durch Jahrzehnte, ja durch mehr als ein Jahrhundert immer mehr entwickelt, so dass sie ein ziemlich übersichtliches Bild einer bestimmten Klasse von

3.1 Grundlegende Reduktionsmodelle |

107

Erscheinungen bot. Da wurden neue Erscheinungen bekannt, die mit dieser Theorie in Widerspruch standen; vergeblich suchte man, sie diesen anzupassen. Es entstand ein Kampf zwischen Anhängern der alten und denen einer ganz neuen Auffassungsweise, bis endlich letztere allgemein durchdrang. (Boltzmann, 1979, S. 94 f; zitiert nach Scheibe, 1997, S. 13)

Boltzmann ist nicht der einzige Physiker, der sich in dieser oder vergleichbarerWeise äußert. Auch bei Nernst und Kienle finden sich ähnliche Bemerkungen (vgl. Scheibe, 2007, S. 300 ff). Man kann die Überzeugung Boltzmanns und seiner Kollegen als Kenner wissenschaftlicher Praxis als Indiz dafür nehmen, dass der grundlegende Gedanke von Kuhn in der Tat die Entwicklung der Physik besser beschreibt als noch zuvor der kritische Rationalismus. Wenn sich Kuhn auch einer anderen Terminologie bedient, sind die Parallelen zwischen seinen und Boltzmanns Überlegungen kaum von der Hand zu weisen, hält man sich folgende Umformulierung von Boltzmanns Position nach Scheibe vor Augen: Nach einer Phase kontinuierlicher Entwicklung (Kuhn: normaler Wissenschaft) gerät die Disziplin in Schwierigkeiten, die man zunächst im Rahmen der herrschenden Lehre zu bewältigen versucht (Kuhn: Krise). Schließlich kommt aber eine ‚ganz neue Auffassungsweise‘ auf, die sich nach einigem ‚Kampf‘ durchsetzt (Kuhn: wissenschaftliche Revolution). An dieser Stelle macht die Entwicklung gemäß Boltzmanns Text einen ‚Sprung‘. (Scheibe, 2007, S. 306)

Glaubt man den Worten Boltzmanns und Kuhns – und das darf man mit Einschränkungen44 – bleibt dennoch die Frage nach einer möglichst präzisen Beschreibung dieser Sprünge. Einen Ansatz liefert Kuhn (1978, S. 148 ff) (vgl. auch Bailer-Jones und Friebe, 2009), der zur Beschreibung eben dieser zwischen zwei Theorien entstandenen Kluft den Begriff „Inkommensurabilität“ einführt. Auch wenn Kuhn in seinen späteren Schriften den Inkommensurabilitätsbegriff noch modifiziert hat, werde ich mich auf die Darstellung in ebd. beschränken, da (1) sich die Autoren der an Kuhn anschließenden Reduktionsdebatte sich ebenfalls auf die Structure of Scientific Revolutions beziehen. Weiter wirft (2) bereits dieser erste Inkommensurabilitätsbegriff die Probleme für die Reduktion physikalischer Theorien hinreichend auf, womit (3) eine noch detailliertere Darstellung von Kuhns Gedanken kaum einen Mehrwert liefern würde. Nach Hoyningen-Huene (1989, S. 203 ff) besitzt die Inkommensurabilität drei Teilaspekte. Zunächst unterscheiden sich inkommensurable Theorien in den von 44 „Mit Einschränkungen“ meint, dass die von Kuhn und Boltzmann aufgerissene Kluft nicht unüberwindbar ist, wofür im weiteren Verlauf dieses Abschnitts auch argumentiert wird. Ein epistemischer Relativismus, für den Kuhn und Feyerabend den Grundstein gelegt haben, ist unangebracht. Eine knappe Darstellung der Grundzüge dieser Position und die Verbindungen zu Kuhn und Feyerabend findet sich in Sokal und Bricmont (1999, S. 68 ff).

108 | 3 Konzeptionen physikalischer Theorienreduktionen ihnen behandelten Problemen und den zu deren Lösung herangezogenen als wissenschaftlich charakterisierten Standards. Auch wenn sich dieser Aspekt in abgeschwächter Form ebenso auf Teildisziplinen der modernen Physik anwenden lässt, sind die von Kuhn gewählten Beispiele zumeist wissenschaftshistorisch und beziehen sich auf die großen Entwicklungen von Aristoteles bis ins 18te Jhd.. Betroffen ist beispielsweise die Frage nach der Rolle von Experimenten. Da ich mich primär mit bereits formalisierten Theorien auseinandersetze, für deren Erhalt eine zumindest rudimentäre Einigkeit bezüglich wissenschaftlicher Standards und akzeptierter Problemlösestrategien vorausgesetzt werden muss, werde ich auf diesen ersten Aspekte der Inkommensurabilität folgend nicht weiter eingehen. Der zweite Aspekt ist eine beim Theorienübergang aufkommende Bedeutungsverschiebung der theoretischen Begriffe. „Photon“ bezeichnet in der Newtonschen Mechanik ein Teilchen in einem dreidimensionalen Raum, in der speziellen Relativitätstheorie ein vierdimensionales Raumzeit-Objekt. Kuhn selbst zieht als Standardbeispiel den Planetenbegriff heran, unter den – entgegen dem Ptolemäisches Weltbild – im Kopernikanischen Weltbild auch die Erde fällt,der Mond nicht mehr. Hoyningen-Huene unterscheidet zwei Teilaspekte begrifflicher Inkommensurabilität: (1) Der extensionale Aspekt beschreibt den Übergang von den Elementen der Extension eines Begriffs in die Extension eines Anderen, wobei die Umfänge beider Begriffe disjunkt seien. So geht in Kuhns Planeten-Beispiel die Erde von der Klasse der Nicht-Planeten in die Klasse der Planeten über, der Mond dem entgegen von der Klasse der Planeten in die Klasse der Nicht-Planeten. (2) Beim intensionalen Aspekt bleibt die Klasse der beschriebenen Objekte gleich, ändert aber ihre charakteristischen Eigenschaften, wie im oben beschriebenen Newton/Einstein-Beispiel. Trotz der Existenz von auf den ersten Blick einleuchtenden Beispielen ist eine Differenzierung beider Teilaspekte nicht so einfach. Für Shapere, „[t]he real trouble with such arguments arises with regard to the cash difference between saying, in such cases that the ‘meaning’ has changed, as opposed to saying that the ‘meaning’ has remained the same though the application has changed.“ (Shapere, 1964, S. 390) Hoyningen-Huene (1989, S. 203 f) äußert sich selbst ähnlich. So ließe sich das Newton/Einstein-Beispiel ebenso leicht als ein Fall von extensionaler begrifflicher Inkommensurabilität verstehen: Die nicht-leere Klasse Punktobjekte im dreidimensionalen Raum wird leer, die neu eingeführte, zunächst leere Klasse Punktobjekte in der vierdimensionalen Raum-Zeit dagegen gefüllt. Liegt nun eine extensionale oder eine intensionale Bedeutungsverschiebung vor? Auch wenn sich definitorisch ein Demarkations-

3.1 Grundlegende Reduktionsmodelle |

109

kriterium festlegen ließe45 , fehle doch ein vorgegebenes natürliches Kriterium, das verallgemeinert werden könne. Hoyningen-Huene stellt die Äquivalenz der Unterscheidung beider Inkommensurabilitätsarten zur Unterscheidung von analytischen und synthetischen Ausdrücken heraus: Erfährt ein theoretischer Term B einer Theorie T1 beim Übergang von T1 zu einer anderen Theorie T2 eine Bedeutungsverschiebung,so ist B genau dann analytisch, wenn diese eine extensionale ist. Mit anderen Worten: Die Analytizität bindet die Bedeutung des Begriffs an seine Intension.Damit hätte eine intensionale Begriffsverschiebung zur Folge, dass B in T2 gar nicht mehr vorkommt – Überlegungen zur Inkommensurabilität ergo überflüssig wären. Synthetische Ausdrücke auf der anderen Seite entstünden aus der Zusammenfassung einzelner Phänomene und seien damit abhängig von der Extension eines Begriffs. Ändere sich diese, hätte dies also Auswirkungen auf die Bedeutung des Begriffs, der noch immer dieselbe Bezeichnung und auch dieselbe intensionale Beschreibung hätte. Der begriffliche Aspekt der Inkommensurabilität hängt damit eng zusammen mit der Unterscheidung von analytischen und synthetischen Termen. Diese hatte sich aber bereits in Abschnitt 2.2 als eines der von den logischen Positivisten ungelösten Problemen herausgestellt. Um dennoch ein sinnvolles, einheitliches Konzept von Inkommensurabilität zu erhalten, verweist Hoyningen-Huene (1989, S. 206) auf eine weitere Klasse von Sätzen, die Kuhn in seinem Werk als quasianalytische Sätze bezeichnet:46 Nun gibt es aber nach Kuhn in einer normalwissenschaftlichen Phase bestimmte wissenschaftliche Sätze, die in gewisser Hinsicht analytische Sätzen ähnlich sind, obwohl sie in anderer Hinsicht synthetischen Charakter haben. Analytischen Charakter scheinen diese Sätze zu haben, weil sie eine deutliche Resistenz gegenüber empirischer Falsifikation zeigen – ihnen kommt eine gewisse Notwendigkeit zu. Synthetischen Charakter scheinen diese Sätze zu haben, weil sie keineswegs das Resultat willkürlicher definitorischer Festsetzungen sind. Vielmehr sind sie das Resultat zum Teil langwieriger empirischer und theoretischer Forschung. (Hoyningen-Huene, 1989, S. 205)

Als Beispiel nennt er – und auch Kuhn – das zweite Newtonsche Bewegungsgesetz und Daltons Gesetz der Proportionen. Beide seien Konsequenz langjähriger Beobachtungen, lieferten aber auch das axiomatische Grundgerüst für auf sie auf-

45 So muss im Newton-Einstein-Fall entgegen dem Planetenbeispiel extra eine neue Klasse eingeführt werden. 46 Nach ebd., war Kuhn nach Einführung der Bezeichnung mit der Charakterisierung dieser Art von Sätzen als analytisch selbst nicht zufrieden und hat sie später synthetisch a priori genannt – ein Ausdruck, dem die logischen Positivisten sicher scharf widersprochen hätten.

110 | 3 Konzeptionen physikalischer Theorienreduktionen bauende Theorien. Mit ihnen ließe sich ein allgemeines, die beiden Arten der begrifflichen Inkommensurabilität beachtendes, Kriterium finden, denn „[. . . ] Änderungen von Eigenschaften von Extensionselementen führen genau dann zu einer Begriffsverschiebung, wenn Sätze, die diese Begriffe enthalten und den oben beschriebenen Status [. . . ] haben, ungültig werden.“ (Hoyningen-Huene, 1989, S. 206) Die Lösung von Hoyningen-Huene setzt wohlgemerkt die Existenz einer Änderung in der Extension der entsprechenden Begriffe voraus und eignet sich damit nicht zur Lösung des allgemeinen Demarkationsproblems von synthetischen und analytischen Ausdrücken, deren ausnahmsloses Vorkommen in mindestens zwei miteinander inkommensurablen Theorien (natürlich) nicht verlangt wird. Zur Klarheit der begrifflichen Inkommensurabilität trägt das Kriterium dennoch bei. Der zuvor ausgeführte zweite Aspekt der Inkommensurabilität hat unmittelbare Relevanz für die Betrachtungen von Reduktionen, greift aber in erster Linie die von einem gleichbleibenden theoretischen Vokabular ausgehenden homogenen Reduktionen an: Wie kann in den an einer homogenen Reduktion beteiligten Theorien davon gesprochen werden, dass in ihnen ein konzeptuell gleicher Term aufkommt, wenn die beiden in Frage kommenden Terme eine unterschiedliche Bedeutung haben?47 Eine mögliche von Morgenbesser vorgeschlagene Lösung ist die Formulierung von Brückengesetzen. Dies komme einer Umwandlung aller homogener Reduktionen in heterogene gleich (vgl. Nickles, 1973, S. 187 f). Das scheint für den Einzelfall praktikabel, hätte aber eine entscheidende Schwäche, denn „treating all homogenous reductions (and homogenous parts of reduction) as heterogeneous completely undermines any distinction between the two kinds of reduction which Nagels terminology may have been intended to reflect.“ (Nickles, 1973, S. 188) Das Standardmodell wird durch ein wie eben beschriebenes Vorgehen also in entscheidender Weise abgeschwächt. Eine weitere Lösungsmöglichkeit ist die Einteilung von Reduktionen in alternative Klassen, wie von Nickles (1973) und Spector (1978) durchgeführt. Damit geht aber eine Umgewichtung der für eine Reduktion als relevant angesehenen Eigenschaften einher, weshalb ich diesem Vorgehen mit 3.1.5 einen eigenen Unterabschnitt widmen werde. In Bezug auf die Inkommensurabilität nach Kuhn bleibt noch die Erläuterung des 47 Kuhn (1978) liest sich zum Teil, als würde Kuhn allen entsprechenden Paaren von Ausdrücken eine Bedeutungsungleichheit unterstellen. Diese Lesart hat Kuhn in den Auseinandersetzungen mit seinen Kritikern später zurückgewiesen und explizit eine lokale Inkommensurabilität betont, bei der nur für eine kleine Untergruppe von (gewöhnlich wechselseitig definierten) Termen eine Bedeutungsverschiebung bestünde (vgl. Kuhn, 1983, S. 670 f; Hoyningen-Huene, 1989, S. 207 f).

3.1 Grundlegende Reduktionsmodelle |

111

third and most fundamental aspect of the incommensurability of competing paradigms. In a sense that I am unable to explicate further, the proponents of competing paradigms practice their trades in different worlds. One contains constrained bodies that fall slowly, the other pendulums that repeat their motions again and again. In one, solutions are compound, in the other mixtures. One is embedded in a flat, the other in a curved, matrix space. Practicing in different worlds, the two groups of scientists see different things when they look from the same point in the same direction. (Kuhn, 1978, S. 150)

Siehe für Eigenschaften der Ähnlichkeitsrelation bzw. zur Kuhnschen MehrWelten-Lehre allgemein Hoyningen-Huene (1989, S. 197 ff, S. 201 f). Die von Kuhn selbst zu Beginn des Zitats angeführte mangelnde Explikation hat er später weiter ausgeführt unter Betonung einer zwischen Theorie und Welt bestehenden Ähnlichkeitsrelation mit konstitutivem Charakter für die Erscheinungswelt, d.h.: Ändert sich die Theorie, hat dies Einfluss auf die Ähnlichkeitsrelation, was sich wiederum auf die Sichtweise auf die Welt auswirkt. Den Kuhnschen Einwand ernst genommen bedeutet dies anders herum, dass schon kleinste Abweichungen in den von zwei Theorien gemachten Vorhersagen bereits die Inkommensurabilität beider Theorien zur Folge haben. Solche Abweichungen sind in der Physik nicht nur üblich, sondern erwünscht. In vielen Fällen ist gerade deshalb eine neue Theorie entwickelt worden, weil sie gewisse Phänomene besser – und damit mit Abweichung – beschreibt als die alte. Ähnlich wie Kuhn äußert sich auch Feyerabend. Er stellt mit seiner Formulierung des Inkommensurabilitätseinwands die Konsequenzen für die Reduktion im Verständnis des Standardmodells noch deutlicher heraus als Kuhn. Dazu weist er zunächst darauf hin, dass an der Entwicklung von neuen Theorien nicht nur rationale Elemente beteiligt seien, sondern auch die Individualität des jeweiligen Wissenschaftlers selbst relevant sei: [W]e see that the theory which is suggested by a scientist will also depend, apart from the facts at his disposal, on the tradition in which he participates, on the mathematical instruments he accidentally knows, on his preferences, on his aesthetic prejudices, on the suggestions of his friends, and on other elements which are rooted, not in facts, but in the mind of the theoretician and which are therefore subjective. (Feyerabend, 1962, S. 49)

Konsequenz ist eine nicht mehr als objektives Unternehmen funktionierende Wissenschaft sowie der Generalverdacht der Inkommensurabilität in der dritten Kuhnschen Lesart. Die konkreten Folgen für das Standardmodell beschreibt Feyerabend (1962, S. 46) am Beispiel der Reduktion der Galileischen Fallgesetze auf die Newtonsche Mechanik: Die Fallgesetze untersuchen die Bewegung von Objekten in der Erdatmosphäre unter Annahme einer konstanten Erdbeschleunigung. Verwenden wir „Γ“ zur Darstellung der Newtonschen Mechanik, „σ“ als Konjunktion von Randbedingungen und „Σ“ für eine Formalisierung der Galilei-

112 | 3 Konzeptionen physikalischer Theorienreduktionen schen Fallgesetze, ließe sich die Reduktionsbeziehung im Standardmodell formal ausdrücken durch: Γ∧σΣ

(3.13)

Damit gelte: As is well known, (3.13) cannot be correct: as long as [the difference between the derived phenomena] has some finite value, however small, Σ will not follow (logically) from Γ and σ. What will follow will rather be a law Σ ′ , which, while being experimentally indistinguishable from Σ (on the basis of the experiments which formed the inductive evidence for Σ in the first place), is yet inconsistent with Σ. If, on the other hand, we want to derive Σ precisely, then we must replace σ by a statement which is potently false [. . . ]. (Feyerabend, 1962, S. 47; Notation und Nummerierung wurden von mir angepasst.)

Inkommensurabilität impliziert damit auch Inkompatibilität – die logische Unvereinbarkeit beider Theorien – und vice versa. Formel (3.13) darf nicht verwechselt werden mit (3.5). „γ“ stellte dort die Konjunktion von Brückengesetzen dar, „σ“ von oben jedoch formalisierte Randbedingungen. Bisher sind damit erneut nur homogene Reduktionen angesprochen, denen Feyerabend die Unmöglichkeit attestiert. Heterogene Reduktionen kommen dadurch ins Spiel, dass sie – wie im Zusammenhang mit den Erläuterungen zu Formel (3.5) gesehen – nach Nagel entartete homogene Reduktionen seien. Feyerabends Kritik besagt damit (mit den in Formel (3.13) und (3.5) verwendeten Notationen), dass eine Theorie Γ ′ zwar über eine Menge von Brückengesetzen γ heterogen auf eine weitere Theorie Γ reduzierbar ist, diesem Prozess aber noch eine homogene Reduktion von Γ unter konjugierten Randbedingungen σ auf Σ folgen muss, was nach oben nicht funktioniert. Trotz der Wichtigkeit der von Kuhn und Feyerabend getroffenen Erkenntnisse für das Wissenschaftsverständnis, darf man ihre Aussagen nicht überinterpretieren. Von Seiten der Physik weisen Sokal und Bricmont (1999, S. 98 ff) darauf hin, das Feyerabends Anything goes durch die von Feyerabend (1962) explizit abgelehnte Unterscheidung von Entdeckungs- und Begründungszusammenhang gelöst werden könne. Bezogen auf Feyerabend gelte weiter: Seine Argumente zeigen bestenfalls, dass der wissenschaftliche Fortschritt keiner genau festgelegten Methode folgt, und dem stimmen wir im Grunde zu. Feyerabend erklärt jedoch nie, in welchem Sinne die Atom- oder Evolutionstheorie trotz allem, was wir heute wissen, falsch sein könnte. (Sokal und Bricmont, 1999, S. 104)

Trotz aller Inkommensurabilität gibt es zumindest eine fundamentale Regel, die von den Physikern nicht gebrochen werden darf: Zwischen Theorie und dem von ihr beschriebenen Ausschnitt der Welt muss eine wie auch immer geartete Verbin-

3.1 Grundlegende Reduktionsmodelle |

113

dung bestehen. Folglich sind denselben Phänomenbereich beschreibende Theorien zumindest indirekt miteinander verknüpft. Die Frage, ob damit auch eine direkte, formale Verbindung einhergeht, und wenn ja, wie diese beschaffen sein muss, bleibt offen. Dennoch kann nicht die Rede von ungezügelter Willkür bzw. Anarchie in der Theorienentwicklung sein. Unter anderem der Ansatz von Scheibe (1997, 1999) (vgl. Unterabschnitt 3.2) sowie die Positionen von Nickles (1973) und Spector (1978) (vgl. Unterabschnitt 3.1.5) zeigen explizit Möglichkeiten auf, als Reduktionen auffassbare Verbindungen zwischen logisch unverträglichen Theorien herzustellen. Bevor ich jedoch hierauf eingehe, werde ich noch einige Modifikationen am Standardmodell erläutern, die eine Reaktionen auf Kuhn und Feyerabend darstellten.

3.1.4 Modifikationen in Reaktion auf die Rationalitätskritik: Sklar und Schaffner Kuhn (1978) und Feyerabend (1962) hatten den Verfechtern des Standardmodells einen schweren Schlag versetzt. Um wieder sinnvoll über Theorienreduktionen sprechen zu können, musste erst eine von zwei Möglichkeiten gewählt werden: Entweder es gelang, das Standardmodell so zu modifizieren, dass es nicht mehr anfällig für die Kritik war, oder man verwarf es ganz und entwickelte eine alternative Beschreibung für als Reduktionen akzeptierte Theorienbeziehungen. Im vorliegenden Unterabschnitt stelle ich die Positionen von Lawrence Sklar (1967) und Kenneth F. Schaffner (1967) dar, die den ersten Weg eingeschlagen haben. Danach folgt in Unterabschnitt 3.1.5 die Wiedergabe der Ansätze von Thomas Nickles (1973), Marshall Spector (1978) und Michael Berry (1994), die mit der Einführung der durch mathematische Prozesse bestimmten approximativen Reduktionen den zweiten Weg beschreiten. Bei einigen der auf Kuhn und Feyerabend folgenden Autoren schien eine Unschlüssigkeit über den Umgang mit der Inkommensurabilität zu herrschen. Auf der einen Seite war die Kritik dahingehend kontraintuitiv, dass es in der Wissenschaftsentwicklung einen roten Faden in Richtung einer immer genauer werdenden Beschreibung der Phänomene gibt, der eine mögliche Rekonstruktion einforderte. Auf der anderen Seite war dies aber auch nichts weiter als ein Indiz und konnte für eine begründete Zurückweisung der Positionen Feyerabends und Kuhns nicht genügen. In diesem Sinne liest man beispielsweise bei Hempel: In sum, then, the construal of theoretical reduction as a strictly deductive relation between the principles of two theories, based on general laws that connect the theoretical terms, is indeed an untenable oversimplification which has no strict application in science and which, moreover, conceals some highly important aspects of the relationship to be analyzed. But

114 | 3 Konzeptionen physikalischer Theorienreduktionen the characterization of that relationship in terms of incompatibility and incommensurability overemphasizes certain significant differences and neglects those affinities by virtue of which the reducing theory may be said to offer a more adequate account of the subject matter with which the reduced theory is concerned. (Hempel, 1969, S. 197)

Ebenso äußert sich Sklar: Although I think some recent authors have gone too far in claiming that all, or at least all significant, reductions are replacement-reductions, I do not want to minimize the importance in science of such ’discarding’ replacements in which the reduced theory is shown to be incorrect by the very act of it being reduced. (Sklar, 1967, S. 112)

Mit „Replacement-Reductions“ bezeichnet Sklar die aus den für das Standardmodell problematischen Fällen bestehende Unterklasse von Nagels homogenen Reduktionen, bei denen die reduzierte durch die reduzierende Theorie ersetzt wird, ohne dass jedoch eine exakte logische Ableitungsbeziehung bestimmbar wäre. Ein auch von Sklar (1967, S. 112) genanntes Beispiel ist die Reduktion der klassischen Mechanik auf die spezielle Relativitätstheorie. Homogenen Reduktionen, die keine Ersetzungsreduktionen in diesem Sinn seien, erfüllten auch in Strenge die Forderung des Standardmodells. Sklars Argument ist also, dass die Kritik von Feyerabend und Kuhn zu weit geht – zumindest insofern hierdurch diese Differenzierung verneint werde. Der Vorwurf wird damit zumindest abgemildert. Um ihn in einem weiteren Schritt ganz auszuhebeln, schlägt Sklar eine Differenzierung der Bedeutung von „Erklärung“ vor: Is it plausible, for example, to maintain that quantum mechanics assumed for the moment to be correct, explains an admittedly incorrect Newtonian mechanics? Surely not, for an incorrect theory cannot be explained on any grounds. (‘Explain, why you were late.’ ‘But I wasn’t.’ ‘I am well aware of the fact but I insist upon an explanation for your lateness anyway’) If we extend the extension of the term ‘explanation’ in scientific contexts, so as to allow the possibility of explaining incorrect theories we are forced by ‘parity of discourse’ to allow discourse in our ordinary language which we would intuitively regard as senseless. What then does quantum mechanics explain, if it fails to explain Newtonian mechanics? Among other things it explains why Newtonian mechanics seemed to be correct; why it met with such apparent success for such a long period of time and under such thorough experimental scrutiny. (‘Explain why you were late’ ‘But I wasn’t’ ‘Ah! Now I see you are right. You weren’t late. But why did everybody think you were?’) (Sklar, 1967, S. 112 f)

Mit dieser Differenzierung zwischen der Erklärung einer Theorie und der Erklärung des Erfolgs einer Theorie gibt es nach Sklar (1967, 112f) keinen Grund mehr, die Reduzierbarkeit zweier Theorien als unverträglich mit ihrer Inkompatibilität anzusehen. Auf metasprachlicher Ebene bedeuten die Modifikationen keine Veränderung: Von der reduzierenden Theorie wird immer noch verlangt, die Gesetze

3.1 Grundlegende Reduktionsmodelle |

115

der reduzierten zu erklären. Geändert wird lediglich das Verständnis des Erklärungsbegriffs auf Objektebene. Die zuvor geforderte Deduktion fällt weg. Wie aber lässt sich die neue Auffassung präzisieren? Auch um zu erklären, warum alle Welt gedacht hat, unsere Theorie sei unpünktlich, ist nicht jeder Grund akzeptabel (Jeder dachte ich sei zu spät, weil der Mond aus Käse besteht.). Es müssen einschränkende Forderungen gestellt werden. Auch wenn Sklars grundlegende Überlegungen nachvollziehbar sind, finden sich bei ihm keine solchen. Fündig wird man bei Schaffner, bei dem die folgenden Worte stark an die Position Sklars erinnern: The claim made in this paradigm is not that T1 is derivable from T2 in any formal sense of derivable, or even that T1 can have its primitive terms expressed in the language of T2 , rather T2 is able to explain why T1 ‘worked’, and also to ‘correct’ T1 . The relation between the theories is not one of strict deduction of T1 from T2 . Nevertheless incertain cases one can obtain which would in certain experimental contexts (relative to the state of a science) not be experimentally falsifiable, one can obtain T1 . (Schaffner, 1967, S. 138, Notationen von mir angepasst)

Nachdem Schaffner in seiner Arbeit unter anderem die auch hier vorgestellten Reduktionsauffassungen untersucht hat, entwickelt er unter Berücksichtigung der Kritik sein eigenes Konzept, bei dem an einer Reduktion nicht mehr nur eine, sondern gleich drei Theorien beteiligt sind (vgl. Schaffner, 1967; Nickles, 1973)48 „T1 “ und „T2 “ bezeichnen wie gehabt reduzierte und reduzierende Theorie, „T1* “ eine aus T2 deduzierte Brückentheorie, deren Werte nahe an denen von T1 liegen. Eine erste von insgesamt fünf sowohl notwendigen als auch hinreichenden Bedingungen für eine Reduktion formuliert Schaffner wie folgt: All the primitive terms q1 , . . . , q n appearing in the corrected secondary theory T1* appear in the primary theory T2 [. . . ] or are associated with one or more of T2 ’s terms such that: 1. it is possible to set up a one-to-one correspondence representing synthetic identity between individuals or groups of individuals of T2 and T1* or between individuals of one theory and a subclass of the groups of the other, in such a way that a reduction function can be specified which values exhaust the universe of T1* for arguments in the universe of T2 ; 2. all the primitive predicates of T1* , i.e., any F in , are effectively associated with an open sentence of T2 in n free variables in such a way that F in is fulfilled by an n-tuple of

48 Die von Schaffner untersuchten Reduktionsauffassungen sind auf der einen Seite das Explanatorische Modell von Kemeny und Oppenheim (Unterabschnitt 3.1.1) und das Standardmodell von Nagel (Unterabschnitt 3.1.2). Hinzu kommen noch eine Reduktionsart, die er aus den Arbeiten von Popper, Kuhn und Feyerabend extrapoliert, die für die vorliegende Arbeit allerdings von untergeordnetem Interesse ist. Hinzu kommt auch das Reduktionsverständnis von Suppe, das nahe an die in Abschnitt 3.1.6 dargestellte Position herankommt.

116 | 3 Konzeptionen physikalischer Theorienreduktionen values of the reduction function always and only when the open sentence is fulfilled by the corresponding n-tuple of arguments; 3. All reduction functions cited in (a) and (b) above be specifiable have empirical support and in general be interpretable as expressing referential identity. (Schaffner, 1967, S. 144, Notationen von mir angepasst.)

Darüber hinaus, so (Schaffner, 1967, S. 144), müsse T1* aus T2 und der Reduktionsfunktion ableitbar sowie empirisch adäquater sein als T1 , wohingegen zwischen T1 und T1* eine starke positive Analogie-Beziehung bestehen solle. Weiter müsse T1 „be explicable by T2 in the non-formal sense that T2 yields a deductive consequence (when supplemented by reduction functions) T1* which bears a close similarity to T1 and produces numerical predictions which are ‘very close to T1 ’s.“ (Schaffner, 1967, S. 144) Sklars fiktives Gespräch fortführend entspricht eine so verstandene Reduktion der Aussage: „Fünf Minuten Verspätung sind für mich noch pünktlich. Was kann ich dafür, wenn die anderen bereits nach einer Minute nervös anfangen, mit dem Fuß zu wippen?“ Dennoch irritiert die Verwendung des Begriffs der positiven Analogie. Dieser ist uns bereits in Unterabschnitt 2.2.3 begegnet, wo er von Hesse zur Charakterisierung einer Ähnlichkeitsrelation von Phänomenen und Modellen verwendet wurde. Dass Schaffner selbst im Literaturverzeichnis auf Hesse verweist legt nahe, dass auch er dieses Verständnis voraussetzt. Dies macht aber nur Sinn, wenn die Analogie nicht zwischen den Theorien selbst, sondern zwischen aus diesen abgeleiteten Phänomenen und Modellen besteht. Die Konsequenz formt Nickles später zu einer Kritik an Schaffner um: Schaffner is sensitive to the fact that general models of reduction cannot have built into them a set of detailed conditions sufficient to handle the application of the models to all relevant historical cases. He is right not to attempt a general analysis of the analogy relation. What he does not see is that, although most historical reductions are ’approximative’ in Feyerabend’s wide sense, they are not all approximative reductions of the same kind. My present criticism is that Schaffner’s interesting proposal still is made within the Nagel framework of one general type or model of reduction, with the important additional idea of varied conditions of application. Schaffner’s model is still basically derivational. (Nickles, 1973, S. 195)

Mit anderen Worten nimmt sich Schaffner zwar eines approximativen Reduktionsbegriffs an, versteht diesen aber wie schon die logischen Positivisten vor ihm lediglich als eine entartete homogene Reduktion. So ginge aber gerade das verloren, was grundsätzlich neu und innovativ bei der Betrachtung approximativer Reduktionen hätte sein müssen (vgl. Nickles, 1973, S. 195 f). Neben homogenen Reduktionen lässt sich mit der im obigen Punkt 1. explizit geforderten intertheoretischen Übersetzbarkeit aller primitiven Terme von T1* bei Schaffner auch ein Konzept heterogener Reduktionen finden. Die Differenzierung

3.1 Grundlegende Reduktionsmodelle |

117

in homogene und heterogene Reduktionen hält Schaffner zugunsten seines einheitlichen Reduktionsverständnisses nicht weiter aufrecht. Anders Sklar, der weiterhin die Eigenständigkeit heterogener Reduktionen betont, die er in zwei Klassen aufteilt: [A]t least two kinds of inhomogenous reduction are possible: a weaker variety in which the retention of the reduced theory is retention only in a much weakened sense; and a stronger form in which the reduced theory remains well established even after the reduction, and may even be given added confirmation by it. (Sklar, 1967, S. 113)

Für die schwächere Variante heterogener Reduktionen schlägt Sklar (1967, S. 115 ff) ein Verständnis im Sinne des explanatorischen Reduktionsmodells vor. Hierunter fallen Fälle, in denen sich die reduzierte Theorie T1 mit der reduzierenden T2 zwar einzelne Konzepte teilt, aber eben nicht alle. Die in beiden Theorien vorhandenen Konzepte bezeichnet Sklar als external concepts, die weiteren in T1 vorhandenen Konzepte als internal concepts. Mit dieser Differenzierung ließen sich alle Sätze von T1 und T2 bestimmen, in denen lediglich externale Konzepte vorkämen. Sklar bezeichnet dies als die Klasse der external sentences: In addition, suppose that within the jointdomain of external sentences of the two theories there is a subset of sentences derivable both from T2 and from T1 , or derivable from T2 and such that approximations to them are derivable from T1 . Where these conditions are satisfied we shall say that T1 is partially (or approximately partially) reducible to T2 . (Sklar, 1967, S. 116, Notationen von mir angepasst.)

Beispielsweise könne man nur, wenn man sich bei der speziellen Relativitätstheorie auf die Kinematik konzentriert und dann weiter auf hinreichend niedrige Geschwindigkeiten, Sätze in der Newtonschen Mechanik finden, die genau oder in Annäherung denen der speziellen Relativitätstheorie entsprechen. Dementsprechend sei es nur in diesem sehr eingeschränkten Fall möglich, von einer Reduktion der Newtonschen Mechanik auf die spezielle Relativitätstheorie zu sprechen. Sklar arbeitet kaum formale Details seines partiellen Reduktionsverständnisses aus. Dennoch liefert er die Grundlagen eines potenziell bedeutenden Konzepts, mit dem das Auffinden wissenschaftlich relevanter Reduktionen auf sinnvolle Weise vereinfacht wird. Reduktionen werden nach ihm nicht mehr nur als auf ganze Theorien bezogen aufgefasst. Stattdessen müsse man sich auf die formalen Beziehungen einzelner Teilbereiche konzentrieren. Nickles sieht dies ähnlich. Bezogen auf sein in Unterabschnitt 3.1.5 dargestelltes Reduktionskonzept ist es für ihn wichtig „to keep in mind that only very rarely will all the equations of T1 [reduce] to equations of T2 under the operations. ‘T2 ’ and ‘T1 ’ usually will stand for theory parts.“ (Nickles, 1973, S. 197)

118 | 3 Konzeptionen physikalischer Theorienreduktionen In Abschnitt 2.4 habe ich im Kontext von Scheibes Reduktionstheorie einige Beispiele partieller Reduktionen angeführt. Obwohl die Einführung eines Konzepts partieller Reduktionen viel versprechend ist, werden sie von Sklar als zu schwach eingestuft, um einen signifikanten Beitrag zur Wissenschaftsphilosophie zu liefern. Nach einem kurzen Intermezzo konzentriert sich Sklar wieder auf die vollständigen Reduktionen mit der folgenden Begründung: More interesting than these cases of partial reduction are the cases of inhomogenous reduction where the reduction is complete; that is, where the reduced theory is assimilated in toto, theoretical apparatus and all, to the reducing, and where the very fact of its being reducible serves to increase confidence in its correctness. (Sklar, 1967, S. 117)

Im folgenden Abschnitt werde ich die von Thomas Nickles (1973) und Marshall Spector (1978) entwickelten Konzepte approximativer Reduktionen darstellen. Nickles ist bereits oben mit seiner Kritik an Schaffner vorgekommen. Nach ihm bewegt sich Schaffners Ansatz trotz weitreichender Modifikationen zu nahe am Standardmodell nach Nagel (1961). Ähnliches ließe sich auch über Sklar sagen. Die Reduktionskonzepte von Nickles und Spector gehen einen Schritt weiter, indem anstelle eines logischen Ableitungsverhältnisses auch tatsächliche mathematische Approximationsprozesse ihren Platz in der Reduktionsdebatte bekommen. Die Position von Michael Berry (1994) liefert durch Einführung asymptotischer Reduktion eine abschließende Verfeinerung.

3.1.5 Approximative und Asymptotische Reduktionen nach Nickles, Spector und Berry Nickles Aussage, Inkommensurabilität und prädikatenlogische Inkompatibilität widersprächen einem deduktiven Reduktionsverständnis, ist berechtigt. Um seine Kritik in Bezug auf Reduktionen im Allgemeinen zumindest ein wenig abzuschwächen, stellt er die heuristische Rolle der Philosophie heraus, einen Beitrag zu einem besseren Weltverständnis zu leisten; eine Rolle, die nach Nickles zu oft vergessen werde: It seems to me that, although their criticisms are legitimate and illuminating up to a point, Nagel’s critics tend to forget that philosophical models are deliberately idealized somewhat and are not intended in themselves to give completely accurate representation of intellectual history. Unfortunately, philosophers almost inveterately forget the limitations of these models and, in time, come to misuse them. We do need to remind of their limitations. But it is one thing to remind us of their limitations and another thing to reject them as completely unilluminating. I would go so far as to say that Nagel’s derivational reduction is a useful con-

3.1 Grundlegende Reduktionsmodelle |

119

cept even if not one single historical example perfectly exemplifies the pattern he describes. (Nickles, 1973, S. 188 f)

Dennoch ist Nickles kein Neo-Nagelianer. Trotz des heuristischen Werts des Standardmodells wögen die Einwände von Kuhn und Feyerabend zu schwer, als dass sie ignoriert werden könnten (ebd.). Nickles entwickelt als Konsequenz ein eigenes Reduktionsmodell, mit dem er einen alternativen Blickwinkel auf das Reduktionsproblem einnimmt. Er geht von der Domäne einer physikalischen Theorie aus, die für ihn ein integraler Theorienbestandteil ist. Diese Auffassung entleiht er Dudley Shapere (1974), für den eine Domäne allgemein eine Zusammenfassung von Informationen (body of information) ist, deren einzelne Elemente durch eine nicht-triviale, sie assoziierende Relation miteinander verknüpft werden. „Nichttrivial“ bedeutet, dass der Untersuchung ein Problem zugrunde läge, dessen Lösung – so Shapere – die obige assoziative Relation determiniere und somit konstitutiv für die Domäne werde. Die Domäne sei „the total body of information for which, ideally, an answer to that problem is expected to account.“ (Shapere, 1974, S. 528) Die Relation müsse darüber hinaus mit wissenschaftlichen Methoden sowohl formulierbar als auch bearbeitbar sein. Dies geschähe im Falle formaler physikalischer Theorie mit den Mitteln der Mathematik (vgl. Shapere, 1974, S. 525). Die Domäne wird so unmittelbar durch die Theorie bestimmt, womit aber auch falsch vorhergesagte Ereignisse, wie im Fall der Bewegungsgleichung eines klassischen Teilchens in der Newtonschen Mechanik als einer Domäne zugehörig angesehen werden müssen. Nach Shapere sei dies unvermeidlich, da die Domäne, verstanden als Zusammenfassung exakt mit der Theorie übereinstimmender Messergebnisse, entgegen ihrer Charakterisierung als fester Theorienbestandteil, abhängig von Zeit und Wissensstand wäre. Domänen dürfen nach Shapere damit nicht intendierter Anwendungsbereich einer Theorie sein, sondern als Klasse ihrer theoretischen Modelle verstanden werden, denen der intendierte Anwendungsbereich dann untergeordnet werde (vgl. auch Nickles, 1974, S. 584). Nickles (1973) unterscheidet zwei Arten von Reduktionen. Die erste verbindet die Elemente unterschiedlicher Domänen miteinander (Domain-combiningreduction bzw. reduction 1), die zweite betrachtet die Entwicklung von Theorien mit gleicher Domäne (Domain-preserving-reduction bzw. reduction 2) Dieselbe Unterteilung findet sich auch bei Marshall Spector (1978), wenn dieser zwischen einzelne theoretische Konzepte betreffenden Reduktionen (Concept Replacement Reductions) und ganze Theorien ersetzende Reduktionen (Theory-ReplacementReductions) differenziert. Bemerkenswert ist, dass beide Autoren komplementäre Schwerpunkte setzen. Während Spector (1978) sein Hauptaugenmerk auf Reduktionen vom Typ 1 lenkt mit der Begründung, dass Reduktionen vom Typ 2 sich

120 | 3 Konzeptionen physikalischer Theorienreduktionen im Wesentlichen im Standardmodell abhandeln ließen, konzentriert sich Nickles mit ähnlicher Begründung auf Reduktionen von Typ 2. Da die letztgenannten den betrachteten Theorienreduktionen näher kommen, verwende ich folgend die Terminologie von Nickles.49 Dieser schreibt: Domain-combining reductions will be heterogeneous in Nagel’s sense. Historically distinct domains of phenomena involve different descriptive vocabularies, almost by definition. And domain-combining-reductions must involve the logical derivation of the theory from the other (plus connective principles) if it is truly domain-combining, for domain-combining reduction absorbs one theory into another without eliminating the former as incorrect. This is reduction 1. (Nickles, 1973, S. 187)

Dass Nickles als Folge Reduktionen vom Typ 1 nicht weiter betrachtet, kritisiert Spector. Auch wenn die Abbildung von theoretischen Konzepten einer Theorie in die der anderen Theorie nicht der von Kuhn und Feyerabend kritisierte Punkt ist – von dieser Seite aus also nichts gegen logische formulierte Brückengesetze spricht, sofern sich noch ein weiterer Reduktionsbegriff um die Inkommensurabilität kümmert – verliert sich nach Spector durch eine rein logische Beschreibung von Reduktionen vom Typ 1 ein wesentlicher Punkt, nämlich die Überführung der Ontologie der theoretischen Objekte der einen Theorie in die Ontologie der theoretischen Objekte der anderen. Zur Gewährleistung einer solchen Überführung der Ontologie führt Spector Brückenfunktionen ein, welche die theoretischen Terme der reduzierenden Theorie auf die der reduzierten abbilden, was nach ihm auch als eine Ersetzung der letztgenannten zu verstehen ist. Seien allgemein t1 , . . . , t n Elemente des Vokabulars V T1 einer Theorie T1 und eine weitere Theorie T2 mit p1 , . . . , p m als Teilen ihres Vokabulars V T2 gegeben und soll T1 auf T2 reduziert werden, ist eine Brückenfunktion f gegeben durch: f : V T1 → V T2 mit t i → f i (p j ) wobei i = 1 . . . n, j = 1, . . . , m

(3.14)

Die f i sind partielle Funktionen. Dass sich der funktionale Charakter von f formal wie in (3.14) darstellen lässt heißt nicht, dass zu seiner Explikation weitere Formalisierungen anstelle einer metasprachlichen Darstellung treten müssen. Die von Spector (1978, S. 18 f) gegebenen Beispiele solcher Brückenfunktionen jedenfalls setzen keinen Formalismus voraus. Spectors Vernachlässigung der unterliegenden formalen Beziehungen in Kombination mit seinem Fokus auf die Übertragung

49 Es wird also die Rede sein von Reduktionen vom Typ 1 und Domain Combining Reductions anstelle von Concept Replacement Reductions sowie Reduktionen vom Typ 2 und Domain Preserving Reduktionsanstelle von Theory Replacement Reductions.

3.1 Grundlegende Reduktionsmodelle |

121

der Ontologie von T1 auf T2 zeichnet Reduktionen vom Typ 1 als rein ontologische Reduktionen aus, was auch im folgenden Zitat deutlich zu Tage tritt: Now, is reduction to be understood as replacement of the ontology of B with that of A; or is it to be construed as the identification of the two? Briefly, the answer is this: from what I have called the theoretical point of view, reduction is best construed as replacement of ontology [. . . ] From the practical point of view, reduction is often - perhaps is almost always – construed as identification (though sometimes as replacement). (Spector, 1978, S. 55; Hervorhebungen im Original)

Das alternative, schwächere Verständnis von Reduktionen vom Typ 1 nach Nickles habe ich bereits mit dem Standard-Modell nach Nagel (1961) abgedeckt (vgl. Unterabschnitt 3.1.2). Da ich zudem ontologische Reduktionen in dieser Arbeit nur behandeln wollte, sofern mit ihnen eine Theorienreduktion einher geht, werden mich Reduktionen vom Typ 1 folgend nicht mehr interessieren. Stattdessen gehe ich über zur Erläuterung der Reduktionen vom Typ 2. In seinen Ausführungen bezüglich Reduktionen vom Typ 2 bezieht sich Spector (1978, S. 71 / 73) teils explizit auf Nickles, der für eine klare Unterscheidung von domain-preserving-reductions und Reduktionen gemäß Nagel argumentiert. Heterogene Reduktionen, so Nickles, müssten aufgrund der vorausgesetzten Brückengesetze grundsätzlich als domain-combining-reductions verstanden werden, weshalb sich lediglich mit den homogenen Reduktionen eine Entsprechung für Reduktionen vom Typ 2 finden ließe. In Unterabschnitt 3.1.3 habe ich aber bereits Morgenbesser angeführt, für den homogene Reduktionen ein Spezialfall heterogener Reduktionen sind. Nimmt man sowohl das Standardmodell als auch die Differenzierung nach Nickles und Spector ernst, bleibt keine Möglichkeit, als domain-preserving-reductions außerhalb des Nagelschen Rahmens aufzufassen: In short, Nagel’s analysis of reduction is best regarded as a treatment of domain-combining reduction only. The initial promise of his homogenous/heterogeneous distinction is lost by Nagel’s treatment of all reduction as derivational; in the final analysis he too casts all reduction in essentially the same mold. (Nickles, 1973, S. 187)

Wie aber sind Reduktionen vom Typ 2 außerhalb des Standardmodells zu verstehen? Nickles (1973, S. 184) merkt zunächst eine Umkehrung der Reduktionsrichtung an: Wurde Reduktion bei Nagel noch als Wegfallen bisher relevanter Begriffe oder Erklärung verstanden, sei der Begriff im Falle von domain-preservingreductions eher im Sinne von Zurückführen einer Theorie auf eine andere zu verstehen.Die spezielle Relativitätstheorie ließe sich damit als reduzierbar auf die Newtonsche Mechanik verstehen, da sich jene für den Fall niedriger Geschwindigkeiten aus ihr ergäbe. Mathematisch wird die Beziehung durch einen Grenzwertprozesses dargestellt. Das Verhältnis gilt offensichtlich nicht vice versa. In der

122 | 3 Konzeptionen physikalischer Theorienreduktionen folgenden Passage stellt Nickles das Verhältnis von reduzierender und reduzierter Theorie als ein Ableitungsverhältnis dar, das er darüber hinaus noch einmal von Nagels ursprünglichen Überlegungen abgrenzt: In a broader sense, of course, [Domain preserving reduction] is also derivational. Mathematical derivation as the phrase is commonly used, includes not only logical deduction but limit processes and approximations of many kinds. In a discussion of Feyerabend’s Objection, Nagel has recently placed more emphasis on derivation in the wider sense, and, anyway, has always been aware of some of theoretical incompatibilities pointed out by is commentators. Nevertheless, Nagel’s earlier discussion does treat reduction as a special case of deductive explanation; and in the standard analysis of explanation to which Nagel subscribes, a deductive explanation is a deductive logical argument in the strict sense. So it is pretty clear that Nagel’s original analysis makes intertheoretic reduction derivational in the narrow, not the broad sense. (Nickles, 1973, S. 189)

Wenn Reduktionen vom Typ 1 ausdrücklich nach einer Interdefinierbarkeit der theoretischen Terme beider Theorien verlangen, setzen Reduktionen vom Typ 2 nichts dergleichen voraus. Dies schließt ein gemeinsames Auftreten von Reduktionen beider Typen nicht aus, verlangt aber nach einer separaten Prüfung auf das Vorhandensein der einzelnen Reduktionsbeziehungen. Sei folgend T1 die alte Theorie, auf die in Nickles’ Terminologie reduziert wird, und T2 die neue Theorie, die es zu reduzieren gilt.Damit eine approximative Reduktion stattfinden kann, muss es in T2 zunächst einen Parameter δ geben, so dass sich T2 formal aus T1 ergibt für den Fall δ → 0. Am konkreten Beispiel lässt sich die Formel zur Berechnung der Relativgeschwindigkeit in der speziellen Relativitätstheorie (vgl. Berry, 1994, S. 598 f) v Ax =

v Bx + v AB 1+

v AB ·v Bx c2

reduzieren auf diejenige zur Bestimmung der Relativgeschwindigkeit in der Newtonschen Mechanik v AC = v AB + v BC durch Setzen von δ=

v AB · v Bx . c2

Eine ähnliche Beziehung lässt sich auch im Fall der Gasgesetze finden. Seien p der Druck eines Gases, v das Volumen und T die Temperatur, wobei p, v, T > 0 sind, sowie R die Gaskonstante. Sei b > 0 das Kovolumen. Auch hier lässt sich die durch die Formel p · (v − b) = R · T

(3.15)

3.1 Grundlegende Reduktionsmodelle |

123

gegebene Theorie reduzieren auf eine durch die ideale Gasgleichung p·v=R·T

(3.16)

bestimmte (vgl. Scheibe, 1997, S. 172 ff / S. 186 ff). Dies geschieht durch Bildung des Grenzwertes b → 0. Veranschaulichen lässt sich der Prozess durch Darstellung der Lösungsmenge von (3.15) als zweidimensionale Mannigfaltigkeit eines vierdimensionalen p, v, T, b-Raumes, wobei b = 0 gesetzt wird. Durch den Grenzwertprozess liefert Formel (3.16) im selben Raum für die einzelnen fixen b-Werte eine Folge ebensolcher Mannigfaltigkeiten, die gleichmäßig gegen die durch (3.15) bestimmte Untermannigfaltigkeit konvergieren. Die gleichmäßige Konvergenz ist ebenso wie weiter unten die punktweise Konvergenz formal-mathematisch zu verstehen (vgl. Amann und Escher, 2002, S. 382). Durch Wahl der obigen Beispiele wird bereits auf Arbeiten zurückgegriffen, die über den Ansatz von Nickles hinausgehen (vgl. Berry, 1994; Scheibe, 1997) und die weiter unten von diesem abgegrenzt werden. Die Wahl der Beispiele ist aufgrund ihrer Übereinstimmung mit der Position von Nickles dennoch gerechtfertigt (vgl. Nickles, 1973). Zum Ende seiner Arbeit gibt Nickles für durch Grenzwertprozesse bestimmte Reduktionen drei Bedingungen an, die von einer Reduktion vom Typ 2 zu erfüllen seien. So verlangt er, dass (1) sich bei durch eine Reduktion miteinander verbundenen Theorien möglichst große Teile der von ihnen beschriebenen Domänen überschneiden sollten. Es werde in der Regel erst dann von einer erfolgreichen Reduktion gesprochen, wenn (2) die reduzierte Theorie bisher erfolgreich war, was zu Recht an die Systematisierung von Kemeny und Oppenheim (1956, S. 10 f) erinnert (vgl. Unterabschnitt 3.1.1). Schließlich sei erforderlich, dass (3) die Reduktionen aus physikalischer Sicht Sinn mache. Für Nickles heißt dies, dass sich die Grenzwertprozesse nicht auf konstante Größen beziehen dürfen (vgl. Nickles, 1973, S. 199 ff). Der letzte Punkt ist nicht bei jedem Beispiel sinnvoll durch Grenzwertprozesse beschreibbarer Theorienbeziehungen gegeben. So argumentiert Berry, dass es sich bei den von Nickles betrachteten Fällen lediglich um Spezialfälle mathematisch fassbarer Theorienreduktionen handele. Der von Nickles betrachtete einfache Fall sei „an exceptional situation. Usually, limits of physical theories are not analytic: they are singular [. . . ]“ (Berry, 1994, S. 599). Berry’s Argument kann mit Hilfe der Gasgesetze veranschaulicht werden. Sei dazu nicht mehr wie mit (3.15) eine allgemeine Formel zur Beschreibung des Verhaltens eines Gases gegeben, sondern mit analogen Bezeichnungen eine Theorie, die sich lediglich mit einem einzigen Gas beschäftigt. Für konstantes b 0 wird diese bestimmt durch die folgende Gleichung: p · (v − b 0 ) = R · T

(3.17)

124 | 3 Konzeptionen physikalischer Theorienreduktionen Eine Grenzwertbildung b0 → 0 zur Reduktion von (3.17) auf (3.15) würde kaum einen Sinn machen und ist deshalb ausgeschlossen. Dennoch sei eine Überführung möglich, nämlich durch einen gegebenen Grenzwertprozess: b0 → 0 für v → ∞ v

(3.18)

Auch diese Grenzwertbildung kann veranschaulicht werden, nämlich als Interpretation beider Lösungsräume als 2-dimensionale Untermannigfaltigkeiten eines dreidimensionalen p, v, T-Raumes. Der Grenzwertprozess ergibt sich hier nach (3.18); nicht durch unmittelbare Konvergenz einer der beteiligten Variablen gegen 0, sondern unter der zusätzlichen Forderung v → ∞. Anschaulich tritt anstelle der gleichmäßigen Konvergenz eine asymptotische Annäherung der beteiligten Mannigfaltigkeiten mit der v-Achse als Asymptote. Berry (1994, S. 598 ff) spricht anstelle von approximativen Reduktionen dann nur noch von asymptotischen Reduktionen im Allgemeinen, für die sich approximative Reduktionen als Spezialfälle ergäben. Zusammengefasst hat damit ausgehend von Nickles (1973) ein mathematisches Moment Einzug in die Debatte um Theorienredukionen erhalten, das durch Berry (1994) noch weiter differenziert werden konnte. Da weite Teile physikalischer Theorien durch die Sprache der Mathematik bestimmt sind, verwundert es kaum, dass sich sowohl für die einfachen als auch für die komplizierteren dieser Fälle eine Vielzahl relevanter Beispiele finden lassen (vgl. Berry, 1994, S. 599; Scheibe, 1997, S. 169 ff). Auf ein wie zuvor vorgestelltes Konzept approximativer Reduktionen, aber auch eine Vielzahl der zuvor im vorliegenden Abschnitt gegebenen Reduktionsbeziehungen, werde ich in Abschnitt 3.2 noch einmal zurückkommen. Bevor es soweit ist, werde ich das Reduktionsverständnisses der Modelltheoretiker, das sich entgegen den bisher dargestellten Auffassungen ausdrücklich auf den semantic approach beruft, vorstellen.

3.1.6 Reduktionen im Semantic Approach Den bisher angeführten Reduktionsmodellen ist gemein, dass ihnen ein Theorienverständnis zugrunde liegt, das sich am received view zumindest anlehnt. Dies geschieht in den späteren Ansätzen natürlich nicht mit der zuvor gegebenen Stringenz; so wird von Nickles (1973) und Berry (1994) (vgl. Unterabschnitt 3.1.5) keine explizite Axiomatisierung mehr gefordert und auch in Bezug auf die positivistischen Ansprüche werden starke Abstriche gemacht. Dennoch sind Theorien in allen genannten Fällen grundsätzlich als Klasse von Aussagen zu verstehen, die formal miteinander in Beziehung gesetzt werden müssen.

3.1 Grundlegende Reduktionsmodelle |

125

Auch aus einem modelltheoretischen Theorienverständnis heraus wurde ein Begriff intertheoretischer Reduktionen formuliert. Meine folgenden Ausführungen beruhen auf den Arbeiten von Balzer et al. (1987, Kapitel 6 und 7), Moulines und Polanski (1996) und Rott (1988, S. 19 ff). Ich beschränke mich damit auch hier auf das Theorienverständnis nach BMS. Am Ende dieses Unterabschnitts werde ich aufzeigen, dass eine Differenzierung in einzelne modelltheoretische Ansätze für die von mir verfolgte Argumentation ohnehin nicht vonnöten ist, da ich diese erneut über die Identifikation von Theorien mit Klassen von Modellen führen werde. Dem umgangssprachlichen Begriff einer wissenschaftlichen Theorie hatten BMS zuvor die Dreiteilung Theorienelement – Theorienholon – Theorienevolution gegenübergestellt. Schreibe ich folgend von einer Theorie, beziehe ich mich damit auf das Verständnis als Theorienelement T, also eine Zusammenfassung von Modellen T = (K, I), wobei I der Bereich der intendierten Anwendung ist und K der Kern der Theorie mit K = (M, M p , M pp , C, L, A). Ich habe die einzelnen Bestandteile bereits in Unterabschnitt 2.3.2 erläutert (vgl. Formel (2.9); Formel (2.11)). Eine Reduktion ist jetzt in einem ersten Ansatz eine intertheoretische Beziehung, d.h. ein Element λ ∈ L der Klasse der links. Für paarweise verschiedenen Theorien zugehörige potentielle Modelle M 1p , M 2p kann L mit Rückblick auf (2.8) formal dargestellt werden durch: L ∈ P(M 1p × M 2p )

(3.19)

BMS hatten zwischen entailment links und determining links unterschieden (Moulines und Polanski, 1996, S. 223; Unterabschnitt 2.3.2). Determining links verbinden einzelne Begriffe einer Theorie und sind damit für diese konstitutiv. Eine wichtige Klasse sind für BMS die sogenannten Theoretisierungen: We shall say that T * is a theoretization of T, whenever T * -non-theoretical concepts are concepts belonging to T (being T-theoretical or T-non-theoretical). It is convenient to distinguish two sub-cases here. We shall say that T * is a theoretization of T in the weak sense if some of the T * -non-theoretical concepts come from T; we get a theoretization in the strong sense when all of them come from T. (Balzer et al., 1987, S. 251, Hervorhebungen im Original)

Eine formale Darstellung beider Klassen findet sich bei Balzer et al. (1987, S. 251). Beispiel einer Theoretisierung im starken Sinn sei die klassische Teilchenme-

126 | 3 Konzeptionen physikalischer Theorienreduktionen chanik in Bezug auf die Galileische Kinematik. Die lokale Equilibrium Thermodynamik komme für eine starke Theoretisierung nicht in Frage, da das (nichttheoretische) Volumen durch eine physikalische Geometrie, die (ebenfalls nichttheoretische) Molzahl hingegen durch die Stöchiometrie bestimmt werde; bei einer Theoretisierung im starken Sinn müssen aber alle nicht-theoretischen Ausdrücke durch nur eine einzige Theorie bestimmt werden. Mit Reduktionen, so wie zuvor dargestellt, haben Theoretisierungen kaum etwas zu tun: Zwar werden Terme unterschiedlicher Theorien miteinander in Beziehung gesetzt – was an die Brückenprinzipien nach Nagel erinnert –, darüber hinaus aber keine Aussage über die Gesetze der beteiligten Theorien gemacht. Reduktionen sind nach BMS ebenso wie Äquivalenzen und Approximationen als entailment-links zu verstehen, durch die Theorien als Ganzes miteinander verbunden werden. Rott (1988, S. 19 ff) gibt in Übereinstimmung mit BMS an, dass abgesehen von einer Typisierung gemäß (3.19) die Existenz einer allgemein als surjektiv angenommenen Reduktionsfunktion F vorausgesetzt werden müsse mit: F : M ◦p2 → M p1 mit M ◦p2 ⊆ M p2

(3.20)

Formel (3.20) sowie die folgenden Formeln habe ich mit leichten Anpassungen Rott (1988) entnommen. M p i oben bezeichnet die Klasse der potentiellen Modelle von T i . Um zu gewährleisten, dass nur echte Reduktionen Beachtung finden, werde in (3.20) statt „⊆“teils „⊂“ gefordert. Für weitere Betrachtungen ist die Bestimmung von Bildern und Urbildern bezüglich F hilfreich. Diese sind gegeben mit: F(X2 ) := {x1 ∈ M p1 | ∃x2 ∈ M ◦p2 ∩ X2 : x1 = F(x2 )} für alle X2 ⊆ M p2 sowie F −1 (X1 ) := {x2 ∈ M ◦p2 | F(x2 ) ∈ X1 } bzw.

F −1 (x1 ) := F −1 ({x1 })

für alle X1 ⊆ M p1 bzw. x1 ∈ M p1 . Neben einigen streitbaren Kriterien finden sich bei Rott auch zwei den Arbeiten von Adams (1959) und Sneed (1971) entnommene zentrale Adäquatheits-Bedingungen für modelltheoretische Reduktionen.50 Zunächst müssen die grundlegenden Begriffe von T1 durch diejenigen von 50 Rott nennt neben den hier aufgeführten noch drei weitere Bedingungen, die er selbst unmittelbar kritisiert. Insgesamt gibt er im ersten Kapitel seiner Arbeit einen sehr detaillierten Einblick in die deutschsprachige Reduktionsdebatte der 80er Jahre,die ich hier nicht nachzeichnen werde. Die Details würden für die vorliegende Arbeit keine Hilfestellung liefern. Die Darstellung bei Rott (1988) ist überaus vollständig, so dass hier ein Verweis auf ebd. genügen soll.

3.1 Grundlegende Reduktionsmodelle |

127

T2 bestimmt werden – eine Forderung die bereits Nagel (1961) als Connectability in sein Standardmodell hat einfließen lassen. Anstelle einer logischen Formulierung muss jetzt aber eine mengentheoretische Darstellung gewählt werden, die Rott (1988) angibt: I1 ⊆ F(I2 )

(3.21)

Jeder intendierten Anwendung der reduzierten Theorie entspricht damit mindestens eine intendierte Anwendung der reduzierenden. Adams und Sneed seien davon überzeugt, so Rott, dass dies einem mengentheoretischen Pendant von Nagels ursprünglicher Forderung gleich komme, stimmt dem selbst jedoch nicht zu: Denn während [die ursprüngliche Formulierung im Sinne Nagels] die Möglichkeit einer präzisen Anleitung präsupponiert, wie man T2 -Anwendungen (oder allgemeiner: potentielle T2 -Modelle) aus vorgegebenen T1 -Anwendungen (bzw. potentiellen T1 -Modellen) ‚konstruieren‘ kann, sagt (3.21) lediglich, daß man korrespondierende T2 -Anwendungen finden kann. (Rott, 1988, S. 24. Notationen und Nummerierungen von mir angepasst, Hervorhebungen im Original.)

Es sei in der Nagelschen Formulierung nichts über einen Anwendungsbereich gesagt, so dass eine Entsprechung der connectability mit (3.21) fragwürdig sei. Die zweite Nagelsche Bedingung, die derivability, findet hingegen auch in den Augen von Rott eine sinngemäße modelltheoretische Repräsentation mit: F(M2 ) ⊆ M1

(3.22)

Er begründet dies wie folgt: Die syntaktische Relation der Ableitbarkeit wird widergespiegelt durch die Inklusionsrelation auf der Modellebene, wobei die zwischen T1 und T2 vermittelnden Definitionen sozusagen in F eingebaut sind und der Definitionsbereich M ◦p2 von F den Anwendungsbereich von T1 in T2 charakterisiert. (Rott, 1988, S. 24)

Dieser unmittelbare Rückschluss von der Modell- auf die syntaktische Ebene ist mit den Ergebnissen aus Kapitel 2 jedenfalls nicht vereinbar, wonach in Reaktion auf die Kritik von CMMB (vgl. Unterabschnitt 2.3.3) zwischen einer modelltheoretischen Ebene und einer syntaktischen Theorienebene differenziert werden muss. Natürlich hätte sich alles bisher in diesem Unterabschnitt Geschriebene gespart werden können, wenn jetzt wiederum dieselbe allgemeine Kritik am Theorienverständnis angesetzt werden würde wie zuvor; dennoch macht es stutzig: Welche Ansprüche bezüglich Reduktionen können vom semantic approach geltend gemacht werden, wenn nicht der von Theorienreduktionen? Eine Antwort findet sich einige Jahre später in der Arbeit von Moulines und Polanski (1996), die den Grundgedanken der strukturalistischen Reduktion zusammenfassen:

128 | 3 Konzeptionen physikalischer Theorienreduktionen Any reduction is obviously ‘made out’ of an entailment link. But, to be taken seriously, any reduction must be, first of all, what has been called a case of ‘ontological reduction’ [. . . ]; this means that the base sets of the reduced theory must be set-theoretically constructible out of some corresponding base sets of the reducing theory – and those reducing procedures are nothing but the determining links. (Moulines und Polanski, 1996, S. 224)

Die oben bereits angesprochene Beziehung von determining-links und Brückenprinzipien lag damit gar nicht sonderlich fern. Durch diese in Verbindung mit bestimmten entailment-links ist sodann eine jede Reduktion als ontologisch zu verstehen. Da eine Theorie im semantic approach identifiziert wird durch alle ihre Modelle, zu denen im Falle ihrer Wahrheit ebenfalls der intendierte Anwendungsbereich gehört, verwundert dieser hochtrabende Anspruch, mit jeder durch Beziehungen von Theorien bestimmten Reduktion auch unmittelbar eine ontologische Reduktion zur Hand zu haben, nicht. In der Einleitung zu diesem Kapitel habe ich aber aus gutem Grund zwischen ontologischen- und Theorienreduktionen unterschieden. Durch die obige Aussage wird diese Trennung wieder aufgehoben. Eine alternative Lesart, die dieses Problem vermeidet, schlägt Rott vor. Danach sei es von Adams und Sneed nicht einmal intendiert, Reduktionen über formale Beziehungen von Theorien zu beschreiben: Wenn Adams und Sneed von der Existenz einer Funktion F sprechen, so meinen sie dies nicht im rein mathematischen Sinn. Eine solche Funktion F soll nämlich auch den intuitiven Anspruch erfüllen, daß F jedem potentiellen Modell x2 der reduzierenden Theorie T2 – sofern x2 aus M ◦p2 ist – ein potentielles Modell x1 der reduzierten Theorie T1 zuordnet, welches, sozusagen von außen betrachtet ‚mit x2 identisch‘ oder ‚aus den Individuen von x2 zusammengesetzt‘ ist. Das Feststellen, ob zwei potentielle Modelle de facto identisch sind oder ob die Objekte des einen aus den Objekten des anderen zusammengesetzt sind, ist eine empirische Angelegenheit, welche natürlich mit Problemen behaftet ist, die sich einer rein formalen Analyse entziehen. Dementsprechend sind die formalen Kriterien von Adams und Sneed [. . . ] nur als notwendige Bedingungen für das intuitive Bestehen einer Reduktion zwischen zwei Theorien gemeint. (Rott, 1988, S. 229)

Das Verhältnis hat sich im modelltheoretischen Ansatz also umgekehrt: Eine Theorienreduktion wird bestimmt durch eine vorangegangene ontologische Reduktion. Es stellt sich die Frage, was die erste noch beitragen kann, ist die letztgenannte bereits als bekannt vorausgesetzt. In der ursprünglichen Diskussion war die Untersuchung syntaktischer Reduktionsbeziehungen jedenfalls lediglich ein Mittel zum Zweck der Untersuchung eines als stärker angenommenen ontologischen Reduktionsbegriffs, von dem in der Einleitung zu diesem Kapitel bereits gesagt wurde, dass er zumindest hier keine weitere Beachtung finden soll. Zur Motivation einer Auseinandersetzung mit einem ontologisch bedingten

3.1 Grundlegende Reduktionsmodelle |

129

Konzept von Theorienreduktionen, das obendrein auf eine Abbildung in einen problematischen Formalismus beiträgt, trägt all dies jedenfalls nicht bei. Sind die Untersuchungen bezüglich des semantic approach damit abgeschlossen, oder lässt sich dem modelltheoretischen Reduktionsverständnis dennoch ein Gewinn abringen? Ein Lichtblick ist, dass der Reduktionsbegriff im semantic approach nicht im luftleeren Raum steht, sondern Beziehungen zu Nagels Standardmodell aufwies. Und in der Tat lassen sich weitere solcher Anknüpfungspunkte finden, stellt seine Betrachtungen modulo des gewählten Rekonstruktionsansatzes an. So habe ich in Abschnitt 2.3.2 dargestellt, dass sich aus Theorienelementen durch Hinzunahme einer oder mehrerer Spezialisierungsrelationen σ i Theoriennetze bilden ließen. σ i kann auch als eine von T2 zusätzlich geforderte einschränkende Bedingung verstanden werden, durch die sich dann eine weitere Theorie T1 ergibt. Ein ähnliches Beispiel liefert Sneed bereits einige Jahre zuvor. In Bezug auf die klassische Mechanik würden „[s]tandard treatmens of classical mechanics [. . . ] sub-divide the discipline into four parts: particle mechanics, rigid body mechanics, the mechanics of deformable bodies, and the mechanics of liquids and gases.“ (Sneed, 1971, S. 110) Auf der nächsten Seite fährt er fort: Of course, the sub-divisions of classical mechanics are related in some way. There is something about them that makes it intuitively reasonable to say that they are all ‘parts’ of the same theory. If we take the view that each of these sub-divisions is a distinct theory of mathematical physics, in our sense of ‘theory’, then we are obliged to explain the relation between these theories. (Sneed, 1971, S. 111)

Die Beziehung solcher als Theorien verstandener Substrukturen verspricht eine hinreichende Stärke, um als Kandidat für eine Reduktion in Frage zu kommen, und liest man die folgenden Zeilen, scheint dies auch Sneeds Intuition zu entsprechen: That there is some reason to think that a theory with time-dependent masses is ‘reducible’ to a theory with time-independent masses. At any rate, this would seem to be a promising line to try in attempting to provide a logical reconstruction to the entire theory of classical mechanics. (Sneed, 1971, S. 111 f)

Die Verwendung von „reducible“ anstelle eines allgemeinen „connected“ oder Ähnlichem heißt natürlich noch lange nicht, dass es sich um eine echte Theorienreduktion handelt; dennoch kommt die hinter der Spezialisierung stehende Idee bekannt vor. Für Spezialisierungen wurde mit (2.12) bereits die Gleichheit von potentiellen und partiell potentiellen Modellen beider Theorien gefordert, womit sowohl die Struktur des theoretischen Rahmens als auch des nicht-theoretischen Bereichs gleich bleibt. Über die von T1 und T2 behandelten Dinge des intendier-

130 | 3 Konzeptionen physikalischer Theorienreduktionen ten Anwendungsbereichs wird folglich in ein und derselben Sprache gesprochen, ohne dass eine Übersetzung nötig wäre. Wegen (2.13) gilt: M 1 ⊆ M 2 und I 1 ⊆ I 2 Eine Einschränkung findet damit lediglich bezüglich der eigentlichen Axiome und der Anwendung statt – eine Aussage, die auch schon bezüglich der in 3.1.2 dargestellten homogenen Reduktionen im Standardmodell getroffen wurde. Die reduzierende Theorie besaß hier gegenüber der reduzierten zwar einen erweiterten Anwendungsbereich und auch Änderungen im Axiomensystem waren möglich; die theoretischen Ausdrücke jedoch blieben unangetastet. Natürlich lassen sich nicht alle homogenen Reduktionen Nagelscher Prägung als Spezialisierungen verstehen, anders herum ist eine Inklusion zumindest für die exakten Fälle berechtigt. Auch ausgehend von den als eine Art von Two way reduction (Balzer et al., 1987, S. 252) eingeführten Äquivalenzen lassen sich Anknüpfungen zur Reduktionsdebatte finden. Dies sehen auch Balzer et al. (1987, S. 384). Nach ihnen lässt sich zwischen zwei Äquivalenzbegriffen unterscheiden. Empirische Äquivalenzen würden sich auf die nicht-theoretische Ebene intendierter Anwendungen beziehen: From this point of view, theories are regarded – roughly – as instruments used to explain the phenomena ‘captured by’ the intended applications and to solve problems occurring in the domain. In order to assess empirical equivalence, the particular structure of the theory, i.e. the structure of their full theoretical apparatus can be neglected as long as both theories yield the ‘same’ explanations an solve the ‘same’ problems for the ‘same’ systems, i.e. if they have the ‘same’ empirical content. (Balzer et al., 1987, S. 384)

Der verwendete Erklärungsbegriff bezieht sich auf die empirische Forderung der Theorie, so wie in (2.10) gegeben. Für eine Äquivalenz zweier Theorien T1 , T2 ist demnach erforderlich: I ⊆ Cn1 (K1 ) ↔ I ⊆ Cn2 (K2 ) Dabei zeichnen die Indizes der Zugehörigkeit zu einer der Theorien aus. Da er den theoretischen Teil der Theorie unberührt lässt, ist ein solcher Äquivalenzbegriff sehr schwach. BMS formulieren als Folge auch eine stärkere Forderung: A second approach also takes into account the theoretical terms of both theories. Two theories are equivalent if their full theoretical structures are in some sense ‘isomorphic’, and if both theories are about the ‘same’ phenomena. Intuitively, the second approach is stronger than the first one, and we expect empirical equivalence to be just a special case of equivalence. (Balzer et al., 1987, S. 284 f)

3.1 Grundlegende Reduktionsmodelle |

131

„Spezialfall“ bedeutet, dass an allgemeine Äquivalenzen mehr zusätzliche Forderungen auf theoretischer Ebene herangetragen werden, als es bei empirischen Äquivalenzen der Fall war (vgl. Balzer et al., 1987, S. 295 ff). Abgesehen von (3.19) und der Forderung, eine bestehenden empirischen Äquivalenz, müsse eine wechselseitige (nicht zwangsläufig funktionale) Abbildung aller Modelle von T1 auf alle Modelle von T2 gegeben werden. Damit muss erfüllt sein: ∀x* , x : (x, x * ) ∈ λ → (x* ∈ M * ↔ x ∈ M)

Analog muss für die constraints gelten: ∀X * , X : (X, X * ) ∈ λ+ → (X * ∈ C* ↔ X ∈ C)

λ+ ist eine Fortsetzung von λ auf der Menge der constraints. Insbesondere muss eine Kompatibilität beider Theorien bezüglich der Restriktionsfunktion r bestehen, so dass – anschaulich gesprochen – T1 eine Darstellung von T2 mit anderen Worten ist bzw. vice versa. Die Forderung, dass zumindest die Erklärungsleistung erhalten bleibt, so wie bei empirischen Äquivalenzen, war die Mindestanforderung an eine explanatorische Reduktion, für die der in 3.1.1 dargestellte Ansatz von Kemeny und Oppenheim (1956) exemplarisch gesehen werden kann. Da explanatorische Reduktionen hier in Verbindung mit wissenschaftlichen Fortschritt gesetzt wurden, lag es auf der Hand, eine Asymmetrie von reduzierender und reduzierter Theorie zu verlangen. Diese Asymmetrie wurde aber nicht auf empirischer Ebene gefordert – die Erklärungsleistung beider Theorien konnte dort gleich sein (musste aber nicht) –, sondern auf der theoretischen. Dazu sollte T2 theoretische Ausdrücke beinhalten, die es in T1 nicht gibt, sowie eine bessere Systematisierung besitzen. Zur Etablierung einer solchen Asymmetrie genügt aber schon die Erfüllung einer der beiden Forderungen. Die erste (mit Blick auf 2.2.2 ohnehin problematische) Forderung beiseite gelassen ließ sich eine bessere Systematisierung in Unterabschnitt 3.1.1 nicht nur durch eine höhere Erklärungsleistung, sondern auch durch einen niedrigeren Berechnungsaufwand erreichen. Da eine Restriktion von Äquivalenzbeziehungen auf paarweise verschiedene Theorien ebenso sinnvoll wie unproblematisch ist, ist nicht einzusehen, warum ein wie von Kemeny und Oppenheim verlangtes Gefälle bezüglich der Systematisierung nicht auch zwischen äquivalenten Theorien vorausgesetzt werden kann. Die zwangsläufig vorhandenen Unterschiede werden sich zur Begründung einer besseren oder schlechteren Systematisierung sicherlich ausnutzen lassen. Damit ist mit Äquivalenzen aber ein Spezialfall einer explanatorischen Reduktion angelehnt an Kemeny und Oppenheim gegeben, bei dem einzig die empirische Äquivalenz im Bereich der intendierten Anwendung dafür verantwortlich ist, dass nicht eine vollständige Entsprechung vorliegt.

132 | 3 Konzeptionen physikalischer Theorienreduktionen Approximationen können nach Unterabschnitt 3.1.5 und den durch Grenzwertbildung bestimmten Intralevel-Reduktionen schon allein dem Namen nach mit Reduktionen in Verbindung gebracht werden. Balzer et al. (1987, S. 325 ff) unterscheiden vier wissenschaftlich relevante Approximationsarten, nämlich (1) model construction approximations, in denen Vereinfachungen vorgenommen werden, um aus gegebenen empirischen Daten Modelle erstellen zu können. So werden einzelne Messungen eines makroskopischen Objekts durch die Annahme eines sich auf einer gleichförmigen Bahn bewegenden Teilchens approximiert. Bei (2) Anwendungsapproximationen soll ein Gesetz oder eine Theorie zur Anwendung auf eine bestimmte Klasse von Phänomenen gebracht werden. Wo bei (1) lediglich von Phänomenen ausgegangen wird, beginnt (2) also bei der Theorie. Da jedoch beide Klassen auf die Beziehung der Theorie zum intendierten Anwendungsbereich abzielen, sind sie für die Auseinandersetzung mit Theorienreduktionen von untergeordnetem Interesse. Demgegenüber werden bei (3) law approximations einzelne Gesetze von Theorienelementen mit demselben konzeptuellen Rahmen angenähert. Für BMS istdies eine Form der intratheoretischen Approximation, wobei dies ein Verständnis von „Theorie“ im Sinne von Theoriennetz voraussetzt. Die Approximation findet also bezüglich einer Spezialisierungsrelation σ statt. Ein Theorienverständnis im Sinne von Theorienelement hingegen würde zu einer (4) intertheoretischen Approximation führen, die einzelne Theoriennetze miteinander verbindet, sich also auf die Klasse der links bezieht. BMS nennen als Beispiel die Approximation von klassischer Mechanik und spezieller Relativitätstheorie. Die zentralen hinter Approximationen vom Typ (3) und (4) stehenden Gedanken sind sehr ähnlich, weshalb ich mich folgend auf eine Darstellung intertheoretischer Approximationen und den Auswirkungen für die links L konzentrierenwerde und nicht auf Law Approximations, mit denen die Spezialisierungsrelationen σ angesprochen gewesen wären. Die grundsätzliche Intuition ist ähnlich der in 2.3.2 dargestellten bezüglich der admissible blurs; nur dass jetzt nicht mehr die gesamte Theorie mit einem Schlauch versehen wird, sondern lediglich die einzelnen durch links verbundenen Modelle. Wurde zuvor ein einzelner link λ als zweiwertige Relation gemäß (2.8) verstanden, ist er im approximativen Fall durch eine vierwertige Relation bestimmt. Anstelle des ursprünglichen λ tritt also ein λ′ mit: λ′ ∈ (M p (T) × A(T)) × (M p (T ′ ) × A(T ′ )) Genauer werden mit dem link nicht mehr zwei exakte Modelle der Theorie miteinander verbunden, sondern allgemeiner Elemente aus deren topologischer Nachbarschaft. Die allgemeine Einführung solcher Ungenauigkeiten in die links lässt sich kombinieren mit anderen Arten exakter links, wie Reduktionen (im Sinne von

3.1 Grundlegende Reduktionsmodelle |

133

BMS). Unter Voraussetzungen der Akzeptanz von (3.21) und (3.22) als Entsprechungen der Nagelschen connectability und derivability, findet sich so eine Entsprechung der von Sklar und Schaffner eingeführten Versuchen einer Anpassung der Reduktionsauffassung auf die Kritik von Kuhn und Feyerabend (vgl. Unterabschnitt 3.1.4). Eine Approximation im allgemeineren Fall lässt sich hingegen wie schon geschrieben mit den Konzepten von Nickles und Spector in Verbindung bringen (vgl. Unterabschnitt 3.1.5). All dies muss wie anfangs geschrieben aufgrund der signifikanten Differenzen der grundlegenden Theorienauffassungen cum grano salis verstanden werden. Dennoch lassen sich einige Ergebnisse aus dem Vorangegangenen festhalten. Zunächst haben die Vertreter des semantic approach ein engeres Reduktionsverständnis als es sich in der vom received view ausgehenden Diskussion ergeben hatte. Einige dort als Reduktionen bezeichnete Theorienbeziehungen werden in modelltheoretischer Tradition nach BMS nicht mehr als Reduktionen, sondern lediglich allgemein als links verstanden, d.h. als Beziehungen zwischen unterschiedlichen Theorien. Grund hierfür dürfte der hohe ontologische Anspruch sein, durch den – ähnlich wie bei Nagel zuvor – die Grenzen zwischen ontologischen- und Theorienreduktionen ein Stück weit verschwinden. Dem gegenüber können auch viele Beziehungen zwischen Reduktionen bzw. allgemeinen Theorienbeziehungen beider Ansätze finden: Neben dem Versuch, im semantic approach Reduktionen in Anlehnung am Standardmodell nachzuzeichnen, wurde zusammen mit einer allgemeinen Definition von Approximationen noch eine approximative Reduktionsvariante eingeführt, die ansatzweise ähnlich wie Sklar und Schaffner in der zuvor dargestellten Debatte, Platz für Ungenauigkeiten ließ. Intralevel-Reduktionen nach Nickles und Spector fanden ihre Entsprechung nur in einem allgemeinen Approximationsbegriff, der ausdrücklich von einem Reduktionsbegriff im semantic approach zu unterscheiden ist. Ebenfalls fand sich kein entsprechendes Konzept für die Arbeiten von Berry. Sicherlich lässt sich dafür argumentieren, einige der traditionellen Ansätze in der Debatte um ontologische Reduktionen nicht mehr weiter zu beachten. Warum dies aber mit Blick auf Theorienreduktionen gelten solle, ist bestenfalls fraglich. Auf der Suche nach hinreichend starken Theorienbeziehungen können auch solche Approximationen aussichtsreiche Kandidaten sein, die nicht auch einen ontologischen Gegenpart haben. Es ist auch nicht ersichtlich, wie eine Theorienbeziehung im semantic approach ohne diesen ontologischen Anspruch verstanden werden kann. Durch die Identifikation von Theorien mit Klassen von Modellen wird sich gar nicht erst auf eine rein formale Ebene erhoben, so dass keine Theorienbeziehung ohne einen ontologischen Anspruch formuliert werden kann. Eine Theorienreduktion muss damit auch immer eine ontologische Reduktion hinter sich her ziehen – vice versa

134 | 3 Konzeptionen physikalischer Theorienreduktionen muss dies nicht gelten. Mit Blick auf die in 3.1 dargestellte Debatte ist dies zumindest mit Blick auf Nickles, Spector und Berry in Zweifel zu ziehen. Um die (sinnvolle) Differenzierung von ontologischen und Theorienreduktionen weiterhin aufrecht erhalten zu können, liefert der semantic approach keine Möglichkeit. Hierfür müsste zunächst grundsätzlich zwischen einer Modell- und einer Theorienebene differenziert werden, wovon ich bereits in Unterabschnitt 2.3.2 herausgestellt hatte, dass dies in modelltheoretischen Ansätzen nicht möglich ist. Anders sieht es mit dem Ansatz von Scheibe aus. Dieser behält die Differenz von einer Modell-, einer Phänomen- und einer Theorienebene bei. Im folgenden Abschnitt werde ich das Reduktionsverständnis nach Scheibe darstellen und aufzeigen, dass sich in ihm eine Vielzahl der zuvor verorteten Positionen wiederfinden lassen.

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe Nachdem ich in Abschnitt 3.1 das Reduktionsverständnis in Tradition des logischen Positivismus und des semantic approach dargestellt habe, folgt die Erläuterung des Ansatzes nach Erhard Scheibe. Das Verständnis von Reduktionen als Theorienreduktionen wie bisher wird sich jetzt auszahlen: Für Scheibe sind physikalische Theorien im Gegensatz zu BMS sprachabhängig (vgl. Abschnitt 2.4), und dies ist auch der Ausgangspunkt seiner Arbeiten über den Reduktionsbegriff (vgl. Scheibe, 1993, 1997, 1999). Eine Reduktion ist für ihn eine Beziehung zwischen den formalen Teilen zweier Theorien, sprich: Eine Theorienreduktion im Sinne der Einleitung dieses Kapitels.51 Schon Nagel (1961) hatte zwischen homogenen und heterogenen Reduktionen unterschieden (vgl. Unterabschnitt 3.1.2). Die auf ihn folgenden Autoren hatten noch weitere Reduktionskonzepte entwickelt und durch meist überzeugende Beispiele begründet (vgl. die Unterabschnitte 3.1.4 und 3.1.5). Aber auch dies müsse nicht das Ende der Geschichte sein. Davon ist jedenfalls Scheibe überzeugt:

51 Für einen anderen Blickwinkel auf Scheibes Theorie der Reduktion siehe die Arbeit von Gutschmidt (2009, S. 49 ff), die ich selbst leider erst kurz vor Fertigstellung der vorliegenden Arbeit gelesen habe. Gutschmidt interessiert primär für die Rolle, welche eliminative Reduktionen einnehmen: „Gibt es physikalische Theorien, die aufgrund ihrer Reduktion auf eine andere zur Beschreibung der Welt nicht mehr gebraucht werden und in diesem Sinne überflüssig sind?“ (Gutschmidt, 2009, S. 283) Sein Fokus liegt damit auf Fragen zur theoretischen und ontologischen Einheit der Physik, die im Rahmen meiner Arbeit zu behandeln zu weit gehen würde.

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

135

We simply do not know what new kinds of reduction will have to be introduced in order to understand the further development of physics. Only combinations of reductions already given are a priori known to be reductions again. At the same time, the complex reductions make our general concept of reduction nontrivial even if the list of elementary reductions is not closed. (Scheibe, 1993, S. 354)

Scheibe propagiert nicht mehr wie seine Vorgänger ein geschlossenes, sondern ein offenes Reduktionsverständnis: An Stelle eines einzigen Reduktionskonzepts müsse eine Klasse fundamentaler und aus diesen zusammengesetzter Reduktionen treten. Dabei setzt er die Transitivität von Reduktionsbeziehungen voraus: Ist eine Theorie T1 auf eine andere T2 reduzierbar und weiter T2 auf eine weitere T3 , müsse auch T1 auf T3 reduzierbar sein (vgl. Scheibe, 1993, S. 353 f). Durch das Postulat vieler unterschiedlicher Reduktionsarten ist die Frage, ob reduziert wird mindestens ebenso relevant wie die Frage, wie reduziert wird. Zur Beantwortung führt Scheibe (1993, S. 353) den Begriff des Vehikels der Reduktion ein, dessen genaue Bedeutung in seinen Schriften schwer auszumachen ist. Bei seiner Darstellung exakter Reduktionen gibt Scheibe (1997, S. 109 ff) die Vehikel explizit an, bei komplexeren Reduktionsarten jedoch nicht mehr. Konsistent kann der Begriff als eine Formulierung zur Charakterisierung einer bestimmten Reduktionsart verstanden werden. Eine Reduktionsbeziehung R ist damit keine zweiwertige Relation zwischen den Theorien T1 und T2 , sondern eine dreiwertige, die zusätzlich abhängig ist von einem Vehikel v i . Die zuvor erwähnte Transitivität ist damit entartet und es gilt nach Scheibe (1993, S. 353): R(T1 , T2 , v1 ) ∧ R(T2 , T3 , v2 )  R(T1 , T3 , v1 ◦ v2 ) Ob eine durch Transitivität entstandene Theorienbeziehung wirklich eine Reduktion ist, müsse nach Scheibe für den Einzelfall geprüft werden. Verläuft die Prüfung positiv, sei eine weitere, durch elementare Reduktionsarten darstellbare Reduktion, gefunden. Die für Scheibe elementaren Reduktionsarten werde ich in den Unterabschnitten 3.2.1 bis 3.2.4 erläutern. Bei meiner Wiedergabe orientiere ich mich an den Arbeiten von Scheibe (1993, 1997, 1999) selbst, denen ich insbesondere die folgenden Formeln unter nur leichten formalen Anpassungen entnommen habe. Über die Arbeit von Scheibe herausgehend werde ich bei meinen Erläuterungen schon Querverbindungen zu den Positionen der historischen Reduktionsdebatte (vgl. Abschnitt 3.1) nachweisen, um in Abschnitt 3.3 zusammenzufassen, was mit diesem Vergleich gewonnen ist.

136 | 3 Konzeptionen physikalischer Theorienreduktionen 3.2.1 Die Rolle empirischer Reduktionen Bevor er sich mit seinem eigentlichen Forschungsgegenstand, den Theorienreduktionen, auseinandersetzt, möchte Scheibe die Rolle der von ihm als empirische Reduktionen bezeichneten Theorienbeziehungen klären (vgl. Scheibe, 1997, S. 81 ff). Dies sei wichtig, da der mit empirischen Reduktionen zusammenhängende Begriff empirischen Fortschritts auch Grundlage der Charakterisierung allgemein-wissenschaftlichen Fortschritts beim Übergang einer Theorie T1 auf eine andere T2 sei. Scheibe (2007, S. 301) stellt drei Forderungen an wissenschaftlichen Fortschritt. Zunächst müsse (1) T1 auf T2 theoretisch reduzierbar sein. Weiter muss (2) Konsequenz der theoretischen Reduktion unter (1) sein, dass alle empirischen Erfolge von T1 auch als Erfolge von T2 gewertet werden. Schlussendlich kann (3) T2 gegenüber T1 neue empirische Erfolge aufweisen (muss es aber nicht). Die Punkte (2) und (3) geben wieder, was Scheibe unter einer empirischen Reduktion versteht. Teils würde schon die Erfüllung dieser beiden Forderungen reichen, um von wissenschaftlichen Fortschritt zu sprechen. So sprächen Physiker bereits dann teils von einer Theorienreduktion, so Scheibe (1997, S. 81), wenn sie mit zwei Theorien konfrontiert wären, von denen die eine gegenüber der anderen über eine größere Erklärungsleistung verfügen würde. Diese Überlegung bindet empirischen Fortschritt an empirische Reduktionen und diese an die Erklärungsleistung der beteiligten Theorien. Bezüglich des verwendeten Erklärungsbegriffs legt sich Scheibe (1997, S. 81) nicht fest, betont allerdings, dass dieser eng verbunden sei mit dem Begriff der Bestätigung einer Theorie durch eine andere: Wie nahe diese beiden Dinge beieinander liegen, hängt von den jeweils herangezogenen Erklärungs- und Bestätigungsbegriffen ab, und bei zumindest einer Wahl dieser Begriffe rücken sie in der Tat sehr eng zusammen: für den Begriff der D-N Erklärung und dem Begriff der hypothetisch-deduktiven Bestätigung. In beiden Fällen geht es nämlich darum, daß aus den Gesetzen der betreffenden Theorie zusammen mit gewissen elementaren, kontingenten Aussagen der Theorie andere solche deduziert werden und festgestellt wird, ob diese im Einklang mit den Messungen stehen. (Scheibe, 1997, S. 81 f. Hervorhebungen im Original)

Bei seinen auf das vorangegangene Zitat folgenden Ausführungen geht Scheibe zunächst ebenfalls von einem hypothetisch-deduktiven Bestätigungsbegriff aus, den er auf eine Klasse von Beobachtungsaussagen A1 (x◦1 , . . . x◦n ), . . . , A m (x◦1 , . . . , x◦n ) anwendet. Die x◦i sind eine Klasse von Beobachtungsdaten, die durch eine weitere Messtheorie bestimmt werden können. Die Aussagen A i seien nach Scheibe (1997, S. 84) hingegen Beobachtungsaussagen und Beobachtungsdaten, über

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

137

deren Wahrheit und Falschheit mittels bekannter experimenteller Methoden entschieden werden könne. Bestätigung verliefe dann über Aussagen der Art (. . . x◦k . . . ) ∈ s j bzw. ∈/ s j sowie x◦i = x′◦ bzw.  = x′◦ , sofern die A i nur in Abhängigkeit einer weiteren Theorie bestimmt werden können. Ist eine direkte empirische Bestimmung in Form von Messungen möglich, könne eine Bestätigung nach Scheibe (1997, S. 84) jedoch gegeben werden über: s j = x◦j bzw.  = x◦j Diese Auffassung Scheibes ergänzt sich mit meinen Ausführungen zu Messungen und Messtheorien aus Unterabschnitt 2.4.2. Für Scheibe (1997, S. 94 ff) ist aber noch nicht alles zur empirischen Bestätigung gesagt. Er erweitert die vorangegangenen Überlegungen um ein Konzept approximativer Bewährung: Besitzt eine Theorie T eine endliche Anzahl n von Hauptbasismengen X1 , . . . , X n , müssen Skalierungen φ1 , . . . , φ n typisiert werden durch φi ⊆ Xi × R Diese seien Funktionen, die jedem der X i ein Intervall reeller Zahlen I i ⊆ R eineindeutig zuwiesen. Es ist also: φi : Xi → Ii Die Größe der Intervalle ist das Maß der zugelassenen Messungenauigkeit. Für die Skalierungen lassen sich Ausdrücke ρ j bestimmen, deren Typisierungen einem der s j entsprechen. Sie sind gegeben in der Form: ρ j ⊆ I 1 × · · · × I n ⊆ Rn Für einzelne Werte x i ∈ X i gilt dann: (φ1 (x i ), . . . , φ n (x n )) ∈ ρ j Jedes ρ j ist eine Hyperfläche im Rn , also ein topologischer Schlauch wie bei BMS (vgl. Unterabschnitt 2.3.2). Eine empirische Bestätigung erfolge dann nach Scheibe (1997, S. 97 ff) nicht durch Prüfung der Übereinstimmung einzelner Messwerte mit den exakten Vorgaben der Theorie, sondern durch Prüfung, ob sie innerhalb eines solchen Schlauchs lägen. Empirische Reduzierbarkeit sei folglich nur ein sehr schwaches Kriterium wissenschaftlichen Fortschritts, das durch eine unterliegende Theorienreduktion weiter differenziert werden müsse (vgl. Scheibe, 1997, S. 81). Sie stünde „dann also als eine Art Abschluß hinter all diesen verschiedenen Reduktionsarten und könnte zur empirischen Rechtfertigung der anderen,

138 | 3 Konzeptionen physikalischer Theorienreduktionen spezifischeren dienen.“ (Scheibe, 1997, S. 81, Notationen von mir angepasst) Auch ließe sich vom Vorhandensein einer empirischen Reduktion nicht auf eine übergeordnete Theorienreduktion schließen: Denn [Theorien-]Reduktion allein mag hierfür [gemeint ist empirischer Fortschritt] keineswegs notwendig sein: Es mag sehr wohl sein, daß in der Entwicklung der Physik so große Sprünge, um nicht zu sagen: Fehler, gemacht werden, daß an eine Reduktion der einschlägigen Theorien nicht zu denken ist, wohl aber wenigstens ein empirischer Fortschritt vorliegt. Die Umkehrung der Beziehung Theorienreduktion  Möglichkeit empirischen Fortschritts gilt also keineswegs. (Scheibe, 1997, S. 101)

Aus dem Vorangegangenen ergibt sich: Empirische Reduktionen dienen Scheibe nur als Indiz und Kontrolle der Sinnhaftigkeit einer unterliegenden Theorienreduktionen. Sie stellen keine direkte, sondern nur eine indirekte Beziehung zwischen Theorien her. Dies machen sie über den Umweg der Empirie. Zudem sind sie eine notwendige Bedingung theoretischer Reduktionen, keine hinreichende. Die Ausführungen kommen bekannt vor. Ähnlich habe ich mich in Unterabschnitt 3.1.1 über die explanatorischen Reduktionen nach Kemeny und Oppenheim (1956) geäußert. Auch sie setzten Theorien nur indirekt miteinander in Beziehung, wofür sie von Nagel (1961) kritisiert wurden. Dieser betonte, dass ein stärkeres Gewicht auf der Beschreibung des theoretischen Zusammenhangs der beteiligten Theorien liegen müsse (vgl. Unterabschnitt 3.1.2). Durch Wahl seines Ausgangspunkts bei einer strukturalistischen Version eines hypothetisch-deduktiven Bewährungsbegriffs, der in Scheibes Verständnis dem Konzept einer DN-Erklärung nahe kommt, setzen Scheibes empirische Reduktionen unmittelbar bei explanatorischen Reduktionen an. Dies geschieht unter angemessener Berücksichtigung der Hauptkritikpunkte an Kemeny und Oppenheim: Die Ausformulierung eines approximativen Bewährungskonzepts erlaubt es, adäquat auf Messungenauigkeiten einzugehen, die Darstellung empirischer Reduktionen als lediglich notwendiges Kriterium einer unterliegenden Theorienreduktion nimmt Nagels Kritik auf. Offen bleibt, was für Scheibe die eigentlichen interessanten Theorienreduktionen sind. Dem werde ich folgend nachgehen.

3.2.2 Exakte Reduktionen Das Ziel dieses und der folgenden Unterabschnitte ist es, die Klassen der Theorienreduktionen nach Scheibe in groben Zügen darzustellen und auf die in Abschnitt 3.1 dargestellten Positionen zu beziehen. Dabei werden mich Details nur

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

139

soweit interessieren, wie sie unmittelbar der Sache dienen. Die Grundlagen von Scheibes Reduktionskonzept sind pointiert und beispielorientiert wiedergegeben von Scheibe (1997, S. 110 ff) selbst. Eine detaillierte Wiedergabe hier würde gegenüber Scheibes eigener Darstellung keinen Mehrwert haben. Der interessierte Leser/die interessierte Leserin sei deshalb verwiesen auf ebd.. Allen exakten Reduktionen ist gemein, dass reduzierte und reduzierende Theorie zueinander in einem (noch genauer zu beschreibenden) logischen Ableitungsverhältnis stehen. Scheibe unterscheidet zwischen direkten und indirekten Verallgemeinerungen, Äquivalenzen, Verfeinerungen, Erweiterungen sowie FastVerallgemeinerungen. Von diesen seien Verallgemeinerungen, Äquivalenzen und Verfeinerungen elementar. Erweiterungen und Fast-Verallgemeinerungen ergeben sich als Spezialfälle oder Hintereinanderausführung der zuvor genannten. Bei einer direkten Verallgemeinerung „we pass from a theory T 1 to a theory T2 more general in the sense that every physical system admitted by T1 is also admitted by T2 [. . . ].“ (Scheibe, 1993, S. 355. Die Notationen wurden angepasst) Ist die Klasse zugelassener physikalischer Systeme gleich, sei auch eine direkte Verallgemeinerung einer Theorie auf sich selbst zulässig.52 Es ist nicht unmittelbar klar, was Scheibe meint, wenn er von einem physical System schreibt. Zwei Interpretationen liegen nahe: Physikalische Systeme können als Elemente des Bereichs der intendierten Anwendung verstanden werden. Damit wäre eine direkte Verallgemeinerung aber nichts weiter als eine empirische Reduktion. In Abschnitt 2.4 habe ich auf der anderen Seite gezeigt, dass Scheibe zwischen intendiertem Anwendungsbereich und physikalischer Interpretation differenziert und herausgestellt, dass die physikalische Interpretation als die Klasse der theoretischen Modelle aufgefasst werden muss. Bei einer direkten Verallgemeinerung heißt dies, dass alle theoretischen Modelle von T1 auch theoretische Modelle von T2 sind. Diese Forderung hatten bereits die Vertreter des semantic approach an eine Reduktion gestellt (vgl. Abschnitt 2.3). Aber auch dort war es fraglich, in wie weit bei Erfüllung dieses Kriteriums von einer Theorienreduktion gesprochen werden kann. Direkte Verallgemeinerungen verweisen damit auf zwei Reduktionskonzepte, denen es bisher an einem theoretischen Unterbau gemangelt hat. Diesen liefert Scheibe mit zusätzlichen formalen Forderungen. Er unterscheidet drei Arten direkter Verallgemeinerungen (vgl. Scheibe, 1997, S. 110 ff): Bei direkten Verallgemeinerungen erster Art erfahren lediglich die Axiome der reduzierenden Theo52 In seinen frühen Überlegungen zur Reduktion physikalischer Theorien schließt Scheibe (1993) diese Möglichkeit aus. Anders in seinem Hauptwerk (Scheibe, 1997, 1999), denn „[w]egen der Mißlichkeit des Ausschlusses von Trivialfällen wollen wir jedoch diese Möglichkeit, wenn auch nur als Grenzfall, zulassen.“ (Scheibe, 1997, S. 111)

140 | 3 Konzeptionen physikalischer Theorienreduktionen rie eine Ergänzung, woraus die Einschränkung der beschriebenen physikalischen Systeme folgt. Ist Σ1 (X; A; s) die T1 und Σ2 (X; A; s) die T2 entsprechende Strukturart, müsse bei einer direkten Verallgemeinerung erster Art die Beziehung Σ1 (X; A; s)  Σ2 (X; A; s)

(3.23)

erfüllt sein. Die durch Einführung eines oder mehrerer zusätzlicher Axiome gemachte Einschränkung sei darstellbar durch: Σ2 (X; A; s) ∧ σ(X; A; s)  Σ1 (X; A; s)

(3.24)

„σ“ bezeichnet das zusätzliche Axiom bzw. die Konjunktion mehrerer zusätzlicher von (X; A; s) geforderter Axiome. Dass sich beide Axiomensysteme Σ1 und Σ2 auf ein und dieselbe Struktur (X; A; s) beziehen sei Eigenschaft einer direkten Verallgemeinerung erster Art. Im nicht-trivialen Fall könne σ nicht aus Σ2 abgeleitet werden – andernfalls würde Σ1 (X; A; s) ↔ Σ2 (X; A; s) gelten –, wohl aber aus Σ1 (X; A; s): Σ1 (X; A; s)  σ(X; A; s)

(3.25)

Da σ den Unterschied zwischen Σ1 und Σ2 und damit auf formaler Ebene auch zwischen T1 und T2 ausmacht, handelt es sich hierbei für Scheibe um das Vehikel einer direkten Verallgemeinerung. Die Verwendung von „“ (entgegen „|=“) in den Formeln (3.23) bis (3.25) geht auf Scheibe zurück. Sie stimmt mit dem Verständnis von Theorien als sprachabhängige Systeme überein. Eine Reduktion ist also formal keine Beziehung zweier Modellklassen, sondern eine syntaktische Beziehung mengentheoretisch formalisierter Strukturen. Scheibe geht dabei aus von X2◦ = X1◦ , s◦2 = s◦1 , Σ2◦ = Σ1◦ . σ wirkt sich also bei einer direkten Verallgemeinerung erster Art nicht auf den Kern der Struktur aus. Anders bei direkten Verallgemeinerungen zweiter Art. Hier werden einige der für T1 noch als konstant angenommenen Ausdrücke in T2 variabel. Das bedeutet eine Ersetzung eines oder mehrerer konstanter Kernelemente s◦µ durch einen variablen Ausdruck s0 , wobei die Axiome unverändert bleiben: Σ(X1◦ , . . . , X ◦λ ; s◦1 , . . . , s◦µ , s1 , . . . , s ν ) ↔ Σ(X1◦ , . . . , X ◦λ ; s◦1 , . . . , s◦µ−1 , s0 , . . . , s ν ) Scheibe führt kein Beispiel für eine tatsächliche, für sich stehende direkte Verallgemeinerung zweiter Art an, wohl aber für welche, die als Vorbereitung einer in Kombination mit anderen Reduktionsarten entstehenden Reduktion dienen, wie die Einbettung der Euklidischen Geometrie in die Riemannsche. Hier müsse

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

141

die als konstant angenommene Krümmung des Euklidischen Raums als variabel aufgefasst werden. In einem zweiten Schritt ließen sich dann die notwendigen formalen Änderungen anbringen (vgl. Scheibe, 1997, S. 110 ff).53 Direkte Verallgemeinerungen dritter Art vergrössern bzw. verkleinern den intendierten Anwendungsbereich. Sie beziehen sich auf das Wissen um die Anwendung wissenschaftlicher Theorien, seien aber nach Scheibe (1997, S. 115) in Bezug auf die Untersuchung formaler Beziehungen von untergeordnetem Interesse – auch wenn sie mit Blick auf den allgemeinen Fortschritt der Physik dennoch Relevanz besitzen. Bei direkten Verallgemeinerungen erster Art bleiben die Hauptbasismengen unverändert: Die von reduzierender und reduzierter Theorie beschriebenen Systeme werden in gleicher Weise aufgefasst. Es wird über dieselben Objekte gesprochen, wie es auch der Grundgedanke homogener Reduktionen bei Nagel (1961) war (vgl. Unterabschnitt 3.1.2). Nagels paradigmatischer Fall der Reduktion der Newtonschen Mechanik auf die spezielle Relativitätstheorie kann zwar auch mit einer direkten Verallgemeinerung nicht angegangen werden – hierfür ist nach wie vor ein Konzept approximativer Reduktionen notwendig –, doch lassen sich einfache Fälle intertheoretischer Beziehungen behandeln. Scheibe (1997, S. 111) führt exemplarisch die Verallgemeinerung der Geschwindigkeitsformel für die Fallbewegung x(t) eines Massenpunktes an der Erdoberfläche 1 2



dx dt

2

=g



1 + x0 r

−1 

1+x r

−1

(x0 − x)

(3.26)

durch die allgemeinere Beschleunigungsformel d2 x = −g dt2



1+x r

−2

(3.27)

zusammen mit dem Vehikel σ in Form der Anfangsbedingung dx (0) = 0 dt an. Dabei ist g die Erdbeschleunigung, r der Erdradius sowie 0 ≤ x ≤ x0 und x0 = x(0). Scheibe setzt voraus, dass die Unterschiede der Axiomensysteme von T1 und T2 groß genug sind, um sinnvoll von unterschiedlichen Theorien sprechen zu können, doch bei den durch (3.26) und (3.27) bestimmten Theorien ist

53 In (Scheibe, 1993) versteht Scheibe unter einer direkten Verallgemeinerungen lediglich Verallgemeinerungen erster Art. Die weiteren beiden Klassen wurden erst in der Ausformulierung seiner Reduktionstheorie (Scheibe, 1997, 1999) ergänzt.

142 | 3 Konzeptionen physikalischer Theorienreduktionen dies fraglich. Vertreter des semantic approach würden bestenfalls von der Beziehung einzelner Theorienelemente sprechen (vgl. Abschnitt 2.3), andere Kritiker das Beispiel als zu schwach verwerfen. Es ist aber ebenso wenig ersichtlich, warum nicht schon bei Änderung eines einzelnen Axioms zumindest formal von einer neuen Theorie gesprochen werden sollte. Um zu sagen, ein Theorienwechsel sei nicht so leicht erreichbar, müssten zunächst Argumente gefunden werden. Durch Änderung welcher Axiome wird von einer Theorie auf eine andere übergegangen, durch welche nicht? Die Suche nach einem Demarkationskriterium dürfte alles andere als banal sein und bis eines gefunden ist, sollten direkte Verallgemeinerungen als eine Entsprechung homogener Reduktionen verstanden werden – auch wenn ihre Anwendung nur weniger relevante Theorien betrifft. Findet sich mit den direkten Verallgemeinerungen eine Entsprechung der homogenen Reduktionen nach Nagel (1961), können Verfeinerungen nach Scheibe (1997, S. 140 ff) als Pendant heterogener Reduktionen verstanden werden. Sind τ und τ′ in Σ2 typisierte Ausdrücke, müssen bei einer Verfeinerung nach Scheibe die folgenden Bedingungen erfüllt sein: Σ2 (X2 ; A; s2 ) ∧ (X1 = τ(X2 ; A; s2 )) ∧ (t = τ′ (X2 ; A; s2 ))  Σ1 (X1 ; A; t) Σ1 (X1 ; A; s1 )  ∃X2 , s2 : (Σ2 (X2 ; A; s2 )) ∧ (X1 = τ(X2 ; A; s2 )) ∧ (s1 = τ′ (X2 ; A; s2 )) Anders als bei direkten Verallgemeinerungen wirken sich Verfeinerungen sowohl auf die Axiome als auch auf den Kern der Theorien aus und nicht nur auf eines davon. Der Kern der verfeinerten Theorie (X2◦ ; A◦ ; s◦2 ) muss in den der ursprünglichen (X1◦ ; A◦ ; s◦1 ) überführt werden durch: X1◦ = τ(X2◦ ; A◦ ; s◦2 ) und s◦1 = τ′ (X2◦ ; A◦ ; s◦2 )

(3.28)

τ und τ′ sorgen für die Übersetzung der Ausdrücke von T2 in diejenigen von T1 . Diese Übersetzung spiegelt sich in den Kernaxiomen wieder: Σ2◦ (X2◦ ; A◦ ; s◦2 )  Σ1◦ (X1◦ ; A◦ ; s◦1 ) Abgesehen von den Einschränkungen des Kerns dürfen aber auch allgemein in T1 keine Konzepte ohne eine Entsprechung in T2 auftauchen, da hierdurch T2 nicht mehr stärker wäre als T1 . Um das Problem zu vermeiden, fordert Scheibe eine allgemeine Interdefinierbarkeit: Σ2 (X2◦ ; A◦ ; s◦2 , s2 ) ∧ (s1 = σ(X2◦ ; A◦ ; s◦2 , s2 ))  Σ1 (X1◦ ; A◦ ; s◦1 , s1 ) Die Konjunktion von „s1 = σ(X2◦ ; A◦ ; s◦2 , s2 )“ spiegelt wieder, dass jedem T1 theoretischen Begriff auch eine Entsprechung in T2 zukommt. Zudem gewährleistet

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

143

Σ1 (X1◦ ; A◦ ; s◦1 , s1 ) ∧ Σ2◦ (X2◦ ; A◦ ; s◦2 )



∃s2 : (Σ2 (X2◦ ; A◦ ; s◦2 , s2 )) ∧ (s1 = σ(X2◦ ; A◦ ; s◦2 , s2 )),

dass alle nach T1 möglichen Systeme auch eine Entsprechung in T2 haben. Scheibe (1997, S. 143 ff) verdeutlicht das Konzept einer Verfeinerung anhand eines einfachen Urnenmodells: Es sei eine Anzahl n wohlunterscheidbarer Kugeln gegeben sowie eine Anzahl m von Urnen und es gelte n > m. Eine Verteilung der Kugeln auf die Urnen kann auf verschiedene Weisen beschrieben werden, etwa durch explizite Angabe der jeder Kugel zugeordneten Urne oder durch Bestimmung der in jeder Urne enthaltenen Anzahl an Kugeln. Beide Ansätze beschreiben ein und dasselbe System. Der erste ist jedoch informativer: Ist bekannt, welche Kugel sich in welcher Urne befindet, kann auch für jede Urne die Anzahl der in ihr enthaltenen Kugeln einfach bestimmt werden. Anders herum sind aus der Kenntnis der in jeder Urne enthaltenen Anzahl an Kugeln noch keine Rückschlüsse auf deren genaue Verteilung möglich. Mit anderen Worten wird wie mit (3.28) gefordert jedem System von Mikro- Zuständen im ersten Fall ein System von Makro-Zuständen des zweiten Falls zugeordnet. Zur formalen Beschreibung des verfeinerten Systems bestimmt Scheibe eine Funktion f , die typisiert ist durch: f ⊆K×U K ist die Menge der Kugeln und U die der Urnen. f (x) soll für jede Kugel x ∈ K angeben, in welcher Urne sie sich befindet. Als charakteristische Strukturart einer solchen Beschreibung des Systems liefert dies: Σ2 (K, U; A; f ) Zur Beschreibung des weniger informativen zweiten Falls ist eine Funktion notwendig, die typisiert ist durch: g ⊆ U×N Diese soll jeder Urne die Anzahl in ihr befindlicher Kugeln zuordnen. Es resultiert die Strukturart: Σ1 (U, A, g) U ist ein Kernelement beider Theorien, das durch τ = id von T2 in T1 übersetzt werden kann. Auch f und g sind Elemente des Kerns, deren Übersetzung gelingt durch: τ′ (U, K, A, f ) := f (y) = ord{x ∈ K | f (x) = y}

144 | 3 Konzeptionen physikalischer Theorienreduktionen Das Urnen-Beispiel ist natürlich banal; und auch hier ist es fraglich, ob wirklich (physikalische) Theorien miteinander in Beziehung gesetzt werden. Dennoch können mit Verfeinerungen bereits einige tatsächliche Fälle physikalisch relevanter intertheoretischer Beziehungen beschrieben werden – o die Verfeinerung des dritten Keplerschen Gesetzes auf die Keplersche Theorie der Bewegung eines Planeten in ihrer Newtonschen Fassung. Die Details sind ausführlich dargestellt von Scheibe (1997, S. 144 ff). (Konservative) Erweiterungen sind Spezialfälle von Verfeinerungen, durch die eine Theorie in einem größeren Rahmen aufgeht (vgl. Scheibe, 1997, S. 57 ff). Der Begriff „Erweiterung“ selbst stammt aus der Logik und beschreibt eine formale Beziehung, die aus einer Verfeinerung wie oben hervorgeht, sofern für τ und τ′ in (3.28) Projektionen gewählt werden. Eine Theorie der reellen Zahlen kann beispielsweise als eingebettet in eine Theorie der komplexen Zahlen verstanden werden oder die klassische Mechanik als eine Erweiterung der Euklidischen Geometrie. Von Projektionen fordert Scheibe: Σ2 (X1 , X2 ; A; s1 , s2 )  Σ(X1 ; A; s1 )

(3.29)

Σ(X1 ; A; s1 )  ∃X2 , s2 : Σ2 (X1 , X2 ; s1 , s2 )

(3.30)

sowie

und τ i (X1 ; A; s1 ) ⇔ X λ(i) und τ′j (X1 ; A; s1 ) ⇔ s ν(j) Eine weitere Klasse exakter Reduktionen sind für Scheibe (1997, S. 122 ff) Äquivalenzen. Ihre grundlegenden Eigenschaften sind gegeben mit den folgenden Bedingungen: Σ1 (X; A; s1 ) ∧ s2 = σ(X; A; s1 ) −1

Σ2 (X; A; s2 ) ∧ s = σ (X; A; s2 )

 

Σ2 (X; A; s2 )

(3.31)

Σ1 (X; A; s1 )

(3.32)

Dabei sind σ und σ−1 innere Terme der Theorie mit: Σ2 (X; A; s2 ) Σ1 (X; A; s1 )

 

σ(X; σ−1 (X; A; s2 )) = s2

(3.33)

σ (X; σ(X1 ; A; s1 )) = s1

(3.34)

−1

Aus 3.31 bis 3.34 folgt unmittelbar die herkömmliche Äquivalenzauffassung: Σ1 (X1 ; A; s1 ) ∧ s2 = σ(X1 ; A; s1 ) ⇔ Σ2 (X1 ; A; s2 ) ∧ (s1 = σ−1 (X1 ; A; s2 )) (3.35)

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

145

Anders herum lässt sich aus (3.35) nicht auf eine Äquivalenz in Scheibes Verständnis schließen. Äquivalenzen können zwischen formal unterschiedlichen Theorien vermitteln. Scheibes Standardbeispiel ist die Übersetzung der Euklidischen Geometrie von einer klassischen Formulierung in eine Riemannsche Axiomatik. Mit den Äquivalenzen tritt der Hauptunterschied zwischen Scheibes Ansatz und modelltheoretischen Positionen deutlich zu Tage: Werden Theorien als sprachunabhängige Modellklassen verstanden, stellt sich die Frage ihrer formalen Äquivalenz erst gar nicht. Diese wird erst beim Übergang von einem Axiomensystem in ein anderes relevant. Für Scheibe (1997, S. 127 f) nehmen Äquivalenzen eine Sonderrolle ein. Zwar könnten sie als wechselseitige Reduktionen lediglich als ein entarteter Fall von Reduktionen aufgefasst werden – wenn überhaupt. Allerdings seien sie insofern elementar, als dass sie der sprachlichen Anpassung von Theorien dienen, die mittels anderer Reduktionsarten in Beziehung gesetzt werden sollen, und „[i]n der Tat kommt man im Reduktionsgeschäft nicht einen Schritt weiter, wenn man nicht von vornherein Äquivalenzen als einen Sonderfall von Reduktionen einführt.“ (Scheibe, 1997, S. 127 f) Äquivalenzen dienen damit als sprachliche Brücken und sind somit eine direkte Reaktion auf den Inkommensurabilitätseinwand von Kuhn und Feyerabend (vgl. Unterabschnitt 3.1.3). Die Kombination von Äquivalenzen mit anderen Reduktionsarten ist Scheibes Grund, die komplexere Formulierung gemäß der Forderungen (3.31) bis (3.34) der einfachen Formulierung (3.35) gegenüber vorzuziehen. Durch (3.31) bis (3.34) sei der Zusammenhang der Basismengen der beteiligten Theorien ersichtlicher (vgl. Scheibe, 1997, S. 130). Weiter führt Scheibe (1997, S. 130) als eine zusätzliche, kombinierte Reduktionsklasse die Möglichkeit indirekter Verallgemeinerungen bzw. von Einbettungen an. Eine Einbettung entsteht aus Kombination einer direkten Verallgemeinerung mit einer vorausgehenden Äquivalenz. Einbettungen sind also direkte Verallgemeinerungen modulo sprachlicher Formulierung. Eine auf Scheibes Arbeit basierende Veranschaulichung habe ich in Abbildung 3.1 gegeben. Wie Äquivalenzen dienen Fast-Verallgemeinerungen der Vorbereitung einer zusammengesetzten Reduktion (vgl. Scheibe, 1997, S. 160 ff). Bei einer Fast-Verallgemeinerung von T 1 auf T2 sind in der reduzierten Theorie Konzepte zu finden, die es in der reduzierenden nicht gibt. Formal bedeutet dies die Existenz eines Axioms bzw. einer Zusammenfassung von Axiomen σ von T1 mit: Σ1 (X1 ; A; s1 )\σ(X1 ; A; s1 ) ⊆ Σ2 (X2 ; A; s2 ) Scheibe (1997, S. 161, S. 158) führt als Beispiel die Reduktion der Lorenztheorie an, die nach einer Erweiterung auf die Mechanik fast-verallgemeinert werden kann. Seine Ausführungen sind kurz gehalten, was die Anwendung von FastVerallgemeinerungen in erster Linie auf Spezialfälle nahelegt.

146 | 3 Konzeptionen physikalischer Theorienreduktionen

Abb. 3.1. Eine indirekte Verallgemeinerung bzw. Einbettung ergibt sich, indem erst der Formalismus einer Theorie T über eine Äquivalenzbeziehung dem einer weiteren Theorie T ′ angepasst wird, von der aus eine direkte Verallgemeinerung auf eine dritte Theorie T ′′′ möglich wird.

Schlussendlich sind Vereinigungen oder Mehrfachreduktionen für Scheibe (1997, S. 164) eine Möglichkeit der Verbindung theoretischen Fortschritts mit seinem induktiven Reduktionskonzept. Bei einer Mehrfachreduktion werden gleich mehrere Theorien T1 , . . . , T n auf ein und dieselbe Theorien T reduziert. Mehrfachreduktionen dienen damit insofern auch dem Ziel der Einheit der Physik, als dass anstelle der zuvor n Theorien nach der Reduktion lediglich eine einzige vonnöten ist, aus der sich dann die anderen theoretisch ableiten ließen. Als Beispiel führt Scheibe (1997, S. 164) die Reduktion von Elektrostatik, Magnetostatik und Optik in Maxwells Grundgleichungen der Elektrodynamik an. Die Mehrfachreduktionen sind ebenfalls keine eigenständige Reduktionsart, sondern als die Kombination anderer Reduktionen zu verstehen. Über die zuvor aufgezeigten Beziehungen von Scheibes Ansatz zum Standardmodell nach Nagel kommt hier also keine Verknüpfung zu weiteren historischen Konzepten hinzu. Ich konnte bisher Beziehungen zwischen den elementaren exakten Reduktionen nach Scheibe und dem Standardmodell nach Nagel aufzeigen. Direkte Verallgemeinerungen nahmen den Grundgedanken homogener Reduktionen auf, in Fast-Verallgemeinerungen und Äquivalenzen kamen die hinter heterogenen Reduktionen stehenden Überlegungen zu tragen. Von Erweiterungen und FastVerallgemeinerungen habe ich gezeigt, dass sie lediglich Kombination anderer Reduktionsarten sind und keine über die Reduktionen der historischen Debatte hinausgehenden Konzepte. Im folgenden Abschnitt werde ich meine Untersuchung auf Scheibes approximative Reduktionen ausweiten.

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

147

3.2.3 Approximative Reduktionen Dass exakte Reduktionen nur Idealisierungen sein konnten, war bereits Kemeny und Oppenheim klar (vgl. Unterabschnitt 3.1.1) und wurde durch Kuhn und Feyerabend zu einer generellen Kritik an Reduktionen ausgebaut (vgl. Unterabschnitt 3.1.3). Als Konsequenz wurden Reduktionskonzepte entwickelt, die angemessen auf diese Differenzen in den Vorhersagen von reduzierter und reduzierender Theorie eingingen. Die Ansätze zur Modifikation des Standardmodells von Sklar und Schaffner (Unterabschnitt 3.1.4) waren dabei nicht so erfolgreich wie die Strategien von Nickles und Berry, approximative Theorienbeziehungen durch Grenzwertprozesse zu beschreiben (vgl. Unterabschnitt 3.1.5). Scheibes Verständnis approximativer Reduktionen kommt den Überlegungen von Nickles als auch Berry sehr nahe. Auch er unterscheidet zwischen Grenzfallreduktionen und asymptotischen Reduktionen (vgl. Scheibe, 1997, S. 169 ff). Asymptotische Reduktionen entsprechen, abgesehen von ihrer Formulierung in einem strukturalistischen Rahmen, den asymptotischen Reduktionen nach Berry. Grenzwertreduktionen sind eine Ausformulierung der approximativen Reduktionen nach Nickles. Aus strukturalistischer Sicht sei beiden Reduktionsarten nach Scheibe (1997, S. 171) gemein, dass der Kern der reduzierten Theorie T1 (X1◦ ; A; s◦1 )

(3.36)

ein Teil des Kerns der reduzierenden Theorie T2 sei. Der Kern von T2 sei damit für entsprechende X ◦ , s◦ gegeben durch (X2◦ ; A; s◦2 ) = (X ◦ , X1◦ ; A; s◦ , s◦1 )

(3.37)

Von den Kernaxiomen Σ2◦ (X ◦ , X1◦ ; A; s◦ , s◦1 ) sei weiter zu fordern, dass sie äquivalent sind zu: Σ1◦ (X1◦ ; A; s◦1 ) ∧ (s◦ ∈ Σ2◦ (X ◦ , X1◦ ; A)) ∧ α◦2 (X ◦ , X1◦ ; A; s◦ , s◦1 )

(3.38)

„α◦2 “ bezeichnet weitere zum Kern von T2 gehörende Axiome. Die Forderungen (3.36) bis (3.38) liefern die Grundlage dafür, dass beide Theorien sinnvoll miteinander in Beziehung gesetzt werden können. Eine Entsprechung für den variablen Teil der Theorien sei nicht zu fordern, da sich T1 und T2 im Falle einer wirklichen approximativen Reduktion nicht nur widersprechen können, sondern auch müssen. Dies geschieht formal durch die Forderung:  ¬∃s1 , s : Σ 1 (X1◦ ; A; s ◦1 , s1 ) ∧ Σ2 (X1◦ , X ◦ ; A; s ◦1 , s◦ , s1 , s)

(3.39)

Dabei ist s1 eine Variable, die in T1 ebenso typisiert ist wie in T2 (vgl. Scheibe, 1997, S. 171). Auf diesen formalen Grundlagen beginnt Scheibe mit der Ausdifferenzierung von asymptotischen und Grenzfallreduktionen. Als paradigmatisches

148 | 3 Konzeptionen physikalischer Theorienreduktionen Beispiel einer Grenzfallreduktion führt Scheibe die Reduktion der idealen Gasgleichung p·v=R·T

(3.40)

p · (v − b 0 ) = R · T

(3.41)

auf eine durch die Gleichung

bestimmte Theorie an und von hier ausgehend auf die Van-der-Waals-Gleichung: p + a  0 (3.42) · (v − b0 ) = R · T v2

mit konstanten a0 , b0 > 0. Die Gleichungen (3.40) und (3.41) habe ich bereits zuvor aufgeführt, nämlich in Unterabschnitt 3.1.5 als Formeln (3.16) und (3.17). Sie hatten zur Veranschaulichung asymptotischer Reduktionen nach Berry gedient. Für Berry verlief die Reduktion ausgehend von der neuen in Richtung der alten Theorie; die durch (3.41) bestimmte Theorie wird also reduziert auf eine durch (3.40) gegebene. Eine asymptotische Reduktion nach Scheibe verläuft in die entgegengesetzte Richtung. Die Umkehrung kann so verstanden werden, dass Scheibe dort, wo sich Berry für die Beziehung einzelner Formeln interessiert, Reduktionen ganzer Theorien im Auge hat. Ob der Übergang von einzelnen Formeln wie (3.40) und (3.41) schon ausreicht, um von einer Theorie auf eine andere überzugehen, kann trotz einer gewissen Berechtigung kritisiert werden und beruht auf Scheibes Differenzierung einzelner Theorie aufgrund ihrer formalen Gestalt. Auf ein ähnliches Problem habe ich bereits in Unterabschnitt 3.2.2 in Bezug auf einzelne Fälle exakter Reduktionen hingewiesen. Da die Frage einen anderen Problemkreis eröffnet, als ich mit dieser Arbeit behandele, werde ich auch hier nicht weiter darauf eingehen. Festzuhalten bleibt, dass Scheibes Darstellung asymptotischer Reduktionen eine strukturalistische Variante des auf Berry zurückgehenden Konzepts ist. Bei einer asymptotischen Reduktion nach Scheibe (1997, S. 172 ff) müssen die Lösungsräume einzelner Axiome der an der Reduktion beteiligten Theorien als Untermannigfaltigkeiten im selben Unterraum dargestellt werden: M1

=

M2

=

{s ∈ σ(X1◦ ; A) | α 1 (X1◦ ; A; s ◦1 ; s1 )}

{s ∈ σ(X1◦ ; A) | α 2 (X ◦ , X1◦ ; A; s ◦ , s◦1 , s, s 1 )})

Die α i sind einzelne Axiome von T1 bzw. T2 . Der mit (3.39) geforderte Widerspruch kommt zustande durch: M ∩ M′ = ∅

(3.43)

3.2 Die Reduktion physikalischer Theorien nach Erhard Scheibe |

149

Um sinnvolle Aussagen über die (topologische) Nähe von M1 und M2 treffen zu können, müssen wir auf ihrem Oberraum M0 mit M1 , M2 ⊂ M0 eine topologische Struktur definieren. Dies geschieht unter Voraussetzung einer entsprechenden Axiomatisierung („uni“) durch: (Σ2◦ (X ◦ , X1◦ ; A; s◦ , s◦1 )) ∧ (M0◦ = p(X ◦ , X1◦ ; A; s◦ , s◦1 ))

∧(U0 = q ◦ (X ◦ , X1◦ ; A; s ◦ , s◦1 ))  uni(M0◦ , U0 )

Zur Darstellung der eigentlichen asymptotischen Zusatzbedingung muss ein innerer Ausdruck c δ des Kerns von T2 existieren, der dem Vehikel der asymptotischen Reduktion entspricht. Er ist definiert durch: c δ ∈ c(X1◦ , X2◦ ; A; s◦1 , s◦2 , δ) Die Grenzwertbedingung lässt sich dann präzisieren durch: c δ ⊂ c ϵ für δ < ϵ wobei M2 ∩ c δ  = ∅ für alle δ > 0 gilt. Als Hauptbedingung einer asymptotischen Reduktion muss dann für jedes u ∈ U0 ein δ > 0 existieren, so dass M2 ∩ c δ ⊆ M u gilt. Es ist M u eine u-Umgebung von M1 und damit y ∈ M u genau dann, wenn es ein y1 ∈ M1 gibt, so dass y, y1 ∈ u erfüllt ist (vgl. Scheibe, 1997, S. 176 f). Für einen tatsächlichen Approximationsprozess dürfen die Lösungsräume nicht zu weit auseinander liegen. Ist für eine Mannigfaltigkeit M die Menge C(M) der topologische Abschluss, so bedeutet dies: C(M1 ) ∩ C(M2 )  = ∅ So gesehen lässt sich (3.43) noch verschärfen, nämlich zu: C(M1 ) ∩ M2 = M1 ∩ C(M2 ) = ∅ Im Falle der Reduktion der idealen Gasgleichung (3.40) auf die Van-der-WaalsGleichung (3.42) sind die beteiligten Mannigfaltigkeiten beispielsweise gegeben durch: M1

:=

M2

:=

{(p, v, T) | p, v, T > 0 ∧ p · v = R · T }

p + a0 {(p, v, T) | p, v, T > 0 ∧ · (v − b0 ) = R · T } v2

(3.44) (3.45)

Eine ähnliche Darstellung ergibt sich für das von mir in Unterabschnitt 3.1.5 behandelte Beispiel der Reduktionsbeziehung zwischen der idealen Gasgleichung

150 | 3 Konzeptionen physikalischer Theorienreduktionen und Gleichung (3.15) bzw. (3.41). Der relevante Oberraum M0 ist in diesem Fall ein dreidimensionaler p, v, T-Raum, der als solcher isomorph ist zum R3 . Die asymptotische Nebenbedingung und damit das Vehikel der Reduktion kann bestimmt werden durch: c δ := {(p, v, T) |

p + a0 b a · (v − b0 ) = R · T ∧ δ > 0 ∧ 0 < δ ∧ 02 < δ} 2 v v pv

(3.46)

Als Hauptbedingung der Reduktion muss es für jedes ϵ > 0 ein δ > 0 geben, so dass für jede Lösung (p, v, T) ∈ M2 , die b0 a0 , 0 jeder Lösungsbereich M1 bzw. M2 eingeschränkt auf eine der lokalen Lösungsmengen aus L1 bzw. L2 . Die Forderungen an lokale Reduktionen sind damit ähnlich denen asymptotischer Reduktionen. Gilt der Ausdruck Γ δ (s) ⊂ Γ ϵ (s) für δ < ϵ so bedeutet die lokale Approximationsaussage, dass für jedes s2 ∈ M2 ein s1 ∈ M1 existiert, so dass es für jedes u ∈ U ◦ ein δ > 0 gibt mit: (Γ δ (s2 ), Γ δ (s1 )) ⊆ u Da die Beziehung zwischen reduzierter und reduzierender Theorie unter ganz bestimmten Rahmenbedingungen hergestellt wird, sind lokale Reduktionen für Scheibe lediglich Reduktionen in einem eingeschränkten Sinn. Festzuhalten ist für diesen Unterabschnitt, dass Scheibes asymptotische und Grenzfallreduktionen keine Neuerung sind, sondern sich auf die Konzepte von Nickles und Berry zurückführen lassen. Lediglich lokale Reduktionen gehen auf Scheibe zurück. Ihre Notwendigkeit und Adäquatheit werde ich jedoch in den Unterabschnitten 4.2 und 4.3 an Beispielen aus der Astroteilchenphysik aufzeigen. Zuvor folgt jedoch die Erläuterung partieller Reduktionen.

154 | 3 Konzeptionen physikalischer Theorienreduktionen 3.2.4 Partielle Reduktionen Die exakten und approximativen Reduktionen aus den Unterabschnitten 3.2.2 und 3.2.3 sind für Scheibe (1997, S. 205) die Grundlage zur Bestimmung einer weiteren Klasse von Theorienbeziehungen, die er als partielle Reduktionen bezeichnet. Diese sind für Scheibe keine eigenständigen Reduktionskonzepte, sondern ergeben sich aus Einschränkungen der anderen Reduktionstypen, indem sie sich nicht auf eine ganze Theorie T1 , sondern auf eine in ihr enthaltene Teiltheorie T1′ mit den Axiomen α′i beschränken. Scheibe unterscheidet zwei Klassen partieller Reduktionen einer Theorie T1 auf eine andere Theorie T2 . Ist die partielle Reduktion einer weiteren, großen Reduktion untergeordnet, spricht Scheibe von einem geschlossenen Reduktionsquadrat. Ein Beispiel ist die Reduktion der Euklidischen Geometrie auf die Riemannsche Geometrie innerhalb der Reduktion der Newtonschen Mechanik auf die spezielle Relativitätstheorie. Ähnliches gilt für die Gasgesetze, wo die ideale Gasgleichung (3.40) eine direkte Verallgemeinerung der durch das Gesetz von Boyle-Mariotte gegebenen Theorie ist, die bestimmt wird durch die Formel: p · v = R · T◦ für konstantes T ◦ . Wie ich bereits aufgezeigt habe, kann man die ideale Gasgleichung reduzieren auf die Van-der-Waals-Gleichung, auf die auch das Gesetz von Boyle-Mariotte unmittelbar approximativ reduzierbar ist (vgl. Scheibe, 1997, S. 208 bzw. Unterabschnitt 3.2.3) Eine partielle Reduktion im Sinne eines offenen Reduktionsquadrats kommt ohne eine ihr übergeordnete Reduktion aus; die Reduktion von α1 auf α2 steht für sich. Ob eine partielle Reduktion einem offenen oder einem geschlossenen Reduktionsquadrat zuzuordnen ist, bleibt eine Frage des aktuellen Forschungsstands: Das Offenlassen einer direkten Reduktion von Σ1 auf Σ2 kann den Grund haben, dass man keine kennt, möglicherweise auch den, dass es keine gibt. Eine tiefer schürfende Theorie partieller Reduktionen müßte eigentlich den zweiten Fall zu ihrem Ausgangspunkt haben und dann natürlich in der Form, dass man zunächst die Unmöglichkeit einer Reduktion beweist. Dies wäre das stärkste Motiv zur Ausbildung einer solchen Theorie. (Scheibe, 1997, S. 212 f)

Eine graphische Veranschaulichung der Reduktionsquadrate habe ich angelehnt an Scheibe in Abbildung 3.2 wiedergegeben. Den Grundgedanken partieller Reduktionen haben wir bereits in Unterabschnitt 3.1.4 formuliert von Sklar gesehen. Sein Beispiel war die Reduktion der Newtonschen Mechanik auf die spezielle Relativitätstheorie. Von einer solchen, so Sklar, könne nur unter Einschränkung auf die Kinematik gesprochen werden. Auch Nickles hatte ihm darin beigepflichtet,

3.3 Zwischenfazit: Reduktionen physikalischer Theorien | 155

Abb. 3.2. Scheibe unterscheidet zwei Arten partieller Reduktionen. Beim geschlossenen Reduktionsquadrat (links) wird eine durch α bestimmte Teiltheorie Σ unter Voraussetzung einer übergeordneten Reduktion von Σ auf Σ′ auf eine durch α′ bestimmte Teiltheorie von Σ′ reduziert. Im Falle eines offenen Reduktionsquadrats (rechts) gibt es eine solche übergeordnete Reduktion nicht.

doch keiner der Autoren hatte das Konzept partieller Reduktionen ernst genommen. In Folge ist es in der historischen Debatte untergegangen. Dennoch ist die Differenzierung in Reduktionen und diesen untergeordneten Teilreduktionen wichtig. Sind partielle Reduktionen nicht erlaubt, würde dies bedeuten, dass nur über Theorienreduktionen richtiger Theorien gesprochen werden kann. Dies bedeutet aber, dass ein Demarkationskriterium gegeben werden muß, um richtige von falschen Theorien zu unterscheiden. Das Problem, ein solches aufzuzeigen habe ich bereits zuvor mehrmals betont. Das Herausgreifen einzelner Formeln und die Betrachtung partieller Reduktionen avanciert damit zu einer notwendigen Bedingung, sinnvoll über Theorienreduktionen sprechen zu können. Folgend fasse ich die zentralen Ergebnisse dieses Kapitels noch einmal zusammen.

3.3 Zwischenfazit: Reduktionen physikalischer Theorien Zu Beginn dieses Kapitels habe ich in Abschnitt 3.1 die grundlegenden Positionen der historisch erwachsenen Reduktionsdebatte vorgestellt. Abgesehen vom Modell explanatorischer Reduktionen nach Kemeny und Oppenheim (1956) habe ich den Fokus auf Modelle von Theorienreduktionen gelegt, worunter ich hinreichend starke intertheoretische Beziehungen zwischen den formalen Teilen einer Theorie verstanden hatte. Auf ontologische und explanatorische Aspekte der beteiligten Reduktionen bin ich nur am Rande eingegangen. Grundlegend war das Standardmodell nach Nagel (1961), das durch Kuhn (1962) und Feyerabend (1962) einer starken Kritik ausgesetzt war. Diese bemerkten, dass die mit dem received view zusammenhängende exakte Beziehung von

156 | 3 Konzeptionen physikalischer Theorienreduktionen Theorien und Daten, aber auch von Theorien untereinander, in der Physik selbst nicht zu finden war. Sie formulierten den Inkommensurabilitätseinwand, der für eine Fortführung der Reduktionsdebatte erst entkräftet werden musste. Beim Versuch der Entkräftung wurden zwei Wege eingeschlagen: (1) Sklar (1967) und Schaffner (1967) stellten Reduktionskonzepte vor, die sich immer noch in einem Nagelschen Rahmenkonzept bewegten. Danach musste eine Hilfstheorie formuliert werden, die zwischen reduzierter und reduzierender Theorie vermittelte. (2) Nickles (1973) und Spector (1978) gaben den logischen Ableitungsbegriff der Vertreter des received view auf und ersetzten ihn durch mathematische Grenzwertbildung. Später übernahm Berry (1994) dieses Verständnis und erweiterte Nickles’ und Spectors approximative Reduktionen auf die Klasse der asymptotischen Reduktionen. Weiter konnte ich aufzeigen, dass mit Reduktionen im semantic approach ein hoher ontologischer Anspruch einher ging. In dem Sinn hatten Balzer et al. (1987) ein sehr enges Reduktionsverständnis, das sich trotz modelltheoretischer Grundlage nahe am Standardmodell nach Nagel bewegte. Auf den zweiten Blick ließen sich jedoch alle der zuvor aufgeführten Konzepte wiederfinden – wenn auch nicht unter dem Label Reduktion, sondern als allgemeine intertheoretische Beziehungen (links) wie Approximationen oder Äquivalenzen. Die Quintessenz war, dass berechtigte Hoffnung einer adäquaten Reformulierung der klassischen Reduktionsmodelle mit dem Ansatz von Scheibe (1993, 1997, 1999) bestand. Die Hoffnung fand in Abschnitt 3.2, in dem ich mich mit der Reduktion physikalischer Theorien nach Erhard Scheibe auseinandergesetzt habe, eine Bestätigung. Ich habe die von Scheibe im gleichnamigen Werk aufgeführten Konzepte unterteilt in die Klassen empirischer, exakter und approximativer Reduktionen vorgestellt. Hinzu kamen partielle Reduktionen, die den zuvor genannten Reduktionsarten untergeordnet waren. Die empirischen Reduktionen nach Scheibe ließen sich in Beziehung zu den explanatorischen Reduktionen nach Kemeny und Oppenheim setzen. Im exakten Fall traten beide Theorienbeziehungen dann auf, wenn die Domäne der reduzierten Theorie eine Teilmenge der Domäne der reduzierenden Theorie war. Doch schon Kemeny und Oppenheim erkannten, dass eine exakte Beschreibung der physikalischen Praxis nicht gerecht wurde. Gebunden an den received view hatten sie keine andere Möglichkeit zu reagieren, als sich vagen Andeutungen zu ergeben. Scheibe, als Strukturalist, löste den approximativen Fall unter Zuhilfenahme topologischer Uniformitäten. Dennoch waren empirische Reduktionen für Scheibe wie schon für Nagel vor ihm nur eine notwendige, aber keine hinreichende Bedingung einer unterliegenden Theorienreduktion, die für ihn die relevanten intertheoretischen Beziehungen waren.

3.3 Zwischenfazit: Reduktionen physikalischer Theorien | 157

Die exakten Reduktionen konnte ich zu weiten Teilen in Beziehung zum Standardmodell nach Nagel setzen. So wurden in direkten Verallgemeinerungen und Erweiterungen die Hauptbasismengen und damit auch die Konzepte, über welche die Theorien ihre Aussagen trafen, beibehalten. Dies entsprach dem Grundgedanken homogener Reduktionen nach Nagel. Verfeinerungen und Äquivalenzen gingen einher mit einer Übersetzung der Hauptbasismengen einer der beteiligten Theorien in die andere. Zusammen mit der Forderung einer exakten Ableitbarkeit erfüllen sie die Hauptanforderungen heterogener Reduktionen. Mehrfachreduktionen und Verallgemeinerungen konnten als Kombinationen der zuvor genannten Reduktionskonzepte aufgefasst werden. Alle Überlegungen mussten natürlich jederzeit modulo der verwendeten Theorienkonzeptionen und Ableitungsbegriffe gesehen werden. Im Bereich der approximativen Reduktionen konnte ich Scheibes asymptotische Reduktionen in der Debatte den asymptotischen Reduktionen nach Berry zuordnen. Auch wenn Berry seine Überlegungen nicht in einem mengentheoretischen Rekonstruktionsansatz ausformuliert hatte, konnte ich seine Beispiele für die Darstellung von Scheibes Ansatz übernehmen. Berry baute auf Nickles’ Konzept approximativer Reduktionen auf, die er als Spezialfall seiner asymptotischen Reduktionen ansah. Ich konnte nachweisen, dass Nickles’ approximative Reduktionen Scheibes Grenzfallreduktionen entsprechen und davon ausgehend, dass sie kein Spezialfall waren, sondern einer eigenen Formalisierung bedurften. Neu im Reduktionskanon waren die lokalen Reduktionen, bei denen zwei Theorien nur unter Einschränkung auf kleine Skalenbereiche miteinander in Beziehung gesetzt werden. Ich hatte dies am Beispiel der Pendelbewegung ausgeführt, wo nur für kleine Amplituden unter der Nebenbedingung sin φ ≈ φ eine Approximation durchgeführt werden konnte. In den Unterabschnitten 4.2 und 4.3 werde ich zeigen, dass lokale Reduktionen für das Verständnis der Modellierung in der Astroteilchenphysik eine bedeutende Rolle spielen. Der Begriff partieller Reduktionen ist uns ebenfalls zuvor in der allgemeinen Reduktionsdebatte begegnet. Dort fand er zunächst bei Sklar, später bei Nickles Erwähnung. Beide Autoren hatten partielle Reduktionen, wie Scheibe auch, als Einschränkungen wirklicher Reduktionen verstanden. Wo sie das Konzept aber nach kurzer Erwähnung fallen lassen, ergänzt es Scheibe mit seiner Unterteilung in ein geschlossenes und ein offenes Reduktionsquadrat noch um eine weitere, relevante Differenzierung. Zusammengefasst bedeutet dies, (1) die von Scheibe als Reduktionen bezeichneten Theorienbeziehungen sind nicht willkürlich gewählt, sondern können in Beziehung zu den Konzepten der historischen Debatte gesetzt werden. Dies gilt wohlgemerkt nur, wenn die Betrachtungen cum grano salis genommen werden und über die Unterschiede der einzelnen Formalisierungen hinweggesehen wird.

158 | 3 Konzeptionen physikalischer Theorienreduktionen Weiter gilt, (2) Scheibe beschränkt sich nicht ausschließlich auf die historischen Konzepte, sondern ergänzt und differenziert sie. Dies gelingt ihm aufgrund seines strukturalistischen Theorienverständnisses, das eine detailliertere formale Analyse als der received view oder modelltheoretische Ansätze zulässt. Natürlich, (3) durch die vorangegangenen Betrachtungen ist noch lange nicht gezeigt, dass jede von Scheibe als Reduktion bezeichnete Theorienbeziehung diesen Namen auch verdient; dennoch erschwert der historische Bezug eine etwaige Kritik. Ein Angriff auf Scheibes Reduktionsauffassung kann nicht mehr als für sich stehend verstanden werden, sondern ist relevant für die allgemeine Debatte, was die entsprechende Argumentation, wenn nicht entkräftet, zumindest entschärft. Insgesamt habe ich mit den vorangegangenen Ausführungen gezeigt, dass das Verständnis von Reduktionen physikalischer Theorien nach Erhard Scheibe ein solides Grundgerüst zur Analyse intertheoretischer Beziehungen ist, dem nach Kapitel 2 ein adäquates Theorienverständnis zugrunde liegt. Für die Auseinandersetzung mit Reduktionen physikalischer Theorien bietet sich also die Verwendung von Scheibes Konzept ausdrücklich an, da es leistungsfähiger ist als alternative Ansätze.

4 Reduktion und Vereinheitlichung in der Astroteilchenphysik Im vorliegenden Kapitel werde ich der Frage nachgehen, in wie weit Scheibes Reduktionsverständnis einen für die philosophische Diskussion der Beziehung physikalischer Theorien fruchtbaren Beitrag liefern kann. Innerhalb der Literatur lassen sich daran, dass dies möglich ist, durchaus Zweifel finden. So äußert sich Hoyningen-Huene in seiner lehrbuchartigen Darstellung von Reduktionspositionen im Kontext der Erläuterung der von ihm als sukzessive Reduktionen bezeichneten Grenzfallreduktionen nach Nickles (vgl. hier Unterabschnitt 3.1.5.) wie folgt: Sukzessive Reduktionen sind weit mehr das Arbeitsgebiet der theoretischen Physik, speziell der mathematischen Physik, als der Wissenschaftsphilosophie. Denn die Frage, ob die quantitativen Aussagen einer späteren, typischerweise komplexeren Theorie bei einem bestimmten Grenzübergang quantitativ in die der früheren Theorie übergehen, ist eine primär mathematische Frage, die von innerwissenschaftlichem Interesse ist. Die relevanten Grenzübergänge sind dabei mathematisch z.T. äußerst heikel, was ihre rigorose mathematische Behandlung zu Spezialgebieten der mathematischen Physik macht (vgl. z.B. Scheibe, 1997, 1999; Primas, 1998). Das Gros der Physiker, die Theoretiker eingeschlossen, gibt sich hier typischerweise mit nicht-rigorosen Überlegungen zufrieden, die das Bestehen der entsprechenden Grenzwertbeziehungen nur plausibel macht, aber nicht wirklich beweist. (Hoyningen-Huene, 2007, S. 173, Zitierweise von mir angepasst)

Scheibe selbst hätte der Klassifikation seiner Arbeit als der mathematischen Physik zugehörig und damit für die philosophische Diskussion von untergeordnetem Interesse sicherlich widersprochen. Die beiden von Hoyningen-Huene herangezogenen Werke werden klarerweise von einer philosophischen Fragestellung geleitet. Auch aus Abschnitt 3.2 ergibt sich, dass Hoyningen-Huene voreilig und inadäquat urteilt. Da viele der Reduktionskonzepte nach Scheibe mit den innerhalb der Debatte des 20ten Jahrhunderts entwickelten Auffassungen identifiziert werden können, würden weite Teile der Reduktionsdebatte zu einem Teil der mathematischen Physik werden, was auch nicht im Sinne Hoyningen-Huenes sein kann. Folgend werde ich zwei Fallbeispiele aus der physikalischen Praxis betrachten, die beide auf eine Erklärung von Teilen des Spektrums der kosmischen Strahlung abzielen. Im ersten Fallbeispiel werden Beschleunigungsprozesse durch Modelle der Fermi-Beschleunigung erster und zweiter Ordnung behandelt, im zweiten wird der Modellierung aktiver galaktischer Kerne (AGNs) nachgegangen. Sowohl Fermi-Prozesse als auch AGNs nehmen eine zentrale Rolle in der Astroteilchenphysik (ATP) ein, jener jungen Teildisziplin der Physik, in der versucht wird, von der kosmischen Strahlung Rückschlüsse auf deren Quellen zu ziehen. Zur Mo-

160 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik dellierung werden hier eine Vielzahl von Theorien herangezogen und miteinander verbunden, für die es teilweise - wie im Falle der Quantenfeldtheorie und der Allgemeinen Relativitätstheorie - keine einheitliche theoretische Grundlage gibt. Auf die besondere Rolle der Astroteilchenphysik, ihren Aufbau und ihre Herkunft, werde ich in Abschnitt 4.1 eingehen. In Abschnitt 4.2 soll das Modell der Fermi-Beschleunigung rekonstruiert werden. Die Aufarbeitung beruht auf der formalen Darstellung aus dem gängigen Lehrbuch zur ATP von Longair (1981, S. 375 ff), dem ich weite Teile der Berechnungen entnommen habe. Dabei sollen nicht so sehr die einzelnen Theorien im Vordergrund stehen, als vielmehr die zwischen ihnen vorhandenen intertheoretischen Beziehungen. Ich werde zeigen, dass sich verschiedene Reduktionsarten nach Scheibe wiederfinden lassen. Im Sinne von Abschnitt 3.2 werde ich dazu am Beispiel die jeweils verwendeten Theorien sowie die jeweiligen Vehikel der Reduktionen aufzeigen. Auf eine ausführliche strukturalistische Rekonstruktion werde ich verzichten. In der Auseinandersetzung mit den AGNs in Abschnitt 4.3 muss anders als bei der Fermi-Beschleunigung zuvor in mehreren Schritten vorgegangen werden. Es wird sich zeigen, dass es sich beim Modell eines AGN um das Beispiel einer Art Gesamtmodell handelt, in das mehrere einzeln darzustellende Submodelle integriert sind - so auch Prozesse der Fermi-Beschleunigung erster Ordnung. Ich werde zeigen, dass die Verbindung der Submodelle über rein intertheoretische Beziehungen hinausgeht. Der Abschnitt baut in erster Linie auf Bailer-Jones (2000) auf, geht aber in der formalen Darstellung, welche Longair (1981) und Carroll und Ostlie (2007) entspricht, über diese weit hinaus. Abschnitt 4.4 fasst die zentralen Ergebnisse zusammen.

4.1 Herkunft und Aufbau der Astroteilchenphysik Zu den Gegenständen der heutigen ATP gehören Supernova-Überreste, deren Ursprünge Jahrtausende zurückliegen. So verweist Grupen (2000, S. 2) auf die überlieferte Beobachtung von Supernova Explosionen vor 6000 Jahren durch die Sumerer oder vor rund 1000 Jahren durch die Chinesen. Auch wenn zum Nachweis der Überreste dieser Explosionen heute auf Modelle der ATP zurückgegriffen wird, stammen die Ereignisse selbst zunächst aus der Astronomie. Die heutige ATP ging in den 1980er Jahren aus einer Verbindung der Teilchenphysik und der Physik der kosmischen Strahlung hervor (vgl. die fundamentale Arbeit DeRujula et al., 1987). Die letztere hatte ihren Ursprung bei Hess’ Entdeckung der Höhenstrahlung von 1912 (vgl. Hess, 1912) und führte zunächst zur Teilchenphysik. Seit der Entdeckung des cosmic microwave background durch Mil-

4.1 Herkunft und Aufbau der Astroteilchenphysik | 161

likan und Cameron (1926) und der Entwicklung der Großbeschleuniger war sie jedoch Gegenstand der Astrophysik. 1987 wurden beide Gebiete und ihre Methoden vereinheitlicht, was zu der besonderen, uneinheitlichen Theorie- und Modellstruktur führte, die der vorliegende Abschnitt behandelt. Eine detaillierte Darstellung der Entwicklung der ATP findet sich bei Falkenburg und Rhode (2012). Den Experimenten der ATP ist gemein, dass ausgehend von allen Arten kosmischer Strahlung auf deren Quelle zurück geschlossen werden soll. Unter wissenschaftstheoretischen Gesichtspunkten wird dies untersucht von Falkenburg (2012, 2013). Neben der γ-Strahlung jedweder Wellenlänge werden auch Rückschlüsse aufgrund des geladenen Teils der kosmischen Strahlung sowie von Neutrinos gezogen. Die verwendeten Experimente teilt Soler Gil (2011, Kapitel 2.3.) in Satelliten-, Ballon-, Fluoreszenz-, Luftschauerbodenexperimente, CherenkovTeleskope sowie Untergrunddetektoren ein. Die Experimente untersuchen teils die primäre und teils die sekundäre kosmische Strahlung. Charakteristisch für den Aufbau der ATP ist ihr multi-disziplinärer Charakter: Sie kombiniert Messmethoden und theoretische Modelle aus Teilchenphysik, Kernphysik, Astrophysik und Kosmologie, ohne dass diese Teilgebiete eine einheitliche theoretische Grundlagen hätten. Als Folge lassen sich die Modelle der ATP nicht aus einer einzigen Theorie heraus aufbauen, sondern entstehen als fragmentarischer Zusammenschluss unterschiedlicher Theorien bzw. Theorieteilen (Gesetze, Modelle) im Sinne von Cartwrights „piecemeal physics“ (vgl. Unterabschnitt 2.3.3). Dennoch zielt die ATP insgesamt auf eine Einheit physikalischer Erkenntnis ab. Da sich eine theoretische Einheit nach dem zuvor Gesagten bis auf Weiteres verbietet, bleibt offen, was hier stattdessen unter Einheit zu verstehen ist. Falkenburg gibt an, dass die Frage auch in anderen Bereichen der Physik von Relevanz ist: Several strategies of unification are well-known from other fields of physics. They embrace heuristic methods such as: the construction of the length, time, and mass scales down to the Planck scale and up to the size of the universe; the tacit use of bridge principles; and the neglect of the quantum measurement problem, wherever it is possible. They aim at unifying the semantics of disunified laws and established quantitative reduction relations between them. (Falkenburg, 2012, S. 5)

Neben diesen an vielen Stellen in der Physik aufzeigbaren Vereinheitlichungsstrategien gibt Falkenburg vier weitere an, die typisch für die ATP seien, um die Brücke zwischen Teilchenphysik und Kosmologie zu schlagen: Eine methodologische, eine phänomenologische, eine konzeptuelle sowie eine explanatorische, die Falkenburg durchwegs als heuristisch versteht (vgl. Falkenburg 2013, S. 9 ff; Falkenburg, 2012). Die methodologische Vereinheitlichung stellt die Übernahme und Verbindung experimenteller Methoden von sowohl der Teilchen- als auch

162 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik der Astrophysik dar. So werden zur Detektion von atmosphärischen Teilchenschauern Teilchendetektoren zu großen Teleskopen zusammen geschlossen. Im Rahmen der vorliegenden Arbeit sollen allerdings die experimentellen Grundlagen nicht weiter angesprochen werden. Die phänomenologische Vereinheitlichung beinhaltet die Zusammenfassung von Phänomenen unter einem Gesamtkonzept. Ein Beispiel ist das all-particlespectrum: Der experimentell bestimmte Energiefluss der geladenen kosmischen Strahlung folgt weitestgehend einem Potenzgesetz, in dem sich drei Energiebereiche unterscheiden lassen:  −2,67  , E < 1015,4 eV  E dN  E−3,10 , 1015,4 eV < E < 1018,5 eV dE   E−2,75 , 1018,5 eV < E

Der Bereich des Spektrums um 1015 eV wird auch als Knie, der Bereich um 1019 eV als Ferse bezeichnet (vgl. Wagner, 2004, S.9). In Messungen und graphischer Darstellung wird nicht differenziert zwischen den einzelnen Arten der kosmischen Strahlung. Stattdessen werden sie als eine Phänomenklasse verstanden. Die Frage ist, an welcher Stelle der Modellierung die für eine solche Vereinheitlichung notwendigen Annahmen hereinspielen und welche Grenzen sich dafür aufzeigen lassen. Zentral für eine konzeptuelle Vereinheitlichung ist das heuristische Konzept der Botenteilchen (vgl. Falkenburg, 2013, S. 12). Wie auch in anderen Bereichen der Physik werden die Phänomene der ATP von den Physikern als Explananda verstanden, die hier, da eine hinreichende theoretische Erklärung fehlt, heuristisch mittels des Konzepts der Botenteilchen erfolgt. Dieses schlägt die Brücke zwischen den Quellen der kosmischen Strahlung und dem Detektor und liefert schlussendlich die Grundlage für eine tiefergehende explanatorische Vereinheitlichung. Falkenburg (2013, S. 14) verweist darauf, dass wissenschaftliche Erklärung aus philosophischer Sicht in der Regel top-down verläuft in dem Sinn, dass empirische Daten und Phänomene zumindest approximativ aus einer gegebenen Theorie zusammen mit einigen Randbedingungen abgeleitet werden. Dieses Erklärungsverständnis lässt sich nicht ohne Weiteres auf die ATP anwenden. Auf der einen Seite liegt dies daran, dass es für die Modellierung in der ATP keine einheitliche theoretische Grundlage gibt. Auf der anderen Seite bauen die Astroteilchenphysiker aber auch ihre Modelle ausgehend von den Phänomenen im oben angedeuteten fragmentarischen Sinn auf. Auch hier ist das all-particle-spectrum ein sinnvolles Beispiel. Es basiert ebenfalls auf Messdaten, die bestmöglich durch ein Potenzgesetz approximiert wurden. Falkenburg (2013, S. 2) bezeichnet das Vorgehen der ATP als bottom-up, was

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung |

163

sich nach ihr in zweierlei Hinsicht verstehen lässt: Im Sinne des (1) Übergangs von den Daten hin zu einer übergeordneten Theorie oder im Sinne des (2) Übergangs von den in den Messungen detektierten subatomaren Teilchen hin auf die übergeordnete makroskopische Struktur des Universums. Da im Rahmen der folgenden Rekonstruktion die Theorie des Detektors keine weitere Beachtung findet, ist hier in erster Linie das Vorgehen im Sinne von (1) zu behandeln. Dennoch beansprucht die Astroteilchenphysik für sich, dass sie eine Erklärung für ihre Phänomene liefert. Wie aber kann dies sein? Eine sinnvolle Möglichkeit ist es, dass die Erklärung über entsprechende fragmentarische Modelle verläuft, die im Rahmen von vorläufiger Physik konzipiert sind. Falkenburg gibt zu verstehen, dass die so entstehenden Modelle von den Physikern nicht zwangsläufig als realistisch angesehen werden müssen, sondern zu weiten Teilen lediglich als heuristische Instrumente betrachtet werden können. Sie schreibt dazu: Hence, the explanatory strategies of astroparticle physics do not agree with the usual philosophical views about scientific explanation and scientific realism. Indeed the coexistence of ‘top-down’ explanations and heuristic ‘bottom-up’ strategies on the one hand, and the corresponding stronger or weaker realistic beliefs on the other hand, is typical of preliminary or ‘provisional’ physics. (Falkenburg, 2013, S. 15)

Was kann Scheibes Ansatz zu diesen Überlegungen hinzufügen? Im folgenden Abschnitt werde ich mit der Rekonstruktion des Modells der Fermi-Beschleunigung eine von der ATP gegebene Erklärung für einen Teil des all-particle-spectrum darstellen. Ich werde zeigen, dass Scheibes Ansatz der Reduktion physikalischer Theorien die Möglichkeit eröffnet, einen tieferen Einblick vor allem in die explanatorische Vereinheitlichung (Inwieweit lässt sich hier ausgehend von der bottom-up-Modellierung eine top-down-Erklärung finden?) ermöglicht. Die durch die folgenden Betrachtungen möglichen Rückschlüsse werden ersichtlich machen, wie die Patchworkmodelle der ATP es ermöglichen, zwischen verschiedenen Theorien zu vermitteln, um so die Phänomene bzw. die erhaltenen Daten zu erklären. Es wird also in Grundzügen geklärt, wie Modelle als Vermittlungsinstanz zwischen Theorien und Daten fungieren.

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung Die hohen Energien in der kosmischen Strahlung sind eines der ungeklärten Probleme der ATP. Wo kommen diese hochenergetischen Teilchen her und durch welche Mechanismen wurden sie derart stark beschleunigt? Eine mögliche Antwort liefern die Prozesse der Fermi-Beschleunigung, um deren theoretische Modellierung es im folgenden Unterabschnitt gehen wird. Dabei wird unterschieden zwi-

164 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik schen Fermi-Beschleunigung vom Typ I und einer Fermi-Beschleunigung vom Typ II. Ich werde mich folgend mit beiden Modellen auseinander setzen. Sie sollten ursprünglich als Erklärungsansätze für die Verteilung von Energien kleiner als 1015 eV dienen. Damit muss für den Energiefluss ein Exponent in einer Größe von −2, 67 bestimmt werden. Erste Überlegungen sahen einen solaren Ursprung vor. Enrico Fermi war einer der ersten, der sich gegen diesen Ansatz wendete. Den damaligen Forschungsstand fasst er wie folgt zusammen: In recent discussions on the origin of the cosmic radiation E.Teller has advocated the view that cosmic rays are of solar origin and are kept relatively near the sun by the action of magnetic fields. These views are amplified by Alfv´en, Richtmeyer, and Teller. The argument against the conventional view that cosmic radiation may extend at least to all the galactic space is the very large amount of energy that should be present in form of cosmic radiation if it were to extend to such a huge space. Indeed, if this were the case, the mechanism of acceleration of the cosmic radiation should be extremely efficient. (Fermi, 1949, S. 1169)

Selbst schließt sich Fermi dieser Meinung nicht an und schlägt mit den folgenden Worten einen alternativen Ansatz vor: I propose in the present note to discuss a hypothesis on the origin of cosmic rays which attempts to meet in part this objection, and according to which cosmic rays originate and are accelerated primarily in the interstellar space, although they are assumed to be prevented by magnetic fields from leaving the boundaries of the galaxy. The main process of acceleration is due to the interaction of cosmic particles with wandering magnetic fields which, according to Alfv´en, occupy the interstellar spaces. (Fermi, 1949, S. 1169)

Das von Fermi gezeichnete Bild einer Fermi-Beschleunigung vom Typ I sieht vor, dass einzelne Teilchen der kosmischen Strahlung mit elektromagnetischen Wolken zusammenstoßen und von diesen reflektiert werden, wodurch sie an Energie gewinnen (vgl. Abbildung 4.1, links). Auch wenn dieses Bild im Nachhinein aus noch zu erläuternden Gründen zu dem von Fermi-Prozessen vom Typ II abgeändert werden musste, ist ein grundsätzliches Umdenken bezüglich des Ursprungs der kosmischen Strahlung eingeleitet worden. Bei der folgenden Aufarbeitung beider Ansätze orientiere ich mich primär an der Arbeit von Longair (1981, S. 375 ff), die als elementares Lehrbuch für die ATP angesehen werden kann. Insbesondere sind die Rechnungen weitestgehend ebd. entnommen. Longair geht bei seiner Darstellung der Fermi-Beschleunigung vom Typ I von zwei vereinfachenden Annahmen aus. In seinem ursprünglichen Artikel sah Fermi eine zweidimensionale Teilchenbewegung vor, womit bei der Berechnung über den Einfallswinkel gemittelt werden müsste. Alternativ hierzu macht Longair den folgenden Vorschlag (vgl. Abbildung 4.1 (rechts)):

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung |

165

Abb. 4.1. Darstellung des grundlegenden Bildes bei Fermi (links) und bei Longair (rechts). Longair nimmt vereinfachend an, dass er lediglich eine Fallunterscheidung von Frontal- und Folgekollisionen durchführen muss. Rechnerisch lässt sich als Folge auf eine Mittlung über Winkel verzichten.

Let us perform a simplified version of the problem in which we consider only the onedimensional case. There are as many mirrors or clouds moving towards the particle as away from it according to an external observer and, consequently, the particle makes ‘head on’ and ‘following’ collisions with these clouds. (Longair, 1981, S. 377)

Mit der zweiten vereinfachenden Annahme setzt Longair voraus, dass die Bewegung der Wolke nicht von der Bewegung des Teilchens beeinflusst wird. Dies käme dadurch zustande, dass wir annähmen „the cloud is infinitely massive so that its velocity is unchanged in the collision.“ (Longair, 1981, S. 377) Diese Forderung findet eine formale Entsprechung durch: mt → 0 für m w → ∞ mw Dies erinnert mit Blick auf Unterabschnitt 3.2.3 an das Vehikel einer asymptotischen Reduktion. Allerdings kann hier – wenn überhaupt – lediglich von einer solchen in einem entarteten Sinn gesprochen werden, da auch mit Scheibes flexiblem Theorienverständnis nicht klar ist, wodurch die Rolle der reduzierenden Theorie erfüllt wird: Die Inelastizität wird ohne Ausformulierung des elastischen Falls postuliert. Um von einer Reduktion nach Scheibe im engeren Sinn sprechen zu können, ist allerdings, wenn auch keine explizite Rekonstruktion, so doch ein Aufzeigen beider beteiligter Theorien nötig. Im Falle einer Frontalkollision lässt sich die Energie eines Teilchens vor der Kollision Evor sowie der zugehörige Impuls pvor in das Schwerpunktsystem der Wolke umrechnen:   vw E 1 E′vor = γ(E vor + v t ) und p′vor = γ pvor + 2 mit γ =  c v2 1 − cw2

166 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik Da die Kollision aus Sicht des Schwerpunktsystems der Wolke die Energie des Teilchens erhält und die Richtung des Impulses umdreht, gilt: E′vor = E′nach und p′vor = −p′nach Dabei ist E′nach die Teilchenenergie im Wolkensystem nach der Kollision und p′nach der entsprechende Impuls des Teilchens. Die Energie nach der Kollision lässt sich wieder ins Laborsystem übertragen:   Enach = γ E′vor + v w · p′vor vw  vw vt  = Evor + 2γ2 Evor + c c c

Die Energieänderung im Falle einer Frontalkollision ist damit gegeben mit: vw  vw vt  + ∆E = 2γ2 Evor c c c

Zusammen mit der analogen Berechnung im Falle von Folgeaufschlägen ergibt sich:    2γ2 E vcw vcw + vct > 0 für Frontalaufschläge ∆E = −2γ2 E vcw ( vct − vcw ) < 0 für Folgeaufschläge

Weiter lässt sich nach Longair die Frequenz der Wechselwirkung bestimmen durch 12 (v t +v w ) bei Frontal- und 12 (v t −v w ) bei Folgeaufschlägen. Die Wahrscheinlichkeit für einen Energiegewinn ist damit größer als die für einen Energieverlust, was mit Blick auf die zu erhaltenen Energien zunächst wünschenswert ist. Die durchschnittliche relative Änderung der Energie ist damit:     ∆E vw  vw vt  1 vt + vw + 2γ2 = (4.1) E 2 vt c c c   V  vt − vw  1 vt − vw 2γ2 − 2 vt c c  v 2 w (4.2) = 4γ2 c 2 4 v v = 4 w2 − 4 w4 (4.3) c c  v 2 v w c w = 4 (4.4) c Insbesondere ergibt sich der Übergang von (4.3) nach (4.4) durch eine lokale Reduktion im Sinne Scheibes und nicht etwa durch eine Grenzfall- oder asymptotische Reduktion, da hier durch eine entsprechende Grenzwertbildung der gesamte

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung |

167

Ausdruck (4.3) gegen 0 konvergieren würde. Die Nebenbedingung oder – in Scheibes Terminologie – das Vehikel der Reduktion ist gegeben durch: vw  c

(4.5)

Die Geschwindigkeit der Wolke wird damit als wesentlich kleiner als die Lichtgeschwindigkeit angenommen. Die Berechnung bzw. die Reduktionsbeziehung gilt also lediglich in diesem lokalen Rahmen. Sei weiter M die Anzahl der Kollisionen pro Sekunde. Ausgehend von (4.4) ist der durchschnittliche Energiegewinn gegeben mit:    v 2 dE w E = αE = 4M dt c

 2 Der Energiezuwachs ist also proportional zu vcw . Der Exponent von 2 ist der Grund, warum Fermi-Mechanismen vom Typ I in der Literatur teils auch als FermiMechanismen zweiter Ordnung bezeichnet werden. Wegen (4.5) stellt dies einen sehr langsamen Prozess dar, weshalb eine Proportionalität zu vcw notwendig ist.54 Der Schritt zur Energieverteilung erfolgt über die Diffusionsgleichung für die Teilchenbeschleunigung (für Details vgl. Longair, 1981, S. 285 ff). Sei τ die Zeit, die das Teilchen in der entsprechenden Region bleibt, so ist diese gegeben durch: dN N(E) ∂ (E) = D∇2 N + (b(E)N(E)) − + Q(E) dt ∂E τ

(4.6)

Dabei ist dN dt (E) die Änderung der Teilchenverteilung in Abhängigkeit von der Energie, D∇2 N der Diffusionskoeffizient, der allgemein die Energieänderung auf∂ grund von Diffusionsprozessen angibt. Der Ausdruck ∂E (b(E)N(E)) liefert die Änderung der Teilchenenergie in Abhängigkeit von der Energieverteilung, N(E) τ stellt die durchschnittliche Aufenthaltsdauer der Teilchen dar. Q(E) schlussendlich ermöglicht das Einrechnen von Teilchenquellen im betrachteten Gebiet. Für den hier gegebenen Fall sind nicht alle Summanden von Interesse. Gleichung (4.6) lässt sich nach Longair weiter vereinfachen, denn „[w]e are interested in the steady-state solution and, hence, dN/dt = 0. We are not interested in diffusion and hence D∇2 N = 0 and we assume there are no sources, Q(E) = 0. The energy loss term is b(E) = −dE/dt which in our case is −αE.“ (Longair, 1981, S. 379) Übrig bleibt der folgende Ausdruck: −

∂ N(E) (αEN(E)) − =0 ∂E τ

(4.7)

54 Diese Proportionalität wird erhalten durch Fermi-Mechanismen vom Typ II, die weiter unten dargestellt werden.

168 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik Die im vorangegangenen Zitat zusammengefasst gegebenen Nebenbedingungen für den Übergang von (4.6) nach (4.7) lassen sich auch einzeln nachvollziehen. Dass lediglich der statische Fall relevant ist, bedeutet, dass dN (E) dt

=

0

(4.8)

erfüllt sein muss. Wird (4.8) verstanden als eine Nebenbedingung γ, die von einer Theorie Σ(X; A; s) gefordert wird, welche maßgeblich von Gleichung (4.6) bestimmt wird, gilt hier: Σ(X; A; s) ∧ γ  Σ ′ (X; A; s)

(4.9)

wobei Σ ′ (X; A; s) derjenigen Theorie entspricht, in der (4.6) ersetzt wird durch den Ausdruck 0 = D ∇2 N +

∂ N(E) (b(E)N(E)) − + Q(E) ∂E τ

Anders ausgedrückt werden hier typisierte Mengen aus dem variablen Teil der Theorie T ′ herausgelöst und in den konstanten übertragen. Es gilt: Σ ′ (X; A; s◦1 , . . . , s◦m , s1 , . . . , s n ) = Σ(X; A; s◦1 , . . . , s◦m−1 , s0 , . . . , s n )             konstant

variabel

konstant

(4.10)

variabel

So formuliert stellt sich der Übergang von (4.6) nach (4.7) als eine direkte Verallgemeinerung zweiter Art im Sinne von Unterabschnitt 3.2.2 dar, wobei die Reduktion entgegen der ursprünglich von Scheibe antizipierten Richtung hin zur einfacheren Theorie verläuft. Ähnlich lassen sich auch die weiteren einschränkenden Bedingungen aus dem obigen Zitat als Vehikel einer direkten Verallgemeinerung zweiter Art verstehen. Zusammen mit N(E) ∂ (b(E)N(E)) − + Q(E) ∂E τ ∂ N(E) 0= (b(E)N(E)) − + Q(E) ∂E τ D∇2 N(E) = 0 0 = D ∇2 N +

(für Σ) (für Σ ′ ) (für γ)

sowie N(E) ∂ (b(E)N(E)) − ∂E τ ∂ N(E) 0= (b(E)N(E)) − ∂E τ Q(E) = 0 0 = D ∇2 N +

(für Σ) (für Σ′ ) (für γ)

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung |

169

lässt sich also ein stufenweiser Übergang von (4.6) nach (4.7) finden, der sich mit Scheibes Terminologie problemlos beschreiben lässt. Damit ergibt sich insgesamt:

⇒ ⇒ ⇒ ⇒

dN N(E) ∂ (E) = D∇2 N + (b(E)N(E)) − + Q(E) dt ∂E τ N(E) ∂ =0 − (αEN(E)) − ∂E τ dN(E) N(E) dαE · N(E) − · αE − =0 − dE dE τ   1 N(E) dN(E) =− 1+ dE τα E 1

N(E) = c · E−(1+ τα )

(4.11) (4.12) (4.13) (4.14) (4.15)

Auch wenn sich für den Teilchenfluss wie gewünscht ein Potenzgesetz ergibt, ist über die Größe des Exponenten noch nichts gesagt. Dieser muss nicht zwangsläufig in der Nähe eines Wertes von 2, 67 liegen. In der Tat müssten aufgrund des niedrigen Energiegewinns pro Kollision die elektromagnetischen Wolken bei Fermi-Prozessen zweiter Ordnung viel zu nahe beieinander liegen, damit der Energiegewinn nicht durch Energieverluste im interstellaren Medium auf dem Weg von Wolke zu Wolke wieder kompensiert wird. Um diesem Problem aus dem Weg zu gehen wurde zu Ende der 70er Jahre zeitgleich von mehreren Autoren ein alternativer Prozess der Teilchenbeschleunigung vorgeschlagen (vgl. Bell, 1978; Blandford und Ostriker, 1978). Neu war das Ersetzen der Magnetwolken durch eine Schockfront, welche die reflektierende Materie hinter sich her zieht. Auf diese Weise ließen sich die Folgeaufschläge in der Berechnung vernachlässigen. Longair beschreibt das Bild dieses als FermiMechanismus vom Typ II bezeichneten Beschleunigungsprozesses wie folgt (vgl. Abbildung 4.2): Now consider what happens to a cosmic ray gas in the vicinity of the shock. In front of the shock, the particle distribution is isotropic [. . . ]. Some of the cosmic rays pass through the shock and are then isotropised by scattering due to irregularities behind the shock. Notice that, in this process, the cosmic particles are converted downstream by the gas behind the shock but some of them recross the shock into the stationary gas. This streaming of the cosmic rays upstream is halted by the usual scattering process so that the cosmic ray gas is again isotropised, but the particles which went through this cycle have acquired a certain amount of energy by first-order Fermi accelerations. The shock then catches up with the particles and the cycle is repeated. (Longair, 1981, S. 381)

Folgend sei β der durchschnittliche relative Energiezuwachs eines Teilchens pro Kollision und p die Wahrscheinlichkeit dafür, dass jenes Teilchen nach einer Kol-

170 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik

Abb. 4.2. Aus dem Grundgedanken einer Schockwellenbeschleunigung ergeben sich FermiProzesse erster Ordnung. Die zuvor gegebenen einzelnen Zusammenstöße mit Wolken niedriger Geschwindigkeiten werden nun ersetzt durch einzelne, starke Reflexionen an einer Schockwelle, so wie sie etwa im Falle von Supernova-Überresten entstehen kann.

lision in der beschleunigenden Region bleibt. Damit sind nach k Kollisionen N = Nvor · p k Teilchen der Energie E = Evor · β k in der Region und es ist: 

ln

⇒ ⇒ ⇒



N Nvor



= ln p k







ln



ln(N/Nvor ) ln p = ln β ln(E/Evor )     N ln p E ln = · ln Nvor ln β Evor  ln p/ ln β E N = Nvor Evor

E Evor



= ln β k



(4.16) (4.17) (4.18) (4.19)

Einfaches umformen und differenzieren liefert als Änderungsrate: dN Nvor = · Eln(p)/ ln(β)−1 ⇒ dN = c · E(ln p/ ln β)−1 · dE dE Evor

(4.20)

Dabei lässt sich die Aufenthaltswahrscheinlichkeit p als Funktion der Aufenthaltsdauer τ verstehen, womit (4.20) bereits in die Nähe von Formel (4.15) für Fermi-Prozesse zweiter Ordnung rückt. Darüber hinaus stellen die Ausdrücke α und β lediglich unterschiedliche Beschreibungen der Energiezunahme dar. Es liegen also äquivalente Beschreibungen ein und desselben Sachverhalts vor. Damit lässt sich auf das bereits bei Fermi-Prozessen von Typ I gegebene Bild zurückgreifen: Die magnetische Wolke wird ersetzt durch das hinter der Schockfront hergezogene Gas, das sich mit der Geschwindigkeit v w = ∆u = u1 − u2

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung |

171

bewegt. Dabei ist u1 die Geschwindigkeit der Schockwelle und u2 die des Gases. Beachte, dass u1 > u2 gilt, da das Gas hinter der Schockwelle hergezogen wird. Da sich im Modell Folgeaufschläge vernachlässigen lassen, ergibt sich für die gemittelte Änderung der Energie:     2 ∆E vw  vw vt  v w v w v t v4w v3w v t + + − − (4.21) = 2γ2 >0=2 E c c c c2 c2 c4 c4 Da sich das Gas dennoch mit ansatzweise der Geschwindigkeit des Schocks bewegt, lässt sich unter der Nebenbedingung ∆u  c erneut mittels einer lokalen Reduktion in einem ersten Schritt übergehen zu:     ∆E ∆uv ∆uv t (4.22) =2 0+ 2 −0−0 =2 2 t E c c

Auch hier kann der Übergang von (4.21) nach (4.22) nicht durch einen Grenzwertprozess eingeleitet werden. Darüber hinaus wird das Teilchen als relativistisch angenommen. Es lässt sich damit über eine Grenzfallreduktion mit dem Vehikel v t → c von (4.22) übergehen zu   ∆E ∆u (4.23) =2 E c

Formel (4.23) entspricht dem erstgradigen Energiezuwachs wie gewünscht. Dass in allen Fällen (4.21) bis (4.23) auch von Longair durchwegs Gleichheitszeichen verwendet werden, lässt sich nur rechtfertigen, sofern den verwendeten Reduktionsbeziehung aus pragmatischen Gründen eine hinreichende Stärke zugesprochen wird. Was nun bei Longair folgt ist recht verwunderlich. Die zuvor angeführte Vereinfachung zum Trotz geht er einen Schritt zurück und bezieht sich auf die analogen Berechnungen, die sich unter Beachtung der Einschlagswinkel ergeben. Er schreibt:

In a more refined calculation, we have to average over all possible angles of incidence of the cosmic rays approaching the shock from upstream and downstream. This results in   ∆E 4 ∆u = · (4.24) E 3 c so that

β=

4 ∆u E =1+ · E0 3 c (Longair, 1981, S. 382, Notationen von mir angepasst)

Wie Longair zu dieser Darstellung kommt, bleibt offen. Allerdings ist der hinter ihr stehende Gedanke wie bereits an einigen Stellen zuvor der einer lokalen Reduktion. Dabei ist davon ausgegangen worden, dass es gewisse Nebenbedingungen

172 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik gibt, durch die zwei Theorien ansatzweise aufeinander bezogen werden können. Im vorliegenden Fall handelt es sich um die Annahme, dass sich die entsprechenden Energien nur geringfügig unterscheiden. Für die weitere Berechnung sei N1 die Teilchendichte im interstellaren Medium und c¯ deren Durchschnittsgeschwindigkeit. Die Anzahl der Teilchen, welche eine Flächeneinheit der Schockfront pro Sekunde durchqueren, ist gegeben mit 1 ¯ . Longair begründet dies mit der kinetischen Gastheorie, deren Anwendung 4 N1 c wegen ∆u  c berechtigt sei. Dabei trifft diese Begründung nicht den eigentlich relevanten Punkt. Es kommt weniger darauf an, dass die Geschwindigkeit der Wolke wesentlich kleiner als die Lichtgeschwindigkeit ist, sondern vielmehr darauf, dass sie niedrig ist. Die unausgesprochene Bedingung für die Verwendung der kinetischen Gastheorie ist damit die Existenz des Grenzwerts ∆u → 0, wodurch der statische Fall zur Anwendung der Thermodynamik erreicht wird. Da nach Longair lediglich ultrarelativistische Teilchen betrachtet werden, führt der Grenzfall c¯ → c als Vehikel zu 1 1 N c¯ → N1 c für c¯ → c 4 1 4 Da darüber hinaus durch die Schockfront selbst kaum Teilchen abgelenkt werden, folgt zusammen mit dem Grenzfall N1 → N2 weiter 1 N c − u2 N2 4 1

⇒ N1 →N2



p=

1 4 N1 c − u2 N2 1 4 N1 c

p =1−

4u2 c

(4.25) (4.26)

Logarithmierung von (4.24) und (4.25) liefert zusammen mit zwei lokalen Reduku2 tionen über die Vehikel ∆u c , c  1:   4 ∆u 4 ∆u sowie (4.27) ln β = ln 1 + · = · 3 c 3 c   4u2 4u (4.28) ln p = ln 1 − =− 2 c c Bemerkenswert ist, dass dieser Übergang lediglich durch die Verwendung mathematischer Hilfsmittel begründet ist. In wie weit hier eine realistische Interpretation besteht bleibt fraglich. Insgesamt folgt auf dem oben Gesagtem: ln p 3u2 =− ln β u1 − u2 Eine weitere lokale Einschränkung ergibt sich aufgrund der Geschwindigkeit der Schockwelle. Mit Longairs Worten gilt:

4.2 Fallbeispiel I: Fermi-Prozesse erster und zweiter Ordnung |

173

The basic picture is of a strong shock wave propagating through the interstellar medium which already contains some high energy particles. By a strong shock, we mean that the disturbance propagates through the interstellar gas at a velocity very much greater than the sound speed, u  c s . This is certainly the case for the material ejected in supernovae explosions where the velocities are about 104 km s−1 , whereas the sound and Alfv´en speeds of the interstellar gas are most about 10km s−1 . The great simplifying feature of strong shocks is that the density enhancement on crossing the shock is given by ρ2 γ+1 = ρ1 γ−1 where the subscripts 1 and 2 refer to the gas in front of and behind the shock wave respectively and γ is the ratio of specific heats [. . . ]. For fully ionized gas γ = 53 and hence ρ2 /ρ1 = 4. (Longair, 1981, S. 381)

Dies liefert schlussendlich zusammen mit der Rankine-Hugoniot-Gleichung: ρ1 u1 = ρ2 u2 ⇒

u1 ln p = −1 =4⇒ u2 ln β

Durch Einsetzen in die Gleichung für die Energieverteilung (4.19) folgt: dN(E) = konst. × E−2 dE

(4.29)

fast wie gewünscht. Dass das Spektrum mit den durchgeführten Berechnungen nicht so schnell fällt wie durch die empirischen Messergebnisse vorgegeben, erkennt auch Longair, wenn er schreibt: Well 2 is not 2, 5 , but it is not too far off at all. This is a remarkably elegant argument. It only depends on the fact that the shock must be strong [. . . ]. The essential requirements of this mechanism are the presence of a strong shock and some relativistic particles to begin with. Thus, the mechanism is likely to apply to a wide range of different environments including galactic nuclei and the hot-spots in extragalactic radio sources. (Longair, 1981, S. 383)

Einen möglichen Erklärungsansatz, dem folgend allerdings nicht weiter nachgegangen werden soll, liefert darüber hinaus Kolanoski in seinem Skript zur Einführung in die Astroteilchenphysik, wenn er erläutert, „[d]ass das gemessene Spektrum steiler ist (α ≈ 2, 7) läßt sich damit erklären, dass die kosmische Strahlung sehr lange in der Galaxis verweilt und dabei durch Streuung an der interstellaren Materie Energie verliert, was das Spektrum steiler macht.“ (Kolanoski, 2009, S. 166) Was ist mit dem Vorangegangenen gewonnen? Welche Theorien waren zur Bestimmung des gewünschten Exponentialgesetzes (4.29) notwendig und wie hängen diese miteinander zusammen? Der Ausgangspunkt war die Verwendung von Gleichung (4.20). Um die Zusammenfassung übersichtlicher zu gestalten, lassen sich vier Elemente unterscheiden. Auf der einen Seite musste zum Erhalt

174 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik von (4.29) (1) Gleichung (4.20) bestimmt werden. Darüber hinaus war (2) die Bestimmung von p relevant und weiter (3) die Bestimmung von β. Schlussendlich ist für den direkten Übergang noch (4) die Bestimmung von konkreten Zahlwerten notwendig. Bei der Bestimmung von Gleichung (4.20) liegt das grundlegende Bild der klassischen Mechanik vor. Hier ist in erster Linie die Rede von klassischen Teilchen, die mit einer bestimmten Aufenthaltswahrscheinlichkeit in einem Bereich bleiben. Die durchgeführten mathematischen Berechnungen erfolgen auf Basis dieses Bildes. Zur Bestimmung von p ist die kinetische Gastheorie zur Anwendung gekommen. Diese Anwendung konnte unter Zuhilfenahme einer Grenzfallreduktion durchgeführt werden, bei der die Schockfront als statisch relativ zum ihr folgenden Gas angenommen wurde. Hier distanziert man sich also explizit vom zuvor verwendeten relativistischen Fall. Auf der anderen Seite kamen darüber hinaus innerhalb der Gastheorie weitere Grenzfallreduktionen zur Anwendung, die jedoch lediglich für mathematische Vereinfachungen und Approximationen sorgten. Insgesamt war für den Übergang vom relativistischen Fall auf die Thermodynamik ein Grenzfall notwendig. Bezüglich der Bestimmung von β ist festzuhalten, dass der Ausgangspunkt die Verwendung der speziellen Relativitätstheorie war. Dabei wurde zunächst lediglich eine allgemeine Herleitung unter der vereinfachenden Annahme durchgeführt, nach der lediglich Frontal- und Folgekollisionen vorkamen. Diese Annahme ist durchaus als unrealistisch zu bezeichnen in dem Sinn, dass sie die Isotropie der kosmischen Strahlung verneint, ohne hierfür eine Begründung zu liefern, die über die Vereinfachung der sich ergebenden Berechnung hinaus geht. Der Übergang zu der eigentlich gewünschten Formel (4.24) konnte nur durch eine lokale Reduktion erhalten werden, durch die eine eher realistische Annahme einer Gleichverteilung der Wolken zumindest in einer zweidimensionalen Ebene ins Spiel kam. Dabei ist zu beachten, dass im Rahmen der Rekonstruktion von FermiProzessen vom Typ I eine solche lokale Reduktion nicht durchgeführt wurde und stattdessen auch die unrealistische Annahme als akzeptabel für Fermi-Prozesse erster Ordnung angesehen wurde. Zu bemerken ist, dass die ähnliche Modellierung von Fermi-Prozessen von ersten und zweiten Typ lediglich aufgrund einer Äquivalenz zwischen den beiden Prozesse eingeführt wird. Hieraus ergibt sich die grundlegende Vorstellung, mit der sich das hinter der Schockfront hergezogene Plasma als eine Wolke bestimmen lässt, die ähnlich modelliert werden kann wie im Falle derjenigen bei Fermi-Beschleunigungen vom Typ I. Zudem war ersichtlich, dass etwa bei den Gleichungen (4.27) und (4.28) lediglich mathematische Hilfsprozesse angewendet wurden, bei denen nicht klar ist, in

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

175

wie weit sie mit einer realistischen Interpretation vereinbar sind. Die zur endgültigen Berechnung des Exponenten herangezogene Rankine-Hugoniot-Gleichung stammt schlussendlich ebenso wie der adiabatische Index γ aus der Thermodynamik. Beachtenswert ist, dass ausgegangen wird von einem vollständig ionisierten Gas, womit sich γ = 35 begründen lässt. Das interstellare Medium ist allerdings durchaus nicht vollständig ionisiert und insbesondere ist es auch der nicht ionisierte Teil der kosmischen Strahlung, der im all-particle-spectrum, welches das zu erklärende Phänomen ist, auftaucht. Dennoch wird hier auch von der eigentlich angenommenen Zusammensetzung des Gases abgewichen. Mit dem Vorangegangenen habe ich gezeigt, dass Reduktionen nach Scheibe bei der Modellierung beider Arten von Fermi-Prozessen eine nicht zu unterschätzende Rolle spielen. Im folgenden Abschnitt werde ich noch der Frage nachgehen, wie sich mehrere solcher Modellierungen miteinander verbinden lassen. Dies geschieht am Beispiel aktiver galaktischer Kerne.

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne Im vorangegangenen Abschnitt habe ich aufgezeigt, welche Rolle die Reduktionsarten nach Scheibe bei der Modellierung von Fermi-Prozessen erster und zweiter Ordnung spielen. Dabei hatte sich ihre Unentbehrlichkeit für den Modellierungsprozess herausgestellt: Die verwendeten, verschiedenen Theorien entstammenden Fragmente gingen teils durch Grenzwertprozesse oder Konjunktion von Nebenbedingungen auseinander hervor, teils ließen sie sich lediglich unter postulierten Annahmen lokal aufeinander beziehen (vgl. Abschnitt 4.2). Durch dieses Heranziehen unterschiedlichster Theorien lieferten die Fermi-Prozesse ein Beispiel für durch die Reduktionsarten nach Scheibe zusammengehaltene Patchwork-Modelle im Sinne Cartwrights (vgl. Unterabschnitt 2.3.3). Neben der Modellierung von Einzelprozessen werden in der ATP aber auch komplexere Modelle verwendet, in denen mehrerer solcher Einzelprozesse zu tragen kommen. Exemplarisch hierfür führt Daniela Bailer-Jones (2000) ausgedehnte extragalaktische Radioquellen (extended extragalactic radio sources, EGGS) an, die in der modernen Astroteilchenphysik auch als aktive galaktische Kerne (active galactic nuclei, AGN) bezeichnet werden (vgl. Carroll und Ostlie, 2007, S. 1155 ff). Meine folgenden Ausführungen bauen auf Bailer-Jones (2000) auf. Ein erstes Interesse für die Erforschung aktiver Galaxien weckten die Beobachtungen von E.A.Fath (1909), der bei der Untersuchung des Spiralnebels NGC 1068 anstelle der bei vielen Objekten zuvor verzeichneten Absorptionslinien ein Spektrum mit breiten Emissionslinien vorfand. Auch wenn er selbst noch kein ei-

176 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik genständiges Modell entwickeln konnte, erkannte Fath sofort die Bedeutung seiner Entdeckung, wenn er schreibt, dass die Hypothese „that the central portion of a nebula like the famous one in Andromeda is a single star may be rejected at once unless we wish to modify the commonly accepted ideas as to what constitutes a star.“ (Fath, 1909, S. 76) In seiner Klassifikationsarbeit extragalaktischer Nebel verzeichnete auch Edwin Hubble (1926) zwei weitere Galaxien, die sich ähnlich verhielten wie zuvor NGC 1068. Dennoch ging die Untersuchung der Emissionslinien in den Folgejahren nur schwerlich voran. Schlussendlich stellte Karl C. Seyfert (1943) fest, dass der größte Teil der Emission von einem kleinen Bereich im Innern der betreffenden Galaxien ausging. Die seitdem als Seyfert-Galaxien bezeichneten Objekte sollten später noch differenziert werden in Seyfert 1 und Seyfert 2 Galaxien. Sie gehören zu der allgemeinen Klasse aktiver Galaxien, unter die darüber hinaus noch Radio Galaxien, Quasare, Quasi Stellare Objekte (QSO) sowie Blazare fallen (vgl. Carroll und Ostlie, 2007, S. 1155 ff). Die Details der Entwicklung hin zu einem einheitlichen Modell aktiver Galaxien veranschaulichen sehr gut, „that research is not ‘a long quite river’, and on the contrary evolves in a non-linear and erratic way, full of mistakes and of dead ends, and that it gives rise to passionate controversies“ (Colllin, 2006, S. 1), weshalb ihre Erläuterung eher in eine historische Arbeit gehört.55 Aus diesem Grund werde ich mich hier folgend lediglich auf einige zentrale Aspekte der aktuell gängigen Modellierung konzentrieren, die zuvor bereits ähnlich in der Arbeit von Daniela Bailer-Jones (2000) betont wurden. Danach ist der grundsätzliche Aufbau eines AGNs durch (1) einen zentralen Kern bestehend aus einem massiven schwarzen Loch gegeben, von dem ausgehend (2) zwei diametrale Jets abgehen, die Materie in eine Entfernung von bis zu einem Megaparsec ins Universum schleudern. Dort, wo die Jets auf das interstellare Medium treffen, findet sich jeweils ein Bereich besonders hochenergetischer Emissionen, die sogenannten (3) Hotspots. Um den Kern selbst rotiert zudem eine (4) Akkretionsscheibe; die Jets schlussendlich sind umgeben von (5) Kegeln (lobes) bestehend aus Plasma (vgl. Bailer-Jones (2000, S. 58); Abbildung 4.3).56

55 Zentrale Beiträge auf dem Weg finden sich bei Urry und Padovani (1995); Antonucci (1993); Tadhunter (2008). Vgl. zudem Carroll und Ostlie (2007, S. 1155 ff). 56 In aktuellen Modellierungen wird davon ausgegangen, dass sich die oben aufgeführten Unterklassen aktiver galaktischer Kerne durch Betrachtung eines durch (1) bis (5) ausgezeichneten Objekts aus unterschiedlichen Blickwinkeln ergeben (vgl. Urry und Padovani, 1995). Dieser letzte Aspekt wird in der folgenden Modellierung allerdings aus Gründen der Komplexität ausgelassen. Zudem ist er für die folgende Argumentation nicht notwendig.

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

177

Abb. 4.3. Graphische Aufbereitung des Modells eines aktiven galaktischen Kerns.

Schon diese grundlegende Beschreibung macht ersichtlich, dass bei der Modellierung aktiver Galaxien anders als bei der Fermibeschleunigung mehrere zu modellierende Prozesse gleichzeitig beteiligt sind, weshalb sie sich nicht in nur einem einzigen Schritt durchführen lässt. Statt einer unmittelbaren Gesamtmodellierung muss ein Modell einer aktiven Galaxie zunächst in verschiedene Submodelle unterteilt werden, die später zusammengesetzt eine sinnvolle Grundlage zum Verständnis der Daten geben. Das an Newtons Verfahren der Analysis und Synthesis erinnernde Vorgehen findet sich auch bei Bailer-Jones, wenn sie schreibt: An important strategy to deal with a complicated object of investigation is to split the problem up into sub-problems that can be treated individually and separately. This means that identified gaps can be addressed directly and specifically, while, for the time being, most other aspects involved in modeling the phenomenon are disregarded. (Bailer-Jones, 2000, S. 60)

Die Modellierung aktiver Galaxien beruht nach Bailer-Jones (2000, S. 60 ff) auf mindestens sechs solcher Submodelle, die sich an den zuvor aufgeführten Bestandteilen des Gesamtmodells orientieren. Sie differenziert zwischen einer Modellierung der (1) Akkretionsscheibe, des (2) fluxfreezing, das den Zusammenhalt der Jets erklärt, der (3) Hydrodynamik zum Verständnis der Entwicklung

178 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik der Kegel und von (4) Synchrotron-Prozessen , die zur Erklärung des zugrundeliegenden Potenzgesetzes der Energieverteilung führen. Zum Verständnis der Hotspots sei zudem eine separate Modellierung des (5) RAM-Drucks sowie von (6) Fermi-Prozessen erster Ordnung nötig. Meine folgenden Ausführungen basieren zunächst auf dieser Differenzierung nach Bailer-Jones, gehen aber in Bezug auf die formalen Details zu den Punkten (1) und (2) weit darüber hinaus. Die formalen Ausführungen habe ich angelehnt an Longair (1981) bzw. Carroll und Ostlie (2007), denen ich auch zu weiten Teilen die folgenden Berechnungen entnommen habe. Die Aufarbeitung der Punkte (3) – (5) fällt demgegenüber relativ kurz aus, da hier bereits grundlegende Aspekte der Modellierung ein hohes Maß an formalem Aufwand verlangen würden, das eher in ein physikalisches Lehroder Fachbuch gehört, nicht aber in eine philosophische Arbeit. Für die sich anschließende Argumentation ist die Modellierung von (1) und (2) aber ohnehin ausreichend – zumal ich mit Unterabschnitt 4.2 bereits eine detaillierte formale Aufarbeitung von Fermiprozessen erster Ordnung und damit (6) gegeben habe. Die Modellierung der Akkretionsscheibe soll nach Bailer-Jones (2000, S. 60) einen ersten Ansatz zur Erklärung der für die Jets benötigten hohen Energien liefern. Eine der effizientesten Möglichkeiten hierzu ist die Umwandlung freiwerdender potentieller Gravitationsenergie in kinetische Energie – dies gilt jedenfalls bei der Modellierung von Neutronensternen (vgl. Carroll und Ostlie, 2007, S. 692 ff). Der Grundgedanke der Modellierung lässt sich wie folgt formulieren: The classic idea of this model is as follows: If an object of very large mass, such as a neutron star or a black hole, gravitationally attracts surrounding matter, gravitational energy is converted into kinetic energy as this matter is accelerated towards this large mass. Assuming that the kinetic energy can be converted, it can be radiated away and observed as luminosity. However, a mechanism is needed that efficiently converts the kinetic energy into internal energy and then, eventually, into radiative energy: the accretion disk model assumes that the in-falling matter has angular momentum and is therefore prevented from falling directly into the black hole. It forms an accretion disk around a black hole and can gradually release its energy before falling in. (Bailer-Jones, 2000, S. 60, Hervorhebung im Original.)

In der Tat basiert das Modell der Akkretionsscheibe um ein massives schwarzes Loch auf demjenigen einer Akkretionsscheibe von stellaren Objekten wie Neutronensternen und weißen Zwergen. Gas, das in den Gravitationsradius eines Massenobjektes gelangt, fällt nicht in dieses Objekt hinein, sondern geht zunächst in einen Orbit über, der aufgrund von Viskositätseffekten instabil ist. Dabei sind die „physical mechanisms responsible for the viscosity in accretion disks [. . . ] as yet poorly understood.“ (Carroll und Ostlie, 2007, S. 692) In der Praxis kann diese Erklärungslücke gut übergangen werden, denn unabhängig von der exakten Ursache gelte, dass „[w]hatever the mechanism, the gas is heated throughout its

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

179

descent to increasingly higher temperatures as the lost orbital energy is converted into thermal energy. Finally, the plunging gas ends its journey at the star’s surface.“ (Carroll und Ostlie, 2007, S. 692) Um mit der formalen Aufarbeitung beginnen zu können, müssen zunächst ähnlich wie bei der Fermi-Beschleunigung (vgl. Abschnitt 4.2) vereinfachende Bedingungen vorausgesetzt werden. Dies geschieht bei Carroll und Ostlie (2007, S. 692) durch eine (entartete) lokale Reduktion: Ist v1 die Bewegungskomponente des Geschwindigkeitsvektors der Akkretionsscheibe hin zum Massezentrum und v2 dessen tangentiale Bewegungskomponente, so ist das Vehikel gegeben mit v1  v2 . Informell kommt dies wie folgt zum Ausdruck: let’s assume that the inward radial velocity of the disk gases is small compared with their orbital velocity. Then, to a good approximation, the gases follow circular Keplerian orbits, and the details of the viscous forces acting within the disk may be neglected. Furthermore, since the mass of the disk is very small compared with that of the primary [object], the orbiting material feels only the gravity of the central primary star. (Carroll und Ostlie, 2007, S. 692 f) 57

Die zweite im Zitat angeführte Vereinfachung verweist auf eine asymptotische Rem duktion mit dem Vehikel M → 0 für M → ∞, die allerdings – da wie schon zu Beginn der Modellierung der Fermi-Beschleunigung, keine reduzierte Theorie explizit aufgezeigt wird bzw. werden kann – entartet ist. Die Teilchen der Staubwolke bewegen sich unter beiden Voraussetzungen in klassischen Bahnen um das Massenzentrum der Masse M und der Prozess des Hineinstürzens in den Stern lässt sich unterdrücken. Wird die Akkretionsscheibe mit Masse m darüber hinaus als ein Schwarzkörper aufgefasst, ist die Strahlung in Folge abhängig von deren Radius r und für die Energie ergibt sich klassisch: E = −G

Mm 2r

Aus der Formel folgt, dass „[a]s the gas spirals inward, its total energy E becomes more negative. The lost energy maintains the disk’s temperature and is ultimately emitted in the form of blackbody radiation.“ (Carroll und Ostlie, 2007, S. 693) Dass dabei immer noch von einer spiralartigen Bewegung des Gases gesprochen wird, ist der Veranschaulichung durch das Modell zu verdanken. In der Modellierung jedenfalls ist bisher nichts über den konkreten Mechanismus des Radiusverlusts gesagt. 57 Carroll und Ostlie modellieren die Akkretionsscheibe im Kontext von Doppelsternsystemen (vgl. ebd.). Im Kontext dieser Arbeit ist allerdings lediglich ein einfaches System von Interesse. Der primary star ist hier also der Stern. Für die Formalisierung ergeben sich dabei jedenfalls keine hier relevanten Veränderungen.

180 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik

Abb. 4.4. Skizze zur Modellierung der Akkretionsscheibe.

Zur Bestimmung der Gesamtenergie der Akkretionsscheibe muss über ihre gesamte Breite dr gemittelt werden (vgl. Abbildung 4.4). Sei dazu angenommen, dass der Akkretionsscheibe von Außen kein weiteres Material zugeführt wird. Die Änderung der Masse m′ pro Zeiteinheit entspricht einem Massenverlust in Höhe der in das Massezentrum stürzenden Materie. Aufgrund der Energieerhaltung muss die auf diese Weise in der Zeit t den Ring verlassende Masse auch der Energie entsprechen, was eine Emission bedeutet in Höhe von:   dE d Mm′ t Mm′ t dE = dr = dr = dLRing t −G dr = G dr dr 2r 2r2 dLRing ist die Luminosität des Rings. Umformung und Verwendung des StephanBoltzmann-Gesetzes sowie Integration über (R, ∞), wobei R der Radius des Objekts im Massezentrum ist, liefert gemäß Carroll und Ostlie (2007, S. 694): Mm′ dr 2r2     1/4 3/4 Mm′ R T= G · 3 r 8πσR

dLRing = 4πrσT 4 dr = G ⇒

(4.30) (4.31)

Die bisherigen Bestimmungen seien allerdings lediglich oberflächlich, denn „[a] more thorough analysis would take into account the thin turbulence boundary layer that must be produced when the rapidly orbiting disk gases encounter the surface of the [. . . ] star.“ (Carroll und Ostlie, 2007, S. 694 f) Die exaktere Abschätzung der Temperatur der Scheibe liefere: T=



GMm′ 8πσR3

1/4  3/4  1/4  R · 1 − R/r r

(4.32)

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

181

Der Zusammenhang der Gleichungen (4.32) und (4.31) ergibt sich also erneut mittels einer lokalen Reduktion. Carroll und Ostlie (2007, S. 695) geben hier (natürlich ohne den Begriff „Reduktion“ zu verwenden) explizit die Nebenbedingung r  R an, womit die Bereiche im äußeren Rand der Akkretionsscheibe bezüglich ihres Beitrags zur ausgehenden Strahlung ein höheres Gewicht zukommt als dem Randbereich im Innern, in dem Viskositätseffekte eine größere Rolle spielen. Im Falle der dem Modell zugrundeliegenden Sterne und stellaren Objekten ist es irrelevant, auf welche Weise die Elemente der Akkretionsscheibe auf sie hinab stürzen: Über eine langsame Abnahme durch Kreisbewegungen oder indem sie direkt in das Objekt fallen. Der zweite Fall wird durch die obige Modellierung jedenfalls nicht ausgeschlossen; für beide Fälle ergeben sich vergleichbar hohe Energien. Der Kern einer aktiven Galaxie im obigen Modell besteht allerdings aus einem schwarzen Loch, für das andere Bedingungen erfüllt sind: However, dropping matter straight down onto a black hole is very inefficient because there is no surface for the mass to strike. Instead, as an observer at a great distance watched, a freely falling mass would slow to a halt and then disappear as it approaches the Schwarzschild radius, R s . However, as matter spirals in toward a black hole through an accretion disk, a substantial fraction of the rest energy can be released. (Carroll und Ostlie, 2007, S. 1182, Hervorhebung im Original)

Für ein nicht rotierendes schwarzes Loch liegt der kleinste Orbit für eine stabile Umrundung bei r = R s ; die freigelassene gravitationale Bindungsenergie entspricht rund 5, 72% der Restmasse des Teilchens. Im Falle eines rotierenden schwarzen Lochs ist sie mit 42, 3% sogar noch höher (vgl. Carroll und Ostlie, 2007, S. 1182). Die Luminosität der Akkretionsscheibe lässt sich damit schreiben als: L Ring = µm′ c2

(4.33)

wobei µ die Effizienz des Prozesses angibt via 0, 0572 ≤ µ ≤ 0, 423. Aufgrund der höheren Masse des zentralen schwarzen Lochs wäre intuitiv zu erwarten, dass die von dessen Akkretionsscheibe ausgehende Gamma-Strahlung eine höhere Energie besitzt als die von der Akkretionsscheibe um einen Neutronenstern oder weißen Zwerg ausgehende. Dem sei allerdings nicht so, denn der SchwarzschildRadius „increases with increasing mass, and so the characteristic disk temperature T disk [. . . ] decreases as the mass of the black hole increases.“ (Carroll und Ostlie, 2007, S. 1183) Dies ergibt sich, da wegen R=

1 GM Rs = 2 2 c

182 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik nach (4.31) die Temperatur der Akkretionsscheibe gegeben ist mit T=



3c6 m′ 8πσG2 M 2

1/4

(4.34)

Wird die Luminosität umgerechnet in Einheiten der Eddington-Grenze LEd. durch fEd. =

LRing LEd.

so liefert dies zusammen mit (4.33): µm′ c2 = fEd.

4f πGc 4πGc M ⇒ m′ = Ed. M κ¯ µ¯κ c

κ entspricht dem Durchlässigkeitsfaktor. Eingesetzt in (4.34) liefert dies: T=



3c5 fEd. 2¯κ σGMµ

1/4

1

⇒ T ∝ M4

Insgesamt gibt das Modell der Akkretionsscheibe um ein Schwarzes Loch auf diese Weise einen sehr effizienten Prozess der Energiegewinnung, weshalb „most astronomers believe that an accretion disk around a supermassive black hole is an essential ingredient of a unified model auf AGNs.“ (Carroll und Ostlie, 2007, S. 1182) Die bisherige Darstellung ist natürlich nur oberflächlich,58 denn „[a] detailed model of the accretion disc around a supermassive black hole is difficult to derive because the high luminosities involved must have a significant effect on the disk’s structure.“ (Carroll und Ostlie, 2007, S. 1186) Die Akkretionsscheibe liefert mit dem Blandford-Znajek-Prozess die Grundlage zur Modellierung der vom schwarzen Loch ausgehenden Energien und damit der Jets (vgl. Blandford und Znajek, 1977). Danach fungiert das Schwarze Loch ähnlich wie ein sich drehender Leiter in einem von der Akkretionsscheibe ausgehenden magnetischen Feld, denn „[j]ust as the motion of a conducting wire through a magnetic field will produce a motional emf between its ends, the rotation of a black hole in a magnetic field will produce a potential difference between its poles and its equator.“ (Carroll und Ostlie, 2007, S. 1186) Dabei sei es „not clear whether the ejected material consists of electrons and ions or an electron-positron plasma“ (Carroll und Ostlie, 2007, S. 1194), auch wenn ein Ursprung der Materie in den Jets aus der das schwarze Loch umkreisenden Materie und damit der zweite Vorschlag eine durchaus sinnvolle Möglichkeit sei (Carroll und Ostlie, 2007, S. 1194). 58 Für weitere Details sei hier verwiesen auf Carroll und Ostlie (2007) bzw. Longair (1981).

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

183

Trotz der Unklarheit bezüglich ihrer Zusammensetzung wird die Materie durch die Jets als Folge mehrere Megaparsec mit relativistischer Geschwindigkeit in das Universum geschleudert, wobei bisher noch offen ist, durch welche Prozesse sie über diese immensen Entfernungen zusammengehalten werden. Eine plausible Erklärung liefert das fluxfreezing, wonach die Materie der Jets in elektromagnetischen Feldern „gefangen“ ist (vgl. Bailer-Jones, 2000, S. 60). Bei seiner Modellierung dieses Prozesses stellt Longair (1981, S. 143 ff) zwei unterschiedliche Herangehensweisen vor. Die folgenden Ausführungen beruhen auf seinem zweiten, formaleren Ansatz.59 Das grundsätzlich zu beweisende Theorem formuliert er wie folgt: [I]f we represent the magnetic field by magnetic lines of force, so that the number per unit area passing through a small area perpendicular to the lines is equal in magnitude to the field, then when there are movements in the plasma, the magnetic field changes in such a way that the field lines move and change their shape as though they were carried with the plasma. (Longair, 1981, S. 144)

Die formale Herangehensweise baut auf der Magnetohydrodynamik auf. Grundlegend für diese ist eine Kombination der Navier-Stokes-Gleichungen der Hydrodynamik und zwei der Maxwell-Gleichungen der Elektrodynamik. Erstere sind gegeben durch: ∂ρ  + ∇ · (ρv) = 0 ∂t

ρ

dv  ρ + J × B × Fv + ρg = −∇ dt

(Kontinuitätsgleichung)

(4.35)

(Kraftgleichung)

(4.36)

Dabei sind ρ die Dichte des Stroms, v die Flussgeschwindigkeit in einem Punkt, p der Druck, J die elektrische Stromdichte und B die magnetische Flussdichte. Schlussendlich beschreibt F v die Viskositionskräfte und g die Gravitationsbeschleunigung (vgl. Longair, 1981, S. 147). Die für seine Zwecke relevanten Maxwellschen Gleichungen gibt Longair darüber hinaus in folgender Form wieder   × E = − ∂ B ∇

∂t  × B = −µ0J ∇

(Induktionsgesetz)

(4.37)

(Erweitertes Durchflutungsgesetz)

(4.38)

und merkt dazu an: Notice that we include no displacement current D˙ in the last equation. This is because we are dealing with slowly varying phenomena, v  c. Therefore there are not space charge

59 Ein alternativer Ansatz findet sich neben ebd. auch bei Ratcliffe (1972).

184 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik effects present, i.e. the particles of the plasma always have time to neutralize any charge imbalance on the scale of motion of the plasma. (Longair, 1981, S. 147)

Mit anderen Worten wird eine lokale Reduktion mit dem Vehikel v  c durchgeführt und zwar von Gleichung  × B = −µ0J + µ 0 ϵ ∂E ∇

∂t

auf Formel (4.38). Schlussendlich wird noch das Ohmsche Gesetz: J = σ(E + v × B)

(4.39)

benötigt, wobei σ der elektrische Widerstand des Materieflusses ist. Einsetzen von (4.39) in (4.37) liefert:   J ∂ B  × − v × B = − ∇ σ ∂t Wird hierein (4.38) substituiert, führt dies weiter zu:    × B ∂ B ∇   = −∇ × − v × B ∂t σµ0 = =

    × (v × B) − ∇ × (∇ × B) ∇

µ0 σ

 × (v × B) − 1 ∇  2 B ∇

σµ0

(4.40) (4.41) (4.42)

 × (∇  × B) = ∇  (∇  · B) + ∇  2 B Dabei wurde für den letzten Schritt verwendet, dass ∇   und weiter ∇ · B = 0. Mit den Gleichungen (4.36) und (4.42) sowie einfachen Umformungen hieraus sind nach Longair (1981, S. 148) die Grundlagen der Magnetohydrodynamik gegeben. Befindet sich der Materiefluss in den Jets in Ruhe, d.h. ist die Nebenbedingung v = 0 vorausgesetzt, so ist eine Lösung von Gleichung (4.42) gegeben mit:

1  2 ∂ B + ∇ B=0 ∂t σµ0

(4.43)

Dies entspricht der Standard-Diffusionsgleichung, so wie sie formal auch zur Herleitung von (4.6) notwendig war. Der Übergang von (4.42) auf (4.43) ist dabei eine direkte Verallgemeinerung zweiter Art mit der obigen Nebenbedingung als Vehikel. Zur Bestimmung der Zeit in der sich das magnetische Feld über die Grenzen einer bestimmten Region ausbreitet, kann ∂ B/∂t ≈ B/τ gesetzt werden, wobei τ die zu bestimmende charakteristische Diffusionszeit ist, die benötigt wird, damit

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

185

sich das Feld über die Grenzen eines Gebietes der Größe L ausbreitet. Mit dieser  2 B ≈ B/L2 und es ergibt sich insgesamt (vgl. Longair, lokalen Einschränkung ist ∇ 1981, S. 148): B

τ



B 1 · 2 ⇒ τ ≈ σµ0 L2 σµ0 L

=

Die bisherigen Ausführung betrafen nur allgemeine Leiter. Für die durch schwarze Löcher und die zugehörige Akkretionsscheibe induzierten Jets aktiver Galaxien sei es aber „[t]he case in which we are interested [. . . ] that of infinite conductivity σ = ∞ [. . . ].“ (Longair, 1981, S. 148) Die Gleichsetzung ist dabei sowohl aus mathematischer als auch aus physikalischer Sicht problematisch und es sollte korrekter Weise von einem Grenzwertprozess mit dem Vehikel σ → ∞ gesprochen werden. Dieser liefert dann eine Grenzfallreduktion mit: ∂ B  1  2  σ→∞ ∂ B  = ∇ × (v × B) − = ∇ × (v × B) ∇ B −→ ∂t σµ0 ∂t Ein Ring S im durch die Materie eines Jets induzierten Feld kann auf zwei Weisen einen Beitrag zur Änderung von B leisten, nämlich zunächst durch externe Einflüsse, darüber hinaus aber auch, da er innerhalb des Rings weiter getragen wird (vgl. Longair, 1981, S. 149). Der erste Beitrag lässt sich einfach bestimmen durch:   dB · dS (4.44) dt S

Der zweite Beitrag ist der Bewegung des Kreises in der Materie zu verdanken, aus der ein elektrisches Feld resultiert mit: E = v × B

Daraus resultiert zusammen mit (4.37) als zweiter Beitrag zur Änderung des magnetischen Flusses:    ∂B  × (v × B)dS dS = − ∇ (4.45) ∂t S

S

Addition der Gleichungen (4.44) und (4.45) liefert:     ∂B d B · dS =  × (v × B) · dS · dS − ∇ dt ∂t S S     ∂B   − ∇ × (v × B) · dS = ∂t =

S

0

186 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik Dies bedeutet im Speziellen, dass „the magnetic flux through the loop is constant, which is what we mean by flux freezing.“ (Longair, 1981, S. 149) Mit dem fluxfreezing lässt sich also eine zentrale Eigenschaft von Jets sinnvoll modellieren. Dabei sind auch hier wie schon bei der Fermi-Beschleunigung in Abschnitt 4.2 einzelne Reduktionsarten nach Scheibe zur Anwendung gekommen. Dies waren explizit lokale Reduktionen, eine direkte Verallgemeinerung zweiter Art sowie eine Grenzfallreduktion. Weiter ergibt sich: As a jet of material travels outward, its energy primarily resides in the kinetic energy of the particles. The jet encounters resistance as it penetrates the interstellar medium within the host galaxy and the intergalactic medium beyond. The material at the head of the jet is slowed, and a shock front forms there. The accumulation and deceleration of particles at the shock front cause the directed energy of the jet to become disordered as the particles ‘splash back’ to form a large lobe in which the energy may be shared equally by the kinetic and magnetic energy. (Carroll und Ostlie, 2007, S. 1195)

Die mit den Schockwellen einhergehenden Energien lassen sich durch FermiProzesse erster Ordnung, auf die ich in Abschnitt 4.2 bereits hinreichend eingegangen bin, modellieren. Die Fermi-Prozesse liefern eine Erklärung für die hohen Energien der Hotspots, also dort, wo die Jets auf das interstellare Medium treffen, da hierfür eine reine Modellierung mit Synchrotron-Prozessen nicht ausreicht. Auch wenn Synchrotron-Strahlung einen grundsätzlichen Beitrag zur Erklärung der Spektra der Jets und Kegel gibt, müsse mit der Fermibeschleunigung noch ein weiterer Prozess etabliert werden: The spectra of the radio lobes and jets follow a power law, with a typical spectral index of α  0, 65. The presence of power-law spectra and a high degree of linear polarization strongly suggest that the energy emitted by the lobes and jets comes from synchrotron radiation. The loss of energy by synchrotron radiation is unavoidable, and in fact the relativistic electrons in jets will radiate away their energy after just 10, 000 years or so. This implies that there is not nearly enough time for particles to travel out to the larger radio lobes; for 3C 236 (the largest known radio galaxy), the journey would take several million years, even at the speed of light. This and the long lifetime of radio lobes imply that there must be some mechanism for acceleration particles in the jets and radio lobes. For example, shock waves may accelerate charged particles by magnetically squeezing them, reflecting them back and forth inside the shock. (Carroll und Ostlie, 2007, S. 1197)

Der Druck, der entsteht, wenn die Jets auf das interstellare Medium treffen, wird als Ram-Druck (P ram = ρV 2 ) bezeichnet. Er ist abhängig von der Dichte des interstellaren Mediums ρ und der Ausbreitungsgeschwindigkeit V des Jets. Die Modellierung ist im Detail komplex. Für ein elementares Verständnis genügt hingegen bereits ein einfaches geometrisches Modell „like a gas flow pushing against a straight wall.“ (Bailer-Jones, 2000, S. 61 f) In der Tat beruht die Modellierung des

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

187

RAM-Drucks zunächst auf den theoretischen Annahmen der Hydrodynamik, so wie sie oben teils in die Modellierung des fluxfreezing verwendet wurden. Ähnliches gilt für die Materieverteilung innerhalb der Lobes. Eine über das grundlegende Verständnis hinausgehende Berechnung des Verhaltens der Jets, des Einflusses des Ram-Drucks sowie dem Verhalten der Lobes im Detail sei jedoch „so complicated that supercomputers must be used to carry out numerical simulations of the process.“ (Carroll und Ostlie, 2007, S. 1195) Ähnlich äußert sich auch Bailer-Jones mit Blick darauf, dass die Hydrodynamik ihren ursprünglichen Anwendungsbereich in klassischen Flüssigkeiten und nicht in relativistischen Plasmen hat: The synchrotron spectra of the lobes indicate that they contain older material than the jets and the hotspots, and this supports this flow model. On the other hand, one faces severe theoretical difficulties with relativistic fluids, because their dynamics, in the presence of magnetic fields, is at present too difficult to calculate without the aid of major approximations [. . . ]. So, the model currently depends heavily on simplifying assumptions. (Bailer-Jones, 2000, S. 62)

Auch wenn hier ein interessanter Ansatzpunkt für weitere Forschung über den Zusammenhang klassischer Theorienfragmente mit der Allgemeinen Relativitätstheorie zu finden ist, würde eine detaillierte Betrachtung zu weit führen. Für die vorliegende Arbeit gilt dasselbe, was bereits Bailer-Jones für ihre eigene Untersuchung feststellt: Note that these sic sub-models are far from covering everything that can be said about EERSs. There are several aspects of their investigation that I have not addressed here. Among them are considerations about the age of the sources and the ejection velocities of jets [. . . ]. Another subject not discussed here is the suggestion that quasars and radio galaxies are the same type of object, only seen at different angles. (Bailer-Jones, 2000, S. 63)

Dennoch gab die vorangegangene Modellierung einen Einblick in die theoretische Fundierung der aufgeführten Auswahl an Submodellen aktiver galaktischer Kerne. Dabei konnte erneut die Verwendung einiger der Reduktionsarten nach Scheibe – explizit Grenzfall-, asymptotische- und lokale Reduktionen sowie eine direkte Verallgemeinerung zweiter Art – aufgezeigt werden, und das obwohl die Formalisierung im Einzelfall nicht so detailliert wie bei der Fermi-Beschleunigung in Abschnitt 4.2 durchgeführt wurde. Allerdings wurde bisher – auch wenn ich durchwegs von einer Modellierung gesprochen habe – noch kein explizites Modell aufgezeigt. In welchem Sinne sind die dargestellten Submodelle also als ein Modell zu verstehen, und wie hängen sie miteinander zusammen? Ein Ansatz dafür, aufzuzeigen, welche formalen Reduktionsbeziehungen sie miteinander verbinden, hat sich bei den vorangegangenen Betrachtungen jedenfalls nicht ergeben. Den ersten Schritt zu einer Ant-

188 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik wort auf die zweite Teilfrage sieht Bailer-Jones zunächst in der Möglichkeit einer graphischen Darstellung der Submodelle, durch die sich ein einheitliches Bild ergibt, das mit einer graphischen Repräsentation der erhaltenen Messdaten übereinstimmt. Dies sei zumindest ein starkes Hilfsmittel auf dem Weg zu einer vereinheitlichenden Beschreibung des Gesamtmodells (vgl. Abbildung 4.5): „if we embed the sub-models, here represented by their sketches, into the picture, we can create an image of an overall-model of the source as a whole – in a sketch or in our imagination. In the sketch, the different sub-models can be brought to overlap.“ (Bailer-Jones, 2000, S. 64) Natürlich hat die „impression of unity that the visual picture transmits [. . . ] consequences for the task of modeling a phenomenon.“ (Bailer-Jones, 2000, S. 64) Aber auch wenn hierdurch ein Indiz gegeben ist, die gemessenen Spektra von AGNs als einem Phänomen zugehörig anzusehen, werden auf der anderen Seite „the sub-models [. . . ] not understood by their simple two-dimensional picture alone [. . . ].“ (Bailer-Jones, 2000, S. 64) Das Ziel einer erfolgreichen Modellierung sei es nun aber, so Bailer-Jones weiter, „to give an (explanatory) account of the phenomenon modeled. Often [. . . ] such accounts consist of telling a causal story and proposing causal mechanisms to explain the phenomenon.“ (Bailer-Jones, 2000, S. 51) Diesen Ausführungen ist zunächst zuzustimmen. Was aber ist unter einer causal story und einem von einer solchen beschriebenen causal mechanism im Einzelnen zu verstehen? Ein Zugang zum Verständnis des Begriffs kausaler Mechanismen findet sich bei Machamer et al. (2000). Danach besteht ein kausaler Mechanismus aus „entities and activities organized such that they are productive of regular changes from start or set-up to finish or termination conditions.“ (Machamer et al., 2000) Durch eine (umgangssprachliche) Beschreibung solcher Mechanismen könne dann nachvollzogen werden, wie die terminal conditions sich aus den Anfangsbedingungen entwickelten. Anders als beim DN-Modell wird jedoch auf eine logische Ausformulierung vollends verzichtet. Dabei sind „[a]ctivities [. . . ] the producers of change. Entities are the things that engage in activities“ (Machamer et al., 2000, S. 3), womit gelte: The organization of these entities and activities determines the ways in which they produce the phenomenon. Entities often must be appropriately located, structured and oriented, and the activities in which they engage must have temporal order, rate, and duration. For example, two neurons must be spatially proximate for diffusion of the neurotransmitter. Mechanism are regular in that they work always or for the most part in the same way under the same conditions. The regularity is exhibited in the typical way that the mechanism runs from beginning to end; what makes it regular is the productive continuity between stages. Complete descriptions of mechanisms exhibit productive continuity without gaps from the set up

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

189

Abb. 4.5. Graphisch Darstellung der Submodelle und ihrer Einbettung in ein Gesamtmodell. Die graphischen Darstellungen entsprechen im Einzelnen: (a) Die Akkretionsscheibe, (b) fluxfreezing, (c) RAM-Druck, (d) Schockwellen und Fermi-Beschleunigung, (e) Plasmaflüsse in den Kegeln sowie (f) Darstellung der Quelle.

190 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik to termination conditions. Productive continuities are what make the connections between stages intelligible. (Machamer et al., 2000, S. 3, Hervorhebungen im Original)

Glennan (2009, S. 323 ff) führt an anderer Stelle aus, dass eine solche dualistische Differenzierung in Entitäten und Aktivitäten zur Beschreibung von Mechanismen unnötig sei und verweist stattdessen auf substanzialistische Positionen (Glennan, 1996, 2002; Bechtel und Richardson, 1993) . Danach ist beispielsweise „[a] mechanism underlying a behavior [. . . ] a complex system which produces that behavior by the interaction of a number of parts according to direct causal laws.“ (Glennan, 1996, S. 52) Das von Machamer et.al. neu eingeführte Konzept einer Aktivität sei dabei überflüssig, da es in substanzialistischen Ansätzen bereits impliziert sei: Where MDC speak of entities and activities, Bechtel, Richadson, and Glennan speak of parts and interactions. No account of mechanisms can get along talking about the entities alone, but for Glennan and for Bechtel and Richardson this additional ingredient is provided by interactions. (Glennan, 2009, S. 224)

In der Tat verweist der Aktivitätsbegriff auf einen Akteur, was hier eine unerwünschte Anthropomorphisierung nach sich zieht, so dass ich folgend angelehnt an Glennan et.al. ebenfalls von Interaktionen sprechen werde. Angewendet auf die Modellierung von AGNs bedeutet dies, dass die von Bailer-Jones gewünschten kausalen Mechanismen zwischen den unterschiedlichen Submodellen etabliert werden, so dass sich eine entsprechende kausale Geschichte ergibt. Jedes der Submodelle lässt sich dabei als eine eigenständige Entität verstehen, als dass es eine einheitliche theoretische Grundlage besitzt. Dies muss nicht bedeuten, dass es hier nur eine Theorie gibt, aus der sich das Modell bedient; allerdings müssen die einzelnen Theorienfragmente eine theoretische Einheit bilden, die durch möglichst starke intertheoretische Verbindungen etabliert wird. Durch die vorangegangenen Modellierungen konnte ich zeigen, dass die Reduktionsarten nach Scheibe dabei eine zentrale Rolle spielen, sie in diesem Sinne also einheitsstiftend sind. Über ein solches Entitätsverständnis lassen sich die einzelnen Submodelle jetzt in einem zweiten Schritt miteinander über wie oben dargestellte Interaktionen verbinden. Die Beschreibung von Interaktionen kann durchaus mittels Alltagsbegriffen geschehen, und dies ist mit Blick auf Kapitel 2 und dort insbesondere Abschnitt 2.4 sogar ohne Weiteres möglich. In Auseinandersetzung mit der Frage nach der Rolle von Modellen in Scheibes Ansatz wurden physikalische Größen als Klassen von Werteklassen, denen Objekte durch äquivalente Messverfahren zugewiesen wurden, verstanden. Ein Modell konnte dann als zusammengesetzt aus Repräsentanten von durch die Theorie als zusammengehörig bestimmte Werteklassen aufgefasst werden. Die Wahl der Repräsentanten war dabei ebenso wie das kon-

4.3 Fallbeispiel II: Die Modellierung aktiver galaktischer Kerne |

191

krete Messverfahren, das der Vorstellung des Repräsentanten zugrunde lag, frei, so dass sich beliebig abstrakte Modelle bilden ließen. Ausgangspunkt des Folgenden ist, dass sich Submodelle (im Falle der AGNs) in ähnlicher Weise denken lassen. So kann sich die Akkretionsscheibe als eine Ansammlung von Bällen vorgestellt werden, deren Masse durch ihr Gewicht und deren kinetische Energie durch eine kreisförmige Bewegung zum Ausdruck kommt. Das Schwarze Loch kann sich – wie schon durch die Modellierung nahegelegt wird – vorgestellt werden als ein Massenobjekt, dessen Gravitation durch die kreisförmige Bewegung der Bälle gegeben werden kann; der Schwarzschildradius käme etwa zum Ausdruck durch das schlichte verschwinden einiger Bälle, wenn sie dem schwarzen Loch zu nahe kommen. Solange im Submodell der Akkretionsscheibe verblieben wird, ließe sich die Akkretionsscheibe aber auch ohne diese Vorstellung von Bällen als zusammengehöriges, kreisendes Objekt vorstellen. Diese zweite Alternative muss allerdings spätestens dann fallen gelassen werden, sobald die Annahme hinzu tritt, dass sich die Jets aus der Materie der Akkretionsscheibe bedienen. Ein potentielles Submodell wird hier also disqualifiziert aufgrund der Verbindung mit einem anderen Submodell und dem Hinzufügen weiterer theoretischer Annahmen, welche eine andere Modellierung notwendig machen. Dem gegenüber hält das BallModell der Akkretionsscheibe dem Übergang in das Submodell des fluxfreezing stand. Die zwischen Entitäten bestehende Interaktion im Sinne von Glennan lässt sich hier also auch so verstehen, dass der Übergang von einem Submodell in ein anderes möglich ist, ohne dass ein Wechsel des konkreten Modells notwendig wird. In der Modellierung der Jets kann nun das Modell der einzelnen Teilchen, die ein elektromagnetisches Feld erzeugen, beibehalten werden und auch bei der Modellierung des Ram-Drucks sowie der Verbreitung der Materie in den Lobes spricht nichts Grundsätzliches gegen diese Vorstellung. Aufgrund der starken Bedeutung der Hydrodynamik in diesen Fällen ließe sich aber auch die Vorstellung einer (nicht durch Teilchen konstituierten) Flüssigkeit heranziehen, mit der zwischen den letztgenannten Modellen immer gewechselt werden kann. Für die Modellierung dieses Teils des Gesamtmodells liefert diese Vorstellung also durchaus einen Zugang, und ich sehe nicht, warum nicht auch bei einem derart komplexen Modell wie das eines AGNs das konkrete Modell gewechselt werden sollte. Falkenburg (2013, S. 14) merkt an, dass die Etablierung kausaler Mechanismen zwar in der Biologie die Grundlage für hinreichend starke top-downErklärungen gebe, in der Physik jedoch problematisch sei. Dort sei sie nur ein heuristisches Mittel, das in Ermangelung der Möglichkeit einer top-down-Erklärung aus einem akzeptierten Modell oder einer etablierten Theorie heraus verwendet wird. Das Modell der AGNs wurde immer noch bottom-up konstruiert, d.h. aus-

192 | 4 Reduktion und Vereinheitlichung in der Astroteilchenphysik gehend von den Daten. Damit ist es ein Teil provisorischer Physik, dem nicht vollends vertraut wird: As long as there is no complementary specific “top-down” explanation of the explanandum from a well-established theory or model, the physicists do not completely trust in them. Such lack of trust gives rise to lacking belief that the explanation has indeed identified the “true” causes, and hence to a certain instrumentalist attitude towards the specific explanatory model of the causes. Therefore, the explanation of the “all particle spectrum” sketched above is only to a certain degree considered to be reliable. (Falkenburg, 2013, S. 14)

Die Quintessenz der Untersuchung ist, dass im Falle von Patchworkmodellen wie den AGNs zwei Arten von Modellierungen stattfinden: Die erste sorgt für die Etablierung einzelner Submodelle und bedient sich der Reduktionsarten nach Scheibe. Die zweite nimmt diese Submodelle als Entitäten auf und verbindet sie mithilfe kausaler Mechanismen. Die dafür nach Glennan notwendigen Interaktionen können als Konsistenz eines Gesamtmodells im Übergang von einem seiner Submodell auf ein anderes verstanden werden. Ein solches Patchworkmodell ist nach Falkenburg Bestandteil vorläufiger, provisorischer Physik. Es wird von den Physikern bezüglich der Frage, ob es ein wahres Bild der Welt gibt, auch unter instrumentalistischen Gesichtspunkten aufgefasst. Das sich anschließende Fazit fasst die Ergebnisse des Abschnitts noch einmal zusammen.

4.4 Zwischenfazit: Ergebnis der Falluntersuchungen Mit den durchgeführten Falluntersuchungen konnte ich aufzeigen, dass und wie bei der Modellierung in der Astroteilchenphysik eine Vielzahl unterschiedlicher Theorien miteinander verbunden werden. Schon im Modell der FermiBeschleunigung kamen Fragmente der Thermodynamik, der klassischen Mechanik bzw. der kinetischen Gastheorie sowie der speziellen Relativitätstheorie zu tragen. Miteinander verbunden wurden sie durch die Reduktionsarten nach Scheibe. Ich konnte explizit das Vorkommen von exakten Reduktionen, nämlich Äquivalenzen und direkte Verallgemeinerungen, sowie von approximativen Reduktionen, vorrangig Grenzfall-, asymptotische und lokale Reduktionen, nachweisen. Die aktiven galaktischen Kerne waren ein Beispiel für eine Modellierung, die in mehreren Schritten verlief: Zunächst wurden neben der Fermi-Beschleunigung weitere Submodelle konstruiert. Ich habe aufgezeigt, dass Scheibes Reduktionen auch hier eine entscheidende Rolle spielten. Die von ihnen etablierten Submodelle konnten als Entitäten im Sinne von Darden, Machamer und Craver verstanden werden, die dann miteinander über kausale Mechanismen in Interaktion treten

4.4 Zwischenfazit: Ergebnis der Falluntersuchungen

|

193

konnten. Auf diese Weise schafften es Scheibes intertheoretische Beziehungen, ein Gesamtmodell zu etablieren, das die Grundlage für die Erklärung des Spektrums der kosmischen Strahlung liefert. Doch auch dieses Patchworkmodell konnte nicht die Anforderungen einer topdown-Erklärung erfüllen, wie sie in anderen Bereichen der Physik durch eine einheitliche theoretische Grundlage oder ein allgemein anerkanntes Modell möglich ist. Es handelte sich immer noch um durch bottom-up-Prozesse entstandene Bestandteile vorläufiger Physik, wie ich unter Verweis auf Falkenburg herausgestellt hatte: Als wahre Ursachen des Phänomens der kosmischen Strahlung würden sie von Physikern nur unter Vorbehalt akzeptiert werden. Vielmehr seien sie heuristische Hilfsmittel, bei denen immer auch instrumentalistische Aspekte mitklingen. Es liegt die Vermutung nahe, dass solche Patchworkmodelle in der ATP auch an anderer Stelle zum Einsatz kommen. Sie sind Bestandteile einer piecemeal physics im Sinne Cartwrights, und vermitteln nach Morgan, Morrison und BailerJones zwischen Theorien und Daten (vgl. Unterabschnitt 2.3.3). Zudem lassen sie sich inklusive ihrer teils durch ad-hoc Annahmen begründeten Verbindungen mit dem Ansatz von Erhard Scheibe detailliert rekonstruieren. Eine weitere Untersuchung der intertheoretischen Beziehungen und Reduktionsarten nach Scheibe, die dabei zentral sind, ließe etwa bei einer zusätzlichen Modellierung der Teilchenquellen, der Theorien der Detektoren und Methoden der Datenanalyse sicherlich weitere Rückschlüsse auch auf Fragen zum Realismus zu. Allerdings würde diese Untersuchung den Rahmen der vorliegenden Arbeit sprengen. Als zentrales Fazit mit Blick auf die Reduktion physikalischer Theorien nach Erhard Scheibe lässt sich festhalten, dass viele der von Scheibe eingeführten Reduktionskonzepte bei der Rekonstruktion der Modellierung der ATP zur Anwendung kamen. Das bedeutet aber, dass eine Beschreibung solcher Patchworkmodelle durch ein simpleres Reduktionsverständnis die physikalische Praxis verfehlen muss. Vielleicht lassen sich einzelne Anwendungsfälle aus der Physik finden, in denen sich die Beschreibung der Phänomene durch Modelle plausibel auf einem einheitlichen Theoriengerüst aufbauen lässt. Ab einer bestimmten Komplexität der beteiligten Modelle allerdings ist zur Rekonstruktion ein flexibleres und genaueres Reduktionsverständnis nötig, wie die obige Falluntersuchung zeigt. Sich lediglich auf einfache Beispiele zu berufen, für deren Rekonstruktion wenige einfache Reduktionsbeziehungen ausreichen und andere intertheoretische Beziehungen als irrelevant abzutun, wie Hoyningen-Huene, liefert lediglich den Nährboden für einen weiteren Ismus, nämlich einen generalisierten Reduktionismus, der sich spätestens mit dem Blick auf komplexere Fälle der physikalischen Praxis, wie der ATP, als unzutreffend herausstellen muss. Die ATP konnte sich in den vergangenen Jahrzehnten als eine erfolgreiche Teildisziplin der Physik etablieren, und an einer solchen müssen sich philosophische Ansätze messen lassen.

5 Zusammenfassung und Fazit In Kapitel 2 dieser Arbeit habe ich mich mit der Rekonstruktion physikalischer Theorien auseinandergesetzt. Nach einer kurz gehaltenen Bestimmung der historischen Ursprünge des Theorienbegriffs in Abschnitt 2.1 folgte in Abschnitt 2.2 die Darstellung des received view of theories selbst, nach dem Theorien Klassen logisch formalisierter Aussagen sind. Im Laufe der Untersuchung habe ich eine Vielzahl von Problemen aufgezeigt, von denen ich mit der Frage nach der Rolle der correspondence rules und der theoretischen Terme, dem Mangel an tatsächlich durchgeführten Rekonstruktionen relevanter Theorien sowie der inadäquaten Behandlung wissenschaftlicher Modelle, nur auf einige der schwerwiegendsten Kritikpunkte detailliert eingegangen bin. Als Konsequenz konnte ich festhalten, dass mit dem received view keine adäquate Formalisierung physikalischer Theorien möglich war. Die historische Konsequenz der Probleme des received view waren Formalisierungsansätze, die sich anstelle eines Logik-Kalküls auf die (naive oder axiomatisierte) Mengenlehre stützten. Ich konnte zeigen, dass sich sinnvoll zwischen modelltheoretischen und strukturalistischen Ansätzen unterscheiden ließ. Modelltheoretische Ansätze zeichnen sich durch ihr Verständnis von Theorien als Klassen von Modellen aus. Der auf Balzer, Moulines und Sneed (BMS) zurückgehende semantic approach of theories (vgl. Abschnitt 2.2) lieferte ein einflussreiches Beispiel solcher Überlegungen, das schlussendlich eine fundamentale Kritik von Cartwright, Morgan, Morrison und Bailer-Jones (CMMB) erfahren hatte. Diese konnten an vielen Beispielen aufzeigen, dass die Identifikation von Theorien mit Klassen von Modellen einem Abgleich mit der wissenschaftlichen Praxis nicht standhielt. Somit war auch die Adäquatheit modelltheoretischer Ansätze fraglich. Mit dem Rekonstruktionsansatz nach Erhard Scheibe hatte ich in Abschnitt 2.4 das Beispiel einer strukturalistischen Theorienauffassung erläutert. Theorien wurden hier durch Strukturen im Sinne Bourbakis ausgezeichnet, jedoch ohne dass eine zusätzliche modelltheoretische Ebene eingeführt wurde. Die Beschreibung der Phänomene geschah durch eine abstrakte, formale Ebene im Sinne Cartwrights und Bailer-Jones’. Die zunächst offene Frage nach dem Zusammenhang von Theorien und Phänomenen konnte ich über den Ansatz von Scheibe hinausgehend auf Basis der Überlegungen von Falkenburg beantworten: Die Hauptbasismengen konnten mit physikalischen Größen identifiziert werden, d.i. Klassen von durch äquivalente Messverfahren etablierten Werteklassen. Dies ermöglichte die Differenzierung in eine Phänomen-, eine Modell- und eine Theorien-Ebene, die grundlegend für ein Entgegenwirken auf die Kritik von CMMB war. Ein Modell

5 Zusammenfassung und Fazit

|

195

hatte ich dabei als die imaginäre Zusammensetzung einzelner Repräsentanten der durch die Theorie bestimmten Werteklassen verstanden. Geleitet wird diese Vorstellung durch eines der zur Bestimmung der jeweiligen physikalischen Größe herangezogenen Messverfahren – wobei im Modell einzelne Messverfahren aufgrund der Äquivalenz auch als Grundlage für Vorstellungen auf Skalenbereichen dienen konnten, auf denen sie faktisch nicht anwendbar waren. In Kapitel 3 habe ich mit den Theorienreduktionen den zweiten Teil des Titelthemas behandelt. Ausgangspunkt war in Abschnitt 3.1 mit dem Standardmodell nach Nagel und dem explanatorischen Modell nach Kemeny und Oppenheim das Reduktionsverständnis der logischen Positivisten; und auch die Folgekonzeptionen von Sklar, Schaffner, Nickles, Spector und Berry fassten Theorien als Klassen von Aussagen auf. Am Ende der Untersuchung stand eine Vielzahl intertheoretischer Beziehungen, die teils durch logische Deduktionen, teils durch mathematische Grenzwertprozesse bestimmt waren. Untermauert wurden sie jeweils von physikalisch relevanten Beispielen, womit jedes von ihnen eine Berechtigung besaß. Allerdings mangelte es in der historischen Debatte an einem einheitlichen Reduktionskonzept. Im Reduktionsbegriff des semantic approach nach BMS (vgl. Unterabschnitt 3.1.6) konnte ich von den zuvor aufgeführten Positionen zunächst lediglich das Standardmodell nach Nagel aufzeigen, was eine starke Einschränkung gegenüber den vorangegangenen Ergebnissen bedeutete. Auf den zweiten Blick ließen sich aber in Approximations- und Grenzwertprozessen, die von BMS losgelöst vom Reduktionsbegriff als „einfache“ intertheoretische Beziehungen aufgefasst wurden, weitere Reduktionsarten wiedererkennen. Festzuhalten blieb, dass die strukturalistischen Aspekte der modelltheoretischen Rekonstruktionen der betreffenden intertheoretischen Beziehungen eine allgemeine Formalisierung eines umfassenderen Reduktionskonzepts möglich erscheinen ließen. Eine Umsetzung fand mit dem Reduktionsverständnis nach Erhard Scheibe in Abschnitt 3.2 statt. Die von Scheibe mit seinem induktiven Vorgehen aus Fallbeispielen der Physik extrapolierten Reduktionsarten ließen sich weitestgehend mit den bereits in Abschnitt 3.1 aufgezeigten identifizieren. Für Scheibes Ansatz zur Reduktion physikalischer Theorien konnte ich damit nachweisen: (1) Er beruht auf einem adäquateren Theorienverständnis als die aufgeführten Alternativpositionen, (2) er ist in Übereinstimmung mit zentralen Positionen der jüngeren Wissenschaftsphilosophie, (3) er geht aber mit der Kombination verschiedener Reduktionsarten und dem neuartigen Konzept der lokalen Rekonstruktionen deutlich über diese hinaus und (4) sollte deshalb der Ausgangspunkt von zukünftigen Überlegungen zur Reduktion physikalischer Theorien sein. In Kapitel 4 habe ich Scheibes Reduktionsverständnis zur Anwendung gebracht. Die beiden von mir behandelten Beispiele entstammten der Astroteilchen-

196 | 5 Zusammenfassung und Fazit physik, deren Modelle auf einer Vielzahl von Theorien beruhen (vgl. Abschnitt 4.1). Ich konnte nachweisen, dass Scheibes Reduktionsarten notwendig sowohl für die Modellierung der Fermi-Beschleunigung (vgl. Abschnitt 4.2) als auch im Modell aktiver galaktischer Kerne (AGN; vgl. Abschnitt 4.3) waren. Häufig zur Anwendung kamen insbesondere lokale, Grenzfall-, asymptotische und einige exakte Reduktionen. Sie waren integraler Bestandteil des Modellierungsprozesses. Bei der Modellierung der AGNs hatte sich allerdings ebenfalls gezeigt, dass Scheibes Reduktionsarten allein nicht hinreichend für die Modellierung in der ATP waren. Zwar wurden mehrere Submodelle, wie die Akkretionsscheibe oder der RAM-Druck, über Reduktionen etabliert, die aufgrund dessen als Entitäten verstanden werden konnten. Zum Erhalt eines Gesamtmodells mussten diese jedoch miteinander in Interaktion treten. Diese Interaktionen wurden durch kausale Mechanismen beschrieben, die von der Vorstellung der einzelnen Submodelle geleitet wurden. Die so entstandene kausale Geschichte lieferte die Grundlage für ein Verständnis des Gesamtmodells eines aktiven galaktischen Kerns. Unter Verweis auf Falkenburg hatte ich herausgestellt, dass Gesamtmodelle, deren Etablierung auf solchen kausalen Mechanismen beruht, zwar in der Biologie, nicht aber in der Physik ausreichen, um die Grundlage hinreichend starker top-down-Erklärungen zu liefern. Die Modellierung der AGNs verlief immer noch bottom-up, d.h. ausgehend von den Daten. Sie sind damit Beispiele für Patchworkmodelle und nach Cartwright Bestandteil vorläufiger, provisorischer Physik. Da ihnen keine einheitliche Theorie bzw. kein allgemein akzeptiertes Modell zugrunde liegt, werden sie von Physikern immer auch kritisch in Bezug auf ihre Erklärungsleistung betrachtet. Die zentralen Ergebnisse der Untersuchungen lassen sich wie folgt zusammenfassen: – Strukturalistische Ansätze liefern sowohl im Vergleich zum received view als auch zu modelltheoretischen Positionen eine adäquatere Formalisierung physikalischer Theorien. Insbesondere lässt sich mit ihnen durch die hier vorgeschlagenen Ergänzungen die Rolle von Modellen als Vermittler zwischen Theorien und Daten (vgl. Morgan und Morrison, 1999a) explizieren und in Übereinstimmung mit dem Formalismus der beteiligten Theorie bringen. Dies liefert einen wichtigen Beitrag zur aktuellen Debatte bezüglich der Rolle von Modellen, in der die Beziehung von Formalismus und Modell bisher weitestgehend unklar war (vgl. für einen Einblick Frigg und Hartmann, 2012). – Die Vielzahl der von Scheibe (1993, 1997, 1999) aufgezeigten Konzepte zur Reduktion physikalischer Theorien lässt sich abgesehen von lokalen Reduktionen sowohl in der physikalischen Praxis (insbesondere in der ATP) als auch in der „historischen“ wissenschaftsphilosophischen Debatte wiederfinden, wodurch ihre Notwendigkeit systematisch und historisch untermauert wird. Da-

5 Zusammenfassung und Fazit



|

197

bei greift mit dem zweiten Aspekt eine Kritik zu kurz, nach der Scheibes Reduktionsarten als formalisierte intertheoretische Beziehungen lediglich als der theoretischen Physik, nicht aber der Philosophie zuzuordnen seien (vgl. Hoyningen-Huene, 2007, S. 173). Die Beispiele aus der Astroteilchenphysik haben darüber hinaus gezeigt, dass die auf Scheibe zurückgehenden lokalen Reduktionen eine integrale Rolle bei der Modellierung spielen. Für sie lässt sich kein Pendant in der vorangegangenen philosophischen Debatte finden. Dennoch sollten sie in den Reduktionskanon aufgenommen zu werden. Die Reduktionsarten nach Scheibe – und damit auch indirekt die Reduktionskonzepte der wissenschaftsphilosophischen Debatte – sind ein notwendiger, impliziter Bestandteil astroteilchenphysikalischer Modellierungen, der hier durch die Rekonstruktion nach Scheibe explizit gemacht wurde. Auch wenn ich exemplarisch gearbeitet habe, liegt diese Verallgemeinerung nahe. Die Untersuchungen sollten in Zukunft auf weitere Fälle (astroteilchen)physikalischer Modellierungen ausgeweitet werden.

Auf diese Ergebnisse lassen sich weitere wissenschaftsphilosophische Untersuchungen aufbauen. So kamen die Fallbeispiele in den Abschnitten 4.2 und 4.3 nahezu ohne Verwendung der Quantenmechanik aus. Auch wenn dies für die hier gegebene Argumentation kaum einen Unterschied macht und darüber hinaus aufwendig ist, sollte eine entsprechende Modellierung zumindest in Grundzügen nachgeholt werden – dies gilt insbesondere für die Modelle der ATP, in denen teils allgemein relativistische und quantenmechanische Theorienannahmen gemeinsam verwendet werden. Differenziert man bei einer astroteilchenphysikalischen Betrachtung zwischen einer Theorie der Quelle, einer Theorie der Wegprozesse und einer des Detektors (vgl. Shapere, 1982; Falkenburg und Rhode, 2007), finden sich quantenphysikalische Ansätze primär in der Theorie des Detektors und der Datenanalyse, die weitestgehend in Computersimulationen, mit denen wiederum ein breites Diskussionsfeld der jüngsten wissenschaftsphilosophischen Debatte angesprochen ist (vgl. Humphreys, 2004, 2009; Morrison, 2009; Beisbart, 2011), umgesetzt sind. Dieses in einer angemessenen Ausführlichkeit zu behandeln hätte aber den Rahmen der vorliegenden Arbeit gesprengt. Da die bisherigen Untersuchungen auf Theorienreduktionen eingeschränkt waren, blieb deren Zusammenhang mit ontologischen und explanatorischen Reduktionen offen (vgl. hierzu Hoyningen-Huene, 2007). Ein Umweg über die strukturalistischen Grundlagen des semantic approach nach BMS, zusammen mit deren Verständnis von Reduktionen als ontologisch, könnte jedoch die Grundlage einer eingehenderen Untersuchung der ontologischen Implikationen von Scheibes Reduktionsarten sein. Ließe sich auf diese Weise beantworten, durch welche Reduktionsarten welche ontologischen Annahmen von einer Theorie in eine an-

198 | 5 Zusammenfassung und Fazit dere übernommen werden, ist mit Blick auf den Strukturenrealismus (vgl. Ladyman, 2014) ein wichtiger Beitrag zur Realismusdebatte wahrscheinlich. Bei der Darstellung des Zusammenhangs der Submodelle bei der Modellierung aktiver galaktischer Kerne ist der Begriff der Kausalität bereits aufgetaucht, nicht jedoch in aller Breite diskutiert worden. So wird teilweise behauptet, dass Kausalannahmen irrelevant für die Physik seien, da „[. . . ] die Relata der Kausalrelation inhärent vage und nur grob bestimmt sind, wo hingegen physikalische Gleichungen präzise definierte Zustände miteinander in Beziehung setzen.“ (Frisch, 2012, S.419, bezogen auf bezogen auf Woodward, 2007) Was aber ergibt sich bezüglich solcher Aussagen, zieht man Modelle als Vermittlungsinstanzen zwischen Theorien und Daten heran und beachtet darüber hinaus die Rolle heuristischer Kausalmodelle und deren Nähe zu mechanistischen Erklärungen (vgl. Falkenburg, 2013)? Auch hier ist ein neuer Blickwinkel auf wissenschaftsphilosophische Debatten möglich. Insgesamt können mit den Antworten der vorliegenden Arbeit aktuell behandelte Fragen der Wissenschaftsphilosophie bzw. der Philosophie der Physik aus einer anderen Perspektive gesehen werden. Aufgrund der zentralen Bedeutung formaler Methoden in der Physik verspricht dieser Perspektivwechsel durchaus auf fruchtbaren Boden zu fallen. In der vorliegenden Arbeit habe ich einen Weg hin zu einem tieferen Verständnis des komplexen Zusammenhangs physikalischer Theorien und der von ihnen beschriebenen Phänomene sowie des Zusammenhangs physikalischer Theorien untereinander aufgezeigt und plausibel gemacht. Es bleibt zu hoffen, dass dieser Vorschlag Früchte tragen wird. Dies wird sich in zukünftiger Forschung zeigen müssen.

Literatur Achinstein, P. (1968): Concepts of Science – A Philosophical Analysis. Baltimore: Johns Hopkins University Press. Adams, E. (1959): The Foundations of Rigid Body Mechanics and the Derivation of Its Laws from Those of Particle Mechanics. In: Henkin, L.; Suppes, P.; Tarski A. (Hrsg.) (1959): The Axiomatic Method. Amsterdam: North-Holland. S. 250 – 265. Amann, H.; Escher, J. (2002): Analysis I. Basel/Boston/Berlin: Birkhäuser. Antonucci, R. (1993): Unified Models for Active Galactic Nuclei and Quasars. In: Anual Reviews in Astronomy and Astrophysics, 31(1), S. 473 – 521. Aristoteles (1907): Metaphysik. Hamburg: Meiner. Bacon, F. (1620): Neues Organon. Hamburg: Meiner 1999. Bailer-Jones, D.; Friebe, C. (2009): Thomas Kuhn. Paderborn: Mentis. Bailer-Jones, D. (2000): Modelling Extended Extragalactic Radio Sources. In: Studies in the History of Modern Physics, 31(1), S. 49 – 74. Bailer-Jones, D. (2008): Standing up against Tradition: Models and Theories in Nancy Cartwright’s Philosophy of Science. In: Hartmann, S.; Hoefer, C.; Bovens, L. (Hrsg.) (2008): Nancy Cartwright’s Philosophy of Science. New York: Routledge, S. 17 – 37. Bailer-Jones, D. (2009): Scientific Models in Philosophy of Science. Pittsburgh: University of Pittsburgh Press. Balzer, W.; Moulines, C.; Sneed, J. (1987): An Architectonic for Science. Dordrecht: Reidel. Bartels, A. (2007): Wissenschaftlicher Realismus. In: Bartels, A.; Stöckler, M. (Hrsg.) (2007): Wissenschaftstheorie: Texte zur Einführung. Paderborn: Mentis, S. 199 – 220. Bechtel, W.; Richardson, R. (1993): Discovering Complexity: Decomposition and Localization of Strategies in Scientific Research. Princeton: Princeton University Press. Beisbart, C. (2011): A Transformation of Normal Science – Computer simulations from a Philosophical Perspective, Habilitationsschrift, TU Dortmund. Bell, A.R. (1978): The Acceleration of Cosmic Rays in Shock Fronts. In: Monthly Notices of the Royal Astronomical Society, 182, S. 147 – 156. Berry, M. (1994): Asymptotics, Singularities and the Reduction of Theories. In: Logic, Methodology and Philosophy of Science, IX, S. 597 – 607. Beth, E. (1948): Analyse Semantique des Theories Physiques. In: Synthese, 7, S. 206 – 207. Beth, E. (1949): Towards the Up-to-date Philosophy of Natural Sciences. In: Methodos, 1, S. 178 – 185. Beth, E. (1960): Semantics of Physical Theories. In: Synthese, 12, S. 172 – 175. Blandford, R.; Ostriker, J. (1978): Particle Acceleration by Astrophysical Shocks. In: Astrophysical Journal, 221, S. L29 – L32. Blandford, R.; Znajek, R. (1977): Electromagnetic Extraction of Energy from Kerr Black Holes. In: Monthly Notices of the Royal Astronomical Society, 179, S. 433 – 456. Bohr, N. (1913a): On the Constitution of Atoms and Molecules, Part I. In: Philosophical Magazine, 26, S. 1 – 25. Bohr, N. (1913b): On the Constitution of Atoms and Molecules, Part II Systems Containing Only a Single Nucleus. In: Philosophical Magazine, 26, S. 476 – 502. Bohr, N. (1913c): On the Constitution of Atoms and Molecules, Part III Systems Containing Several Nuclei. In: Philosophical Magazine, 26, S. 857 – 875. Boltzmann, L. (1979): Populäre Schriften. Braunschweig: Vieweg.

200 | Literatur Bourbaki, N. (1968): Theory of Sets. Paris: Hermann. Braithwaite, R.B. (1962): Models in the Empirical Sciences. In: Nagel, E.; Suppes, P.; Tarski, A. (Hrsg.): Logic, Methodology and the Philosophy of Science: Proceedings of the 1960 International Congress, Stanford: Stanford University Press, S. 224 – 231. Brooks, D.H.M. (1994): How to Perform a Reduction. In: Philosophy and Phenomenological Research, 54(4), S. 803 – 814. Büchner, L. (1855): Kraft und Stoff – Empirisch-Naturphilosophische Studien in AllgemeinVerständlicher Darstellung. Frankfurt a.M: von Weidinger. Büttemeyer, W. (2003): Philosophie der Mathematik. Freiburg/München: Alber. Campbell, N. R. (1920): Physics: The Elements. Cambridge: Cambridge University Press. Cantor, G. (1932): Beiträge zur Begründung einer transfiniten Mengenlehre. In: Zermelo, E. (Hrsg.): Georg Cantor – Gesammelte Abhandlungen mathematischen und philosophischen Inhalts (1966). Hildesheim: Olms, S. 282 – 356. Carnap, R. (1923): Über die Aufgaben der Physik und die Anwendung des Grundsatzes der Einfachheit. In: Kant-Studien, 28, S. 90 – 107 Carnap, R. (1929): Wissenschaftliche Weltauffassung – Der Wiener Kreis. In: Wissenschaftliche Weltauffassung – Der Wiener Kreis. Wien: Wolf, S. 299 – 316. Carnap, R. (1931a): Die logizistische Grundlegung der Mathematik. In: Büttemeyer, W. (Hrsg.), Philosophie der Mathematik (2003). Freiburg/München: Alber, S. 91 – 105. Carnap, R. (1931b): Die physikalische Sprache als Universalsprache der Wissenschaft. In: Erkenntnis, 2, S. 432 – 465. Carnap, R. (1932): Über Protokollsätze. In: Erkenntnis, 3, 215-228. Carnap, R. (1934): Logische Syntax der Sprache. Berlin/Heidelberg/New York: Springer (1968). Carnap, R. (1936a): Testability and Meaning. In: Philosophy of Science, 3(4), S. 1 – 40. Carnap, R. (1936b): Von der Erkenntnistheorie zur Wissenschaftslogik. In: Stölzner, M.; Uebel, T. (Hrsg.): Wiener Kreis – Texte zur wissenschaftlichen Weltauffassung von Rudolf Carnap, Otto Neurath, Moritz Schlick, Philipp Frank, Hans Hahn, Karl Menger, Edgar Zilsel und Gustav Bergmann (2006). Hamburg: Meiner, S. 260 – 268. Carnap, R. (1936c): Über die Einheitssprache der Wissenschaft. Logische Bemerkungen zum Projekt einer Enzyklopädie. In: Stölzner, M. und Uebel, T. (Hrsg.), Wiener Kreis – Texte zur wissenschaftlichen Weltauffassung von Rudolf Carnap, Otto Neurath, Moritz Schlick, Philipp Frank, Hans Hahn, Karl Menger, Edgar Zilsel und Gustav Bergmann (2006). Hamburg: Meiner, S. 362 – 374. Carnap, R. (1937): Testability and Meaning – Continued. In: Philosophy of Science, 4(1), S. 1 – 40. Carnap, R. (1939): Foundations of Logic and Mathematics. Chicago: University of Chicago Press. Carnap, R. (1953): Induktive Logik und Wissenschaft. In: Gadenne, V. und Visintin, A. (Hrsg.), Wissenschaftsphilosophie (1999). Freiburg/München: Alber, S. 103 – 113. Carnap, R. (1956): The Methodological Charakter of Theoretical Concepts. In: Feigl, H.; Scriven, M. (Hrsg.): Minnesota Studies in the Philosophy of Science – The Foundations of Science and the Concepts of Psychology and Psychoanalysis (1956). Minneapolis: Minnesota Press, S. 38 – 76. Carrier, M. (1996): Artikel: Reduktion. In: Mittelstraß, J. (Hrsg.): Enzyklopädie Philosophie und Wissenschaftstheorie in vier Bänden, Volume 4., Stuttgart/Weimar: Metzler, S. 516 – 520. Carroll, B.W. und Ostlie, D.A. (2007): An Introduction to Modern Astrophysics. San Francisco: Pearson Addison-Wesley.

Literatur | 201

Cartwright, N. (1983): How the Laws of Physics Lie. New York: Clarendon Press. Cartwright, N. (1991): Fables and models. In: Proceedings of the Aristotelian Society, volume 65. Cartwright, N. (1998): How Theories Relate: Takeovers and Partnerships? In: Philosophia Naturalis, 35, S. 55 – 68. Cartwright, N. (1999a): The Dappled World. A Study of the Boundaries of Science. Cambridge: Cambridge University Press. Cartwright, N. (1999b): Models and the Limits of Theory: Quantum Hamiltonians and the BCS Model of Superconductivity. In: Morgan, M.; Morrison, M. (Hrsg.) (1999): Models as Mediators. Cambridge: Cambridge University Press, S. 241 – 281. Cartwright, N.; Shomar, T.; Suarez, M. (1995): The Toolbox of Science: Tools for the Building of Models with a Superconductivity Example. In: Herfel, W.; Krajewski, W.; Niiniluoto, I.; Wojcicki, R. (Hrsg.): Theories and Models in Scientific Process. Amsterdam: Rodopi, S. 137 – 149. Chang, C.C.; Keisler, H.J (1990): Model Theory. Amsterdam: Elsevier. Cohen, H. (1871): Kants Theorie der Erfahrung. Hildesheim/Zürich/New York: Georg Olms Verlag. Colllin, S. (2006): Quasars and Galactic Nuclei, a Half-Century Agitated Story. arXiv:astroph/0604560v3. daCosta, N.; French, S. (2000): Models, Theories, and Structures: Thirty Years On. In: Philosophy of Science, 67, S. 116 – 127. DeRujula, A.; Nanpopoulos, D.; Shaver, P. (Hrsg.) (1987): A Unified View of the Macro- and the Micro-Cosmos, Proceedings of the First International School on Astroparticle Physics, Erice. Singapore/Hackensack/London: World Scientific. Diederich, W. (1996): Structuralism as Developed within the Model-Theoretic Approach in the Philosophy of Science. In: Balzer, W. und Moulines, C.U. (Hrsg.) (1996), Structuralist Theory of Science – Focal Issues, New Results, 6. Berlin/New York: de Gruyter, S. 15 – 21. Diederich, W.; Ibarra, A.; Mormann, T. (1989): Bibliography of structuralism. In: Erkenntnis, 30, S. 387 – 407. Diederich, W.; Ibarra, A.; Mormann, T. (1994): Bibliography of Structuralism II. In: Erkenntnis, 41, S. 403 – 418. Dizadji-Bahmani, F.; Frigg, R.; Hartmann, S. (2009): Who’s Afraid of Nagelian Reduction? In: Erkenntnis, 73, S. 393 – 412. Ebbinghaus, E.-D. (2007): Ernst Zermelo – An Approach to his Life and Work. Berlin/Heidelberg/New York: Springer. Falkenburg, B. (2007): Particle Metaphysics – A Critical Account of Subatomic Reality. Berlin/Heidelberg: Springer. Falkenburg, B. (2012): Pragmatic Unification, Observation and Realism in Astroparticle Physics. In: General Journal for Philosophy of Science, 43(2), S. 327 – 345. Falkenburg, B. (2013): On the contributions of astroparticle physics to cosmology. In: Studies in the History and Philosophy of Modern Physics, 46, S. 97 – 108. Falkenburg, B.; Rhode, W. (2007): Astroteilchenphysik: Die Brücke zwischen Mikro- und Makrokosmos. In: Falkenburg, B. (Hrsg.) (2007): Natur-Technik-Kultur – Philosophie im Interdisziplinären Dialog. Paderborn: Mentis, S. 57 – 90. Falkenburg, B.; Rhode, W. (Hrsg.) (2012): From Ultra Rays to Astroparticles. Heidelberg/ Berlin/New York: Springer.

202 | Literatur Fath, E. (1909): The Spectra of Some Spiral Nebulae and Globular Star Cluters. In: Lick Observatory Bulletin, 149, S. 71 – 77. Feigl, H. (1958): The ‘mental’ and the ‘physical’. In: Minnesota Studies in the Philosophy of Science, 2(2), S. 370 – 497. Fermi, E. (1949): On the Origin of the Cosmic Radiation. In: Physical Review, 75(8), S. 1169 – 1174. Feyerabend, P. (1962): Explanation, Reduction, and Empiricism. In: Feigl, H.; Maxwell, G. (Hrsg.) (1962), Minnesota Studies in the Philosophy of Science: Scientification Explanation, Space and Time, 3, Minneapolis: Minnesota Press, S. 28 – 97. Fraenkel, A.A. (1921): Zu den Grundlagen der Cantor-Zermeloschen Mengenlehre. In: Mathematische Annalen, 86, S. 230 – 237. Frege, G. (1980): Gottlob Freges Briefwechsel mit D. Hilbert, E. Husserl, B. Russell, sowie ausgewählte Einzelbriefe Freges. Hamburg: Meiner. Frigg, R.; Hartmann, S. (2012): Models in science. http://plato.stanford.edu/archives/fall2012/ entries/models-science/ Frisch, M. (2012): Kausalität in der Physik. In: Esfeld, M. (Hrsg.) (2012): Philosophie der Physik. Berlin: Suhrkamp, S. 411 – 426. Gadenne, V.; Visintin, A. (1999): Wissenschaftsphilosophie. Freiburg/München: Alber. Gatzmeier, M. (1996): Artikel: Vita contemplativa. In: Mittelstraß, J. (Hrsg.) (1996): Enzyclopädie Philosophie und Wissenschaftstheorie, 4, Mannheim/Wien/Zürich: Metzler, S. 251. Glennan, S. (1996): Mechanisms and the Nature of Causation. In: Erkenntnis, 44(1)S. 49 – 71. Glennan, S. (2002): Rethinking Mechanistic Explanation. In: Philosophy of Science, 62(2), S. 304 – 320. Glennan, S. (2009): Mechanisms. In: Beebee, H.; Hitchcock, C.; Menzies, P. (Hrsg.) (2009): The Oxford Handbook of Causation. Oxford: Oxford University Press, S. 315 – 325. Goodman, N. (1947): The Problem of Counterfactual Conditionals. In: The Journal of Philosophy, 44(5), S. 113 – 128. Goodman, N. (1968): Languages of Art: An Approach to a Theory of Symbols. Indianapolis: Bobbs-Merrill. Grupen, C. (2000): Astroteilchenphysik – Das Universum im Licht der kosmischen Strahlung. Braunschweig/Wiesbaden: Springer. Gutschmidt, R. (2009): Einheit ohne Fundament – Eine Studie zum Reduktionsproblem in der Physik, Frankfurt/Paris/Lancaster/NewBrunswick: Ontos. Gödel, K. (1931): Über Formal Unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I. In: Monatshefte für Mathematik und Physik, 38, S. 173 – 198. Haase, M. (1995): Galileische Idealisierungen – Ein Pragmatisches Konzept. Berlin: de Gruyter. Haller, R. (1986): Fragen zu Wittgenstein – und Aufsätze zur Österreichischen Philosophie. Amsterdam: Rodopi. Haller, R. (1993): Neupositivismus. Darmstadt: Wissenschaftliche Buchgesellschaft. Hamel, G. (1908): Über die Grundlagen der Mechanik. In: Mathematische Annalen, 66, S. 350 – 397 Hanson, N.R. (1958): Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science (2010). Cambridge: Cambridge University Press. Hartmann, S. (1999): Models and Stories in Hadron Physics. In: Morgan, M.S.; Morrison, M. (1999): Models as Mediators. Cambridge: Cambridge University Press, S. 326 – 346. Hellman, G. (1989): Mathematics without Numbers. Oxford: Oxford University Press.

Literatur | 203

Hempel, C. (1952): Fundamentals of Concept Formation in Empirical Science. Chicago: University of Chicago Press. Hempel, C. (1965): Empiricist Criteria of Cognitive Significance. In: Aspects of Scientific Explanation (1965). New York: The Free Press, S. 101 – 119. Hempel, C. (1969): Reduction: Ontological and Linguistic Facets. In: Morgenbesser, S.; Supes, F.; White, M. (Hrsg.) (1969): Philosophy, Science, and Method – Essays in honor of Ernest Nagel. New York, St. Martin’s Press, S. 179 – 199. Hempel, C. (1974): Formulation and Formalization of Scientific Theories. In: Suppe, F. (Hrsg.) (1974): The Structure of Scientific Theories. Urbana/Chicago/London: University of Illinois Press, S. 244 – 254. Hempel, C. und Oppenheim, P. (1948): Studies in the logic of explanation. In: Philosophy of science, 15(2), S. 135 – 175. Hess, V. (1912): Penetrationg Radiation in Seven Free Ballon Flights. In: Physikalische Zeitschrift, 13, S. 1084 – 1091. Hesse, M.B. (1966): Models and Analogies in Science. Notre Dame: University of Notre Dame Press. Hinst, P. (1996): A Rigorous Set Theoretical Foundation of the Structuralist Appraoch. In: Balzer, W.; Moulines, C. (Hrsg.) (1996): Structuralist Theory of Science – Focal Issues, New Results. Berlin/New York: de Gruyter, S. 233 – 263. Hooker, C. (1981a): Towards a General Theory of Reduction. Part I: Historical and Scientific Setting. In: Dialogue, 20, S. 38 – 59. Hooker, C. (1981b): Towards a General Theory of Reduction. Part II: Identity in Reduction. In: Dialogue, 20, 201 – 236. Horsten, L. (2012): Philosophy of Mathematics. In: Zalta, E.N. (Hrsg.): The Stanford Encyclopedia of Philosophy, Sommer 2012. http://plato.stanford.edu/entries/philosophymathematics/ Hoyningen-Huene, P. (1989): Die Wissenschaftsphilosophie Thomas S.Kuhns. Braunschweig: Vieweg. Hoyningen-Huene, P. (2007): Reduktion und Emergenz. In: Bartels, A.; Stöckler, M. (2007): Wissenschaftstheorie. Paderborn: Mentis, S. 177 – 198. Hubble, E.P. (1926): Extragalactic nebulae. In: The Astrophysical Journal, 64, 321–369. Humphreys, P. (2004): Extending Ourselves: Computational Science, Empiricism, and Scientific Method. Oxford: Oxford University Press. Humphreys, P. (2009): The Philosophical Novelty of Computer Simulation Methods. In: Synthese, 169, S. 615 – 626. Kambartel, F. (1996): Artikel: Positivismus (Systematisch). In: Mittelstraß, J. (Hrsg.) (1996): Enzyklopädie Philosophie und Wissenschaftstheorie. Stuttgart/Weimar: Metzler, S. 303 – 304. Kemeny, J.G. und Oppenheim, P. (1956): On Reduction. In: Philosophical Studies, 7(1-2), S. 6 – 19 Klein, J. (2012): Francis Bacon. In: Zalta, E. N. (Hrsg.): The Stanford Encyclopedia of Philosophy. Sommer 2012. http://plato.stanford.edu/archives/win2012/entries/francis-bacon/ Kolanoski, H. (2009): Einführung in die Astroteilchenphysik. Vorlesungsskript (HU Berlin). Krohn, W. (1999): Einleitung. In: Francis Bacon: Neues Organon. Hamburg: Meiner, S. IX – LVI. Kuhn, T.S. (1962): The Structure of Scientific Revolutions (1970). Chicago: University of Chicago Press. Kuhn, T.S. (1978): Die Struktur Wissenschaftlicher Revolutionen. Frankfurt a.M.: Suhrkamp.

204 | Literatur Kuhn, T.S. (1983): Commensurability, Comparability, Communicability. In: Asquith, P.; Nickles, T. (Hrsg.), Proceedings of the 1982 Biennial Meeting of the Philosophy of Science Association, 2, East Lansing: Philosophy of Science Asociation, S. 669 – 688. Külpe, O. (1895): Idealismus, Realismus und Phänomenalismus. In: Gadenne, V.; Visintin, A. (Hrsg.) (1999): Wissenschaftsphilosophie. Freiburg/München: Alber, S. 53 – 60. Ladyman, J. (2014): Structural Realism. In: Zalta, E.N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Frühjahr 2014. http://plato.stanford.edu/archives/spr2014/entries/structuralrealism/ Lakatos, I. (1974): Falsifikation und die Methodologie Wissenschaftlicher Forschungsprogramme. In: Lakatos, I.; Musgrave, A. (Hrsg.) (1974): Kritik und Erkenntnisfortschritt. Braunschweig: Vieweg, S. 89 – 189. Lausen, F. (2012): Tragweite und Grenzen eines heuristischen Reduktionismus. Doktorarbeit, Universität Bielefeld. Lesche, B. (2011): The c =  = G = 1-Question. arXiv:1101.4827. Lesche, B. (2014): The c =  = G = 1-Question. In: Studies in History and Philosophy of Modern Physics, 47, S. 107 – 116. Longair, M.S. (1981): High Energy Astrophysics. Cambridge: Cambridge University Press. Lorenz, K. (1996a): Artikel: Gleichheit (logisch). In: Mittelstraß, J. (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie in vier Bänden, volume 1. Bibiographisches Institut, Stuttgart/Weimar. Lorenz, K. (1996b): Artikel: Identität. In: Mittelstraß, J. (Hrsg.) (1996): Enzyklopädie Philosophie und Wissenschaftstheorie in vier Bänden, 2, Stuttgart/Weimar: Wissenschaftliche Buchgesellschaft, S. 189 – 192. Ludwig, G. (1970): Deutung des Begriffs ‚Physikalische Theorie‘ und Axiomatische Grundlegung der Hilbertraumstruktur der Quantenmechanik durch Hauptsätze des Messens. In: Lecture Notes in Physics 4. Berlin/Heidelberg/New York: Springer. Ludwig, G. (1978): Die Grundstrukturen einer physikalischen Theorie. Berlin/Heidelberg/New York: Springer. Ludwig, G.; Thurler, G. (2006): A new Foundation of Physical Theories. Berlin/Heidelberg/New York: Springer. Lutz, S. (2010): On a Straw Man in the Philosophy of Science – A Defense of the Received View. In: British Society for the Philosophy of Science Annual Conference, Dublin. http://philsciarchive.pitt.edu/5497/1/straw_man_received_view.pdf0 Mach, E. (1922): Analyse der Empfingungen. Jena: Fischer. Mach, E. (1926): Erkenntnis und Irrtum. Jena: Fischer. Mach, E. (1922): Analyse der Empfindungen und das Verhältnis der Physischen zum Psychischen (2006). Darmstadt: Wissenschaftliche Buchgesellschaft. Machamer, P.; Darden, L.; Craver, C. (2000): Thinking about Mechanisms. In: Philosophy of Science, 67(1), S. 1 – 25. Mayr, E. (1984): Die Entwicklung der Biologischen Gedankenwelt. Berlin/Heidelberg/New York/Tokio: Springer. McKinsey, J.; Sugar, A.; Suppes, P. (1953): Axiomatic Foundations of Classical Particle Mechanics. In: Journal of Rational Mechanics and Analysis, 2, S. 253 – 272. Mendelson, E. (1997): Introduction to Mathematical Logic. Berlin/Heidelber/New York: Springer.

Literatur | 205

Mill, J. (1859): A System of Logic, Ratiocinative and Inductive, Being a Connected View of the Principles of Evidence and the Methods of Scientific Investigation (2006). Chicago: Harper & Brothers. Millikan, R.; Cameron, G. (1926): High Frequency Rays of Cosmic Origin III. Measurements in Snow-Fed Lakes at High Altitudes. In: Physical Review, 28, S. 851 – 868. Mittelstraß, J. (1996): Eintrag: Theoria. In: Mittelstraß, J. (Hrsg.) (1996): Enzyklopädie Philosophie und Wissenschaftstheorie, 4, Mannheim/Wien/Zürich: Metzler, S. 259 – 260. Morgan, M.; Morrison, M. (1999a): Models as Mediating Instruments. In: Models as Mediators – Perspectives on Natural and Social Science. Cambridge: Cambridge University Press, S. 10 – 37. Morgan, M.; Morrison, M. (Hrsg.) (1999b): Models as Mediators – Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. Morrison, M. (1999): Models as Autonomous Agents. In: Morgan, M.; Morrison, M. (Hrsg.) (1999b): Models as Mediators – Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. Morrison, M. (2007): Where have all the theories gone? In: Philosophy of Science, 74, S. 195 – 228. Morrison, M. (2009): Models, Measurement and Computer Simulation: The Changing Face of Experimentation. In: Philosophical Studies, 143(1), S. 33 – 57. Moulines, C.U. (1992): Towards a Typology of Intertheoretical Relations. In: Echeverria, J.; Ibarra, A.; Mormann, T. (Hrsg.) (1992): The Space of Mathematics. Berlin/New York: de Gruyter, S. 403 – 411. Moulines, C.U. (1996): Structuralism: The Basic Ideas. In: Balzer, W.; Moulines, C.U. (Hrsg.): Structuralistic Theory of Science – Focal Issues, New Results, Berlin/New York: de Gruyter, S. 1 – 14. Moulines, C.U. (2002): Introduction: Structuralism as a Program for Modelling Theoretical Science. In: Synthese, 130(1), S. 1 – 11. Moulines, C.U. (2008): Die Entwicklung der Modernen Wissenschaftstheorie (1890-2000) - Eine Historische Einführung. Berlin/Münster/Wien/Zürich/London: Lit. Moulines, C.U.; Polanski, M. (1996): Bridges, Constraints, and Links. In: Moulines, C.U.; Balzer, W. (Hrsg.): Structuralistic Theory of Science – Focal Issues, New Results. Berlin/New York: de Gruyter, S. 219 – 232. Nagel, E. (1951): Mechanistic Explanation and Organismic Biology. In: Philosophy and Phenomenological Research, 11(3). Nagel, E. (1961): The Structure of Science – Problems in the Logic of Scientific Explanation. London: Routledge. Neurath, O. (1932): Protokollsätze. In: Erkenntnis 3, 3, S. 204 – 214. Nickles, T. (1973): Two Concepts of Intertheoretic Reduction. In: Journal of Philosophy, 70, S. 181 – 201. Nickles, T. (1974): Heuristics and Justification in Scientific Research: Comments on Shapere. In: Suppe, F. (Hrsg.) (1974): The Structure of Scientific Theories. Urbana/Chicago/London: University of Illinois Press, S. 571 – 589. Oerter, R.; Montada, L. (Hrsg.) (2002): Entwicklungspsychologie. Weinheim: Beltz. Oppenheim, P.; Putnam, H. (1958): The Unity of Science as a Working Hypothesis. In: Minnesota Studies in the Philosophy of Science, 2, S. 3 – 36. Platon (2008a): Parmenides. Hamburg: Rowohlt. Platon (2008b): Politeia. Hamburg: Rowohlt.

206 | Literatur Poincare, H. (1952): Science and Hypothesis. New York: Dover Publications. Popper, K.-R. (1934): Logik der Forschung. Tübingen: Mohr Siebeck (1989). Portides, D. (2005): Scientific Models and the Semantic View of Scientific Theories. In: Philosophy of Science, 72, S. 1287 – 1298. Primas, H. (1998): Emergence in Exact Natural Sciences. In: Acta Polytechnica Scandinavica, 91, S. 83 – 98. Psillos, S. (1995): The Cognitive Interplay between Theories and Models: The Case of 19th Century Optics. In: Poznari Studies in the Philosophy of the Sciences and the Humanities, 44, S. 105 – 133. Psillos, S. (2000): Rudolf Carnap’s ‘Theoretical Concepts in Science’. In: Studies in History and Philosophy of Science, 31(1), S. 151 – 172. Puntel, L. (2006): Struktur und Sein. Tübingen: Mohr Siebeck. Putnam, H. (1962): What Theories are not. In: Nagel, E.; Suppes, P.; Tarski, A. (Hrsg.) (1962) Logic, Methodology and philosophy of Science – Proceedings of the 1960 International Congress. Stanford: Stanford University Press, S. 215 – 227. Ratcliffe, J. (1972): An Introduction to the Ionosphere and Magnetosphere. Cambridge: Cambridge University Press. Reck, E.; Price, M. (2000): Structures and Structuralism in Contemporary Phyilosophy of Mathematics. In: Synthese, 125, S. 341 – 383. Risaliti, G.; Elvis, M. (2004): A panchromatic view of AGN. In: arXiv:astro-ph/0403618. Rott, H. (1988): Reduktion und Revision – Aspekte des nichtmonotonen Theorienwandels. Doktorarbeit, Ludwig-Maximilians-Universität München. Russell, B. (2009): Philosophie des Abendlandes. Berlin/München/Wien: Europa Verlag. Russell, B.; Whitehead, A.N. (1910): Principia Mathematica. Salmon, W. (1971): Statistical Explanation. In: Salmon, W. (Hrsg.) (1971): Statistical Explanation and Statistical Relevance. Pittsburgh: University of Pittsburgh Press, S. 29 – 87. Sarkar, S. (1992): Models of Reduction and Categories of Reductionism. In: Synthese, 91, S. 167 – 192. Scarre, G. (1998): Mill on Induction and Scientific Method. In: Skorupski, J. (Hrsg.) (1998), The Cambridge Compendium to Mill. New York: Cambridge University Press, S. 112 – 138. Schaffner, K.F. (1967): Approaches to Reduction in Philosophy of Science. In: Philosophy of Science, 34(2), S. 137 – 147. Scheibe, E. (1979): On the Structure of Physical Theories. In: Falkenburg, B. (Hrsg.) (2001): Between Rationalism and Empiricism: Selected Papers in the Philosophy of Physics. Berlin/Heidelberg/New York: Springer, S. 160 – 174. Scheibe, E. (1980): Theoriebegriff und Theorievergleich. Vorlesung Göttingen Sommersemester 1980. Scheibe, E. (1982): A Comparison of Two Recent Views on Theories. In: Falkenburg, B. (Hrsg.) (2001), Between Rationalism and Empiricism: Selected Papers in the Philosophy of Physics. Berlin/Heidelberg/New York: Springer, S. 175 – 194. Scheibe, E. (1984): Towards a Rehabilitation of Reconstructionism. In: Falkenburg, B. (Hrsg.) (2001):, Between Rationalism and Empiricism: Selected Papers in the Philosophy of Physics. Berlin/Heidelberg/New York: Springer, S. 175 – 194. Scheibe, E. (1993): A New Theory of Reduction in Physics. In: Falkenburg, B. (Hrsg.) (2001): Between Rationalism and Empiricism: Selected Papers in the Philosophy of Physics. Berlin/Heidelberg/New York: Springer, S. 352 – 368.

Literatur | 207

Scheibe, E. (1994a): A most general Principle of Invariance. In: Falkenburg, B. (Hrsg.) (2001): Between Rationalism and Empiricism: Selected Papers in the Philosophy of Physics. Berlin/Heidelberg/New York: Springer, S. 501 – 512. Scheibe, E. (1994b): Between Rationalism and Empiricism. In: Falkenburg, B. (Hrsg.) (2001): Between Rationalism and Empiricism: Selected Papers in the Philosophy of Physics. Berlin/Heidelberg/New York: Springer. Scheibe, E. (1997): Die Reduktion physikalischer Theorien – Grundlagen und elementare Theorie. Berlin/Heidelberg/New York: Springer. Scheibe, E. (1999): Die Reduktion physikalischer Theorien – Inkommensurabilität und Grenzfallreduktion. Berlin/Heidelberg/New York: Springer. Scheibe, E. (2007): Die Philosophie der Physiker. München: Beck. Schlick, M. (1932): Positivismus und Realismus. In: Erkenntnis, 3(1), S. 1 – 31. Schmidt, H.-J. (2014): Structuralism in Physics. In: Zalta, E.N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Schneider, P. (2014): Gravitationslinsen II: Galaxienhaufen als Linsen. http://www.astro.unibonn.de/~peter/Poster2d.html Scriven, M. (1962): Explanations, Predictions and Laws. In: Minnesota Studies in the Philosophy of Science, 3, S. 170 – 230. Seyfert, C.K. (1943): Nuclear Emission in Spiral Nebulae. In: The Astrophysical Journal, 97, S. 28 – 40. Shapere, D. (1964): The Structure of Scientivic Revolutions – Review. In: The Philosophical Review, 73(3), S. 383 – 394. Shapere, D. (1974): Scientific Theories and their Domains. In: Suppe, F. (Hrsg.) (1974): The Structure of Scientific Theories. Urbana/Chicago/London: University of Illinois Press, S. 518 – 565. Shapere, D. (1982): The Concept of Observation in Science and Philosophy. In: Philosophy of Science, 49, S. 485 – 525. Simon, H. (1954): Discussion – The Axiomatization of Classical Mechanics. In: Philosophy of Science, 21(4), S. 340 – 343. Simon, H. (1977): Models of Discovery. Dordrecht/Boston: Reidel. Sklar, L. (1967): Types of Intertheoretic Reductions. In: British Journal for Philosophy of Science, 18, S. 109 – 124. Sneed, J. (1971): The Logical Structure of Mathematical Physics. Dordrecht: Reidel. Snyder, L.J. (2012): William Whewell. In: Zalta, E.N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Winter 2012. http://plato.stanford.edu/archives/win2012/entries/whewell/ Sokal, A.; Bricmont, J. (1999): Eleganter Unsinn – Wie die Denker der Postmoderne die Wissenschaften missbrauchen. München: Beck. Soler-Gil, F. (2011): Discovery or Construction? Astroparticle Physics and the Search for Physical Reality. Frankfurt am Main: Peter Lang. Spector, M. (1965): Models and Theories. In: British Journal for the Philosophy of Science, 16(62), S. 121 – 142. Spector, M. (1978): Concepts of Reduction in Physical Science. Philadelphia: Temple University Press. Stegmüller, W. (1976): The Structure and Dynamics of Theories. Amsterdam: North-Holland. Stegmüller, W. (1980): Neue Wege der Wissenschaftsphilosophie. Berlin/Heidelberg/New York: Springer.

208 | Literatur Stegmüller, W. (1987): Hauptströmungen der Gegenwartsphilosophie – Eine kritische Einführung. Stuttgart: Kröner. Stölzner, M.; Uebel, T. (2006): Einleitung. In: Stölzner, M.; Uebel, T. (Hrsg.) (2006): Wiener Kreis – Texte zur wissenschaftlichen Weltauffassung von Rudolf Carnap, Otto Neurath, Moritz Schlick, Philipp Frank, Hans Hahn, Karl Menger, Edgar Zilsel und Gustav Bergmann. Hamburg: Meiner, S. IX – CIV. Suppe, F. (1971): On Partial Interpretation. In: Journal of Philosophy, 68(3), S. 57 – 76. Suppe, F. (1974): The Search for Philosophic Understanding of Scientific Theories. In: The Structure of Scientific Theories. Urbana/Chicago/London: University of Illinois Press, S. 3 – 241. Suppes, P. (1954): Some Remarks on Problems and Methods in the Philosophy of Science. In: Philosophy of Science, 21(2), S. 242 – 248. Suppes, P. (1957): Introduction to Logic. New York: Van Nostrand Company. Suppes, P. (1962): Models of Data. In: Nagel, E.; Suppes, P.; Tarski, A. (Hrsg.) (1962): Logic, Methodology, and Philosophy of Science: Proceedings of the 1960 International Congress. Stanford: Stanford University Press, S. 252 – 261. Suppes, P. (1967): What is a Scientific Theory? In: Morgenbesser, S. (Hrsg.) (1967): Philosophy of Science Today. New York: Basic Books, S. 55 – 67. Tadhunter, C. (2008): An Introduction to Active Galactic Nuclei: Classification and Unification. In: New Astronomy, 227, S. 52 – 83. Thiel, C. (1996): Eintrag: Theorie. In: Mittelstraß, J. (Hrsg.) (1996): Enzyclopädie Philosophie und Wissenschaftstheorie, 4, Mannheim/Wien/Zürich: Metzler, S. 260 – 270. Uebel, T. (2014): Vienna circle. In: Zalta, E.N. (Hrsg.): The Stanford Encyclopedia of Philosophy. Sommer 2014. http://plato.stanford.edu/archives/spr2014/entries/vienna-circle/ Urry, P.; Padovani, P. (1995): Unified Schemes for Radio-Loud Active Galactic Nuclei. In: PASP, 107, S. 803 – 845. van Fraassen, B. (1987): The Semantic Approach to Scientific Theories. In: Nersessian, N. (Hrsg.) (1987): The Process of Science. Dordrecht: Nijhoff, S. 105 – 124. van Fraassen, B. (1970): An the Extension of Beth’s Semantics of Physical Theories. In: Philosophy of Science, 37, S. 325 – 339. van Fraassen, B. (1980): The Scientific Image. Oxford: Oxford University Press. Vollmer, G. (1989): Darf man Falsches Lehren? – Eine Wissenschaftsdidaktische Überlegung. In: Naturwissenschaften, 76, S. 185 – 193. Wagner, W. (2004): Design and Realisation of a new AMANDA Data Acquisition System with Transient Waveform Recorders. Doktorarbeit, Dortmund/Wuppertal. Whitehead, A.N.; Russell, B. (1963): Principia Mathematica. Cambridge: Cambridge University Press. Wiltsche, H. (2013): Einführung in die Wissenschaftstheorie. Göttingen: Vandenhoeck & Ruprecht. Wimmer, R.; Blasche, S. (1996): Eintrag: Kontemplation. In: Mittelstraß, J. (Hrsg.) (1996): Enzyclopädie Philosophie und Wissenschaftstheorie, 2, Mannheim/Wien/Zürich: Metzler, S. 111 – 133 Wimsatt, W.C. (1976): Reductive Explanation: A Functional Account. In: Michalos, A.C.; Hooker, C.A.; Pearce, G.; Cohen, R.S. (Hrsg.) (1976): Boston Studies in the Philosophy of Science, 30. Dordrecht: Reidel, S. 671 – 710. Woodger, J. (1952): Biology and Language: An Introduction to the Methodology of the Biological Sciences including Medicine. Cambridge: Cambridge University Press.

Literatur | 209

Woodward, J. (2007): Causation with a Human Face. In: Price, H.; Corry, R. (Hrsg.) (2007): Causality, Physics, and the Constitution of Reality: Russell’s Republic Revisited. Oxford: Oxford University Press, S. 66 – 105. Zermelo, E. (1908): Untersuchungen über die Grundlagen der Mengenlehre. In: Mathematische Annalen, 65, 261–281. Zoglauer, T. (1991): Das Problem der Theoretischen Terme – Eine Kritik an der Strukturalistischen Wissenschaftstheorie. Doktorarbeit, Universität Stuttgart.

Stichwortverzeichnis Äquivalenz 49, 126, 130, 131, 139, 144–146 Absorptionslinie 175 Achinstein, P. 19–21, 23, 25, 27–29 Adams, E. 126, 128 admissible blur 132 AGN 175–193 Akkretionsscheibe 176–182 Aktivitäten 189, 190 all-particle-spectrum 162, 163, 175 Analogie 24, 26–29 – negative 26, 27, 82 – neutrale 26, 27, 82 – positive 26, 27, 82, 116 Antisymmetrie 36 Approximation 28, 49, 51, 89, 126, 132, 133 Aquin, Th.v. 6 Aristoteles 5 Astroteilchenphysik 159–194 Ayer, A.J. 11 Büchner, L. 8 Bacon, F. 5–7 Bailer-Jones, D. 50–57, 68, 86, 175–193, 195 Balzer, W. 34, 38, 57, 85, 89, 92, 124–134 Basismenge 39 – Haupt- 39, 58, 59, 65, 66, 68–71, 79, 80, 82, 85 – Hilfs- 39, 59 Berry, M. 92, 93, 118–124, 133, 147, 148, 156, 196 Bikonditional 102 Biologie 1 Blandford-Znajek-Prozess 182 Blazar 176 Body of information 119 Boethius 6 Boltzmann, L. 8, 10, 106 Boole, G. 11 Botenteilchen 162 bottom-up 162, 163, 191 Bourbaki, N. 85, 194 Brückengesetz 98, 100, 121

Campbell, N.R. 13, 24–26 Carnap, R. 8, 10, 12, 13, 17, 18, 21, 31–33 Cartwright, N. 50–57, 86, 161, 175, 193, 195 Cassirer, E. 9, 10 Cohen, H. 9 Comte, A. 7 connectability 98, 127, 133 correspondence rules 12, 14–18, 23, 31, 32 cosmic microwave background 160 Craver, C. 192 Daltons Gesetz der Proportionen 109 Darden, L. 192 Demarkationskriterium 15, 19, 32, 105 derivability 99, 127, 133 direkte Verallgemeinerung 139–142, 146 DN-Erklärung 90, 94, 136, 188 Duhem, P. 26 Einheitswissenschaft 7, 9, 11 Einstein, A. 8, 106 Elektrodynamik 183 Elektrostatik 146 Emissionslinie 175, 176 Empirismus 6, 7, 9 Entitäten 190–193 , 196 Erweiterung 139, 144, 146 Explanandum 94, 192 Explanans 94 external concept 117 Falkenburg, B. 161–163, 191–195 Falsifikation 105 Fast-Verallgemeinerung 139, 145–146 Fath, E.A. 175, 176 Feigl, H. 11, 102 Fermi, E. 164, 165 Fermi-Beschleunigung 164–176, 193 – Typ I 164–170 – Typ II 164, 168, 169 Feyerabend, P. 93, 105–113, 133, 147, 155 fluxfreezing 177, 183–187 Fraenkel, A.A. 70 Frank, Ph. 10, 11

212 | Stichwortverzeichnis Frege, G. 1, 11 Gödel, K. 1, 11, 13 Galilei, G. 6 Galileisches Fallgesetz 111 Geometrie – Euklidische 144, 145, 154 – Riemannsche 145, 154 Gesetz von Boyle-Charles 99 gesetzesartiger Zusammenhang 101 Glennan, S. 191, 192 Grelling, K. 11 Hahn, H. 10, 11 Halbordnung 36 Hanson, N.R. 20 Helmholtz, H.v. 8 Hempel, C.G. 11, 90, 95, 100, 102 Hess, V.F. 160 Hesse, M.B. 25, 26, 28, 29, 116 Hooker, C. 101 Hotspot 176, 178, 186, 187 Hoyningen-Huene, P. 89, 107, 109, 159, 194 Hubble, E. 176 Hydrodynamik 177, 183, 184, 187, 191 hypothetisch-deduktive Bestätigung 136 ideale Gasgleichung 148, 150, 152 Idealisierung 27, 52 Identität 98, 99, 102 indirekte Verallgemeinerung 139, 145–146 induktive Methode 6, 7 Inkommensurabilität 105, 107, 108, 110, 112, 113 Inkompatibilität 112 intendierte Anwendung 61, 125, 130 Interaktion 190–192, 196 internal concept 117 Jet 176, 178, 182–187 Kant, I. 5, 7 kausaler Mechanismus 188–193 Kemeny, J.G. 90, 92–96, 99, 100, 131, 138, 147, 155, 156, 196 Kern – -axiome 61

– einer aktiven Galaxie 175 – nach BMS 61, 125 – nach Scheibe 61, 66 – -physik 161 kinetische Gastheorie 99, 100, 193 kognitive Signifikanz 11, 14, 16 Kontextualist 23, 25, 26 Korrelation 102 kosmische Strahlung 161, 173 Kosmologie 43, 53, 161 Kraft 7 kritischer Rationalismus 105, 106 Kuhn, Th.S. 20, 93, 105–113, 133, 147, 155 Leibniz, G.W. 5 link – determining 125 – entailment 125 lobes 176, 186, 187, 191 logischer Positivismus 10–85 Logizismus 1 Ludwig, G. 59, 62, 63 Mach, E. 9–11 Machamer, P. 188–190, 192 Magnetohydrodynamik 183 Magnetostatik 146 Masse 7 Maxwell-Gleichungen 183 Mayr, E. 89 Mengenlehre 13, 39 Messungenauigkeit 137 Messverfahren 71–77, 81, 82 – äquivalente 74, 76, 82, 87 Mill, J.S. 5, 7–9 Mises, R.v. 11 Modell 58–63, 69, 71, 73, 79, 81–85, 132 – Gesamt- 177, 188, 189, 192, 193, 196 – idealisiertes 51 – materielles 50, 69, 79, 88 – mathematisches 79, 87 – notationales 51 – partiell-potentielles 129 – Patchwork- 53, 88, 163, 175 , 192, 193, 196 – potentielles 129 – Sub- 187, 188 – theoretisches 79, 87

Stichwortverzeichnis |

Modellebene 71, 86, 195 Modellelement 42 Modellist 23–25 Morgan, M.S. 50–57, 86, 193, 195 Morrison, M. 50–57, 86, 193, 195 Moulines, C.U. 34, 38, 47, 49, 57, 85, 89, 92, 124–134 Nagel, E. 11, 23, 89, 90, 92, 93, 97–105, 112, 127, 129, 134, 138, 155–157, 196 Navier-Stokes-Gleichungen 183 Neumann, R. 11 Neurath, O. 10, 11 Neutrino 161 Neutronenstern 178 , 181 Newton, I. 6, 20, 106 Newtonsche Mechanik 10, 15, 106, 108, 111, 114, 117, 119, 121, 126, 132, 141, 144, 154, 193 NGC 1068 175, 176 Nickles, Th. 89, 93, 103, 117–124, 133, 147, 156, 157, 196 observable Terme 14–16, 18–20 Oppenheim, P. 90, 92–96, 99, 100, 131, 138, 147, 155, 156, 196 Optik 104, 146 partielle Interpretation 18 Peano, G. 11 Pendel 52 Phänomenalismus 9 Phänomenebene 69, 71, 195 Philon 6 Photon 108 Physik der kosmischen Strahlung 160 physikalische Größe 61, 70, 72, 73, 75, 76, 79, 81–85, 87 Physikalismus 90 Platon 5, 6 Plotin 6 Popper, K.R. 105 Proklos 6 Protokollsatz 16 Psillos, St. 12, 16, 25, 27 Putnam, H. 11

213

Quantenfeldtheorie 160 Quantenmechanik 8, 10 Quasar 176 , 187 quasi analytische Sätze 109 Quasi Stellare Objekte 176 Quine, W.V.O. 11 Radio-Galaxie 176 Radioquellen 175 RAM-Druck 178, 186–191 Rankine-Hugoniot-Gleichung 173, 175 Rationalität 105 Raum 7 Realismus 10 received view 12–33, 85, 86, 92, 95, 155, 195 Reduktion 92–155, 186 – Äquivalenz 170, 174, 192, 194 – approximative 118–124, 147–153, 156, 157, 193, 196 – asymptotische 118–124, 147–150, 157 , 165, 166, 179, 187, 192, 196 – concept-replacement 119 – direkte Verallgemeinerung 168, 184, 186, 187, 192 – domain-combining 119 – domain-preserving 119 – empirische 136–138, 156 – epistemologische 90 – exakte 138–146, 156, 193, 196 – explanatorische 89–92, 94–96, 100, 131, 138, 155, 156 – Grenzfall 147, 150–152, 166, 187 192, 196, 197 – heterogene 97–105, 110, 112, 116, 118, 121, 134, 142, 157 – homogene 97–105, 110, 112, 114, 116, 121, 130, 134, 157 – interlevel 132 – interne 95 – -ismus 90 – konstitutive 89–91 – lokale 152–153, 166, 167, 171, 172, 181, 184, 186–188, 191, 192, 197 – Mikro- 91 – nach BMS 49 – nach Scheibe 155 – ontologische 90, 120, 128

214 | Stichwortverzeichnis – partielle 117, 154–156 – replacement 119 – Standardmodell 90, 92, 97–105, 112, 121, 129, 130, 156, 196 – sukzessive 159 – Theorien- 89–134 – Vehikel der 135 Reduktionsquadrat – geschlossenes 154–155 – offenes 154–155 Reduktionssatz 17, 18 Reflexivität 36, 102 Reichenbach, H. 11 Rekonstruktionsansatz – modelltheoretischer 58, 62, 63, 69, 72, 74, 87 – strukturalistischer 58, 69, 79, 87 Relativitätstheorie 8, 10 Rott, H. 126 Russell, B. 1, 5, 11, 13 Sarkar, S. 90 Schaffner, K. 89, 93, 101, 102, 113–118, 133, 147, 156, 196 Scheibe, E. 57–85, 89, 91, 134–155, 194, 195 Schlick, M. 10, 16 Schockfront 169, 170, 172, 174 schwarzes Loch 183 semantic approach 33–134, 139, 156, 195, 196 Seyfert, K.C. 176 Seyfert-Galaxie 176 Shapere, D. 108, 119 Skala 74, 75, 82, 83 Skalenübergang 82 Sklar, L. 93, 95, 101–103, 113–118, 133, 147, 156, 157, 195 Sneed, J.D. 89 , 34, 38, 57, 85, 92, 124–134 Spector, M. 92, 93, 95, 118–124, 133, 156, 196 Spezialisierung 132 spezielle Relativitätstheorie 114, 117, 121, 132, 141, 154, 193 statistische Mechanik 98, 99 Strukturart 39, 59, 63, 79 Substitutivität 102 Supernova 160 Suppes, P. 33–40, 56 Synchrotron-Prozesse 178, 186, 187 Systematizität 95, 100, 131

Tarski, A. 11, 22 Teller, E. 164 Temperatur 98 Theophrast 6 theoretisch-observablen-Dichotomie 19 theoretische Terme 16–21, 23, 32, 85, 96, 98, 120 Theoretisierung 125 Theorie 4–12, 88 Theoriegeladenheit der Beobachtung 20, 32 Theorien Holon 125 Theorienebene 71, 86, 195 Theorienelement 125, 132 Theorienevolution 125 Theoriennetz 132 Thermodynamik 98–100, 126, 172, 174, 175, 192 top-down 193 Transitivität 36, 135 Transportabilität 59, 60 Typentheorie 13 Unvollständigkeit 13 Urelement 70 Van-der-Waals-Gleichung 148, 150, 152 Vereinfachung 27 Vereinheitlichung – explanatorische 161–163 – konzeptuelle 161, 162 – methodologische 161 – phänomenologische 161, 162 Verfeinerung 142–144 Whewell, W. 5, 7 Whitehead, A.N. 11, 13 Wiedmann-Franz-Gesetz 102 Wiener Kreis 10–12, 14 Wimsatt, W.C. 90 Wittgenstein, L. 11 Woodger, J.H. 93 Zermelo, E. 70 ZFC 63, 68, 69, 74 Zilsel, E. 11 Zweites Newtonsches Gesetz 109