Operative Epistemologie: (Re-)Organisation von Anschauung und Erfahrung durch die Formkraft der Mathematik 9783787339006, 9783787338993

Seit dem 17. Jahrhundert ist Naturforschung durch die Erkenntnisstrategien der explorativen und operativen Epistemologie

119 89 8MB

German Pages 435 [436] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Operative Epistemologie: (Re-)Organisation von Anschauung und Erfahrung durch die Formkraft der Mathematik
 9783787339006, 9783787338993

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Gabriele Gramelsberger

Operative Epistemologie

Meiner DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Gramelsberger   Operative Epistemologie

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Gabriele Gramelsberger

Operative Epistemologie (Re-)Organisation von Anschauung und Erfahrung durch die Formkraft der Mathematik

Meiner

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Bibliographische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie; detaillierte biblio­g raphische Daten sind im Internet über http://portal.dnb.de abrufbar. ISBN 978-3-7873-3899-3 ISBN eBook 978-3-7873-3900-6

This electronic version has been made freely available under a Creative Commons (CC-BY-NC-ND) licence. A copy of the licence can be viewed at https://creativecommons.org/licenses/by-nc-nd/3.0.

Das Buch wurde gedruckt mit freundlicher Unterstützung der RWTH Aachen.

© Felix Meiner Verlag, Hamburg 2020. Alle Rechte vorbehalten. Dies gilt auch für Vervielfältigungen, Übertragungen, Mikroverfilmungen und die Einspeicherung und Ver­a rbeitung in elektronischen Systemen, soweit es nicht §§ 53 und 54 UrhG ausdrücklich g­ estatten. Umschlaggestaltung: Andrea Pieper, Hamburg. Satz: Jens-Sören Mann. Druck und Bindung: Beltz, Bad Langensalza. ­Gedruckt auf ­a lterungs­beständigem Werk­d ruck­papier. Printed in Germany.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Inhalt

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Erkenntnisfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anwendungsfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Medialitätsfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operative Epistemologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12 14 16 17

T EI L I O PER AT I O N A L IS I ERU N G D ER ER FA H RU N G Kapitel 1 · Operationalisierung der Anschauung . . . . . . . . . . . . . . . . . . . . . . . . 21

Aristoteles’ Axiomatisierungsprogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematische Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Descartes Operationsmodell der Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . Kunstgriff des Formalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22 27 31 34

Kapitel 2 · Sicherung des Erfahrungsbegriffs . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Kants Programm der Erfahrungssicherung . . . . . . . . . . . . . . . . . . . . . . . . . Funktion des Schematismus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fundierung des empirisch Gegebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigentliche Wissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45 50 55 57

Kapitel 3  ·  Erkenntniskraft der Anschauung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Lockes synthetische Urteilstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leibniz’ analytische Urteilstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Demonstrative Urteile bei Locke und Leibniz . . . . . . . . . . . . . . . . . . . . . . . Kants synthetische Urteile a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

67 70 77 82



6

Inhalt

Kapitel 4  ·  Kritik der Anschauung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Freges Kritik an Kant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Cassirers Verteidigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

T EI L I I V ER LUS T D ER A NS CH AU U N G Kapitel 5  ·  Verlust der mathematischen Anschauung . . . . . . . . . . . . . . . . . . . . 105

Blickrichtungen der euklidischen Geometrie . . . . . . . . . . . . . . . . . . . . . . . Projektionen geometrischer Gebilde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . n-dimensionale Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transformationsgruppen in Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . .

106 110 117 125

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung . . . . . . . . . . . . 135

Invarianz als neues Objektivitätskriterium . . . . . . . . . . . . . . . . . . . . . . . . . Nah- statt Fernwirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Apparative statt symbolischer Anschauung . . . . . . . . . . . . . . . . . . . . . . . . Was ging verloren? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

135 140 149 159

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren . . . . . . . . . . . . . . . . . . . . . 162

Pythagoreische Analogien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Objektivität symbolischer Wirklichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 Formal-apperzeptive Bedingung der Invarianz . . . . . . . . . . . . . . . . . . . . . 177

T EI L I I I M AT H EM AT IS CH E S PR ACH PR AG M AT I K Kapitel 8  ·  Medialität der Mathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Symbolische Anschauung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 Mathematik als Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 Operationslogik des mathematischen Sprechens . . . . . . . . . . . . . . . . . . . . 197

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Inhalt 

Kapitel 9  ·  Sprachlogik der modernen Mathematik . . . . . . . . . . . . . . . . . . . . . . 206

Inkonsistenzen des mathematischen Sprechens . . . . . . . . . . . . . . . . . . . . . 206 Hilberts sprachpragmatische Wende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 Berechenbarkeit als sprachpragmatische Präzisierung . . . . . . . . . . . . . . 218 Kapitel 10  ·  Berechenbarkeit und Anschauung . . . . . . . . . . . . . . . . . . . . . . . . . . 228

Berechenbarkeit als neues Anschauungsparadigma . . . . . . . . . . . . . . . . Anschauung, Anschauungslosigkeit, Anschaulichkeit . . . . . . . . . . . . . . Konvergenz als neues Objektivitätskriterium . . . . . . . . . . . . . . . . . . . . . . . Was zeigt sich? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

228 234 240 249

T EI L I V O PER AT I V E EPIS T EM O LO G I E Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie . . . . . . . . 257

Frage nach der Anwendbarkeit der Mathematik . . . . . . . . . . . . . . . . . . . . 257 Frage nach der Wirklichkeit der Mathematik . . . . . . . . . . . . . . . . . . . . . . . 266 Anschauung, Erfahrung und Operabilität . . . . . . . . . . . . . . . . . . . . . . . . . . 270 Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung . . . . . . . . . . . 278

Erkenntnisleitende Funktion der Mathematik . . . . . . . . . . . . . . . . . . . . . . Prognostizität durch numerische Extrapolation . . . . . . . . . . . . . . . . . . . . . Prognostizität durch algebraische Permutation . . . . . . . . . . . . . . . . . . . . . Operationale (Re-)Organisation von Theorie . . . . . . . . . . . . . . . . . . . . . . .

278 285 290 297

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung . . . . . . . . . . . . . . . . . . . 302

Apparative Anschauung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematische Medialisierung der Empirie . . . . . . . . . . . . . . . . . . . . . . . . Operationale (Re-)Organisation von Empirie . . . . . . . . . . . . . . . . . . . . . . . Operative Logik der mathematischen Formkraft . . . . . . . . . . . . . . . . . . . .

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

302 307 315 324

7



8

Inhalt

T EI L V T H EO R I E D ER O PER AT I V EN EPIS T EM O LO G I E Kapitel 14  ·  Prognostische Erkenntnisgenerierung . . . . . . . . . . . . . . . . . . . . . . 333

Modi der Erkenntnisgenerierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 Schema der prognostischen Vergegenwärtigung . . . . . . . . . . . . . . . . . . . . 340 Grenzen der prognostischen Vergegenwärtigung . . . . . . . . . . . . . . . . . . . 345 Kapitel 15  ·  Symbolisch-operative Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357

Logik der mathematischen Gleichsetzungsleistung . . . . . . . . . . . . . . . . . 357 Tautologie, Geltung, Extensionalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 Autologie, Erkenntnis, Operativität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374 Kapitel 16  ·  (Re-)Organisation von Erfahrung . . . . . . . . . . . . . . . . . . . . . . . . . . . 379

Möglichkeiten der operativen Epistemologie . . . . . . . . . . . . . . . . . . . . . . . . 379 Grenzen der operativen Epistemologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 Plastizität der Mathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Vorwort

D  

as vorliegende Buch wäre ohne Unterstützung nicht möglich gewesen. Daher möchte ich mich bei Petra Gehring und Christoph Hubig für ihre tatkräftige Unterstützung in einer schwierigen Situation sowie bei Sybille Krämer und Bernd Mahr für ihre langjährige Begleitung bedanken. Leider ist Bernd Mahr 2015 viel zu früh verstorben und damit unsere Diskussion zum Zahlbegriff zum Erliegen gekommen. Peter Bexte, an dessen Lehrstuhl ich in der überwiegenden Zeit des Schreibens tätig war, möchte ich für die Gespräche wie auch seine Geduld danken, ebenso Claus Pias und Martin Warnke sowie Lorenz Engell und Bernhard Siegert für die Unterstützung mit Fellowships. Schließlich danke ich Gisela Bechen und Karl-Heinz Niedermeyer für die akribische und kritische Lektüre des Textes. Nach eingehender Diskussion habe ich mich entschlossen, die männliche Schreibweise für allgemeine Personenzuweisungen zu verwenden.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Einleitung

I 

m ersten Buch der Metaphysik amüsiert sich Aristoteles über die mathematischen Spekulationen der Pythagoreer, die nicht nur die Zahl als substanzielles Wesen auffassen, sondern den gesamten Kosmos unter die von ihnen postulierte vollkommenste Zahl subsumieren. Diese vollkommene Zahl der Pythagoreer war die Zehn. »Aber weil lediglich neun [Planeten] sichtbar sind«, so Aristoteles, »erdachten sie sich als zehnten die ›Gegenerde‹.«1 Zweitausend Jahre später mokiert sich Galileo Gallei in einem Brief an Johannes Kepler über seine Kollegen, »labouring before the Grand Duke with logical arguments, as if with magical incantations, to charm the new planets out of the sky«.2 Denn die von Galilei durch das Teleskop entdeckten Jupitermonde und die zerfurchte Oberfläche des Mondes passten nicht in die mathematische Perfektion der scholastischen Kosmologie idealer Planetenkugeln und kreisrunder Umlaufbahnen.3 Fast ein halbes Jahrtausend später streiten sich die Physiker darüber, ob die elegante Theorie der Supersymmetrie alles erklären kann oder ob die Natur nicht eher eine »ugly combination of superpartner particles« ist.4 Diese eigenwillige Allianz zwischen Mathematik, Naturspekulation und Ästhetik wirft Fragen nach den Konstellationsverhältnissen von Anschauung, Erfahrung und mathematischer Formkraft auf und damit nach dem Vermögen der angewandten Mathematik respektive ihrer operativen Epistemologie. Die Fragen betreffen zum einen das prekäre Verhältnis von Mathematik, Logik und Wirklichkeit und damit den Realitätsbezug wie die Objektivitätskriterien formaler Rationalität (Erkenntnisfrage), zum anderen thematisieren sie die Gestalt (Medialitätsfrage) wie die Gestaltungsmöglichkeiten des rein Formalen in Bezug auf Wissenschaft, Technik und Lebenswelt (Anwendungsfrage). Ist die Erkenntnisfrage eine mit langer Tradition in der Philosophie, so wird die Anwendungsfrage zu Beginn des 20. Jahrhunderts zur Rätselfrage. Die Medialitätsfrage hingegen ist eine ketzerische Frage, die die Idealität der Mathematik wie ihre vermeintliche Erkenntnissicherheit herausfordert. 1 Aristoteles: Metaphysik (übersetzt und hrsg. von Franz F. Schwarz), Reclam: Stuttgart 1970, I. Buch (A), 986a. 2 Michael Roberts: The Modern Mind, London: The Macmillan Company 1937, S. 5. 3 Vgl. Alexandre Koyré: Von der geschlossenen Welt zum unendlichen Universum (1957), Frankfurt: Suhrkamp 1969. 4 Natalie Wolchover: ›Supersymmetry Fails Test, Forcing Physics to Seek New Ideas‹, in: Scientific American, 29.11.2012.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



12

Einleitung 

Dreh- und Ausgangspunkt aller drei Fragen ist dabei Immanuel Kants Feststellung in der Kritik der reinen Vernunft, dass die Mathematik »vermittels einer symbolischen Konstruktion […] dahin [reicht], wohin die diskursive Erkenntnis vermittels bloßer Begriffe niemals gelangen könnte«.5

Erkenntnisfrage

Die mathematische Form der Erkenntnis von der diskursiven Erkenntnis der Begriffe zu unterscheiden, differenziert einerseits den Vernunftgebrauch der Mathematiker von dem der Philosophen und führt andererseits in das Zentrum der philosophischen Diskussion über Mathematik in Form von Begriffs- und Urteilstheorien.6 Es ist Kants genuine Leistung, mathematische Urteile als synthetische Urteile a priori zu charakterisieren und sie von den analytischen Urteilen der diskursiven Erkenntnis und den synthetischen Urteilen der empirischen Erkenntnis zu unterscheiden. Die Motivation dafür ist dem programmatischen Anspruch seiner kritischen Philosophie geschuldet, gegenwärtige Entwicklungen zu reflektieren, und dies bedeutet zu seiner Zeit, das Objektivitätsverständnis der neuzeitlichen Wissenschaft philosophisch zu erfassen suchen. Kants Mathematikverständnis ist aus zwei Gründen von Interesse: wegen dessen Hybridität wie auch Operativität. Hybridität, da Kants Urteilstheorie eine dreistellige Ontologie von logischer Möglichkeit (Widerspruchsfreiheit), mathematischer und kategorialer Wirklichkeit (Begriff plus Anschauung a priori) sowie empirischer Realität (sinnliche Gegebenheit) aufspannt, in welcher der Mathematik eine wirklichkeitskonstituierende Funktion zugewiesen wird. Diese generiert sich aus der Amalgamierung von Begriff und Anschauung a priori und konstituiert so mathematische Begriffe in Form hybrider Wirklichkeitsbegriffe. Operativi5

Immanuel Kant: Kritik der reinen Vernunft (1781/1787) (hrsg. von Raymund Schmidt), Meiner: Hamburg 1993, B 745. 6 Kant kritisiert damit, die Mathematik als Methode des Philosophierens zu verwenden, wie dies von Platon über Gottfried Wilhelm Leibniz bis zu Kants Zeiten immer wieder diskutiert wurde und mit den Logizisten ab Ende des 19. Jahrhunderts dominant wird. Beispielsweise, wenn Bertrand Russell die philosophische Logik nach der mathematischen zu entwickeln sucht, in der Hoffnung, »daß die nahe Zukunft eine ebenso große Epoche der reinen Philosophie sein werde, wie die unmittelbare Vergangenheit eine der Prinzipien der Mathematik war«. Bertrand Russell: ›Die Mathematik und die Metaphysik‹ (1901), in: Ders.: Mystik und Logik. Philosophische Essays, Wien, Stuttgart: Humboldt Verlag 1952, S. 76–97, S. 97. Vgl. Brigitta-Sophie von Wolff-Metternich: Die Überwindung des mathematischen Erkenntnisideals. Kants Grenzbestimmung von Mathematik und Philosophie, Berlin, New York: Walter de Gruyter 1995.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Erkenntnisfrage

tät, da diese Amalgamierung von Begriff und Anschauung a priori, also von ontologisch Ungleichartigem, über das als Schematismus bezeichnete Vermittlungsverfahren der transzendentalen Zeitbestimmung geregelt ist.7 Die Operativität ergibt sich aus der Synthesisfähigkeit der Einbildungskraft als ein bestimmtes Regelfolgen unterschiedlicher Vergegenwärtigungsmodi, das verschieden geordnete Einheit in die Mannigfaltigkeit der Anschauung bringt und damit formal die Möglichkeit von Erkenntnis garantiert. Objektivität verlagert sich als operative Bestimmung der Möglichkeit der Erfahrbarkeit von Gegenständlichkeit und damit Wirklichkeit in das transzendentale Subjekt. In diesem Sinne konstruieren mathematische Begriffe geordnete Einheit von Mannigfaltigkeiten – als Ordnung des Nacheinanders (zeitlich) oder Nebeneinanders (räumlich) – und sind daher keine inhaltlichen Begriffe, sondern formale Organisationsbegriffe von Erfahrung. Die Operationalisierung von Erfahrung ist das Projekt der neuzeitlichen Philosophie – beginnend mit John Locke, David Hume und Gottfried Wilhelm Leibniz und sich vollendend mit Kants Programm der Erfahrungssicherung der neuzeitlichen Wissenschaft, die sich ontologisch nicht mehr im Sein, sondern in der Mathematik und dem empirisch Gegebenen gründet. Der Wirklichkeitsbezug der Mathematik soll den Realitätsbezug der eigentlichen Wissenschaft als mathematisierter sichern. Die Folge für die philosophische Begriffstheorie ist, dass die abbildhafte Transposition einzelner Merkmale äußerer Objekte in die begriffliche Sphäre, im Sinne einer Abstraktionsoder Abbildtheorie, durch die distributive Allgemeinheit der regelbasierten Begriffsbildung abgelöst wird. Das Urteil wird zur aktiven Instanz der Erkenntnisgenerierung, die nicht nur das Besondere unter einen allgemeinen Regelbegriff subsumiert, sondern aus dem Regelbegriff das Unbekannte und Neue extrapoliert respektive mathematisch konstruiert. Die Folge für die Wissenschaft ist, dass sich ihr Erkenntniswert nicht mehr von den konkret gegebenen Objekten als Abstraktionsgrund her, sondern einzig durch die Erkenntnisgewissheit der mathematischen Methode generiert und damit zunehmend vom Gegebenen auf das Prognostische verschiebt. Mögen die mathematischen Spekulationen der Pythagoreer jeglicher Realität entbehrt haben, so bestätigt sich Urban Le Verriers berechnete Prognose der Existenz des Planeten Neptun von 1846 wenige Tage später durch das Berliner Observatorium.8 7

Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 176 ff. Le Verrier hatte aus den Abweichungen der Planetenbahn des Uranus den Einfluss und die Position eines bis dahin unentdeckten Planeten per Hand berechnet. Vgl. Johann G. Galle: ›Account of the discovery of the planet of Le Verrier at Berlin‹, in: Monthly Notices of the Royal Astronomical Society, 7, 1846, 153. 8

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

13



14

Einleitung 

Solange der Wirklichkeitsbezug der formalen Organisationsbegriffe von Erfahrung als Regelbegriffe geordneter Einheit von Mannigfaltigkeiten durch die Anschauung a priori gesichert ist, ist der objektive Status des extrapolierten oder konstruierten Neuen und Unbekannten garantiert. Doch Mitte des 19. Jahrhunderts verändert sich die Gestalt der Mathematik und damit ihre Gestaltungsmöglichkeiten für Wissenschaft und Technik. Der gemeinhin als Verlust der Anschauung titulierte Prozess löst die Evidenz des Direkt-Erfahrbaren der empirischen Forschung und des Direkt-Konstruierbaren der euklidischen Geometrie auf. Zum einen wird Anschauung an die zunehmend präziseren Messinstrumente delegiert (apparative Anschauung), zum anderen verlagert sich die Einsichtigkeit der geometrischen Konstruktion in die algebraische Notation (symbolische Anschauung). Damit erweitert die Geometrie ihren Spielraum enorm, denn es geht nicht mehr um die Eigenschaften räumlicher Dinge, sondern um die Eigenschaften von Systemen von Mannigfaltigkeit unter Transformationsbedingungen.9 Raum wird zu einer differenzierbaren Mannigfaltigkeit, in der allein die unter Transformationen invarianten Eigenschaften zum Anhaltspunkt für Evidenz werden. Invarianz wird zum Objektivitätskriterium der neuen Physik der Relativitätstheorie und Quantenmechanik.10 Es liegt auf der Hand, dass der Anschauungsverlust Kants Programm der Erfahrungssicherung in arge Bedrängnis und das »Geschrei der Boeoter«, das Carl Friedrich Gauß für seine Studien zu nicht-euklidischen Geometrien noch zu fürchten hatte, zum Verstummen bringt.11

Anwendungsfrage

Vor diesem Hintergrund transformiert sich die Erkenntnisfrage zur Frage nach der Anwendbarkeit der Mathematik, die mit dem Verlust der Anschauung zum Rätsel wird. Denn das neue Objektivitätsverständnis reduziert sich 9 Vgl. Felix Klein: ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), in: Mathematische Annalen, 43, 1893, 63–100. 10 Vgl. Hermann Weyl: Symmetrie, Basel: Birkhäuser 1955. Die Quantenmechanik löst den kontinuierlichen Zusammenhang von Raum und Zeit auf und die Relativitätstheorie desavouiert die Apriorizität von Raum und Zeit, indem Raum und Zeit zu empirisch abhängigen Größen werden. Vgl. Peter Mittelstaedt: Philosophische Probleme der modernen Physik, Mannheim u.a.: B. I. Wissenschaftsverlag 1981. 11 Carl Friedrich Gauß: Brief an Bessel vom 27. Januar 1829, in: Friedrich Engel, Paul Stäckel (Hrsg.): Die Theorie der Parallellinien von Euklid bis Gauß. Urkunden zur Geschichte der Nichteuklidischen Geometrie, Leipzig: Teubner 1895, S. 226. Mit den Boeotern meint Gauß die Kantianer seiner Zeit.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Anwendungsfrage

auf die zweistellige Ontologie von logischer Möglichkeit (Widerspruchsfreiheit) und empirischer Realität (sinnliche Gegebenheit). Mathematische Urteile werden nun wie die logischen den analytischen Urteilen zugerechnet und stehen den synthetischen Urteilen der Empirie unvermittelt gegenüber. Schon Leibniz konnte nur Dank der Forderung nach prästabilierter Harmonie seine analytische Urteilstheorie mit der Welt in Einklang bringen. Doch solche metaphysischen Bedingungen sind der modernen Wissenschaft wie Philosophie suspekt geworden und so rätselt nicht nur Albert Einstein, »wie es möglich [ist], daß die Mathematik, die doch ein von aller Erfahrung unabhängiges Produkt des menschlichen Denkens ist, auf die Gegenstände der Wirklichkeit so vortrefflich paßt?«12 Bis heute arbeitet sich die Mathematikphilosophie an der Unvermitteltheit dieser zweistelligen Ontologie ab. Bezüglich des Status mathematischer Objekte changiert sie zwischen den altbekannten Positionen des Realismus und Nominalismus.13 Ersterer spricht den mathematischen Entitäten als abstrakte Objekte Existenz zu, Letzterer spricht sie ihnen wieder ab, sowohl als abstrakte wie auch ontische Objekte.14 Mathematische Objekte als ontische zu verstehen, verdankt sich einer naturalistischen Auffassung des Realismus.15 Während Realisten gezwungen sind, durch Isomorphiebehauptungen die ontologische Differenz zwischen abstrakten und empirischen Objekten zu überbrücken und so auf die Frage nach der Anwendbarkeit zu antworten, stellt sich für Nominalisten und Naturalisten die Anwendungsfrage gar nicht. Allerdings gerät dann der Erfolg der hochgradig mathematisierten Wissenschaften zum Rätsel.16 All diese Rätsel verkehren sich in Magie, wenn den mathematischen Formalismen selbst Empirie zugesprochen wird. »I say ›magical‹ because the object of study of physics became more and more the 12 Albert Einstein: Geometrie und Erfahrung (Erweiterte Fassung des Festvortrages gehalten im Januar 1921 an der Preußischen Akademie der Wissenschaften zu Berlin), Berlin: Julius Springer 1921, S. 3. 13 Vgl. Wolfgang Stegmüller: Glauben, Wissen und Erkennen. Das Universalienproblem Einst und Jetzt, Darmstadt: Wissenschaftliche Buchgesellschaft 1965. 14 Zur realistischen Position vgl. Penelope Maddy: Realism in Mathematics, Oxford: Clarendon 1990. Zur nominalistischen Position vgl. Hartry Field: Science without Numbers, Oxford: Blackwell 1980; Jody Azzouni: Deflating Existential Consequences. A Case for Nominalism, Oxford: Oxford University Press 2004. 15 Zur naturalistischen Deutung vgl. Willard van Orman Quine: ›On what there is‹, in: Review of Metaphysics, 2, 1948/49, 21–38; Michael Resnik: ›Scientific and mathematical realism: The indispensability argument‹, in: Philosophia Mathematica, 3, 1995, 166–174; Penelope Maddy: Naturalism in Mathematics, Oxford: Clarendon 1997. 16 Vgl. James R. Brown: ›The Miracle of Science‹, in: Philosophical Quarterly, 32, 1982, 232–244.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

15



16

Einleitung 

formalism of physics itself, as though the symbols were reality.«17 Dies macht deutlich, dass Kants dreistellige Ontologie dringend erforderlich wäre, um »the unreasonable effectiveness of mathematics in the natural sciences« besser zu verstehen.18

Medialitätsfrage

Ist die Mathematik tatsächlich ein von aller Erfahrung unabhängiges Produkt des menschlichen Denkens? Anders gewendet: Sind mathematische Begriffe in heutiger Gestalt keine formalen Organisationbegriffe von Erfahrung mehr, wenn die wirklichkeitssichernde Apriorizität der Anschauungsformen verloren geht? Die Antwort lautet ja, wenn man wie Kant davon ausgeht, dass die Mathematik ihre »Gegenstände selbst durch gleichförmige Synthesis« erschafft.19 Die Idee der Gleichförmigkeit als einfachste Form der Ordnung des Neben- und Nacheinanders ist dem Linearitätsparadigma der euklidischen Geometrie und der newtonischen Mechanik zu Kants Zeiten geschuldet. Der lineare Automatismus geht mit einer intuitiven Einsichtigkeit wie anschaulichen Darstellbarkeit einher, denn eine derart geordnete Wirklichkeit garantiert charakteristische Eigenschaften wie Gleichförmigkeit, Stetigkeit, Symmetrie, Reversibilität, Kommutativität, Konvergenz, Vorhersagbarkeit und vieles mehr. Die moderne Mathematik kompliziert diese Ordnung, aber sie löst nicht das Nebeneinander und Nacheinander von Mannigfaltigkeiten als Vergegenwärtigungsmodi von Erfahrung auf. Sie ordnet es nur vielfältiger und kann daher komplexere Organisationbegriffe von Erfahrung generieren. Diese begriffliche Komplizierung hat jedoch ihren Preis. Denn zum einen ist die komplexere Ordnung in ihrer Dynamik nicht mehr direkt an der mathematischen Begriffskonstruktion ablesbar, das heißt die komplexeren mathematischen Begriffe bedürfen notweniger Weise der Verwirklichung. Verwirklichung bedeutet in einer Mathematik, die sich als rein formale (Zeichen-)Sprache versteht, Berechenbarkeit – formal als Ableitbarkeit und Entscheidbarkeit, numerisch als tatsächliche Berechnung. Daher ist zu fragen, ob formale Berechenbarkeit – ganz im Sinne Kants als »einen [mathematischen] 17 Vgl. Mark Steiner: The Applicability of Mathematics as a Philosophical Problem, Cambridge: Harvard University Press 1998, S. 136. 18 Vgl. Eugene Wigner: ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹ (1960), in: Ders.: Symmetries and Reflections. Scientific Essays of Eugene P. Wigner, Bloomington: Indiana University Press 1967, 222–237. 19 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 751.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operative Epistemologie

Begriff aber konstruieren, heißt: die ihm korrespondierende Anschauung a priori darstellen«20 – nicht das neue Anschauungsparadigma der modernen Mathematik ist.21 Zum anderen wird dadurch die Abhängigkeit der Mathematik von ihrer medialen Verfassung offensichtlich, insofern Gestalt und Apodiktizität in einem interdependenten Verhältnis zueinander stehen. Denn es lassen sich innerhalb des Anschauungsparadigmas der Konstruierbarkeit der euklidischen (axiomatisierten) Geometrie wie auch der Berechenbarkeit der formal-axiomatisierten Mathematik als (Zeichen-)Sprache logisch mögliche, aber anschauungslose Objekte (Hendekaeder, Diagonalzahl E0) von verwirklichbaren Objekten der Anschauung (Kreise, primitiv-rekursive Funktionen) und empirischen Objekten der Anschaulichkeit (Kegelschnitte, nicht-lineare Differentialgleichungssysteme) unterscheiden. Die Pragmatik der geometrischen Konstruierbarkeit hat sich zwar in die Sprachpragmatik der modernen Mathematik transformiert und damit die Gestalt des Anschauungsparadigmas verändert, die moderne Mathematik entbehrt aber dennoch nicht eines solchen. Freilich darf Anschauung nicht mit Anschaulichkeit verwechselt werden, sondern ist mit Kant operativ als ein bestimmtes Regelfolgen unterschiedlicher Vergegenwärtigungsmodi geordneter Einheit von Mannigfaltigkeit zu verstehen.

Operative Epistemologie

Die Leistung der operativen Epistemologie resultiert aus der aktiven Instanz formaler Urteile zur Erkenntnisgenerierung, die aus der angewandten Mathematik resultieren. Damit eröffnet sich nicht nur der Bereich der Subsumption des Besonderen unter allgemeine Regelbegriffe im Sinne formaler Organisationsbegriffe von Erfahrung, sondern das aus den Regelbegriffen extrapolierbare Unbekannte und Neue. Das Terrain des Unbekannten und Neuen gewinnt mit der Transformation der konstruktiv-geometrischen Pragmatik in die Sprachpragmatik der modernen Mathematik gehörig an Umfang. Die Erfolge der modernen Mathematik – ihre Komplizierung – resultieren dabei aus dem medialen Umstand, dass sich das Konstruieren geometrischer Figuren in ein ›Operieren mit Operationen‹ wandelt und dadurch ein neues operatives Repertoire erschließt. Dieses erweitert sich um die Vergegenwärtigungsmodi der Permutation und der Rekursion und ermöglicht es, aus sich selbst auto20 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 741. Das Anschauungsparadigma der neuzeitlichen Mathematik, Wissenschaft und Philosophie ist hingegen axiomatisierbare Konstruierbarkeit. 21

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

17



18

Einleitung 

morph und rekursiv generierende Ordnungen des Neben- und Nacheinanders des Mannigfaltigen zu erzeugen. Die Selbstbezüglichkeit der modernen Mathematik löst dabei zwar die Bezüglichkeit der neuzeitlichen Mathematik ab und delegiert deren intuitive Einsichtigkeit an die apparative und symbolische Anschauung. Sie führt aber in ihren selbstbezüglichen Gestaltungsmöglichkeiten zu den selbstorganisierenden Konzepten der modernen Forschung – den Automorphismen der neuen Physik, der fraktalen Geometrie, der Kybernetik und der deterministischen Dynamik nicht-linearer Systeme. Die Komplizierung der formalen Organisationsbegriffe von Erfahrung zu untersuchen, ist Thema der vorliegenden Studie. Der Lohn für die Mühe ist der Gewinn einer neuen Frage, nämlich der, ob die Mathematik als formale (Zeichen-)Sprache aktuell an ihr Ende kommt. Denn mit der Selbstreferentialität der Formalsprachlichkeit stößt die Mathematik als Sprache an ihre äußerste Grenze.22 Daher stellt sich die Frage, ob die Mathematik ihre Gestalt ein weiteres Mal ändern muss, um noch komplexere Organisationsbegriffe von Erfahrung zur Anschauung zubringen – beispielsweise den biologischer Systeme.23

22 Solange Berechenbarkeit im Paradigma der Maschinenberechenbarkeit verharrt, erweitert der mediale Wechsel von der formalen (Zeichen-)Sprache in die elektrische Schaltung das operative Repertoire der Mathematik nicht wirklich. 23 Vgl. Bernd Sturmfels: ›Can biology lead to new theorems?‹, in: 2005 Annual Report, Oxford: Clay Mathematics Institute 2005,13–26; Joel E. Cohen: ›Mathematics Is Biology’s Next Microscope, Only Better; Biology Is Mathematics‹ Next Physics, Only Better‹, in: PLoS Biology, 2 (12), 2017, e439.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

TEIL I OPER ATIONALISIERUNG DER ERFAHRUNG

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 1 Operationalisierung der Anschauung

D  

ie besondere Rolle, die der Mathematik in der Philosophie zukommt, verstellt leicht den Blick auf ihre historische Wandelbarkeit. Solange mathematische Urteile wegen ihrer vermeintlichen Erkenntnissicherheit von Philosophen als Paradebeispiele apriorischen Wissens gewertet werden, bleiben Fragen nach dem Erkenntnisfortschritt, der Fehlbarkeit sowie der sich wandelnden Gestalt der Mathematik ungestellt. Doch gerade die Frage nach der Anwendbarkeit der Mathematik ist ohne den Blick auf die Erkenntnisfortschritte, die Fehlbarkeiten und die sich wandelnde Gestalt nicht beantwortbar. Denn wie zu zeigen sein wird, stehen Anwendung und Gestalt der Mathematik in einem interdependenten Verhältnis, das weder die Erkenntnissicherheit, noch den Ursprung der Erkenntniskraft der Mathematik unberührt lässt, auch wenn ›Falsifizierung‹ mathematischer Theorien anders verläuft als in den empirischen Wissenschaften. Richtet sich also der Blick auf die Transformierbarkeit der Mathematik, dann werden – mit Gaston Bachelard gesprochen1 – verschiedene epistemische Brüche sichtbar, die sich zeitlich am Übergang von der antiken zur neuzeitlichen und von dieser zur modernen Mathematik lokalisieren lassen. Diese Brüche zeigen sich besonders wirkmächtig am Wandel der Axiomatisierung. Mit Rudolf Carnap gesprochen wird unter Axiomatisierung einer mathematischen wie auch wissenschaftlichen Theorie ihre Darstellung in der Weise verstanden, »dass gewisse Sätze dieser Theorie, die Axiome, an den Anfang gestellt werden und weitere Sätze durch logische Deduktion aus ihnen abgeleitet werden«.2 Poetischer drückt es David Hilbert aus, wenn er von der Ordnung eines jeglichen Wissensgebietes spricht, »die mit Hilfe eines gewissen Fachwerkes von Begriffen« erfasst werden kann, so dass jedem Wissensgegenstand ein Begriff und jeder Tatsache eine logische Beziehung zwischen den Begriffen entspricht.3 Eine solche Fundierung zeichnet sich dadurch aus, »daß der Konstruktion des Fachwerkes von Begriffen einige wenige ausgezeichnete Sätze des Wissensgebietes zugrunde liegen«, eben die Axiome der einzelnen Wissensgebiete, die genügen »um aus ihnen nach 1 Vgl.

Gaston Bachelard: Die Bildung des wissenschaftlichen Geistes. Beitrag zu einer Psychoanalyse der objektiven Erkenntnis (1938), Frankfurt: Suhrkamp 1987. 2 Rudolf Carnap: Einführung in die symbolische Logik (1954), Wien: Springer 1968, S. 172. 3 David Hilbert: ›Axiomatisches Denken‹, in: Mathematische Annalen, 78, 1917, 405–415, S. 405.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



22

Kapitel 1  ·  Operationalisierung der Anschauung

logischen Prinzipien das ganze Fachwerk aufzubauen«.4 Die axiomatische Methode kommt dabei, so Hilbert, »einer Tieferlegung der Fundamente der einzelnen Wissensgebiete gleich«.5

Aristoteles’ Axiomatisierungsprogramm

Bereits die antike Mathematik und Wissenschaft zeichnen sich durch einen grundlegenden Wandel aus. Dieser ist in der historischen Entwicklung zu sehen, welche die griechische Mathematik von der ägyptischen und insbesondere von der babylonischen Mathematik dadurch unterscheidet, dass sie die Orientierung an praktischen Aufgaben auflöst und sich die Frage nach der Autorisierung mathematischen Wissens stellt. Denn aus dem »für die verschiedenen Gebiete ihrer praktischen [babylonischen] Anwendung […] ausreichenden Approximationen […] entstand das natürliche Bedürfnis [der Griechen], alles, und vor allem auch ganz elementare Sätze, auf irgend eine Weise genau zu ›beweisen‹«.6 Aus dieser Forderung nach Beweisen resultiert die axiomatische Fundierung mathematischen Wissens, die mit Euklids Elemente eine erste und bis in die Neuzeit gültige Ausgestaltung findet.7 Dabei sind die mathematischen Beweise zu Anfang als epagogische Deckungsbeweise noch an der Anschaulichkeit orientiert. Beispielsweise um zu zeigen, dass 4

Hilbert, ›Axiomatisches Denken‹, 1917, S. 405, 406. S. 407. Aus historischer Perspektive zeigt sich, dass nicht nur die Axiomatisierung die Wissensgebiete umformt, sondern dass die Axiomatisierung selbst verschiedene Transformationen durchläuft. Wolfgang Stegmüller spricht von fünf verschiedenen Arten der Axiomatisierung, die auf unterschiedliche Axiombegriffe rekurrieren. Axiome können je nach Art der Axiomensysteme, so Stegmüller, Aussagen, Aussageformen, Formeln (Kalküle), Definitionen (mengentheoretische Axiomatisierung) oder Explizitprädikate (Kalküle mit mengentheoretischen Axiomen) bezeichnen. Vgl. Wolfgang Stegmüller: Theorie und Erfahrung, Teil D: Logische Analyse der Struktur ausgereifter physikalischer Theorien. ›Non-statement view‹ von Theorien, 2. Bd., Berlin u.a.: Springer 1985, S. 34 ff. 6 Kurt von Fritz: Grundprobleme der Geschichte der antiken Wissenschaft, Berlin: de Gruyter 1971, S. 200. 7 Vgl. Euklid: Die Elemente: Buch I–XIII (hrsg. von Clemens Thaer), Darmstadt: Wissenschaftliche Buchgesellschaft 1971. Die Frage, ob die axiomatisch-definitorische Umgestaltung der Mathematik auf den Einfluss von Platon und dessen Schule zurückzuführen ist, ist unter Mathematikhistorikern umstritten. Im Unterschied zu Aristoteles gibt Platon jedoch keine Beweistheorie. Vielmehr nutzt er Beweismethoden der Mathematik für die Entwicklung seiner dialektischen Argumentationsmethode der Diäresis, die jedoch andere Ziele verfolgt als die Mathematik. Vgl. Friedrich Solmsen: ›Platons Einfluß auf die Bildung der mathematischen Methode‹, in: Quellen und Studien zur Geschichte der Mathematik, 1 (1), 1929, 93–107 sowie die Kritik daran bei Kurt von Fritz: Platon, Theaetet und die antike Mathematik, Darmstadt: Wissenschaftliche Buchgesellschaft 1969, S. 18 ff. 5 Ebd.,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Aristoteles’ Axiomatisierungsprogramm

beide Hälften des entlang des Durchmessers geteilten Kreises deckungsgleich sind oder dass, wie von Platon im Menon beschrieben, die Verdopplung des Flächeninhalts des Quadrats nur über die Diagonale errichtet werden kann, wenn daraus wieder ein Quadrat entstehen soll.8 Diese anschauungsorientierten Beweise werden im Laufe der Entwicklung zunehmend von abstrakten, apagogischen Beweisen verdrängt. Apagoge, im Wortsinne als ›Wegführung‹ verstanden, basiert dabei auf der Unhaltbarkeit der abgeleiteten Annahme, die zur Akzeptanz der gegenteiligen Annahme führt (Widerspruchsbeweis). So ist beispielsweise Euklids Beweis der Inkommensurabilität am regelmäßigen Fünfeck durch die Deckungsmethode mit Hilfe des Satzes des Thales an der Anschaulichkeit orientiert, während der Beweis der Inkommensurabilität der Diagonale des Quadrats mit seiner Seite im 10. Buch der Elemente ganz ohne Anschaulichkeit auskommt.9 Erst durch diese weitgehende Ausschaltung des anschaulichen Elements stellt sich überhaupt die Frage nach den Prämissen der Beweise und nach der ›Natur‹ der mathematischen Objekte. Dies führt zu zwei grundlegenden Problemen.10 Zum einen zu dem Problem, dass ein Aufweis der Existenz der definierten Gegenstände zu erbringen ist. »Denn die Erschaffbarkeit der mathematischen Gegenstände durch Definitionen wird […] durch die Forderung der Konstruierbarkeit der erschaffenen Gegenstände eingeschränkt, was Aristoteles später Anlaß zu seiner Unterscheidung zwischen Realdefinitionen und Nominaldefinitionen gegeben hat.«11 So lässt sich zwar ein Hendekaeder (11-Eck) analog zum regelmäßigen Dodekaeder (20-Eck) definieren, aber es lässt sich beweisen, dass man ein solches Objekt nicht konstruieren kann.12 Die Notwendigkeit des Aufweises der Existenz führt in der antiken Mathematik zur Unterscheidung zwischen Existenzsätzen und Existenzbeweisen sowie Relationssätzen und Relationsbeweisen – Erstere sichern die 8 Vgl. Platon: Menon (hrsg. von Klaus Reich), Hamburg: Meiner 1982; Euklid, Die Elemente, 1971. 9 Vgl. von Fritz, Geschichte der antiken Wissenschaft, 1971, S. 201 ff. 10 Ob mathematische Objekte als ewige Objekte vorgegeben oder durch den menschlichen Geist geschaffen sind, ist Thema der beiden Mathematikerschulen nach Platons Tod. Während die Anhänger des Speusipp das Beweisen von Theoremen als Aufgabe der Mathematik sehen, sehen die Anhänger des Menaichmos die Aufgabe im Lösen von Problemen. Diese Differenz vererbt sich bis in die moderne Mathematik. Vgl. Michael Hoffmann: Erkenntnisentwicklung, Frankfurt: Vittorio Klostermann 2005, S. 89 ff. 11 von Fritz, Platon, Theaetet und die antike Mathematik, 1969, S. 85. 12 Vgl. ebd., S. 85. Ein ähnlicher Prozess der Einschränkung auf Realdefinitionen im Sinne der geometrische Konstruierbarkeit findet sich in der neuzeitlichen Mathematik bei René Descartes’ analytischer Geometrie. Vgl. René Descartes: Geometrie (1637) (hrsg. von Ludwig Schlesinger), Darmstadt: Wissenschaftliche Buchgesellschaft 1981.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

23



24

Kapitel 1  ·  Operationalisierung der Anschauung

Existenz durch Erschaffbarkeit, Letztere beweisen bestimmte Beziehungen zwischen den existierenden Gegenständen – und dies zeigt sich bei Euklid in nicht immer schlüssiger Weise in der Differenzierung der ersten Sätze in Axiome und Postulate. Das zweite Problem einer zunehmend axiomatisierten Mathematik besteht in der Evidenz und Vollständigkeit der Axiome. Insbesondere an diesem Problemkreis unterscheiden sich antike und moderne Mathematik. Während spätestens mit David Hilberts Grundlagen der Geometrie Axiome willkürlich gewählt werden können, aber ein Aufweis der Widerspruchsfreiheit und Vollständigkeit gefordert wird, sind die Axiome der antiken Mathematik ›rhapsodisch‹, aber um Evidenz bemüht.13 Dass sich die ersten Sätze wegen des infiniten Regresses nicht beweisen lassen, wie es wohl zu Anfang versucht wurde, und daher von unbewiesenen Axiomen auszugehen ist, thematisiert bereits Aristoteles in der Analytica Posteriora.14 Daher ist die Evidenz der Axiome im Sinne von unmittelbarer Einsichtigkeit und Einfachheit gefordert und das führt zu der weiteren Forderung bei Aristoteles, dass die Axiome einsichtiger und einfacher sein müssen als die aus ihnen abgeleiteten Sätze. Eine Forderung, die ebenfalls von der modernen Mathematik nicht übernommen wird.15 Als paradigmatische Umsetzung der axiomatisch-deduktiven Methode in der Antike gelten nicht nur Euklids Elemente, sondern in einem wesentlich umfassenderen Sinne Aristoteles’ Analytica Posteriora. Beide Werke avancieren zum Vorbild für Wissenschaft und Mathematik bis in die frühe Neuzeit. Obwohl die Analytica Posteriora an geometrischen Beweisen orientiert ist, geht es Aristoteles um die Konzeption dessen, was unter Wissenschaft allgemein zu verstehen ist.16 Dabei wird Wissenschaft als ein System von Aussagen konzipiert, in welchem durch Beweise aus obersten, induktiv gewonnenen Grundsätzen (Axiome, Hypothesen, Definitionen) Erkenntnisse abgeleitet werden. Der Form nach sind diese Beweise Syllogismen, in welchen durch den Mittelbegriff, der den Erkenntnisgrund in sich trägt, nach folgendem Schema bewiesen wird: 13

Vgl. David Hilbert: Grundlagen der Geometrie (1899), Leipzig: Teubner 1903. Aristoteles: Organon I–IV, Philosophische Schriften, 1. Bd., Hamburg: Meiner

14 Vgl.

1995.

15 Kurt von Fritz führt an, dass Hilberts Beweis der Gleichheit aller rechten Winkel von Aristoteles nicht anerkannt worden wäre, da er auf Basis des Axioms des ersten Kongruenzsatzes geführt ist, der komplizierter ist als die Ableitungen daraus. Vgl. von Fritz, Geschichte der antiken Wissenschaft, 1971, S. 208. 16 »Aristotle expressly says that the term axiom is borrowed from mathematics […] Further, […] Aristotle frequently refers to the axioms as τα κοιυα or κοιυαι δοξαι.« Henry D. P. Lee: ›Geometrical Method and Aristotle’s account of first principles‹, in: Classical Quaterly, 29, 1935, 113–124, S. 114, 115.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Aristoteles’ Axiomatisierungsprogramm

MaS   P a M →  P a S Insofern die Syllogismen als Beweise fungieren sollen, müssen sie aus notwendigen Sätzen folgen und diese Notwendigkeit ergibt sich durch ontologische Vorbedingungen. Zum einen darf es zwischen zwei Begriffen nicht unendlich viele Mittelbegriffe geben, da sonst der infinite Regress droht. Zum anderen dürfen nur Prädikate verwendet werden, die einer Substanz wesentlich zukommen. Als solche ist ihre Anzahl begrenzt, denn alles, was definierbar ist, ist nach Aristoteles durch eine endliche Menge an Prädikaten bestimmbar. Wissen, in diesem Sinne verstanden, ist nur bezogen auf Substanzen und deren wesentliche Eigenschaften möglich; Beweise sind einzig im Rahmen dieser Substanzontologie zulässig. Damit führt Aristoteles die analytisch-logische Axiomatik der Naturforschung ein.17 Doch aus eben dieser logisch-analytischen Ausrichtung mit ihrer substanzontologischen Fundierung generiert sich die inhärente Spannung zwischen einer axiomatisch-deduktiven Mathematik im Sinne Euklids und einer axiomatisch-deduktiven Wissenschaft im Sinne Aristoteles, die sich durch die gesamte Scholastik bis in die frühe Neuzeit zieht. Dieses Spannungsverhältnis wird von Hermann Schüling in seiner Geschichte der axiomatischen Methode als mangelnde Unterscheidung zwischen aristotelischer Schlussweise und geometrischer Deduktion charakterisiert, wobei die aristotelische Schlussweise in der Scholastik die Norm stellt, an der auch die Mathematik gemessen wird.18 Das Spannungsverhältnis führt unter den Autoren des Mittelalters zur Diskussion, ob mathematische Schlüsse syllogistische sind; ob die Mathematik überhaupt eine Wissenschaft ist, da sie nach ›causa formalis‹, aber nicht ›causa finalis‹ beweist, und welche Gewissheit sie denn bieten kann. Einer der radikalsten Bestreiter der Wissenschaftlichkeit der Mathematik ist Ende des 16. Jahrhunderts Celsus Manzinius. Mit seinen Argumenten bringt er die entscheidenden Differenzen zwischen der scholastisch-aristotelischen Tradition und dem sich anbahnenden neuen Wissenschaftsverständnis zum Ausdruck. Denn nach Manzinius’ traditionellem Verständnis handelt die Mathematik nicht über Substanzen wie die Metaphysik, sondern nur über Akzidenzen; ihre Materie sei die ›quantitas‹, die jedoch nicht als 17

Vgl. Michael Hoffmann: ›Axiomatisierung bei Platon und Aristoteles‹, in: Zeitschrift für philosophische Forschung, 58 (2), 2004, 224–245. 18 Vgl. Hermann Schüling: Die Geschichte der axiomatischen Methode im 16. und 17. Jahrhundert. Wandlung der Wissenschaftsauffassung, Hildesheim, New York: Georg Olms Verlag 1969.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

25



26

Kapitel 1  ·  Operationalisierung der Anschauung

wirklicher Gegenstand anzusehen sei, und ihre Prinzipien seien nur im Verstand gegeben, weswegen es falsch wäre, diese auf die Materie anzuwenden.19 Schließlich sei die Gewissheit der Mathematik nur wegen der Einfachheit ihrer Objekte möglich und nicht vergleichbar mit der ›certitudo rationis‹ der Metaphysik. In fast allen Punkten wird die Neuzeit eine diametrale Position einnehmen und es sind diese Diskussionen über die Erkenntnisgewissheit, den Wissenschaftsstatus und die Beweisstruktur der Mathematik, die den Positionswechsel einläuten. Denn es zeigt sich die Notwendigkeit, genauer zu beschreiben, was die axiomatische Methode ist. Dabei wird zum einen die aristotelische Schlussweise als Wissenschaftsideal kritisch hinterfragt, zum anderen die geometrische Methode zunehmend eigenständiger analysiert. Insbesondere die Publikation der mathematischen Methodendiskussionen des Proklus und des Pappos zu Euklids Elementen Mitte des 16. Jahrhunderts bereiten den Weg für eine streng axiomatisch-deduktive Methode, die auch außerhalb der Mathematik zur Anwendung kommt.20 Letztendlich löst sich im 17.  Jahrhundert – auch in Ablehnung der scholastischen Methode der Disputatio21 – die Orientierung am aristotelischen Wissenschaftsideal vollständig auf und die Mathematik wird zum alleinigen Vorbild aller Wissenschaftlichkeit. »Das Schlagwort von ›der mathematischen Methode‹ wird zum Schlüsselbegriff dieser Epoche, ohne den die philosophischen Ansätze von Descartes, Pascal, Spinoza, Leibniz und Wolff […] nicht denkbar sind.«22

19 Vgl. Celsus Manzinius: De cognitione hominis, quae lumine naturali haberi potest, Ravenna 1586; Schüling, Geschichte der axiomatischen Methode, 1969, S. 49 ff. Daher hat nach Manzinius Averroes recht, für den die Grundlagen der Geometrie ›propositiones opinables‹ sind. 20 Vgl. Hans-Jürgen Engfer: Studien zur Entwicklung philosophischer Analysiskonzepte unter dem Einfluß mathematischer Methodenmodelle im 17. und frühen 18. Jahrhundert, Stuttgart-Bad Cannstatt: Frommann-Holzboog 1982, S. 68 ff; Proklus Diadochus: Kommentar zum ersten Buch von Euklids ›Elementen‹ (hrsg. von Emil Abderhalden), Halle: Kaiserlich Leopoldinisch-Carolinische Deutsche Akademie der Naturforscher 1945; Pappos von Alexandria: Pappi Alexandrini mathematicae collectionis (hrsg. von Fredericus Hultsch), 3 Bde., Berlin: Weidmann 1875–1878. 21 Forschung wird zum Prozess der Klärung und zum neuen Erkenntnisideal, das sich gegen das Wissenschaftsideal der scholastischen Disputatio wendet, die »sich in einer Zeit, die die Gewißheit hatte, die Wahrheit bereits (in überlieferten Schriften) zu besitzen und ihre Verteidigung üben zu müssen«, entwickelt hatte. Schüling, Geschichte der axiomatischen Methode, 1969, S. 78. 22 Engfer, Studien zur Entwicklung philosophischer Analysiskonzepte, 1982, S. 70.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematische Methode

Mathematische Methode

Der Schlüsselbegriff der mathematischen Methode resultiert jedoch nicht nur aus der Diskussion der axiomatischen Methodik, sondern vor allem aus der konkreten Anwendung. Seit der antiken Astronomie erfüllt die ›demonstratio geometrico‹ ganz praktische Zwecke der Erklärung von Naturphänomenen durch geometrische Figuren und der aus ihnen abgeleiteten Gesetzmäßigkeiten.23 Dabei kommt der Geometrie die Ermittlung der Formen und Größen der beobachteten Körper und Phänomene zu, der Arithmetik die Zählung der Zeiten und Abstände. Am Übergang zur frühen Neuzeit verändert sich jedoch die Rolle der Mathematik von einer weitgehend spekulativ-idealistischen in eine empirisch motivierte Anwendung, insofern die Phänomene nicht mehr in das Korsett geometrisch-idealer Figuren gepresst werden, sondern sich die geometrischen Formen aus der Beobachtung der Phänomene ableiten. Die neu entstehende induktiv-deduktive Forschungslogik lässt sich mit Johannes Kepler als Beobachtung, Hypothesenbildung und -prüfung beschreiben und die Aufgabe der Mathematik ist es, die Verschiedenheit der Erscheinungen durch die geometrischen Formen zu vereinheitlichen, um dadurch zum wahren Grund vorzudringen.24 Damit bereitet Kepler die Vorherrschaft des ›mos geometricus‹ des 17. und 18. Jahrhunderts vor, der die Tiefenansicht der Phänomene eröffnet. Bereits Nikolaus Kopernikus sprach davon, das Universum ›mit beiden Augen‹ zu betrachten und die sinnliche Flächenansicht der Dinge um die Tiefenansicht der mathematischen Vernunft zu ergänzen.25 Es geht den Naturforschern zunehmend darum, wie Francis Bacon später proklamieren wird, »die inneren Kräfte der Natur zu erforschen und die Grenzen der menschlichen Macht so weit auszudehnen, um alle möglichen Dinge zu bewirken«.26 Fragt man nach dem Gegenstand dieser Tiefenansicht, dann ist dies der Blick auf das Innere der Dinge als das Unbekannte und Neue. Eben diese 23 »Greek geometers and applied mathematicians found many ways of applying geometry to nature and to artifacts, without sacrificing its ideal character. All of the Greek exact sciences and arts, including the pythagorean science of musical harmonics, geometrical astronomy, solar horology, geodesy, cartography, ray optics, the theory of machines, the determination of centers of gravity and hydrostatics were heavily geometrical.« John Roche: The Mathematics of Measurement. A Critical History, London: Athlone Press 1998, S. 38. 24 Vgl. Johannes Kepler: Harmonice mundi (1619), Gesammelte Werke, 2. Bd., München: Beck 1940. 25 Vgl. Ernst Cassirer: Das Erkenntnisproblem in der Philosophie und Wissenschaft der neueren Zeit (1906), 1. Bd., Berlin: Verlag Bruno Cassirer 1911, S. 272 ff. 26 Francis Bacon: Neu Atlantis (1627), Stuttgart: Reclam 1982, S. 43.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

27



28

Kapitel 1  ·  Operationalisierung der Anschauung

Frage nach dem Unbekannten unterscheidet das neuzeitliche Denken vom antiken und fordert sowohl neue Erkenntnisformen als auch neue Erkenntnismittel. Denn mit dieser Fragestellung werden nicht nur die aristotelische Induktion, die von empirisch allgemein einsichtigen Wahrheiten ausgeht, und auch der Erkenntniswert der syllogistischen Deduktion, die von Bekanntem ausgehend nichts Neues erschließen kann, kritisiert; sondern sie führt zur Desavouierung der synthetischen Methode zugunsten der analytischen. Dieser Umkehrprozess vom Synthetischen, das von den bekannten Voraussetzungen zu den Folgerungen fortschreitet, ins Analytische ist für eine Wissenschaft, die Neues entdecken will, essentiell. »Da uns nämlich infolge der Schwäche unseres Geistes die Prinzipien, aus denen der Beweis zu führen wäre, unbekannt sind« – wie Giacomo Zabarella, der wie Galileo Galilei der Schule von Padua angehört, bereits 1578 feststellt27 – »wir aber vom Unbekannten nicht unseren Ausgang nehmen können, so müssen wir notgedrungen einen anderen Weg einschlagen, auf welchen wir kraft der resolutiven Methode zur Entdeckung der Prinzipien geführt werden, um sodann, nachdem sie einmal gefunden, die natürlichen Phänomene und Wirkungen aus ihnen beweisen können.«28 Von dieser neuen Methode der Resolution ist die Methode der Demonstration abgegrenzt, die als ›demonstratio ab effectu‹ aus der Wirkung auf die Ursache schließt, die in dieser enthalten ist. Das Entscheidende an Zabarellas Konzept ist nun, dass er das Problem des Regresses jeder Naturwissenschaft erkennt, wenn von bekannten Wirkungen auf unbekannte Ursachen geschlossen wird und aus den nun bekannten Ursachen die zu beweisenden Wirkungen abgeleitet werden. Dieser Regress wird vermieden, so Zabarella, wenn die unterschiedlichen Erkenntnisarten desselben Objekts berücksichtigt werden, nämlich indem man die undeutliche von der deutlichen unterscheidet. Das bedeutet nicht weniger, als den Regress positiv als Klärung von Erkenntnis zu wenden. Damit beschreibt Zabarella, wie 27

War Proklus in seinem Euklid-Kommentar noch darauf bedacht, die geometrische Methode mit der aristotelischen in Einklang zu bringen, inklusive der synthetischen Methode der Deduktion, so plädierte bereits Pappos für ein analytisches Verständnis der Geometrie als Rückschluss von den Folgerungen zu den Prinzipien. Sein analytisches Modell verbindet sich mit dem empirischen Regressus-Modell, das bereits in der Oxfordschule des 13. Jahrhunderts angedacht und von der Schule von Padua, insbesondere von Giacomo Zabarella, als resolutive Methode für die empirischen Naturwissenschaften im 16. Jahrhundert weiterentwickelt wird. Zabarella hat dabei einen maßgeblichen Einfluss auf die Forschung von Galileo Galilei. Vgl. Engfer, Studien zur Entwicklung philosophischer Analysiskonzepte, 1982, S. 89 ff. 28 Zabarella wiedergegeben in Cassirer, Erkenntnisproblem (1906), 1. Bd., 1911, S. 138. Vgl. Giacomo Zabarella: ›De methodis‹, in: Ders.: Opera logica (1578) (hrsg. von Wilhelm Risse), Hildesheim, New York: Georg Olms Verlag 1966, 133–332.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematische Methode

dies Cassirer in seiner Studie zum Erkenntnisproblem in der Philosophie und Wissenschaft der neuer Zeit ausführlich dargestellt hat, das Grundmotiv neuzeitlicher Forschung.29 Die gesamte philosophische Diskussion der Neuzeit zum Topos der Klarheit resultiert aus dieser neuen Fragestellung nach dem Unbekannten. Wie dieser Prozess der Klärung der Erkenntnis über die inneren Zusammenhänge konkret anzugehen ist, hat Galilei im Detail aufgezeigt. Indem er Keplers Astronomie zu einer einheitlichen Physik des Himmels und der Erde ausbaut und dessen induktive Ausrichtung relativiert, erweitert er nicht nur den Anwendungsbereich der Physik, sondern auch ihrer Axiome und macht beides experimentell zugänglich. Allerdings ergeben sich für Galilei die Axiome nicht unmittelbar aus den Tatsachen beobachtbarer Einzelfälle, sondern leiten sich aus der Geometrie und ihrer Erkenntnisnotwendigkeit ab. Indem er die allgemeine, mathematisierbare Begriffsdefinition und die experimentell konstituierten Begriffsinhalte auseinanderdividiert, werden mit Hilfe geometrischer Konstruktionen Eigenschaften aus den allgemeinen Definitionen und Axiomen ableitbar und experimentell überprüfbar. Deutlich wird dies an der Definition der gleichförmigen Bewegung, die der mathematischen Analysis zur Erstellung eines ›reinen‹ Gesetzes der Mechanik dient, das dann in Experimenten spezifiziert werden kann. Selbst wenn sich die Eigenschaften experimentell nicht exakt beobachten lassen, so Galilei 1637, verlieren die Axiome doch nicht an Schlüssigkeit.30 Das bedeutet, dass sich die Wirklichkeit der so gewonnenen Erkenntnisse alleine aus der Mathematik sowie deren experimenteller Umsetzung in Form von Kugeln und Ebenen bestimmt. Diese später von Kant als Revolution der Denkart betitelte Wende ist jedoch nur auf Basis einer neuen Theorie der Abstraktion möglich. Anstelle der exkludierenden Aussonderung von Merkmalen im Sinne der aristotelischen Aphairesis, um von Individualbegriffen zu abstrakten Gattungsbegriffen zu gelangen, tritt die inkludierende Logik der Berücksichtigung möglichst vieler Einzelfälle durch Verallgemeinerung, falls sich für die Verknüpfung der Einzelfälle eine universale Regel angeben lässt. Der fundamentale Unterschied zur aristotelischen Wissenschaft zeigt sich eben an diesem Verhältnis vom Allgemeinen und Besonderen, das nicht mehr durch logische Distinktionen abgebildet, sondern durch mathematisierbare Regelbegriffe wie den der gleichförmigen Bewegung hergestellt wird. Allgemein gesprochen wird die substanzontologische Einschränkung des beweisenden Mittelbegriffs auf eine 29 Cassirer,

Erkenntnisproblem (1906), 1. Bd., 1911, S. 138 ff. Galileo Galilei: Brief (3494) vom 5. Juni 1637 an Pietro Carcavy, in: Ders.: Le opere de Galilei. Nuova ristampa della edizione nazionale, 17. Bd., Florenz: Barbèra 1966, 68–71; Engfer, Studien zur Entwicklung philosophischer Analysiskonzepte, 1982, S. 99. 30 Vgl.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

29



30

Kapitel 1  ·  Operationalisierung der Anschauung

endliche Menge von Prädikaten, die als bekannt vorausgesetzt sind, aufgehoben und relativiert, indem der Obersatz nicht nur mathematisch fundiert sein muss, sondern auch als übergeordnet gegenüber den Einzelbeobachtungen bestimmt wird. Indem das formal-logische Axiom der Identität und Verschiedenheit der aristotelischen Syllogistik durch das mathematische Axiom des stetigen und regelbasierten Übergangs des Mehr und Weniger ersetzt wird, avanciert Quantität anstelle der Substanz zur obersten Kategorie der neuen Erfahrungsbegriffe. Damit transformiert sich auch die aristotelische Teleologie der Natur in einen funktionalen und dynamischen Zusammenhang; in eine ›Arithmetik der Kräfte‹. Diese Wende gelingt jedoch nur mit Hilfe der Erkenntnisgewissheit der Mathematik, insofern diese zum analytischen Instrument der Naturerkenntnis wird. Dabei sind eben nicht mehr die letzten Ursachen der Substanz das Forschungsziel, sondern die Gesetzesregeln der Natur als ein System von Kräftezusammenhängen. Diese Zusammenhänge gilt es aus den Akzidenzien zu erschließen, indem sie als ein geordnetes System funktionaler Abhängigkeiten mathematisch explizierbar und analysierbar werden. Folglich ist die Natur, die sich in dieser Tiefenansicht des neuen Syllogismus zeigt, eine ganz andere als die der aristotelischen Wissenschaft. »Zur ›Natur‹ – im neuen Sinne dieses Wortes – gehören nur solche Prozesse, die durch eine feste Regel der Größenbeziehungen miteinander verknüpft und einander wechselseitig zugeordnet sind: der Funktionsbegriff [als Größenbegriff] ist es, der den Inhalt des Körperbegriffs wie des Naturbegriffs abgrenzt und bestimmt.«31 So wird auch die Materie zum Größenbegriff der Masse. Dies ist jedoch nur möglich, da sich parallel dazu auch die Mathematik als ›Analysis‹ neu ausrichtet, um die Beziehungen der Größenbegriffe zueinander explizierbar und analysierbar zu machen. Voraussetzung dafür ist die Transformation der geometrischen Gestalten in Zahlengestalten.32 Zum einen löst sich die Zahl aus dem Bedeutungszusammenhang der Gestalt. Die Emanzipation von der Gestalt wird besonders bei Kepler deutlich, der zu Anfang noch an der gestaltbedingten Präferenz der geometrisch vollkommenen Kreisbahn festhält, bis er aufgrund der Beobachtungsdaten der »Ordnung und Gesetzlichkeit des Ungleichförmigen« als reinem Erkenntnisgesetz der Zahl den Vorzug geben muss.33 Eine derart freigesetzte Zahl bereitet einen allgemeinen Zahlbegriff vor, der nicht mehr durch Abstraktion an Eigenschaften und Formen gewonnen ist, sondern an den Formen der Verknüpfungen orientiert zum Größenbegriff und später zum Funktionsbegriff wird. 31 Cassirer,

Erkenntnisproblem (1906), 1. Bd., 1911, S. 355, 356. Edmund Husserl: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie (1935), Hamburg: Meiner 1996, S. 47 ff. 33 Cassirer, Erkenntnisproblem (1906), 1. Bd., 1911, S. 371. 32 Vgl.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Descartes’ Operationsmodell der Analyse

Zum zweiten lösen sich die geometrischen Figuren ebenfalls aus der fixierten Gestalt in die Gesamtheit von Punkten auf. Diese Gesamtheit ergibt sich aus der unendlichen Mannigfaltigkeit ihrer Elemente, die Einheit und Unendlichkeit in Wechselbeziehung setzen, auch wenn bereits Galilei erkennt, dass die Maßstäbe der Gleichheit, des Größer und Kleiner nur für endliche Intervalle bekannt sind.34 Dadurch werden drittens die fixierten geometrischen Gestalten unter den Begriff der allgemeinen Figur subsumierbar, indem sie durch einen Regelkanon algebraischer Operationen ineinander transformierbar werden.

Descartes’ Operationsmodell der Analyse

Es ist René Descartes, der 1637 die geometrische Gestalt als freies Spiel algebraischer Operationen auflöst. Seine analytische Geometrie entwickelt er vor dem Hintergrund, das von Galilei über die Erkenntnisgewissheit der Mathematik in die Naturforschung eingeführte Kriterium der Notwendigkeit genauer untersuchen und allgemein fassen zu wollen.35 Seine Suche nach der ausgezeichneten Methode des richtigen Vernunftgebrauchs führt ihn zur »mathesis universalis«, die dem axiomatisch-deduktiven Wissenschaftsideal der Geometrie eine neue Wendung gibt, »indem sie die Vorteile dieser drei [Logik, Geometrie und Algebra] in sich vereinigt«.36 Ziel einer solchen Universalmathematik ist es, nur die »Proportionen im allgemeinen« zu betrachten, da die mathematischen Einzeldisziplinen wie die Optik, Mechanik, Musik oder Astronomie »trotz der Verschiedenheit ihrer Objekte doch alle darin übereinstimmen, daß sie nur die verschiedenen Beziehungen oder Proportionen betrachten«.37 Daher ist es für Descartes einleuchtend, ganz von den Trägern dieser Proportionen zu abstrahieren, die Proportionen als »Linien dar[zu] stellen« und – »um sie in eins zusammenzufassen« – »der geometrischen Analyse und der Algebra ihr Bestes zu entlehnen«.38 Grundgedanke dabei ist, die Algebra als Methode zur Lösung geometrischer Probleme zu nutzen, die 34 An diesem Problem wird sich im Anschluss an Georg Cantor die moderne Mathematik des ausgehenden 19. und 20.  Jahrhunderts abarbeiten. Vgl. Georg Cantor: ›Beiträge zur Begründung der transfiniten Mengenlehre‹ (1895, 1897), in: Ders.: Gesammelte Abhandlungen mathematischen und philosophischen Inhalts (hrsg. von Ernst Zermelo 1932), Berlin u.a.: Springer 1990, 282–356. 35 Vgl. Descartes, Geometrie (1637), 1981. 36 René Descartes: Von der Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung (1637) (hrsg. von Lüder Gäbe), Hamburg: Meiner 1960, Kap. II, 6. 37 Descartes, Von der Methode (1637), 1960, Kap. II, 11. 38 Ebd.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

31



32

Kapitel 1  ·  Operationalisierung der Anschauung

bisher als Einzelprobleme in keinem systematischen Zusammenhang stehen. Genau diesen Zusammenhang soll die Auflösung geometrischer Objekte in die Mannigfaltigkeiten von Punkten und deren Vermessung durch die Linie leisten.39 Das Neue besteht in der Überlegung, Strecken durch Koordinaten als Punktangaben und unendlich viele Strecken als Kurven zu beschreiben.40 Die Geometrie lässt sich so auf Längenbestimmungen von Strecken reduzieren und deren Größenbestimmung mit den algebraischen Grundoperationen parallelisieren. Dadurch ist eine allgemeine Lösung ganzer Klassen geometrischer Probleme möglich. Auf Basis des Axioms der Einheitsstrecke gewinnt die Algebra den Primat vor der Geometrie und ihr analytisches Verfahren, das rechnende, wird auf die gesamte Mathematik als Analysis übertragbar.41 Konkrete Aufgabe einer solchen Universalmathematik ist für Descartes die Analyse der unbekannten Größen eines vollkommen verstandenen Problems, insofern dessen empirische Datenlage bekannt ist.42 Schwieriger hingegen wird die Analyse von unvollkommen verstandenen Problemen, die den Kunstgriff erfordern, beliebige algebraische Zeichen für das Unbekannte einzusetzen und so durch symbolische Explizierung die Analyse zu ermöglichen.43 Inbegriff dieser symbolischen Explizierung ist die mathematische Gleichung, »in der explizit festgestellt wird, daß das Gesuchte ›gleich irgend39 Später wird sich diese Verallgemeinerungstendenz bei Isaac Newton und Gottfried Wilhelm Leibniz fortsetzen, insofern sie verschiedene Einzelprobleme der Mathematik – die Berechnung von Flächen, Rauminhalten, Schwerpunkten, usf. – als Sonderfälle zweier Problemklassen erkennen, indem sie die inverse Beziehung zwischen Tangentenbestimmung und Flächenberechnung feststellen und eine Methode respektive einen Kalkül zur Lösung dieser Problemklassen entwickeln. Vgl. Niccolò Guicciardini: ›Newtons Methode und Leibniz’ Kalkül‹, in: Hans Niels Jahnke (Hrsg.): Geschichte der Analysis, Heidelberg, Berlin: Spektrum Akademischer Verlag 1999, 89–130 sowie Ernst Cassirer: Das Erkenntnisproblem in der Philosophie und Wissenschaft der neueren Zeit (1907), 2. Bd., Berlin: Verlag Bruno Cassirer 1922, insb. 7. Buch. 40 Vgl. Jan van Maanen: ›Vorläufer der Differential- und Integralrechnung‹, in: Jahnke, Geschichte der Analysis, 1999, 43–88, S. 47 ff. 41 Die Universalmathematik ist das gesuchte Analyseinstrument einer evidenten Erkenntnis der Natur, deren Charakteristik allein Ordnung und Maß sind. Unter das Maß, – »als eine reine Form des ›Beziehens‹« gekennzeichnet – fällt »nicht nur Länge, Breite und Tiefe, sondern auch die Schwere, als der Maßstab, nach dem das Gewicht der Körper, die Geschwindigkeit, nach der die Größe der Bewegung geschätzt und bestimmt wird«. Cassirer, Erkenntnisproblem (1906), 1. Bd., 1911, S. 453. Oder, in anderen Worten: Nur was als messbare Größe quantifizierbar ist, kann Gegenstand der ›mathesis universalis‹ werden. Vgl. auch Engfer, Studien zur Entwicklung philosophischer Analysiskonzepte, 1982, S. 143 ff; van Maanen, ›Vorläufer der Differential- und Integralrechnung‹, 1999. 42 Vgl. René Descartes: Regeln zur Ausrichtung der Erkenntniskraft (1619 ff) (hrsg. von Lüder Gäbe), Hamburg: Meiner 1972, Regel XIII. 43 Vgl. ebd., Regel XVII.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Descartes’ Operationsmodell der Analyse

einem Gegebenen‹ ist«.44 Damit gibt Descartes ein formal-symbolisches Verfahren an, wie die komplizierten Verhältnisse der Größenbegriffe untereinander explizierbar und Unbekanntes analysierbar wird. Die Mathematik auf der einen Seite der Gleichung bestimmt das, was sich auf der anderen Seite der Gleichung als das Neue und Unbekannte zeigt. Bei aller Abstraktheit bleibt Descartes’ neue Analysemethode des Unbekannten jedoch dem »Zwittertum seines figurativen Symbolismus« verhaftet,45 insofern die Orientierung auf ein Koordinatensystem, auf Einheitsstrecken und auf Größen als messbare Abstände Bedingungen seiner analytischen Geometrie sind. Auch ist diese an die algebraischen Grundoperationen gebunden, die geometrische Konstruktion ersetzen, aber nicht darüber hinausführen, da es Descartes um konkrete geometrische Problemlösungen geht. Eben dies wird von Leibniz in seiner geometrischen Charakteristik kritisiert. Als Analysis der Lage ersetzt sie Größen und Zahlen durch einen abstrakten Kalkül, der die Verschiedenheit der geometrischen Einzelfiguren aus der Differenz ihrer logischen Elemente abzuleiten versucht. »Alles, was die sinnliche Anschauung aus ihnen [Figuren] empirisch erkennt«, schreibt 1693 Leibniz in De analysi situs, soll »vermittels eines sicheren Rechnungsund Beweisverfahrens aus den Symbolen abgeleitet [werden]. Zugleich aber lassen sich hier auch all die Fragen, für die das Vermögen der Anschauung nicht mehr zureicht, weiter verfolgen, so daß der hier geschilderte Kalkül der Lage die Ergänzung der sinnlichen Anschauung und gleichsam ihre Vollendung darstellt. Ferner wird er, außer in der Geometrie, auch in der Erfindung von Maschinen und in den Beschreibungen der Mechanismen der Natur bisher unbekannte Anwendungen verstatten.«46 Der von Leibniz konzipierte Kalkül basiert auf einem abstrakten Funktionsbegriff, der auf die Regeln der Verknüpfungen der Elemente referiert, ohne Rekurs auf die grundlegenden Elemente als extensive Größen zu nehmen. Diesen Gedanken wendet er auch auf das Infinitesimale als Vergleich zweier ungleicher Objekte an – Geraden und Kurven –, indem er nicht Bilder dieser Objekte miteinander vergleicht, sondern die auf die Regel reduzierten, verschiedenartigen Gebilde. Die Regel selbst wird dadurch zum Element der Analyse schwindender Größenverhältnisse. Ersetzte Descartes geometrische Verhältnisse durch Zahlenverhältnisse, so ersetzt Leibniz die Zahlenverhältnisse durch die reinen Verhältnisse der Form, in welchen das Ele44 Engfer,

Studien zur Entwicklung philosophischer Analysiskonzepte, 1982, S. 142. Krämer: Berechenbare Vernunft. Kalkül und Rationalisierung im 17. Jahrhundert, Berlin, New York: de Gruyter 1991, S. 220. 46 Gottfried Wilhelm Leibniz: ›De analysi situs‹ (1693), in: Ders.: Philosophische Werke (hrsg. von Artur Buchenau, Ernst Cassirer), 1. Bd., Meiner: Hamburg 1996, 69–76, S. 76. 45 Sybille

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

33



34

Kapitel 1  ·  Operationalisierung der Anschauung

ment nicht aus der Zerlegung des Ganzen als Charakteristikum der diskreten Zahl hervorgeht, sondern ein logisches Moment ist. Daher bezeichnet Leibniz den Charakter der Infinitesimalgröße als ideelle Setzung, »durch welche die Rechnung abgekürzt wird, ähnlich den sog. imaginären Wurzeln in der gewöhnlichen Analysis«, die aber nichtsdestotrotz »ihr fundamentum in re« haben.47 Dadurch kann er Kurven einer algebraischen Behandlung zuführen, wie es mit Descartes’ Ansatz nicht möglich ist. Diese sogenannten transzendenten Gleichungen rekurrieren nicht auf den Maßstab einer geometrischen Strecke wie bei Descartes, sondern basieren als Algebra der Differentiale auf dem rein symbolischen Maß der Regel der wechselseitigen Entsprechung verschiedenartiger Gebilde. Leibniz’ Interesse am Infinitesimalen gründet in seiner Analyse der Begriffe und seinem Verständnis der ›mathesis universalis‹ als universeller Zeichenlehre und allgemeinen Wissenschaftssprache.48

Kunstgriff des Formalen

Voraussetzung für die analytischen Methoden von Descartes und Leibniz ist der Kunstgriff des Formalen. Formalisierung zeigt sich dabei als ein Prozess der Loslösung von vorgeordneten Bezugsbereichen. Bedingung dafür sind jedoch die Fokussierung auf Relationen, deren symbolische Explizierung sowie die Einführung von Notationssystemen zur Darstellung neuer Regelkanons formaler Operationen. Bereits Ende des 16. Jahrhunderts legt Francois Viète mit seiner Buchstabenrechnung den Grundstein für diesen ›operativen Symbolismus‹, wie ihn Sybille Krämer in ihrer Studie zur Berechenbaren Vernunft nennt, der gänzlich von einem vorgeordneten Wirklichkeitsbezug eines ontologischen Symbolismus absieht.49 Dennoch bleibt Viète mit seiner figürlichen Algebra und dessen Homogenitätsprinzip, das die Gleichartigkeit der untersuchten Elemente fordert, der geometrischen Konstruierbarkeit verhaftet. Ähnliches gilt für Descartes. Erst Leibniz löst den Bezug zu arith47 Gottfried Wilhelm Leibniz: Brief an Varigon vom 2. Februar 1702, in: Leibniz, Philosophische Werke, 1. Bd., 1996, 96–100, S. 98. Allerdings ist hier Leibniz’ sehr spezifische Metaphysik zu beachten, die nicht in einer Abbildtheorie ideeller und realer Dinge besteht, wie das Zitat nahelegen könnte. 48 Vgl. Volker Peckhaus: Logik, Mathesis universalis und allgemeine Wissenschaft. Leibniz und die Wiederentdeckung der formalen Logik im 19. Jahrhundert, Berlin: Akademie Verlag 1997. 49 Krämer, Berechenbare Vernunft, 1991, S. 372. Sybille Krämer analysiert die symbolische Natur des Verfahrens der ›mathesis universalis‹, insbesondere bei Descartes und Leibniz. Vgl. Francois Viète: Opera mathematica, in unum volumen congesta, ac recognita, opera atque studio Francisci Schooten, Leiden: Elsevier 1646.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kunstgriff des Formalen

metischen und geometrischen Größenverhältnissen in seiner Geometrie der Lage auf. Da er nicht mehr an Descartes’ Existenzkriterium festhält, das die geometrische Konstruierbarkeit der algebraischen Berechenbarkeit fordert, »verlagert sich nun das Erzeugungsverfahren, das mathematische Existenz verbürgt, auf die bloße Herstellung einer typographischen Konfiguration. […] Die Einführung transzendenter Gleichungen durch Leibniz markiert jenen Punkt, an welchem die symbolische typographische Konfiguration zum eigentlichen Gegenstand der Analysis wird.«50 Dieser Schritt markiert den maßgeblichen Umschlagpunkt in der Mathematik, der sich später auch in der mathematisierten Physik als Überschreitung der direkten Erfahrbarkeit und Anschaulichkeit zeigen wird.51 Voraussetzung dafür ist das rein typographische Operieren als Medium mathematischer Erkenntnis des Unbekannten. Dieser Umschlagpunkt betrifft nicht nur den medialen Wandel der Erkenntnismittel der Mathematik von der geometrischen Figur zur algebraischen Formel, sondern er geht mit weiteren Implikationen einher. Denn ein rein typographisches Operieren erweitert das geometrische Beweisen durch das algorithmische Folgern. Der schon zu Platons Zeiten bestehende Konflikt zwischen axiomatisch-deduktiven Begründungsverfahren und den auf der Analysis beruhenden algorithmischen Problemlösungsverfahren tritt hier wieder hervor. Das entscheidend Neue ist nun die Synthese beider Wissensarten im Algorithmus respektive Kalkül, der Berechenbarkeit zum »Instrument der Beweisbarkeit« macht.52 Allerdings wird diese Herangehensweise nicht von allen begrüßt und sie wird sich erst im 19. Jahrhundert weitgehend durchsetzen. Insbesondere Isaac Newton zieht die synthetische Methode der geometrischen Beweise der ›Alten‹ den algorithmischen Folgerungen vor, die ihm ›Übelkeit‹ verursachen.53 Seine Inspiration des Infinitesimalen basiert auf der kinematischen Idee momentaner Zuwächse einer variabel fließenden Größe. Diese anschauliche Orientierung am Fluiden zeigt sich in seiner synthetischen Fluxionsmethode, die es mit endlichen Größen zu tun hat. Dennoch gelangt er wie Leibniz zu einer neuen Art geometrischer Objekte, insofern man sich diese als ›in Bewegung‹ vorstellen muss.54 Im Gegensatz 50 Krämer,

Berechenbare Vernunft, 1991, S. 375. Vgl. beispielsweise Gaston Bachelard: Die Philosophie des Nein. Versuch einer Philosophie des neuen wissenschaftlichen Geistes (1944), Frankfurt: Suhrkamp 1980. 52 Sybille Krämer: Symbolische Maschinen. Die Geschichte der Formalisierung in historischem Abriß, Darmstadt: Wissenschaftliche Buchgesellschaft 1988, S. 72. Vgl. Krämer, Berechenbare Vernunft, 1991, S. 159, Fn 2. 53 Vgl. Guicciardini, ›Newtons Methode und Leibniz’ Kalkül‹, 1999, S. 128. 54 Vgl. ebd., S. 102 ff. 51

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

35



36

Kapitel 1  ·  Operationalisierung der Anschauung

zur analytischen Methode von Descartes und Leibniz oder seiner eigenen analytischen Behandlung der Reihenentwicklung versteht Newton seine synthetische Fluxionsmethode als Verallgemeinerung der Exhaustionsmethode der griechischen Geometrie. Das Interessante an den unterschiedlichen Analysekonzepten von Descartes, Leibniz und Newton ist, dass hier die drei maßgeblichen Operationsformen der Mathematik – Algorithmus, Kalkül und geometrisches Beweisen – aufeinandertreffen. Für Descartes bietet seine analytische Geometrie einen konkreten Problemlösungsalgorithmus für bestimmte geometrische Problemklassen: »Erstelle ein Diagramm, in dem Du die gegebene Situation und die bekannt angenommene Lösung darstellst; benenne die dazugehörigen Strecken mit Buchstaben; übersetze das geometrische Problem in eine oder mehrere Gleichungen, in denen die eingeführten Buchstaben verknüpft sind; löse die Gleichung(en) und übersetze den algebraischen Ausdruck der Lösung in eine Reihe geometrischer Operationen, aus denen sich die gesuchte Strecke ergibt.«55 Darüber hinausweisend ist Leibniz an der Auffindung eines allgemeinen Kalküls interessiert, der symbolisches Schließen automatisieren soll, um den Verstand davon zu befreien. Damit wird ihm – wie später bei Hilbert – die Geometrie selbst zum nachgeordneten Modell, auch wenn Leibniz immer wieder auf die Geometrie zurückgreifen muss, da eine vollständige Algebraisierung des Infinitesimalkalküls erst im 18. Jahrhundert vorliegen wird.56 Newton hingegen wird durch seinen Vorzug der synthetischen Methode dazu verleitet, die Bedeutung von Notationen als Mittel der Analyse zu unterschätzen, auch wenn ohne seine innovative Schreibweise für negative und gebrochene Exponenten die Interpolation des binomischen Lehrsatzes, den er 1664/65 entdeckt, nicht möglich gewesen wäre. Wie sich jedoch im weiteren Verlauf der Entwicklung zeigen wird, ist es der notationelle Symbolgebrauch des analytischen Programms von Leibniz, der neue Forschungsfelder wie die Differential- und Integralrechnung, die Logistik oder die streng axiomatisierte Geometrie eröffnet. Die semiotische Eigenart eines solchen operativen Symbolismus ist es, dass er als rein typographisches Operieren die Symbole zum Gegenstand der Erkenntnis werden lässt und mit der Einführung innovativer Schreibweisen für ideelle Setzungen die Überschreitung des Realen ermöglicht. Die 55

van Maanen, ›Vorläufer der Differential- und Integralrechnung‹, 1999, S. 45. Kalkül als ›blindes Folgern‹ war daher mehr ein Ideal als eine Realität. Eine Reinterpretation des Symbolismus im geometrischen Modell war möglich und in vielen Fällen notwendig, aber im Gegensatz zu Newtons Ansatz wurde diese Reinterpretation nicht als Wert oder empfohlene Strategie angesehen.« Guicciardini, ›Newtons Methode und Leibniz’ Kalkül‹, 1999, S. 130. 56 »Der

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kunstgriff des Formalen

Zeichen selbst werden dabei zu »Trägern von Operationen«,57 doch der ontologische Status dieser neuen Klasse von Symbolen ist keineswegs geklärt. Ob es sich dabei um Abkürzungen des Rechnens handelt, wie Leibniz meint, oder um Fiktionen, wird im Kontext der Mathematikphilosophie zum Thema. Eine Trennung in ›reale‹ und ›fiktive‹ Elemente würde jedoch die methodische Einheit der Mathematik zerstören, wie Cassirer in seiner Philosophie der symbolischen Formen zu Recht feststellt. Daher gilt es die Charakteristik des mathematischen Denkens, das dazu tendiert, kraft eines »intellektuell-symbolischen Grundaktes« Einzelnes »in einem geistigen Brennpunkt zu versammeln und mit einem Symbol zu bezeichnen«, im Kontext der Anwendungsfrage zu berücksichtigen.58 Konkret heißt dies zu verstehen, was eine solche Fixierung im Symbolischen, wie beispielsweise in Newtons Notation der Fluxionen (ẋ) oder Leibniz’ Differential schwindender Größen (dy/dx), für die Anwendung auf die Wissenschaft bedeutet. Denn hier entfaltet die Mathematik, so Cassirer, als »Kraft der Verdichtung« ihren genuinen Charakter, der »durch die Schöpfung des neuen Symbols eine gewaltige Energie des Denkens aus einer relativ-diffusen Form in eine konzentrierte Form« überführt.59 Dies zeigt sich insbesondere an Leibniz’ Notation, die sich im Laufe der Entwicklung als wirkmächtiger als die von Newton herausstellt, da sie sich nicht wie bei Newton an der Mechanik orientiert, sondern als universelle Charakteristik an der Sprache ausgerichtet ist. Für Cassirer ist dieser ideelle Charakter bereits in den Anfängen der Mathematik als freie Lehre bei Platon realisiert, insofern Mathematik mit Sonderungen respektive Setzungen operiert, die in der Anschauung so nicht vorhanden sind. »Das axiomatische Denken der Mathematik ist es, das selbst erst die möglichen Subjekte für jede echte mathematische Aussage setzt.«60 Das ›Wunder der Mathematik‹ dabei ist, dass sich diese Verdichtung und Sonderung als ›Durchgriff‹ auf das Gegebene immer wieder aufs Neue ereignet und die Mathematik daher nicht in einen starren Kanon verfällt.61 In der Darstellung Hilberts: »Erinnern wir 57 Hans Niels Jahnke: ›Die algebraische Analysis des 18.  Jahrhunderts‹, in: Jahnke, Geschichte der Analysis, 1999, 131–170, S. 134. 58 Ernst Cassirer: Philosophie der symbolischen Formen (1929), 3. Bd., Darmstadt: Wissenschaftliche Buchgesellschaft 1990, S. 486. 59 Ebd., 1990, S. 489. 60 Ebd., S. 471. 61 »Die Einheit und Geschlossenheit der mathematischen Methodik beruht darauf, daß die schöpferische Urfunktion, der sie ihre Entstehung verdankt, innerhalb ihrer selbst an keinem Punkte zum Stillstand kommt, sondern daß sie sich in immer neuen Formen bestätigt und sich in dieser Bestätigung als ein und dasselbe, als unzerstörbares Ganzes behauptet.« Cassirer, Philosophie der symbolischen Formen (1929), 3. Bd., 1990, S. 432.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

37



38

Kapitel 1  ·  Operationalisierung der Anschauung

uns, daß wir Mathematiker sind und als solche uns schon oftmals in einer […] mißlichen Lage befunden haben und wie uns dann die geniale Methode der idealen Elemente daraus befreit hat.«62 Nach Hermann Weyl könnte man die Methode der idealen Elemente auch als ein allgemeines Schema des mathematischen Erkenntnisfortschritts verstehen, nachdem »die Mathematik stets die Erweiterung eines zunächst vorliegenden Operationsbereichs durch ideale Elemente« vollzieht, »um die Gültigkeit einfacher Gesetze zu erzwingen«.63 Darin liegt, so Weyl, die schöpferische Kraft der Mathematik. Es ist offensichtlich, dass die Methode der ideellen Setzungen als schöpferische Kraft mit dem operativen Symbolismus an Autonomie wie auch Dynamik gewinnt. Die Mathematik entfernt sich dadurch weiter von der unmittelbaren Anschauung und fasst ihre Grundbegriffe zunehmend allgemeiner. Doch die Frage, die sich stellt, ist: Was sind die Bedingungen dieses allgemeinen Schemas des mathematischen Erkenntnisfortschritts? Formalisierung als Loslösung von vorgeordneten Bezugsbereichen – und damit der operative Symbolgebrauch – wird ohne Fundierung in einem neuen Abstraktionsverständnis zum »bloss mechanischen Formeln«64 – wie es später Frege in Bezug auf Hilberts Formalismus kritisieren wird. Eben dieses neue Abstraktionsverständnis formiert sich bei Leibniz, indem sich durch die Loslösung von der substanzontologischen Fundierung das aristotelische Abstraktionsverhältnis internalisiert, also in die Verfahrensweisen des Bewusstseins verlagert. Dies ist nur möglich, insofern der Inkludierung des Dynamischen eine herausragende Rolle zukommt. Das Dynamische zeigt sich nicht nur in der konkreten symbolischen Explizierung wie im Differential, sondern besteht vor allem darin, dass die Idee des Dynamischen selbst als das Operative zu einem konstruktiven Mittel der Erzeugung wird. Dabei geschehen zwei Dinge: Zum einen kehrt sich das Verhältnis von Urteil und Begriff um, insofern das Urteil zur Voraussetzung des Begriffs wird. Zum zweiten erhält das Urteil »eine tiefere Bedeutung, in der es nicht mehr ein Verknüpfen, sondern ein sponta62 David Hilbert: ›Über das Unendliche‹, in: Mathematische Annalen, 95, 1926, 161–190, S. 174. 63 Hermann Weyl: Philosophie der Mathematik und Naturwissenschaft (1928), München: Leibniz Verlag 1949, S. 9, Fn. 2. Weyl gibt als Beispiel die unendlich fernen Punkte als ideale Elemente in der euklidischen Geometrie an, an welchen sich die Parallelen schneiden, oder die Einführung des Imaginären, um allgemein gültige Schnittpunktsätze algebraischer Kurven und Flächen zu erzwingen. 64 Gottlob Frege: Brief an David Hilbert vom 1. Oktober 1895, in: Ders: Gottlob Freges Briefwechsel mit D. Hilbert, E, Husserl, B. Russell, sowie ausgewählte Einzelbriefe Freges (hrsg. von Gottfried Gabriel, Friedrich Kambartel und Christian Thiel), Hamburg: Meiner 1980, S. 4.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kunstgriff des Formalen

nes Entwerfen von Inhalten bezeichnet«.65 Diese Freiheit des regelbasierten Entwerfens ist es, die im operativen Symbolismus als Erkenntnismittel des ›methodischen Schauens‹ an Autonomie gewinnt.66 Exemplarisch belegt Leibniz in De analysi situs, was darunter zu verstehen ist; wie der Prozess der Formalisierung symbolisch wie logisch vonstattengeht. Sein Ausgangspunkt ist dabei die Einsicht, Ähnlichkeit und Kongruenz nicht als Theoreme der Geometrie vorauszusetzen, sondern sie als allgemeine Begriffe zu fassen beziehungsweise ›per calculum herauskommen‹ zu lassen. Calculum ist hier nicht als rechnende Algebra wie bei Descartes’ analytischer Geometrie oder als messender Vergleich verstanden, sondern als Analyse des Begriffs der Ähnlichkeit bezogen auf logische Vergleichsmerkmale geometrischer Figuren. Damit führt Leibniz Aristoteles’ logisch-analytische Methode wieder ein, allerdings in rein formaler und quantifizierbarer Weise. Denn Leibniz genügt es nicht, »als ›ähnlich‹ Gegenstände zu bezeichnen, die dieselbe Form haben, wenn man nicht wiederum im Besitze eines allgemeinen Begriffs der Form ist. Ich bin nun durch eine Erklärung der Qualität oder Form, die ich aufgestellt, zu der Bestimmung gekommen, dass ähnlich das ist, was für sich beobachtet nicht voneinander unterschieden werden kann.«67 Indem der intuitiven Erfassung der qualitativen Ähnlichkeit die Erfassung der quantitativen Gleichheit gegenübergestellt wird, ergibt sich das gesuchte Ähnlichkeitsaxiom als das, »was in seinen Bestimmungsstücken [Determinationen] – oder den gegebenen Elementen, die es zureichend definieren – ununterscheidbar ist, […] da aus den Bestimmungsstücken sich alles übrige ergibt«.68 Anhand von Daten – beispielsweise der Winkel eines 65 Ernst Cassirer: Leibniz’ System in seinen wissenschaftlichen Grundlegungen, Marburg: Elwertsche Verlagsbuchhandlung 1902, S. 118. 66 Methodisches Schauen meint bei Leibniz intuitive Erkenntnis respektive Vernunftwahrheiten, die in den Definitionen zum Ausdruck kommen. Insofern, so Cassirer, kann Wissenschaft für Leibniz nur einen hypothetischen Charakter haben, da die immanente Gesetzlichkeit des Denkens in der Hypothese als ›modus generandi‹ die Möglichkeit der generierten Gegenstände verbürgt, ohne eine absolute Realität zu fordern. (Dies richtet sich gegen die skeptischen Einwände, die als dogmatisch entlarvt werden, insofern sie auf der Annahme einer absoluten Realität basieren.) Es ist der ›modus generandi‹ der Hypothese, der die Objektivität der willkürlichen Definitionen des Denkens, wie sie exemplarisch für die Mathematik sind, ermöglicht, ohne im platonischen Sinne auf ewige Ideen zu verweisen. Aus dieser Bedingtheit des Realen durch das Ideale gewinnt Leibniz’ Programm an Dynamik, insofern Logik und Mathematik gleichgesetzt werden, um den Inhalt der Mathematik mit den Denkformen der Logik zu verbinden. Die Mathematik liefert dabei nicht nur den Inhalt, sondern ist Vermittlungsinstanz zwischen Idealität und Realität. Vgl. Cassirer, Leibniz’ System, 1902, S. 119 ff. 67 Leibniz, ›De analysi situs‹ (1693), 1903, S. 71, 72. 68 Ebd., S. 74.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

39



40

Kapitel 1  ·  Operationalisierung der Anschauung

Dreiecks – lässt sich bestimmen, ob zwei Dreiecke nicht voneinander unterscheidbar und daher ähnlich sind. Das bedeutet, dass ein komplexer Begriff sich durch den Inbegriff seiner Bestimmungsstücke ersetzen und entscheiden lässt.69 Diese Ersetzbarkeit ist aber nichts anderes als die Substitution »salva veritate«, die jegliche wahrheitserhaltende Substitution zulässt.70 Aus diesem Ansatz entsteht der Entwurf einer geometrischen Charakteristik, an die später Hermann Graßmann anknüpfen wird,71 die den analytisch eingeführten Begriff der Ähnlichkeit in einen Kongruenzbegriff transformiert – Kongruenz besteht für Leibniz in der »Verbindung von Gleichheit und Ähnlichkeit«72 – und sogleich symbolisch umsetzt (γ): »So bedeutet A B C γ D E F, daß die beiden Dreiecke A B C und D E F entsprechend der Ordnung ihrer Punkte einander kongruent sind.«73 Aus dieser Bezeichnungsweise lässt sich sofort einsehen, so Graßmann, wie eine rein geometrische Analyse möglich ist. »In der Tat sieht man sogleich, wenn man mit Leibniz γ als Zeichen der Kongruenz wählt, und unter x einen seiner Lage nach veränderlichen Punkt, unter a, b und c aber feste Punkte versteht, dass a x γ b c eine Kugel (deren Mittelpunkt a und deren Halbmesser c ist) und a x γ b x eine Ebene (welche ab senkrecht hälftet) als geometrischen Ort des Punktes liefert.«74 In dieser symbolisch artikulierten, logischen Abhängigkeit der Denkinhalte untereinander sieht Cassirer bei Leibniz den Begriff der Determination als logische Verallgemeinerung des Begriffs der Funktion verortet.75 Damit 69 Gottlob Frege wird dies später als Unterscheidung von Begriff und Begriffsumfang formalisieren. Vgl. Gottlob Frege: Die Grundlagen der Arithmetik. Eine logisch mathematische Untersuchung über den Begriff der Zahl (1884) (hrsg. von Christian Thiel), Hamburg: Meiner 1988. 70 Gottfried Wilhelm Leibniz: Allgemeine Untersuchungen über die Analyse der Begriffe und Wahrheiten (1686) (hrsg. von Franz Schupp), Hamburg: Meiner 1993, S. 21. Vgl. Winfried Lenders: Die analytische Begriffs- und Urteilstheorie von G. W. Leibniz und Chr. Wolff, Hildesheim, New York: Georg Olms Verlag 1971. Die analytische Philosophie des 20. Jahrhunderts wird Leibniz’ Ununterscheidbarkeitstheorie auf die Sprachsemantik über­ tragen. 71 Vgl. Hermann G. Graßmann: Geometrische Analyse geknüpft an die von Leibniz erfundene geometrische Charakteristik. Gekrönte Preisschrift, Leipzig: Weidmannsche Buchhandlung 1847. 72 Leibniz, ›De analysi situs‹ (1693), 1903, S. 71. 73 Gottfried Wilhelm Leibniz: ›Entwurf der geometrischen Charakteristik‹ (aus einem Brief an Huyghens vom 8. September 1679), in: Leibniz, Philosophische Werke, 1. Bd., 1996, 77–83, S. 79. 74 Graßmann, Geometrische Analyse, 1847, § 1. 75 Vgl. Cassirer, Leibniz’ System, 1902, S. 148 ff. Der Begriff der Funktion – aus der philosophischen Perspektive Cassirers betrachtet – ist nicht nur ein reiner Relationsbegriff, sondern ein Allgemeinbegriff, der den Gattungsbegriff der substanzontologischen Logik ablöst. Als solcher ist er ein logischer Begriff, der an der Ordnungsstruktur orientiert

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kunstgriff des Formalen

wird über die Quantität der Arithmetik wie Algebra hinaus jeglicher Inhalt analytisch und funktionell bestimmbar, der durch eine Gesetzlichkeit des Denkens charakterisiert ist. Funktion in diesem allgemeinen Sinne ist eine operationale Zuordnungsvorschrift, die die Abhängigkeiten zwischen Entitäten darstellt. Im Unterschied zur klassischen Definition der Funktion, die sich aus Eigenschaften eines intuitiv Gegebenen ableitet, ist die Determination der Funktion ein konstruktives Verfahren. »Sie wird zum Ausdruck für das freie beschreibende Entwerfen, das die Bedingung für die distinkte Erkenntnis ist.«76 Als distinkte Imagination ist sie für Leibniz »Ergänzung der sinnlichen Anschauung und gleichsam ihre Vollendung«.77 Die Automatisierung in einem Kalkül dient dabei der »Entlastung der Einbildungskraft«.78 Diese distinkte Imagination als Basis des Calculums der Axiome wird von Leibniz nicht nur auf die den Größenbegriff überwindende geometrische Charakteristik angewandt, sondern zum Operationsmodell jeglicher Charakteristik respektive jeglichen Kalküls. Allerdings werden sich die Erträge dieses abstrakten Operationsmodells des Geistes erst in der modernen Logik und Mathematik zeigen und spielen bis ins 19. Jahrhundert keine Rolle. Deutlich wird dieser Verzögerungseffekt daran, dass es mehr als zweier Jahrhunderte bedarf, um den allgemeinen Begriff der Funktion für den Kanon der Mathematik fruchtbar zu machen. Es sind Leonhard Euler und Joseph-Louise Lagrange, die den Funktionsbegriff Mitte des 18. Jahrhunderts als analytischen Grundbegriff etablieren, wenn gleich dieser bereits 1673 bei Leibniz als ›facere functionem‹ im Kontext der Mathematik auftaucht und 1718 von Johann Bernoulli formal definiert wird.79 Für Euler ist »eine Function einer ist. Die diametrale Position beider Begriffe, die Cassirer in Substanzbegriff und Funktionsbegriff thematisiert, bildet den konzeptuellen Umschlagpunkt in Mathematik und Wissenschaft, den er vor allem an Leibniz festmacht. Vgl. Ernst Cassirer: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik, Berlin: Verlag Bruno Cassirer 1910. 76 Cassirer, Substanzbegriff und Funktionsbegriff, 1910, S. 151. 77 Leibniz, ›De analysi situs‹ (1693), 1903, S. 76. 78 Leibniz, ›Entwurf der geometrischen Charakteristik‹ (1679), 1903, S. 78. 79 »Im Sommer 1673 führt Leibniz die Ausdrucksweise facere offcium, facere functionem ein, um auszudrücken, dass bestimmte Strecken den Tangentenabschnitt, die Subtangente, Normale, Subnormale usf. bilden« Gottfried Wilhelm Leibniz: Mathematische Schriften (hrsg. von der Berlin-Brandenburgischen Akademie der Wissenschaften), VII. Reihe, 4. Bd., Berlin: Akademie-Verlag 2008, Einleitung S. XVIII. Vgl. Gottfried Wilhelm Leibniz: Briefwechsel mit Johann Bernoulli (1694), in: Ders.: Sämtliche Schriften und Briefe (hrsg. von der Berlin-Brandenburgischen Akademie der Wissenschaften), III. Reihe, 6. Bd., Berlin: Akademie-Verlag 2004; Jakob Bernoulli, Jean Bernoulli, Herman H. Goldstine, Patricia Radelet-de Grave (Hrsg.): Die Streitschriften von Jacob und Johann Bernoulli: Variationsrechnung, Basel: Birkhäuser 1991, insb. Kap. 12.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

41



42

Kapitel 1  ·  Operationalisierung der Anschauung

veränderlichen Zahlengröße […] ein analytischer Ausdruck, der auf irgend eine Weise aus der veränderlichen Zahlgrösse und aus eigentlichen Zahlen oder aus constanten Zahlengrößen zusammengesetzt ist«.80 Der Begriff des ›analytischen Ausdrucks‹ bezeichnet dabei die Anwendung algebraischer Operationen aller Art. Euler unterscheidet in seiner Introductio in analysin infinitorum von 1748 algebraische und transzendente Funktionen; und alge­ bra­ische wiederum in rationale und irrationale, explizite und implizite, usf. Im Bereich der elementaren transzendenten Kurven definiert er unter anderem den Logarithmus loga x mittels der Potenzfunktion x = ay und behandelt die trigonometrischen Größen ebenfalls als Funktionen.81 Auch der Begriff des Differentials und des Unendlich-Kleinen wird von Euler durch den Funktionsbegriff ersetzt, insofern es um die Verhältnisse der Differentiale (Quotienten) geht, die sich als Funktionen notieren lassen.82 Durch diese Algebraisierung der Infinitesimalrechnung als Differentialrechnung verändert sich einerseits das Rechnen damit, indem mit Funktionen und ihren Ableitungen gerechnet wird. Andererseits erweitert sich dadurch das Anwendungsspektrum, insofern die Differentialrechnung zum flexibel einsetzbaren Instrument veränderlicher Größen wird, wobei Größen beliebige Objekte sein können, die sich vermindern oder vermehren. Als ein solches Instrument ist die Infinitesimalrechnung auf alle Prozesse der Verminderung oder Vermehrung anwendbar, seien diese geometrische, physikalische oder ökonomische Prozesse.83 Im 19. Jahrhundert wird dann der analytische Funktionsbegriff von Euler und Lagrange durch die Arbeiten von Jean Baptiste 80 Leonhard Euler: Introductio in analysin infinitorum (1748) (hrsg. von Wolfgang Walter), Berlin: Springer 1983, S. 4. 81 Dieser Paradigmenwechsel im Kontext trigonometrischer Größen von der Geometrie zur Algebra wird von Simon Klügel weiter ausgearbeitet und auf Fernrohre, Spiegelteleskope und Mikroskope angewandt. Mit beiden Schriften macht Klügel Eulers algebraische Analysis unter den Forschern des späten 18. Jahrhunderts bekannt. Beispielsweise arbeitet sich Joseph von Fraunhofer an Klügels Dioptrik in das Gebiet der optischen Berechnungen ein. Vgl. Simon Klügel: Analytische Trigonometrie, Braunschweig: Fürstliche Waisenhausbuchhandlung 1770; Simon Klügel: Analytische Dioptrik, Leipzig: Junius 1778; Myles Jackson: Spectrum of Belief. Joseph von Fraunhofer and the Craft of Precision Optics, MIT Press: Boston 2000. 82 Vgl. Jahnke, ›Die algebraische Analysis des 18. Jahrhunderts‹, 1999, S. 135 f. Jahnke weist darauf hin, dass Physiker und Techniker an den Begriffen der variablen Größen und der Differentiale bis ins 19. Jahrhundert und darüber hinaus als ›natürlicher‹ festhalten. Vgl. Joseph-Louis Lagrange: Mécanique analytique (1788), in: Ders.: Oeuvres des Lagranges (hrsg. von Joseph Alfred Serret), 11. Bd., Paris: Gauthier-Villars 1888. 83 Vgl. beispielsweise bezüglich der Mathematisierung der Ökonomie Theodore M. Porter: Trust in Numbers. The Pursuit of Objectivity in Science and Public Life, Princeton: Princeton University Press 1996.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kunstgriff des Formalen

Joseph Fourier und Lejeune Dirichlet um willkürliche Funktionen erweitert. Funktionen sind in dieser universellen Perspektive zwar eindeutige Zuordnungsregeln, doch diese müssen nicht mehr im Sinne Eulers analytisch sein, sondern können willkürlich bestimmt werden.84

84 Dabei stellt sich die Frage, ob für jede beliebige Funktion ein Integral definierbar ist, wie Augustin Louis Cauchy dies 1814 für stetige Funktionen nachgewiesen hatte. Doch es zeigt sich, dass willkürliche Funktionen nicht mehr notwendigerweise stetig und daher differenzierbar sind. Die weitere Umformulierung des Begriffs der Funktion vollzieht sich durch die Mengensprache der Strukturmathematik und ist eng an die Entwicklung der formalen Logik gekoppelt. Otto Toeplitz weist darauf hin, dass der Funktionsbegriff eine doppelte Gestalt als geometrischer und analytischer Begriff hat und dass mit Jean Baptiste Joseph Fourier in den 1820er Jahren der geometrische Funktionsbegriff wieder an Bedeutung gewinnt. Damit wird der Funktionsbegriff allgemeiner gefasst, insofern Fourier keine Gesetzlichkeit oder Regelmäßigkeit der Bildung der Funktionswerte voraussetzt. Vgl. Otto Toeplitz: Die Entwicklung der Infinitesimalrechnung. 1. Bd., Darmstadt: Wissenschaftliche Buchgesellschaft 1972, S. 123 ff; Jean B. J. Fourier: Théorie analytique de la chaleur, Paris: Chez Firmin Didot 1822; J. P. G. Lejeune Dirichlet: Über die Darstellung ganz willkürlicher Funktionen durch Sinus- und Cosinusreihen (1837), Leipzig: W. Engelmann 1900; Augustin Louis Cauchy: Mémoire sur les intégrales définies (1814), Paris: De Bure frères 1825.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

43

Kapitel 2 Sicherung des Erfahrungsbegriffs

V 

or dem skizzierten Hintergrund der Entwicklung von Mathematik und Wissenschaft stellt sich die Frage nach der philosophischen Interpretation dieser Entwicklung. Wie Ingeborg Schüssler in ihrer Studie zu Philosophie und Wissenschaftspositivismus von 1979 treffend schreibt, entlässt sich die Wissenschaft mit ihren neuen Größenbegriffen sozusagen selbst aus dem Umkreis der Ontologie und schließt sich in die Seinsindifferenz der Mathematik ein.85 Diese Verselbständigung – heute wissenschaftshistorisch bestens untersucht86 – charakterisiert sich als Neugründung der Wissenschaft (Physik) in den quantitativen Verhältnissen der Mathematik, die als Maßbestimmungen des Physischen durch Abstraktion »alles sinnlich Erfaßbare[n] […] nur noch das Quantum und das Kontinuum« übrig lassen.87 Die Folge ist die Loslösung der Wissenschaft von der Ontologie und damit von der Philosophie als Begründungsinstanz.88 Dass dies überhaupt möglich ist, so 85 Vgl. Ingeborg Schüssler: Philosophie und Wissenschaftspositivismus. Die mathematischen Grundsätze in Kants Kritik der reinen Vernunft und die Verselbständigung der Wissenschaften, Frankfurt: Vittorio Klostermann 1979, S. 47 ff. 86 Vgl. beispielsweise Peter Dear: Disciplines & Experience. The Mathematical Way in the Scientific Revolution, Chicago: Chicago University Press 1995; Alistair C. Crombie: Styles of Scientific Thinking in the European Tradition. The history of argument and explanation especially in the mathematical and biomedical sciences and arts, 2. Bd., London: Duckworth 1994; Alexandre Koyré: Von der geschlossenen Welt zum unendlichen Universum (1957), Frankfurt: Suhrkamp 1969. 87 Aristoteles: Metaphysik, Philosophische Schriften, 5. Bd., Hamburg: Meiner 1995, XI. Buch (K), 1061a. 88 Das viel zitierte Ende der Philosophie bezieht sich auf eben diese Ablösung der Ontologie durch die Mathematik. Da Wissenschaft nun in der seinsindifferenten Mathematik gründet, verliert die Philosophie ihre traditionelle Rolle als ›arché‹ der Wissenschaft. Durch die transzendentalphilosophische Wende kann die Philosophie immerhin noch die Geltung mathematisch bedingten Wissens begründen, doch spätestens damit gelangt sie an ihr Ende. Nun kann Philosophie selbst zur Wissenschaft werden, indem sie sich ebenfalls dem Erkenntnisideal des Mathematischen unterwirft. Diese Forderung der Philosophie als Mathematik findet sich vielfältig im philosophischen Diskurs vom 17. bis ins 19. Jahrhundert vertreten, insbesondere in der analytischen Tradition jener Zeit. Sie hält sich bis in die Ursprünge der analytischen Philosophie als ›Epoche der reinen Philosophie‹, wie es Bertrand Russell als Hoffnung 1901 formuliert. Doch dieser Forderung erteilt bereits Kant mit seiner Unterscheidung des philosophischen und mathematischen Vernunftgebrauchs eine klare Absage. Selbst in der analytischen Philosophie des 20.  Jahrhunderts hat sich die Hoffnung, Philosophie auf Mathematik respektive Logik zurückzuführen und damit als Wissenschaft neu zu gründen, spätestens mit Willard

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kants Programm der Erfahrungssicherung

Schüssler, liegt im Verhältnis und in der Konstitution von Philosophie und Mathematik begründet. Denn beide stehen in einer analogen Konstellation, die gemäß Aristoteles auf das Ganze gerichtet ist: Philosophie auf das Seiende, Mathematik auf alle Größen. Insofern nun der Blick auf das Seiende als Eines gerichtet ist, so Schüssler, lässt sich das Ganze des Seienden auch als abzählbares Quantum fassen, das durch die Absehung vom Eidetisch-Kategorialen des Seienden gleichförmig präsentiert ist. Daher bestimmt sich das Mathematische als der ›seinsindifferente, universale Schatten‹ der Philosophie und beide sind als grundgebende Universalwissenschaften gegeneinander austauschbar.89 Durch diesen Austausch, der den maßgeblichen Mechanismus der positivistischen Wende darstellt, verliert zum einen die Philosophie ihre angestammte Rolle, zum anderen differenziert sich die nun ausschließlich auf die Mathematik bezogene Wissenschaft nach einer nicht-eidetischen Distinktion in eine Vielfalt von Disziplinen aus. Diese Neugründung der Wissenschaft setzt erstmals Galilei in seinem Forschungsprogramm als Setzung quantitativ analysierbarer Hypothesen (metodo compositivo) auf Basis der Analyse gegebener Wirkungen (metodo resolutivo) auf ihre mathematischen Relationen hin systematisch um.90

Kants Programm der Erfahrungssicherung

Die Etablierung der Neugründung der Wissenschaft in die Größenbegriffe der Mathematik charakterisiert die Situation, die Kant um die Mitte des 18. Jahrhunderts vorfindet. Die grundlegende Frage, die sich ihm stellt, ist daher die nach dem Wirklichkeitsbezug der Mathematik und der durch sie fundierten Wissenschaften. Solange der Wirklichkeitsbezug nicht sichergestellt ist, schlägt die Seinsindifferenz der Mathematik in eine Seins- und Realitätslosigkeit um. Diese kann der Wissenschaft kaum als Fundament dienen, will sie van Orman Quines Kritik der Analytizität als nicht durchführbar erwiesen. Vgl. Martin Heidegger: ›Das Ende der Philosophie und die Aufgabe des Denkens‹, in: Ders.: Zur Sache des Denkens, Tübingen: Niemeyer 1969, 61–79; Bertrand Russell: ›Die Mathematik und die Metaphysik‹ (1901), in: Ders.: Mystik und Logik. Philosophische Essays, Wien: Humboldt Verlag 1952, S. 97; Willard van Orman Quine: ›Two dogmas of empiricism‹ (1951), in: Ders.: From a Logical Point of View, Cambridge: Harvard University Press 1961, 20–46. 89 »Das bedeutet aber, daß der konstitutive Hinblick der Mathematik, das universale ποσόν ή ποσόν, nichts anderes als die mögliche aphairetische Abwandlung des eigenen Hinblicks der Philosophie, des universalen ον ή ον ist, die diesen gleichsam als ›Schatten‹ ständig begleiten.« Schüssler, Philosophie und Wissenschaftspositivismus, 1979, S. 53. 90 Vgl. John H. Randall: The School of Padua and the emergence of modern science, Padua: Editrice Antenore 1961.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

45



46

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

sich nicht, so Kant, in ›Hirngespinste‹ verlieren. Genau hier setzt die Aufgabe seiner Transzendentalphilosophie an, nämlich die objektive Gültigkeit der Mathematik und damit den Wirklichkeitsbezug der ›eigentlichen Wissenschaft‹ zu sichern.91 Erreicht wird dieses Ziel durch den Blickwechsel vom Seienden auf das (empirisch) Gegebene – analog der Wende, welche die positivistische Wissenschaft durch die experimentelle und messende Bestimmung des Gegebenen vollzieht – und die Kennzeichnung des Gegebenen in seiner Erscheinung als extensive Größen der Anschauung (1. Grundsatz: Axiome der Anschauung), die damit den Maßbestimmungen der Mathematik zugänglich sind.92 Weiter, in dem Aufweis, dass die Mathematik, obwohl dieser keine Realität im Sinne eines Daseins zukommt, dennoch wirklich ist, insofern ihre raum-zeitlichen Verhältnisse a priori als Bedingungen der Möglichkeit von Anschauung überhaupt gegeben sind.93 Schließlich in der Bestimmung von Raum und Zeit als ›quanta‹ und in der Vorstellung der Einheit einer Vielheit aus gleichartigen Einheiten im Verstandesbegriff der Quantität, der das mannigfaltig Gegebene in eine synthetische Einheit bringt. Die Natur dieser Synthesis ist nichts anderes als eine mathematische, die gleichartige Raum- und Zeiteinheiten der Erscheinungen sukzessive zusammensetzt beziehungsweise abzählt. In den Worten Kants: »Da die bloße Anschauung an allen Erscheinungen entweder der Raum, oder die Zeit ist, so ist jede Erscheinung als Anschauung eine extensive Größe, indem sie nur durch sukzessive Synthesis (von Teil zu Teil) in der Apprehension erkannt werden kann. Alle Erscheinungen werden demnach schon als Aggregate (Menge) vorher gegebener Teile angeschaut […] Auf diese sukzessive Synthesis der produktiven Einbildungskraft, in der Erzeugung der Gestalten, gründet sich die Mathematik der Ausdehnung (Geometrie) mit ihren Axiomen, welche die Bedingungen der sinnlichen Anschauung a priori ausdrücken, unter denen allein das Schema eines reinen Begriffs der äußeren Anschauung zustande kommen kann.«94 Den maßgeblichen Mechanismus stellt dabei die sukzessive Synthesis der produktiven Einbildungskraft dar. Das Konzept der transzendentalen Synthesis – in der ersten Auflage der Kritik der reinen Vernunft als Gegenkonzept 91 Vgl. Immanuel Kant: Metaphysische Anfangsgründe der Naturwissenschaft (1786) (hrsg. von Wilhelm Weischedel), Meiner: Hamburg 1983. 92 »Alle Anschauungen sind extensive Größen.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 202. 93 Die Konzeption Kants lässt sich modal als logisch möglich, mathematisch wirklich und empirisch real für die Anwendungsfrage fruchtbar machen. 94 Immanuel Kant: Kritik der reinen Vernunft (1781, 1787) (hrsg. von Raymund Schmidt), Hamburg: Meiner 1993, B 204.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kants Programm der Erfahrungssicherung

zum Empirismus und dessen Prinzip der Assoziation und Gewohnheitsbildung als empirischer, also zufälliger Regel angelegt – nimmt die intentionalen Gegenstandsbeziehungen in den Fokus.95 Zur Begründung der faktischen Notwendigkeit dieser Gegenstandsbeziehungen muss Kant sie von ihrem in der Anschauung gegebenen Gehalt abstrahierend als notwendige aufweisen. Als solche können die Gegenstandsbeziehungen ihren Sitz nur im Verstand als möglicher Erfahrung von Gegenständlichkeit überhaupt haben. Auf diesem Weg gelangt Kant zu seiner Konzeption der synthetischen Urteile a priori, die die empiristische Dichotomie synthetischer und analytischer Urteile überwinden soll. Gleichzeitig wird damit die Rezeptivität der Sinne der empiristischen Konzeption in eine Aktivität des Verstandes umgemünzt. Im Einzelnen lassen sich die Schritte dazu als ein bestimmtes Regelfolgen unterschiedlicher Vergegenwärtigungsmodi rekonstruieren: Jede Anschauung enthält ein Mannigfaltiges in sich, das im jeweiligen Augenblick als Einheit gegeben ist. »Damit nun aus diesem Mannigfaltigen Einheit der Anschauung werde, (wie etwa in der Vorstellung des Raumes) so ist erstlich das Durchlaufen der Mannigfaltigkeit und dann die Zusammennehmung desselben notwendig, welche ich die Synthesis der Apprehension nenne.«96 Das Problem möglicher Erkenntnis wird damit zum Problem der Synthesis umdefiniert. Als solches kann es nun näher untersucht werden und führt zur Ausdifferenzierung der drei Synthesen der Apprehension, der Reproduktion und der Rekognition.97 Die Synthesis der Apprehension als Durchlaufen der Mannigfaltigkeiten und dann Zusammennehmung derselben – als bildendes Vermögen der Einbildungskraft verstanden98 – muss einerseits a priori gegeben sein, um über95 Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 792 ff; Hansgeorg Hoppe: Synthesis bei Kant. Das Problem der Verbindung von Vorstellungen und ihre Gegenstandsbeziehung in der ›Kritik der reinen Vernunft‹, Berlin, New York: de Gruyter 1983, S. 92 ff; John Locke: An Essay concerning Human Understanding (1690), Oxford: Oxford University Press 2008; David Hume: A Treatise of Human Nature: Being an Attempt to introduce the experimental Method of Reasoning into Moral Subjects (1739–40), Oxford: Oxford University Press 2002. 96 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A 100. 97 Vgl. ebd., A 100 ff. 98 »Nach Kant besteht es [bildende Vermögen] darin, daß man sich von Gegenständen, die von jeder Seite anders aussehen oder die wegen der Vielfalt von Einzelheiten nicht eine Orientierung auf einen Blick erlauben, dennoch ein ›Bild‹ machen kann.« Hoppe, Synthesis bei Kant, 1983, S. 180. Damit ist keine simple Abbildtheorie gemeint, wie dies Martin Heidegger in seiner Kant-Analyse als abbildender, nachbildender und vorbildender Anblick bei Kant differenziert hat. Vgl. Martin Heidegger: Kant und das Problem der Metaphysik (1929), Frankfurt: Klostermann 1998, S. 88 ff. Bezogen auf den Begriff bedeutet dies: »Nur im Vorstellen der Weise, in der die Regel das Hineinzeichnen in einen

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

47



48

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

haupt eine Vorstellung von Raum und Zeit zu ermöglichen. Andererseits müssen die aktualen Vorstellungen irgendeinen Verweis auf bereits vergangene mit sich führen, ohne dass diese die aktuellen verdrängen. Die Synthesis der Reproduktion soll genau dies gewährleisten, indem sie den Grund des Prinzips der Gewohnheitsbildung a priori bildet, da ansonsten die Invarianz der Erscheinungen – Zinnober ist immer rot und nicht schwarz – wie auch die empirische Synthesis nicht denkbar wären. Dieser Blickwechsel Kants hat nicht wie bei Hume die Gegenstände an sich respektive die ›reale‹ Erfahrung zum Untersuchungsgegenstand, sondern die intentionalen Gegenstandsbeziehungen als »Spiel unserer Vorstellungen […], die am Ende auf Bestimmungen des inneren Sinnes auslaufen«.99 Beide, Synthesis der Apprehension und Synthesis der Reproduktion, sind dabei ›unzertrennlich‹ verbunden, wobei Erstere den transzendentalen Grund der Möglichkeit aller Erkenntnis, Letztere das transzendentale Vermögen der Einbildungskraft ausmacht.100 Gemeinsam konstituieren sie die Synthesis der Rekognition, um schließlich die Gegenstandserkenntnis zu ermöglichen. Denn dazu ist ein (Selbst-)Bewusstsein von Nöten, welches das »nach und nach Angeschaute […] in eine Vorstellung vereinigt« und auf den Begriff bringt.101 Rekognition ist dabei nicht ein nachgelagertes Erkennen der Zusammengehörigkeit und auf den Begriff Bringen des nach und nach Angeschauten, sondern ein ›prognostisches‹ Vermögen respektive ›Programm‹, wie es Hansgeorg Hoppe nennt, das die Gegenstandserkenntnis überhaupt ermöglicht. Denn eine nachträgliche Begriffsfindung im Sinne einer Auswahl- und Passungsoperation wäre nicht ausreichend. möglichen Anblick regelt, kann überhaupt die Einheit des Begriffes als einigende, vielgültige, vorgestellt werden.« Heidegger, Kant und das Problem der Metaphysik (1929), 1998, S. 95. 99 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A 101. 100 Die Differenzierung zwischen reinen und empirischen Synthesen ist nicht ganz unproblematisch in Kants Konzeption. Insbesondere die Beispiele – so ist das Vorstellen einer Zahl oder das Ziehen einer Linie in Gedanken durch die reine Synthesis der Apprehension und der Reproduktion möglich (vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A 102 und A 105) – verleiten geradezu zu Missinterpretationen, vor allem im Kontext einer Rekonstruktion der kantischen Philosophie der Mathematik. »Jedenfalls würde eine ›reine‹ Synthesis, die zur Erkenntnis eines Dreiecks führt (vgl. A 150), nicht auch eine Kategorie ›Dreieck‹ ergeben, und umgekehrt ist es nach Kant gerade eine in der Terminologie von A 101, A 77 ›empirische‹ Synthesis, die zur Kategorie der Kausalität führt.« Hoppe, Synthesis bei Kant, 1983, S. 183. Hansgeorg Hoppe schlägt den Unterschied von kategorial reinen und faktisch reinen Synthesen vor. Erstere würde nicht-empirische, wie empirische Vorstellungen zur Einheit der Apperzeption bringen, Letztere würde zur Erkenntnis reiner Raum- und Zeitfiguren führen. Vgl. Hoppe, Synthesis bei Kant, 1983, S. 184. 101 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A 103.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kants Programm der Erfahrungssicherung

Vielmehr ist es erforderlich, »daß immer schon im voraus Wege und Möglichkeiten eröffnet sein müssen, damit sich überhaupt bestimmte Begriffe finden lassen, und das bedeutet, daß die Reproduktion von vornherein immer im Hinblick auf eine mögliche, begrifflich faßbare Gegenstandsbestimmung erfolgt. Es kann nur die Einheit eines solchen vorgängigen, zukunftsgerichteten Planes sein, welche alles Mannigfaltige ›bestimmt‹ und es im voraus auf Bedingungen ›einschränkt‹, die die Einheit der Apperzeption und damit auch bestimmte Begriffe möglich machen.«102 Dieses prognostische Programm der transzendentalen Apperzeption, die jeglicher »Synthesis des Mannigfaltigen aller unserer Anschauungen, mithin auch, der Begriffe der Objekte überhaupt, folglich auch aller Gegenstände der Erfahrung« zugrunde liegt, wird von Kant als »numerische Einheit« identifiziert.103 Diese liegt a priori allen Begriffen zugrunde, so wie die Mannigfaltigkeit des Raumes und der Zeit allen Anschauungen zugrunde liegt. Vorbild dieser numerischen Einheit der Apperzeption ist nichts anderes als der Zählkalkül als Regel der »sukzessive[n] Hinzutuung von Einem zu Einem«.104 Ohne eine solche zusammenhaltende Einheit oder Regel würden lediglich unverbundene, beliebige Konglomerate an Vorstellungen entstehen und schon gar kein Begriff der Zahl möglich sein. Interessant ist nun, dass sich – statt mit Hoppe von Programm oder Plan zu sprechen – die numerische Einheit der Apperzeption als funktionales Operationsmodell des Verstandes verstehen lässt. Dies, insofern es um allgemeine Verknüpfungsregeln von Vorstellungen geht, da »unsere Erkenntnisse nicht aufs Geratewohl, oder beliebig, sondern a priori auf gewisse Weise bestimmt« sind, »weil, indem sie sich auf einen Gegenstand beziehen sollen, sie auch notwendigerweise in Beziehung auf diesen untereinander übereinstimmen, d.i. diejenige Einheit haben müssen, welche den Begriff von einem Gegenstand ausmacht«.105 Welche grundlegende Bedeutung dieses Operationsmodell der Apperzeption für Kant hat, lässt sich an der neu explizierten Urteilstheorie in der zweiten Auflage der Kritik der reinen Vernunft erkennen. Darin ist »ein Urteil nichts anderes […], als die Art, gegebene Erkenntnisse zur objektiven Einheit der Apperzeption zu bringen«.106 Dem liegt eine Neubestimmung der Logik zugrunde, deren grundlegende Funktion nicht mehr im logischen, entäußerten Verhältnis zweier Begriffe zueinander gesehen wird, sondern im internalisierten Akt der Subsumtion der Vorstellungen unter die synthetische Einheit der Apper102 Hoppe,

Synthesis bei Kant, 1983, S. 186, 187. Kritik der reinen Vernunft (1781, 1787), 1993, A 106 und A 107. 104 Ebd., A 103. 105 Ebd., A 104, A 105. 106 Ebd., B 141. 103 Kant,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

49



50

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

zeption.107 Erst dadurch erhalten die Urteile – über die bloß subjektive Gültigkeit assoziativer Verknüpfungen hinaus – ihre Objektivität. Eine entscheidende Differenz für die Rekonstruktion einer Philosophie der Mathematik bei Kant ist, dass die numerische Einheit der Apperzeption den Begriffen zugrunde liegt (analog zur »Mannigfaltigkeit des Raumes und der Zeit [, die] den Anschauungen der Sinnlichkeit« zugrunde liegt), dass aber auf der »sukzessive[n] Synthesis der produktiven Einbildungskraft, in der Erzeugung der Gestalten, […] sich die Mathematik der Ausdehnung (Geometrie) mit ihren Axiomen« gründet.108 Dies bedeutet, dass die intentionalen Gegenstandsbeziehungen per se mathematisch verfasst sind und in Folge die Quantität damit an oberste Stelle im Kategoriensystem rückt analog zur Entwicklung im Wissenschaftspositivismus; dass aber die Anschauung für die numerische Einheit der Apperzeption erst einmal keine Rolle spielen muss. Die numerische Einheit der Apperzeption ist die Bedingung der Möglichkeit, Gegenstandsbeziehungen zu erzeugen. Von daher sind drei Verwendungsweisen des Mathematischen bei Kant festzustellen: Die grundsätzlich numerische Verfasstheit der Einheit der Apperzeption; das Mathematische als reine Vorstellungen a priori, die lediglich auf die Form der Erscheinungen als raumzeitliche Verhältnisse Bezug nehmen (1. Grundsatz: Axiome der Anschauung) sowie eine, »auf Gegenstände der Erfahrung anwendbar[e]« Mathematik,109 die auf empirische Vorstellungen a posteriori referiert (2. Grundsatz: Antizipationen der Wahrnehmung). Bevor auf den zweiten Grundsatz und die Sicherstellung des Anwendungsbezugs näher eingegangen wird, soll zunächst die Funktion des Schematismus untersucht werden.

Funktion des Schematismus

Die Frage, wie das Gründungsverhältnis der Wissenschaft in der Mathematik verfasst ist, insofern diese mit der Erzeugung von Gestalten befasst ist (Geometrie), beantwortet der erste Grundsatz wie folgt: Nur auf Basis der 107 Frank Obergfell unterscheidet Subordination (das Unter-sich-Enthalten mehrerer Vorstellungen und Allgemeinvorstellungen zu einer hierarchischen Ordnung) von Subsumtion (das urteilsmäßige Unter-einen-Begriff-Bringen). »Die Subsumtion nämlich ist nicht die schon im Begriff enthaltene Entfaltung der Ordnungsreihe hinsichtlich eines Umfangs, sondern spielt sich zwischen niveauunterschiedenen Stufengliedern einer Umfangspyramide ab, als das urteilsmäßige Unter-einen-Begriff-bringen einer niederen Vorstellung unter diesen.« Frank Obergfell: Begriff und Gegenstand bei Kant, Würzburg: Epistema Würzburger Schriftenreihe 1985, S. 39. 108 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 204. 109 Ebd., B 206.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Funktion des Schematismus

sukzessiven Synthesis der produktiven Einbildungskraft kann »allein das Schema eines reinen Begriffs der äußeren Anschauung zustande kommen«.110 Die Rolle, die dabei das Schema spielt, wird zu Beginn des Schematismuskapitels der Kritik der reinen Vernunft erläutert. Es geht darum zu erklären, wie Ungleichartiges subsumiert werden kann; wie einzelne Vorstellungen unter einen allgemeinen Begriff gebracht werden können, da Vorstellung und Begriff sich sowohl seinsmäßig als auch in ihren Verhältnissen unterscheiden. Dies ist die zentrale Frage der transzendentalen Doktrin der Urteilskraft, die zu klären hat, wie die logische Forderung der Gleichartigkeitsbedingung der Subsumtion aufgelöst werden kann. Die Antwort liefert der Schematismus, denn um Ungleichartiges zu subsumieren, bedarf es einer »vermittelnde[n] Vorstellung«, die »rein (ohne alles Empirische) und dennoch einerseits intellektuell, andererseits sinnlich« ist.111 Dieses Zwitterwesen sieht Kant im transzendentalen Schema als Produkt der Einbildungskraft realisiert. Der entscheidende Punkt, wie schon bei der numerischen Einheit der Apperzeption, ist, dass es sich beim transzendentalen Schema nicht um ein Objekt (und schon gar kein Bild), sondern um ein Verfahren beziehungsweise eine Operation handelt.112 Nämlich um das vermittelnde Verfahren der transzendentalen Zeitbestimmung, das sowohl im Umfeld der reinen Verstandesbegriffe (Kategorien) als auch der sinnlichen Anschauung operiert, indem es beiden angehört – den reinen Verstandesbegriffen als rein synthetische Einheit des Mannigfaltigen, der sinnlichen Anschauung als formale Bedingung des Mannigfaltigen. »Daher wird eine Anwendung der Kategorie auf Erscheinungen möglich sein, vermittels der transzendentalen Zeitbestimmung, welche, als das Schema der Verstandesbegriffe, die Subsumtion der letzteren unter die erste vermittelt.«113 Das Schema eines reinen Verstandesbegriffes ist reine Synthesis. Das Schema sinnlicher Begriffe wie der Figuren im Raum ist ein Produkt der reinen Einbildungskraft und ermöglicht erst das Vorstellungsbild, das ein Produkt des empirischen Vermögens der produktiven Einbildungskraft ist. Ein reines Bild aller Größen ist der Raum, ein reines Bild aller Gegenstände der Sinne die Zeit. Das reine Schema der Größe selbst aber ist die Zahl.114 Weiter lassen sich nun die Sche110 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 204. Ebd., B 177. 112 »Das Schema selbst ist an sich jederzeit nur Produkt der Einbildungskraft; aber indem die Synthesis der letzteren keine einzelne Anschauung, sondern die Einheit in der Bestimmung der Sinnlichkeit allein zur Absicht hat, so ist das Schema doch vom Bilde zu unterscheiden.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 179. 113 Ebd., B 178. 114 »Das reine Schema der Größe aber (quantitatis), als eines Begriffs des Verstandes, 111

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

51



52

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

mata der Kategorien der Realität, der Substanz, der Ursache, der Wechselwirkung, der Möglichkeit, der Wirklichkeit und der Notwendigkeit als spezifische Zeitbestimmung der Zeitreihe, des Zeitinhaltes, der Zeitordnung und des Zeitinbegriffs »in Ansehung aller möglichen Gegenstände« bestimmen.115 Der Schematismus entpuppt sich dabei als Operationsform des Verstandes, verschieden geordnete Einheit in die Mannigfaltigkeit der Anschauung zu bringen, und indirekt als »Funktion, welche dem inneren Sinn […] korrespondiert«.116 Beharrlichkeit, Sukzession, Zugleichsein, Nacheinandersein, temporäres und permanentes Dasein sind die Modi des Schematismus, die die Differentialität der Kategorien bedingen. Die Neubestimmung der Logik zeigt sich gerade im Schematismus der Begriffe. Der internalisierte Akt der Subsumtion der Vorstellungen unter die synthetische Einheit der Apperzeption basiert auf der Neukonzeption der Abstraktionstheorie bei Kant, die im Begriff nicht das – aus dem Vergleich mehrerer Vorstellungen abstrahierte – allgemeine Merkmal sieht, sondern die dem Verstand entsprechende Regel der Verknüpfung von Merkmalen ›anschaulicher‹ Vorstellungen. Als Regel ist sie zwar an bestimmte Erfüllungen gebunden beziehungsweise die Erfüllungen sind im Begriff notwendig enthalten, aber die Regel ist dennoch offen gegenüber verschiedenen möglichen Erfüllungen. Diese Art der distributiven Allgemeinheit der Begriffsbildung – als Allgemeinheit der Regel und nicht als »abbildhafte Transposition einzelner Merkmale in eine begriffliche Sphäre«117 – ist Thema des Schematismus. Dass Kant den Begriff des Schemas – ursprünglich Umrisse und Schattenbilder bezeichnend118 – mit Bedacht wählt, klärt Frank Obergfell anhand der wandelnden Wortbedeutung in Bezug auf den Figura-Begriff. »Gerade der lebendige Charakter der Figur, Muster und Erfüllung aber unterscheidet den entwerfenden Umriß von dem abbildhaften. Während der abbildhafte Umriß des Schattenbildes festgelegt ist durch die Gestalt des Urbildes und von sich aus keine Anweisung zu geben vermag auf die mögliche Erfüllung, ist die Zahl, welche eine Vorstellung ist, die die sukzessive Addition von Einem zu Einem (gleichartigen) zusammenbefaßt.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 182. 115 Ebd., B 184, B 185. 116 Ebd. B 185. Die Schemata sind die »wahren und einzigen Bedingungen, diesen [Verstandesbegriffen] eine Beziehung auf Objekte zu verschaffen«. Ebd., B 185. 117 Obergfell, Begriff und Gegenstand bei Kant, 1985, S. 61. 118 Die Bestimmung des Schema-Begriffs als Schattenbild im Sinne eines abbildenden Umrisses findet sich bei Joachim Heinrich Campe und den Gebrüdern Grimm. Vgl. Joachim Heinrich Campe (Hrsg.): Wörterbuch der deutschen Sprache, 5 Bde., Braunschweig: Schulbuchhandlung 1807–1811; Jacob Grimm, Wilhelm Grimm: Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm, Leipzig: Hirzel 1893; Erich Auerbach: ›Figura‹, in: Archivum Romanicum, 22, 1938, 436–489.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Funktion des Schematismus

[…] ist der entwerfende Umriß dadurch gekennzeichnet, daß er im Entwurf des Umrisses auf die möglichen Weisen der Erfüllung verweist, ohne sie in einer einzelnen Gestalt selbst einzulösen.«119 Die beiden Bedeutungen lassen sich als ›Verweis‹ versus ›Entwurf‹ fassen und es ist kein Zufall, so Obergfell, dass Kant auf den lateinischen Figura-Begriff verweisend nicht nur den Begriff des Schemas einführt, sondern auch die den transzendentalen Schemata zugrundeliegende Synthesis als figürliche bezeichnet. Von hier aus lässt sich auch die Linie zu Leibniz’ distinkter Imagination ziehen, die ein erster Schritt in Richtung der »Überwindung der ›Abbildtheorie‹ ist«.120 Kant nun vollzieht die Überwindung einer Abbildtheorie durch den Rekurs auf das Operative, das eben nicht abbildend, sondern erzeugend ist und somit seine eigenen Bedingungen der Objektivität mit sich führt.121 Dieser erzeugende Charakter zeigt sich nicht nur generell in der Synthesis der Apperzeption für die Bildung der Kategorienbegriffe, sondern formal im Axiom der Anschauung als Bedingung der Möglichkeit mathematischer Begriffe, wenn von der »Erzeugung der Gestalten« die Rede ist, in der »sich die Mathematik der Ausdehnung (Geometrie) mit ihren Axiomen« gründet, und eben nicht von den Gestalten als Abbildungen oder ›Cartoons‹ von etwas im Sinne eines naiven Anschauungsbegriffs.122 Interessant an dieser Stelle ist, die Aufgabe der produktiven Einbildungskraft näher zu betrachten. Es wäre irreführend, Begriff, Schema und Bild den Erkenntnisvermögen des Verstandes, der Einbildungskraft und der Anschauung zuzuordnen, denn Schema wie auch Bild sind beide – wenn auch in unter119 Obergfell,

Begriff und Gegenstand bei Kant, 1985, S. 60. Leibniz’ System, 1902, S. 168. 121 Dies erinnert entfernt an David Hilberts Diktum, dass die Axiome die Bedingung ihrer Wahrheit mit sich führen, wenn sie nicht einander widersprechen. Vgl. Hilbert, Brief an Gottlob Frege vom 29. Dezember 1899, 1980, S. 12. Wichtig ist jedoch, dass weder Objektivität bei Kant noch Widerspruchsfreiheit bei Hilbert reale Existenz implizieren. Die produktive Einbildungskraft ist zwar eine erzeugende, aber keine existenzschaffende Kraft. 122 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 204. Vgl. beispielsweise Philip Kitcher: The Nature of Mathematical Knowledge, New York, Oxford: Oxford University Press 1984. »It is hard to understand how a process of looking at mental cartoons [by Kant] give us knowledge, unless it were knowledge of rather unexciting sort, concerned only with the particular figure before us. Hilbert and the intuitionists, who follow Kant in claiming that the fundamental mode of mathematical knowledge consists in apprehension of the properties of mentally presented entities, fail to explain how mathematics is anything more than a collection of trivial truths, concerned only with the properties of those mental entities which mathematicians chance to have discerned or those mental constructions which they happen to have effected.« Kitcher, The Nature of Mathematical Knowledge, 1984, S. 50. 120 Cassirer,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

53



54

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

schiedlicher Weise – Produkte der Einbildungskraft. Daher ist auch das Bild »nicht ein einfachhin mit dem angeschauten Gegenstand, als dem Vermögen der Anschauung zugehörig, gleichzusetzen«.123 Dies zeigt sich in der zweideutigen Rede vom ›Bild des Begriffs‹ wie auch vom ›Bild des Gegenstandes‹ bei Kant. Es ist genau diese Rede, die dazu verleitet, Kant eine Abbildtheorie unterzuschieben respektive Anschauungen als subjektive (i.S. private) äußere oder innere Abbilder (»private mental entities«) zu verstehen.124 Tatsächlich ist die produktive Einbildungskraft als eine erzeugende Kraft, jedoch nicht als existenzschaffende Kraft zu verstehen. Darüber hinaus ist sie ein Vermögen, die Sinnlichkeit a priori im Sinne eines Vergegenwärtigungsvermögens zu bestimmen. Die Einbildungskraft als Synthesisfähigkeit ist es, die überhaupt erst Erkenntnis – als ein bestimmtes Regelfolgen unterschiedlicher Vergegenwärtigungsmodi125 – ermöglicht.126 Bezogen auf die reine Mathematik leistet der Schematismus als spezifische Form der Synthesis und Vergegenwärtigung die Konstruktion der Begriffe, insofern die Regeln nicht gegeben sind wie bei den empirischen Begriffen, sondern gemacht. »Einen [mathematischen] Begriff aber konstruieren, heißt: die ihm korrespondierende Anschauung a priori darstellen.«127 Im Falle der 123

Obergfell, Begriff und Gegenstand bei Kant, 1985, S. 70. Kitcher, The Nature of Mathematical Knowledge, 1984, S. 50. Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A 140. Leider leistet Kant dieser Unterstellung der Anschaulichkeit durch seine Beispiele Vorschub, etwa wenn er fünf Punkte ….. im Text setzt und dann vom Bild der Zahl 5 spricht. Tatsächlich gemeint ist aber das unanschauliche Bild eines Begriffs als Versinnlichung, eben das Schema, das »einem Begriff sein Bild« verschafft. Ebd., A 140. Wie sonst sind solche Fehlinterpretationen wie bei Frege denkbar: »Kant will die Anschauung von Fingern oder Punkten zur Hilfe nehmen, wodurch er in Gefahr geräth, diese Sätze gegen seine Meinung als empirische erscheinen zu lassen; denn die Anschauung von 135667 Fingern ist doch jedenfalls keine reine. […] Kant hat offenbar nur kleine Zahlen im Sinn gehabt.« Frege, Grundlagen der Arithmetik (1884), 1988, § 5. Frege bezieht sich wohl auf Immanuel Kant: Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können (1783) (hrsg. von Konstantin Pollok), Hamburg: Meiner 2001, § 2, die in der Tat sehr missverständlich wirken. 125 Zu einer ausdifferenzierten Theorie der Vergegenwärtigungsmodi vgl. Edmund Husserl: Vorlesungen zur Phänomenologie des inneren Zeitbewusstseins (hrsg. von Martin Heidegger), Halle: Niemeyer 1928; Nicolas de Warren: ›The Significance of Stern’s ›Präsenzzeit‹ for Husserl’s Phenomenology of Inner Time-Consciousness‹, in: New Yearbook for Phenomenology and Phenomenological Philosophy, 5, 2005, 81–122. 126 Kant, Kritik der reinen Vernunft, 1993, A 78. Diese erkenntnisermöglichende Funktion der Einbildungskraft ist in der Literatur umstritten, insbesondere bei Martin Heidegger und Peter F. Strawson. Vgl. Heidegger, Kant und das Problem der Metaphysik, 1998; Peter F. Strawson: The Bounds of Sense. An Essay on Kant’s Critique of Pure Reason, London: Methuen & Co 1966; Matthias Wunsch: Einbildungskraft und Erfahrung bei Kant, Kant-Studien 155, Berlin, New York: de Gruyter 2007. 127 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 741. 124

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Fundierung des empirisch Gegebenen

Geometrie bedeutet dies, qua Regel (oder Definition) Konstruktionsanweisungen für das Erzeugen von nebeneinander geordneten Mannigfaltigkeiten (Gestalten) zu geben, die eine empirische Erfüllung haben können, aber nicht müssen.128 Es ist die apriorische Regelerfüllung, die Kant »mit der Darstellung einer a priori korrespondierenden Anschauung meint und die das reine Schema [als Verfahren] eines mathematischen Begriffs ausmacht«.129 Allein die Erfüllungsbedingungen der reinen Anschauung machen mathematische Begriffe zu synthetischen Erkenntnissen a priori und die »Mathematik gibt das glänzendste Beispiel, einer sich, ohne Beihilfe der Erfahrung, von selbst glücklich erweiternden reinen Vernunft«.130

Fundierung des empirisch Gegebenen

Es ist bemerkenswert, dass allein die Axiome der Anschauung garantieren, dass die Mathematik die transzendentalontologische Fundamentalbestimmung des empirisch Gegebenen ist und dass »die reine Mathematik in ihrer ganzen Präzision auf Gegenstände der Erfahrung anwendbar« ist.131 Es garantiert jedoch nur, dass sich die Mathematik auf die Form der Erscheinungen beziehen kann, also allein auf deren raum-zeitliche Verhältnisse. Der Realitätsbezug ist hier nur als wesenhaft gegenstandsbezogener gegeben, daher kann Kant an dieser Stelle auch nur von der ›reinen Mathematik‹ sprechen (reine Vorstellungen a priori). Das Dasein des Gegebenen hingegen – das Physische als Empfindungsgehalte (empirische Vorstellungen a posteriori) – wird dadurch nicht erfasst. Erst im zweiten Grundsatz der Antizipationen der Wahrnehmung klärt sich der Bezug zum Physischen als Empfindungsgehalte, insofern diese als (kontinuierliche) intensive Größen gegeben sind.132 Diese Größen werden nun nicht sukzessiv erfasst, sondern in einem Augenblick als Einheit beziehungsweise Koalition. Und obwohl alle Empfindungen nur a posteriori gegeben sind, so kann doch ihre Eigenschaft, »daß sie einen Grad 128 Ein Dodekaeder wäre ein Beispiel für empirische Erfüllbarkeit, ein Hendekaeder für Unerfüllbarkeit. 129 Obergfell, Begriff und Gegenstand bei Kant, 1985, S. 95. 130 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 740. 131 Ebd., B 206. 132 »In allen Erscheinungen hat das Reale, was ein Gegenstand der Empfindung ist, intensive Größe, d. i. einen Grad.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 207. Da raum-zeitliche Verhältnisse nicht als solche ohne Gegebenes wahrgenommen werden können, bedingt der erste Grundsatz den zweiten, wie auch die erste (mathematische) Synthesis die zweite (gegenständliche) Synthesis bedingt.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

55



56

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

haben, […] a priori erkannt werden«.133 Dies bedeutet nichts anderes, als dass die Empfindungsgehalte als das Reale in der Anschauung als Intensitätsquantum bestimmbar und die Erscheinungen damit nicht nur ihrer Form nach, sondern auch in ihren den Empfindungen korrespondierenden Inhalten der Mathematik zugänglich sind. Damit ist die Fundierung des Realitätsbezugs der Mathematik aus transzendentalphilosophischer Sicht abgeschlossen.134 Gerade in der Bestimmung des Realen und der Unterscheidung von Wirklichkeit und Realität liegt der Wert der transzendentalphilosophischen Begründung der Mathematik für die Anwendungsproblematik. Wirklich sind die synthetischen Erkenntnisse a priori der reinen Mathematik als objektiv gültige, da sie in der reinen Anschauung von Raum und Zeit begründet sind. Damit gehen sie über die bloß möglichen Erkenntnisse der formalen Logik hinaus. Ob ihnen deshalb auch Realität – im Sinne von: den Empfindungen korrespondierend – zukommt, ist in einem weiteren Schritt zu klären. Hier setzt der zweite Grundsatz der Antizipationen der Wahrnehmung an, indem Empfindungsgehalte als Intensitätsquanta in ihrer formalen wie inhaltlichen Bestimmbarkeit aufgewiesen werden. Als Intensitätsquanta sind sie spätestens bei Euler durch die Differentialrechnung als sich vermindernde oder vermehrende Größen mathematisch fassbar. Husserl hat dies die »indirekte Mathematisierung […] der erfahrbaren spezifisch sinnlichen Qualitäten (›Füllen‹)« genannt, die über die direkte Mathematisierung der Formen durch die Geometrie hinausgeht.135 Der indirekten Mathematisierung liegt der Grundgedanke der neuzeitlichen Wissenschaft zugrunde – den Husserl ursprünglich bei Galilei ausmacht –, »daß alles in den spezifischen Sinnesqualitäten sich als real Bekundende seinen mathematischen Index haben müsse in Vorkommnissen der selbstverständlich immer schon idealisiert gedachten Gestaltsphäre«, die »ex datis zu konstruieren und damit objektiv zu bestimmen« sind.136 Auf diese Weise wird die unendliche Natur, so Husserl, zu einem »konkreten Universum der Kausalität« und zu einer »eigenartig angewandten Mathematik«.137 Der zweite Grundsatz bei Kant begründet genau dies. Mag sich die Qualität der Empfindung jeglicher begrifflichen Erfassung entziehen, die Feststellung, dass etwas ist und dass es einen Grad hat, macht es als Quantum erfassbar. Dadurch ist »auch eine Synthesis der Größenerzeugung einer Empfindung« möglich.138 Hier zeigt sich die Integra133 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 218. Vgl. Schüssler, Philosophie und Wissenschaftspositivismus, 1979, S. 88 ff. 135 Husserl, Die Krisis der europäischen Wissenschaften (1935), 1996, S. 36. 136 Ebd., S. 38. 137 Ebd., S. 38. 138 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 208. 134

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Eigentliche Wissenschaft

tionsleistung der transzendentalen Synthesis bei Kant als prinzipiell mathematischer. Während es im ersten Grundsatz um die sukzessive Synthesis der Aggregation basierend auf der Vorstellung des Ganzen durch seine Teile geht, handelt es sich nun um eine simultane Synthesis der Koalition basierend auf der Vorstellung der Einheit.139 Dass es dabei nicht um eine Quantifizierung der Qualität geht, darauf hat Schüssler aufmerksam gemacht: »Die ›Qualität‹ der Empfindung wird nicht ›quantifiziert‹, d. h. ihr wird weder ein quantitativer Charakter im Sinne einer ihr anhängenden Bestimmung abgewonnen, noch wird Qualität in Quantität umgesetzt […] Vielmehr macht die intensive Quantität selbst die gegenständliche Qualität der Empfindung als solcher aus.«140 Erst in einem nachgelagerten Schritt ist es möglich, die tatsächliche Extension der intensiven Quantität zu erfassen – beispielsweise durch Messung oder Berechnung der sich vermindernden oder vermehrenden Größen.

Eigentliche Wissenschaft

So entscheidend die indirekte Mathematisierung der Fülle für die Neuzeit wird, spielt sie unter dem Gesichtspunkt der Anwendbarkeit bei Kant keine Rolle.141 Dies wird in der Rekonstruktion der newtonischen Mechanik in den Metaphysischen Anfangsgründen der Naturwissenschaft deutlich.142 Diese mathematikphilosophisch vielleicht erste fallbasierte Analyse der Anwendbarkeit der Mathematik konzentriert sich weitgehend auf die direkte Mathematisierung der ›Gestaltsphäre‹. Primär geht es Kant dabei um die Scheidung metaphysischer und mathematischer Anteile der Physik und um die jeweilige Begründung der Reichweite beider Bereiche. Damit setzt er sein Programm einer kritischen Philosophie um, die sich an den Errungenschaften der Natur139 Husserl hat in seiner Philosophie der Arithmetik ebenfalls auf den Unterschied von Kollektion und Sukzession am Beispiel der Melodie als Zugleichsein von Tönen aufmerksam gemacht, allerdings im Kontext einer psychologischen Interpretation des Zahlbegriffs. Vgl. Edmund Husserl: Philosophie der Arithmetik (1891) (hrsg. von Elisabeth Ströker), Gesammelte Schriften, 1. Bd., Hamburg: Meiner 1992, S. 24 ff. 140 Schüssler, Philosophie und Wissenschaftspositivismus, 1979, S. 98. 141 Die indirekte Mathematisierung ist Thema der empirischen Extension bei Paul Humphreys. Vgl. Paul Humphreys: Extending Ourselves. Computational Sciences, Empiricism, and Scientific Method, Oxford: Oxford University Press 2004. 142 Vgl. Konstantin Pollok: Kants ›Metaphysische Anfangsgründe der Naturwissenschaft‹: Ein kritischer Kommentar, Hamburg: Meiner 2001; Jacob Tharakan: Metaphysische Anfangsgründe der Naturwissenschaft: zur Kantischen Arbeit an der Theorie des Übergangs von der Metaphysik zur Physik, Stuttgart: Steiner 1993; Peter Plaaß: Kants Theorie der Naturwissenschaft. Eine Untersuchung zur Vorrede von Kants ›Metaphysischen Anfangsgründen der Naturwissenschaft‹, Göttingen: Vandenhoeck und Ruprecht 1965.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

57



58

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

wissenschaften zu orientieren hat. Dieses Programm wird von Kant bereits 1781 als Metaphysik der Natur angekündigt, 1787 in der Vorrede zur zweiten Auflage der Kritik der reinen Vernunft näher dargelegt und 1786 als Metaphysische Anfangsgründe der Naturwissenschaft veröffentlicht.143 Deutlich wird sein Programm bereits an der philosophisch motivierten Unterteilung der Naturerkenntnis.144 Denn bevor Kant zu seiner Bestimmung, was ›eigentliche Wissenschaft‹ ist, kommt, definiert er – ausgehend von der Unterscheidung des formalen respektive materialen Wortgebrauchs ›Natur‹ – den Gegenstand der Naturerkenntnis als das, was sich material auf die Gegenstände der Sinne bezieht. Diese sinnlichen Gegenstände können sowohl Gegenstände der äußeren Sinne sein (Körperlehre ausgedehnter Gegenstände) als auch solche des inneren Sinns (Seelenlehre der denkenden Natur). Sowohl Körper- als auch Seelenlehre treten als Wissenschaft auf, insofern ihre Lehre ein System ergibt, »d.i. ein nach Prinzipien geordnetes Ganzes der Erkenntnis«,145 wobei diese Prinzipien empirische oder rationale Verknüpfungen der Erkenntnisse enthalten. Daher teilt sich Wissenschaft – im Unterschied zur historischen Naturlehre – in eigentliche und uneigentliche Naturwissenschaft. Erstere basiert auf Prinzipien a priori und führt zu apodiktischer Gewissheit, Letztere hat Erfahrungsgesetze zum Gegenstand und erlangt nur empirische Gewissheit. Als Beispiel für Letztere gibt Kant die Chemie an, die zwar rationale Naturlehre sei, aber auf Erfahrungsgesetzen basiere. Sie sei eher als systematische Kunst zu bezeichnen und stelle eine angewandte Vernunfterkenntnis dar, im Unterschied zur reinen, aus Prinzipien resultierenden Vernunfterkenntnis. Dieser reine Teil der Vernunfterkenntnis ist nun sowohl in der Philosophie respektive Metaphysik aus Begriffen gegeben als auch in der Mathematik als Konstruktion der Begriffe. Daher setzt eigentliche Naturwissenschaft Metaphysik der Natur voraus, da der Begriff des Gesetzes (Prinzip der Notwendigkeit) als zum Dasein eines Dings gehörend, nicht konstruierbar ist, sondern gegeben. Ohne dass Metaphysik auf Erfahrungsobjekte Bezug nimmt, kann sie dennoch als transzendentale Metaphysik von der Natur handeln. Sie kann aber auch auf empirisch 143 »Ein solches System der reinen (spekulativen) Vernunft hoffe ich unter dem Titel: Metaphysik der Natur, selbst zu liefern.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A XXI. 144 Diese Unterteilung ist für den vorliegenden Anwendungskontext von Interesse, da sich in der weiteren historischen Entwicklung die zunehmende Transformation von Wissensbereichen, beispielsweise der Chemie, in ›eigentliche Wissenschaft‹ vollzieht, die es näher zu untersuchen gilt. Kants Unterteilung der Wissenschaften soll dabei als Hintergrundfolie dienen. 145 Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A IV.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Eigentliche Wissenschaft

gegebene Begriffe – wie den der Materie oder eines denkenden Wesens – als besondere Metaphysik bezogen werden, indem sie die transzendentalen Prinzipien auf diese empirischen Begriffe anwendet. Die Physik und die Psychologie werden hier von Kant als Beispiele angeführt. Gemäß dieser Spezifizierung kann Kant nun sein berühmtes Postulat formulieren: »Ich behaupte aber, daß in jeder besonderen Naturlehre nur soviel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist.«146 Denn es ist die Mathematik, welche die der Anschauung korrespondierenden Begriffe a priori konstruiert und sie dadurch über die bloße Möglichkeit hinaus erkennt. Der Chemie zu Kants Zeiten mangelt es an einem solchen Begriff, der in der Lage wäre, die chemische Wirkung nicht nur zu erklären, sondern zu konstruieren.147 In anderen Worten, es fehlt die Kenntnis des Gesetzes, aus welchem sich die chemische Wirkung generiert.148 Anders in der Physik und deren Begriff der Materie, der sich in einen metaphysischen und einen mathematischen Teil zergliedern lässt. Dabei ist es der metaphysische Teil, so Kant, der die Erkenntnis der Welt ermöglicht, also die Mannigfaltigkeiten der empirischen Vorstellungen gesetzmäßig verbindet und dadurch zur Erfahrung werden lässt. Diese Zergliederung ist nun das Geschäft der Philosophie und Kant geht genau dies in den Metaphysischen Anfangsgründen an, indem er den Materiebegriff vollständig durch die Subsumtion unter die Verstandesbegriffe bestimmt. Das heißt »durch die vier Klassen derselben, die der Größe, der Qualität, der Relation und der Modalität, müssen sich alle Bestimmungen des allgemeinen Begriffs einer Materie überhaupt, mithin auch alles, was a priori von ihr gedacht, was in der mathematischen Konstruktion dargestellt, oder in der Erfahrung, als bestimmter Gegenstand derselben, gegeben werden mag, bringen lassen«.149 Die Deklination des Materiebegriffs durch diese vier Klassen strukturiert Kants Analyse der Physik. Diese ist Bewegungslehre, da nur das die Sinne affizieren kann, was in Bewegung ist – wozu auch die Ruhe als beharrliche Gegenwart an 146 Kant,

Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A IX. ist erwähnenswert, dass Kant sich in seinen letzten Jahren vom Paradigma der Physik löst und sein Augenmerk auf die Chemie lenkt. Deutlich wird dies in seiner chemischen Interpretation kognitiver Vorgänge. Vgl. Immanuel Kant: ›Über das Organ der Seele‹, in: Samuel T. Sömmerring: Über das Organ der Seele, Königsberg: Friedrich Nicolovius 1796, 81–86; Burkhard Tuschling: ›Kants ›Metaphysische Anfangsgründe der Naturwissenschaft‹ und das opus postumum‹, in: Gerold Prauss (Hrsg.): Kant. Zur Deutung seiner Theorie von Erkennen und Handeln, Köln, Berlin: Kiepenheuer und Witsch 1973, 175–191; Michael Friedman: Kant and the Exact Sciences, Cambridge: Harvard University Press 1992, insb. S. 264 ff. 148 Dies ändert sich mit der Entwicklung der Strukturchemie. 149 Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A XVII. 147 Es

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

59



60

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

demselben Ort zu zählen ist. Der Begriff der Bewegung wird daher als reines Quantum (Phoronomie), als zur Qualität der Materie gehörend (Dynamik), als in Relation befindlich (Mechanik) und schließlich als in Beziehung auf die Modalität (Phänomenologie) betrachtet.150 Fragt man nun nach dem mathematischen Anteil, der in der Bewegungslehre Anwendung findet, so wird dieser wie folgt von Kant extrahiert: Als reines Quantum ist der Begriff der zusammengesetzten Bewegung ein konstruierter, also ein mathematischer. Dies setzt voraus, dass nichts darin vorkommen darf, was aus der Erfahrung resultiert, beispielsweise gewisse Kräfte. Das bedeutet, bevor die physischen Ursachen (Kräfte) erkannt werden können, müssen die »Grundsätze ihrer Zusammensetzung überhaupt vorher rein mathematisch zum Grunde gelegt worden« sein.151 Diese Grundsätze resultieren aus der Vorstellung der zusammengesetzten Bewegung als Bewegung eines Punktes in Raum und Zeit.152 Als reine Größenlehre der Bewegung erzeugt die Phoronomie ihren Bewegungsbegriff aus der Zusammensetzung von Gleichartigem, also aus Bewegung. Die Zusammensetzung der Bewegung eines Punktes aus mehreren Bewegungen kann dabei linear (gleicher oder entgegengesetzter Richtung) oder in verschiedenen Linien zugleich, einen Winkel einschließend (Kreis), konstruiert werden. Auch wenn die Phoronomie Bewegung nur als Beschreibung eines Raumes betrachtet, ist sie nicht reduzierbar auf Geometrie, da Erstere auf Raum und Zeit, Letztere gemäß der kantischen Konzeption nur auf den Raum bezogen ist. Daher kann es keine geometrischen, sondern nur mechanische Beweise für die verschiedenen Möglichkeiten der Zusammensetzung von Bewegung geben und es lässt sich die Analogie der Addition von Geschwindigkeit und Strecken nicht führen.153 150 Gemäß der Kategorientafel in der Kritik der reinen Vernunft sind die Kategorien wie folgt bestimmt: 1. Quantität (Einheit, Vielheit, Allheit), 2. Qualität (Realität, Negation, Limitation), 3. Relation (Inhärenz und Subsistenz, Kausalität und Dependenz, Gemeinschaft als Wechselwirkung), 4. Modalität (Möglichkeit – Unmöglichkeit, Dasein – Nichtsein, Notwendigkeit – Zufälligkeit). Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 106. 151 Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 14. 152 Kants Vorstellungen des empirischen Raumes sowie des Anschauungsraumes sind komplex. So ist jeder empirische Raum umgeben von weiteren Räumen, die unterschiedliche Perspektiven auf Objekte ermöglichen. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 15. 153 »[…] denn die Teile der Geschwindigkeit sind nicht außerhalb einander, wie die Teile des Raumes, und wenn jene als Größe betrachtet werden soll, so muß der Begriff ihrer Größe, da sie intensiv ist, auf andere Art konstruiert werden, als der in der extensiven Größe des Raums.« Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 26.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Eigentliche Wissenschaft

In der Dynamik kommt nun die Materie hinzu, die als Gegebene den Raum füllt und Gegenstand der sinnlichen Erfahrung ist. Die dynamische Erklärung fügt der phoronomischen das Vermögen hinzu, einer Bewegung zu widerstehen. Dieses Vermögen ist die Grundvoraussetzung, um Raum im Sinne einer Ausdehnung zu erfüllen, und sie ist bedingt durch eine bewegende Kraft. Das bedeutet, dass Materie ihren Raum nicht durch ihre bloße Existenz erfüllt, sondern durch diese expansive Kraft (Elastizität). Materie kann zwar zusammengedrückt, aber nicht durchdrungen werden. Allerdings erlaubt der mathematische Begriff der absoluten Undurchdringlichkeit keine Zusammendrückung, da der dafür nötige Kraftbegriff kein mathematischer ist. Andererseits bedingt die mathematische Teilbarkeit des Raumes ins Unendliche die mögliche physische Teilbarkeit der Substanz. Diese Trennung von Raum und Kraft ermöglicht es Kant, das Paradox der unendlichen Teilbarkeit angewandt auf Substanz zu umschiffen. »Denn es folgt nicht notwendig, daß Materie ins Unendliche physisch teilbar sei, wenn sie es gleich in mathematischer Absicht ist.«154 Da die unendliche Teilbarkeit nicht notwendig folgt, muss sich die Mathematik auf die Metaphysik einlassen und die Teilbarkeit auch für die Substanz fordern, falls sie anwendbar sein will. In den Worten Kants: »Die Materie ist ins Unendliche teilbar, und zwar in Teile, deren jeder wiederum Materie ist.«155 Möglich wird dieser Schachzug, da Materie nicht als Ding an sich, sondern als unter die Anschauung subsummierter Begriff der Möglichkeit von Materie betrachtet wird; und dies ist das Geschäft der Philosophie, denn um metaphysische Fragen zur unendlichen Teilbarkeit müssen sich die Mathematiker nicht kümmern. Dieser Aufgabe einer kritischen Philosophie folgend, dekliniert Kant den Begriff der Materie weiter und scheidet säuberlich den mathematischen Gehalt vom metaphysischen und physischen. Beispielsweise indem Berührung mathematisch als gemeinschaftliche Grenze zweier Räume betrachtet wird, die weder in dem einen noch dem anderen erhalten ist. Berühren zwei Geraden sich in einem Punkt, so gehört dieser beiden an. Hingegen liegt der physischen Berührung zwar die mathematische zugrunde, doch sie übersteigt diese durch die »Wechselwirkung der repulsiven Kräfte in der gemeinschaftlichen Grenze zweier Materien«.156 Diese Differenz ist wichtig und zeigt sich noch deutlicher in der Unterscheidung vom Begriff des wirklichen Raumes, der gegeben ist, und der Idee des Raumes, die selbst kein Raum ist, 154 Kant,

Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 47. Ebd., A 43. »Also fehlte doch bisher dem mathematischen Beweisen noch etwas, ohne welches er auf die Naturwissenschaft keine sichere Anwendung haben konnte, und diesem Mangel ist in oben stehendem Lehrsatz abgeholfen.« Ebd., A 48. 156 Ebd., A 60. 155

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

61



62

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

sondern nur zur Bestimmung des Verhältnisses gegebener Räume gedacht wird. Kräfte wirken nur in realen Räumen und die Vorstellung von Materie als stetiger Größe – und dadurch ihre unendliche Teilbarkeit – ist Teil der Idee des Raumes. Während der dynamische Begriff der Materie lediglich die bewegende Kraft im Sinne der Ausdehnung berücksichtigt, nimmt nun der mechanische Begriff die Materie als Bewegliche ins Visier inklusive der drei mechanischen Gesetze der Massenerhaltung, der Trägheit und der Wirkung und Gegenwirkung. Schließlich wird der Begriff der Materie als Erfahrungsbegriff bezüglich dessen, was möglich, wirklich und notwendig ist, entwickelt. Bezüglich der Möglichkeit kommt eine interessante Urteilsform zum Tragen, die so nur an dieser Stelle bei Kant auftritt: Das alternative Urteil als Bedingung eines bloß möglichen (nicht-entscheidbaren) Prädikats der Bewegung, denn die Erfahrung kann nicht zwischen der Bewegung eines Körpers im relativen Raum oder Ruhe des Körpers bei entgegengesetzter gleicher Bewegung des relativen Raums unterscheiden. Im Unterschied dazu ist die Kreisbewegung ein wirkliches Prädikat.157 Bezogen auf die Anwendungsfrage ist es wichtig festzuhalten, dass Kant in den Metaphysischen Anfangsgründen Naturbegriff und Wesensbegriff unterscheidet, wobei Letzterer über den Begriff der Möglichkeit mit dem Mathematischen verbunden ist. Deutlich wird diese Abgrenzung in seinen Überlegungen in den Prolegomena zu geometrischen Dingen, denen man durch die materialen Eigenschaften des Zirkels eine Natur zugestehen könnte.158 Dieses Zugeständnis ließe sich weiterführen zu Kegelschnitten bis hin zum geometrisch konstruierbaren Gesetz der wechselseitigen Attraktion in der Astronomie als umgekehrtes Quadratverhältnis der Entfernung zweier Planeten zueinander. Es stellt sich dann die Frage, ob die Bildungsgesetze der geometrischen Figuren wie auch die damit ausdrückbaren Naturgesetze im Raum liegen oder im Verstand. Oder anders gewendet: Generiert sich die Anwendbarkeit der Geometrie in der Astronomie – am Beispiel des Gesetzes der wechselseitigen Anziehung, die umgekehrt mit dem Quadrat der Entfernung abnimmt, expliziert – aus der Abstraktion und Verallgemeinerung von Einzelbeobachtungen? Oder »schreibt sie« der Verstand »dieser [Natur] vor«?159 Kants Antwort ist klar, denn sein ganzes Bemühen gilt der philo157 Mit dem alternativen (nicht-entscheidbaren) Urteil beschreibt Kant das von Galileo Galilei eingeführte Relativprinzip für unbeschleunigte Inertialsysteme. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 141 ff; Galileo Galilei: Dialog über die beiden hauptsächlichsten Weltsysteme, das Ptolemäische und das Kopernikanische (1632), Leipzig: Teubner 1891, S. 197 f. 158 Vgl. Kant, Prolegomena (1783), 2001, § 38. 159 Ebd., § 37.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Eigentliche Wissenschaft

sophischen Begründung wissenschaftlichen Handelns – dem Experimentieren wie Beobachten:160 Etwa, wenn »Galilei seine Kugel die schiefe Fläche mit einer von ihm selbst gewählten Schwere herabrollen, oder Torricelli die Luft ein Gewicht, was er sich zum voraus dem einer ihm bekannten Wassersäule gleich gedacht hatte, tragen ließ«.161 Dabei wurde den Naturforschern, so Kant, klar, dass die »Vernunft nur das einsieht, was sie selbst nach ihrem Entwurf hervorbringt«, und dem Philosophen wird klar, »daß sie [Naturforscher] mit Prinzipien ihrer Urteile nach beständigen Gesetzen vorangehen und die Natur nötigen müsse[n] auf ihre Fragen zu antworten«.162 Dieser Nötigungscharakter – im Übergang vom ehrfürchtigen Staunen der Scholastik in die unerschöpfliche Neugier der Neuzeit verankert163 – gerät dabei aus wissenschaftsphilosophischer Sicht oftmals in Vergessenheit. Doch es ist klar, dass die »durch die Fundamentalaussagen eines Forschungsprogramms dargestellten Sachverhalte [… sich] in der Regel überhaupt nicht in der ›unberührten Natur‹ beobachten« lassen,164 wie schon Galilei deutlich machte. Bezogen auf die Rolle der Geometrie bedeutet dies, so Kant, dass das, »was den Raum zur Zirkelgestalt, der Figur des Kegels und der Kugel bestimmt, der Verstand [ist], sofern er den Grund der Einheit der Konstruktion derselben enthält. Die bloß allgemeine Form der Anschauung, die Raum heißt, ist wohl das Substratum aller auf besondere Objekte bestimmbaren Anschauungen, und in jenem liegt freilich die Bedingung der Möglichkeit und Mannigfaltigkeit der letzteren.«165 Geometrischen Figuren ist daher bloß ein Wesen (Möglichkeit) und keine Natur (Dasein) beigelegt, da in ihrem Begriff nichts enthalten ist, was ein Dasein ausdrückt. Ein Begriff ist möglich, wenn er sich nicht widerspricht. Doch es wäre falsch, »von der Möglichkeit der Begriffe 160 Vgl. Holm Tetens: Experimentelle Erfahrung: Eine wissenschaftstheoretische Studie über die Rolle des Experiments in der Begriffs- und Theoriebildung der Physik, Hamburg: Meiner 1987. 161 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, Vorrede B XII. 162 Ebd., Vorrede B XIII. 163 Vgl. Lorraine Daston: Wunder, Beweise und Tatsachen. Zur Geschichte der Rationalität, Frankfurt: Fischer 2001. Domenico Meli hat die Rolle einfacher Objekte wie Kugel, schiefe Ebene, Pendel etc., die er von wissenschaftlichen und mathematischen Instrumenten abgrenzt, auf die Theoriebildung untersucht. Vgl. Domenico B. Meli: Thinking with Objects: The Transformation of Mechanics in the Seventeenth Century, Baltimore: John Hopkins University Press 2006. 164 Tetens, Experimentelle Erfahrung, 1987, S. 9. Weiter heißt es da: »Es bedarf äußerst umfangreicher technisch-apparativer Vorkehrungen und die führen meist nicht zu einer vollständigen, sondern nur zu einer angenäherten Realisierung der Fundamentalaussagen eines Forschungsprogramms.« Ebd., S. 9. 165 Kant, Prolegomena (1783), 2001, § 38.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

63



64

Kapitel 2  ·  Sicherung des Erfahrungsbegriffs

(logisch) […] auf die Möglichkeit der Dinge (reale) zu schließen«.166 Im Unterschied dazu ist in den Begriffen von (Natur-)Dingen Dasein ausgedrückt, da der Gegenstand des Begriffs durch die Kategorien bestimmt ist. Hingegen geht zwar ein Dreieck über die bloß logische Möglichkeit (Widerspruchsfreiheit des Begriffs) hinaus, insofern es unter der Kategorie der Größe bestimmt ist. »Aber es ist offenkundig unsinnig, zu verlangen, dieser [mathematische] Gegenstand müsse auch z. B. unter dem 3. Kategorientitel bestimmt sein, es müsse also an ihm etwas als Substanz gedacht werden können, oder er müsse in seinen Akzidenzien kausal in der Zeit bestimmt sein.«167 Die Kategorien der Relation und der Modalität erst bestimmen das Dasein in Verbindung mit dem Mannigfaltigen, die jedoch für den Begriff der mathematischen Objekte keine Bewandtnis haben. Daher kommt mathematischen Begriffen keine Natur zu, sondern nur Wesen, das aber über die bloß logische Möglichkeit hinausführt, insofern die mathematisch konstruierten Begriffe der reinen Anschauung a priori durch die Kategorien der Quantität und Qualität als wirkliche, da objektiv gültige bestimmt sind. Dieses Verhältnis von Wesen und Natur kennzeichnet das Verhältnis von Mathematik und Naturwissenschaft im Allgemeinen. Die Anwendung der Mathematik auf die Physik im Besonderen ist nur denkbar auf Basis einer expliziten Metaphysik der Natur. Allerdings handelt es sich dabei um eine (besondere) Metaphysik der körperlichen Natur (Physik), auf welche die transzendentalen Prinzipien angewandt werden.168 Hier fällt der Begriff der ›metaphysischen Konstruktion‹, der ansonsten bei Kant nirgends auftaucht, und diese Konstruktion ist das »Geschäft der reinen Philosophie«, nicht der Logik.169 Denn die rein logische Analyse eines Begriffs auf Basis analytischer Urteile würde zu einer bloßen Zerlegung führen. Die metaphysische Konstruktion hingegen bedient sich »Gesetzen, welche schon dem Begriff der Natur überhaupt wesentlich anhängen«.170 Genau dies wird in den Metaphysischen Anfangsgründen von Kant geleistet. Doch die metaphysische Konstruktion kann den Begriff der Materie a priori nur näher bestimmen, sie kann nicht seine objektive Wirklichkeit beweisen. Dazu bedarf es der Mathematik, denn die objektive Wirklichkeit der Kategorien überträgt sich nicht automatisch auf die besonderen Begriffe a priori. Andererseits braucht die Mathematik – als Erkenntnismittel der Naturwissenschaft – die metaphysische Konstruktion, die ihr die Begriffe vorgibt. Denn Mathematik erzeugt keine 166 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 624 Fußnote. Kants Theorie der Naturwissenschaft, 1965, S. 33. 168 Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A VIII. 169 Ebd., A XII. Vgl. Plaaß, Kants Theorie der Naturwissenschaft, 1965, S. 75 ff. 170 Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A XII. 167 Plaaß,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Eigentliche Wissenschaft

Begriffe, sondern konstruiert sie nur und bestimmt sie dadurch weiter.171 Hierin begründet sich die Notwendigkeit der Mathematik, denn »Naturlehre [wird] nur soviel eigentliche Wissenschaft enthalten, als Mathematik in ihr angewandt werden kann«.172

171 Die Aussage, dass die Mathematik ihre Begriffe nicht erzeugt, sondern nur konstruiert, bedarf der weiteren Diskussion. Sie ist aber vor dem historischen Hintergrund zu verstehen, dass Kant sich zwar gegen die peripatetische Metaphysik stellt, die Galileo Galilei als schlechte kritisiert und deshalb der Mathematik den Vorrang gibt. Doch Kant glaubt, dass seine überarbeitete Metaphysik als Transzendentalphilosophie und als besondere Metaphysik dennoch, vor der Mathematik, die Anfangsgründe der Naturwissenschaft vorzugeben vermag. Damit stellt er sich gegen René Descartes rationale Philosophie und die Konzeption Isaac Newtons. Vgl. Plaaß, Kants Theorie der Naturwissenschaft, 1965, S. 81 f. 172 Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A IX.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

65

Kapitel 3 Erkenntniskraft der Anschauung

K  

ants Verankerung der Mathematik in der Anschauung als Lehre der synthetischen Urteile a priori ist stark in die Kritik geraten – nicht zuletzt durch die ›Entdeckung‹ der nicht-euklidischen Geometrien im späten 18. und beginnenden 19. Jahrhundert sowie die Neuformulierung physikalischer Theorien im 20. Jahrhundert.173 Ob damit die Historizität von Kants Begründungsversuch besiegelt ist, soll hier noch nicht diskutiert werden. Vielmehr soll erörtert werden, was Kant aus seinem ›dogmatischen Schlummer‹ riss und ihn dazu veranlasste, über synthetische Urteile neu nachzudenken und dabei die Dichotomie synthetischer und analytischer Urteile (zu postulieren und) aufzulösen. Er selbst weist in den Prolegomena darauf hin, dass er die Unterscheidung zwischen analytischen und synthetischen Urteilen von Locke übernommen habe, als Unterscheidung von bloß erläuternden (analytischen) und erweiternden (synthetischen) Urteilen. Wie dort ausgeführt, präsentiert der Satz ›Alle Körper sind ausgedehnt‹ ein analytisches, hingegen der Satz ›Einige Körper sind schwer‹ ein synthetisches Urteil.174 Analytische Urteile beruhen auf dem Satz des Widerspruchs, sind also lediglich logisch möglich. Sie sind ihrer Natur nach Erkenntnisse a priori. Synthetische Urteile a posteriori hingegen beziehen sich auf Empirisches und bilden den Bestand einer empirischen Wissenschaft beziehungsweise der Aussagen über die konkreten Gegenstände der Welt (Erfahrungsurteile). Da, so Kant, über diese synthetischen Urteile bislang wenig Strukturelles gedacht worden sei, sieht er hier seine Motivation, die Urteilstheorie neu zu überdenken. Mehr noch: Wie sich an der folgenden Diskussion der mathematischen Urteilsformen bei Locke und Leibniz sowie an der Kritik von Berkeley und Husserl am heillosen Gemengelage analytischer und synthetischer, allgemeiner und besonderer, 173 Eine Diskussion der Kritik an Kants Auffassung mathematischer Urteile gibt Rebecca Iseli: Kants Philosophie der Mathematik. Rekonstruktion – Kritik – Verteidigung, Bern: Verlag Paul Haupt 2001, S. 23 ff. 174 »Dagegen treffe ich schon in Lockes Versuchen über den menschlichen Verstand einen Wink zu dieser Einleitung an. Denn im vierten Buch, dem dritten Hauptstück § 9 u. f., nachdem er schon vorher von den verschiedenen Verknüpfungen der Vorstellungen in Urteilen und deren Quellen geredet hatte, wovon er die eine in der Identität oder Widerspruch setzt (analytische Urteile), die andere aber in der Existenz der Vorstellungen in einem Subjekt (synthetische Urteile), so gesteht er in § 10, daß unsere Erkenntnis (a  priori) von der letzteren sehr enge und beinahe gar nichts sei.« Kant, Prolegomena (1783), 2001, § 3.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Lockes synthetische Urteilstheorie

intensionaler und extensionaler Aspekte zeigen wird, reißt es Kant nicht nur aus seinem Schlummer, sondern es wird deutlich, wo zukünftig Strukturelles zu denken ist. Dies bringt ihn schließlich auf die Frage: »Wie sind synthetische Sätze a priori möglich?«175 Damit gibt er dem Begriffspaar analytisch/ synthetisch in der Methodendiskussion des 18. Jahrhunderts eine neue und nicht unumstrittene Wendung.176

Lockes synthetische Urteilstheorie

Interessanter Weise ist an besagter Stelle in John Lockes Essay concerning Human Understanding weder von synthetischen noch von analytischen Urteilen die Rede.177 Tatsächlich spricht Locke von ›trifling‹ und ›instructive propositions‹, die Kant mit analytisch und synthetisch identifiziert. Doch diese Identifizierung wird in der Locke-Forschung ob ihrer Richtigkeit angezweifelt. So schreibt etwa Sybil Wolfram: »Locke (1690) certainly drew the analytic-necessarily true-a priori vs synthetic-contingent-empirical distinction, although he did not name the categories, but he also drew a distinction between what he called ›trifling‹ or ›self-evident‹ propositions and ones which are ›instructive‹. [… But,] I claim, among other things, that Locke identified ›self-evident‹ (and not ›analytic’) with ›trifling‹, and has been misinterpreted in particular by assuming that he meant ›telling us about the world‹ by ›instructive‹.«178 Doch auch Wolframs Position ist nicht unumstritten, insbesondere ihre Behauptung, für Locke wären mathematische Urteile analytisch, da sie sich nur auf Ideen bezögen.179 Tatsächlich vertritt Locke auch keine rein empiristische Konzeption der Mathematik, sondern versteht mathematische 175 Kant, Prolegomena (1783), 2001, § 5. Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 14 ff. 176 »Er [Kant] hat da sogar auch eine regressive Synthesis. Indes ist bekannt, daß Kant seine neuen Kunstwörter, oft keineswegs genau bestimmt, sondern mehrmals Wörter bald in dieser, bald in jener Bedeutung braucht.« Friedrich Nicolai: ›Bemerkungen über den logischen Regressus, nach dem Begriffe der alten Kommentatoren des Aristoteles‹, in: Sammlung der deutschen Abhandlungen, welche in der Königlichen Akademie der Wissenschaften zu Berlin vorgelesen worden in den Jahren 1803, Berlin: Decker 1806, 168–180, S. 168. Vgl. Engfer, Studien zur Entwicklung philosophischer Analysiskonzeptionen, 1982, S. 31 f. 177 Vgl. Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap. 3, § 8 ff. 178 Sybil Wolfram: Philosophical Logic: An Introduction, London: Routledge 1989, S. 89 und S. 125, Fn.9. Vgl. Sybil Wolfram: ›On the Mistake of Identifying Locke’s TriflingInstructive Distinction with the Analytic-Synthetic Distinction‹, in: The Locke Newsletter, 9, 1978, 27–53. 179 Vgl. Robert G. Meyers: ›Locke, analyticity and trifling propositions‹, in: The Locke Newsletter, 10, 1979, 83–96; Sybil Wolfram: ›Locke’s Trifling-Instructive Distinction –

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

67



68

Kapitel 3  ·  Erkenntniskraft der Anschauung

Urteile als demonstrative. Demonstrative Urteile verbinden dabei komplexe, im Verstand gebildete Ideen mit ›instructive knowledge‹ und damit mit ›real knowledge about the world‹. Wie dies möglich ist, beschreibt Locke wie folgt: »[W]e can know the truth, and so may be certain in proposition, which affirm something of another, which is a necessary consequence of its precise complex idea, but not contained in it.«180 Er bemüht das Beispiel eines Triangels (gleichseitiges Dreieck), dessen äußere Winkel größer als die inneren sind. Dieses Wissen sei nicht Teil der komplexen Idee ›Triangel‹, so Locke, sondern es sei »real truth, and conveys with it instructive real knowledge«.181 Das Wissen über die Eigenschaften eines Triangels wäre demnach eine Mischung aus Verstandeserkenntnis und Erfahrung. Bekanntermaßen unterscheidet Locke komplexe Ideen von einfachen, wobei Letztere auf Erfahrung durch äußere (›sensations‹) und innere Eindrücke (›reflections‹) basieren. Erst im Verstand – durch dessen Tätigkeit des Vergleichens, Zusammensetzens und Abstrahierens – verbinden sich die einfachen Ideen zu komplexen. An dieser Stelle zeigt sich eine Wende in Lockes Konzeption der Idee. Sie hat hier, wie Cassirer schreibt, »einen neuen Sinn angenommen und einen tieferen Gehalt gewonnen«, denn statt kontingente Einzelinhalte zu bezeichnen, »kommt ihr [Idee] jetzt eine dauernde logische Beschaffenheit zu, kraft deren sie notwendig zu bestimmten Folgerungen hinführt, während sie andere von sich ausschließt«.182 Dazu führt Locke neben Sensation und Reflexion ein neues Vermögen ein, das der Intuition, die notwendig Einsicht in Wahrheit nimmt, analog dem Auge, das erkennt, dass schwarz und weiß verschieden sind. Aus dieser intuitiven Erkenntnis ergibt sich die Gewissheit des Wissens, die sich aus dem Vergleich der (Nicht-)Übereinstimmung von Ideen generiert.183 Somit kann Locke einen Wahrheitsbegriff entwickeln, »der über alle ›Induktion‹ erhaben ist, und er sieht ihn [im Unterschied zur Physik] in der Mathematik und Moral unmittelbar erfüllt«.184 Nun stellt sich die Frage, ob die demonstrativen Urteile als synthetische Urteile a priori im Sinne Kants aufgefasst werden können, wie dies Predrag Cicovacki vorschlägt.185 Dazu nimmt er auf Lockes Entgegnungen bezüglich der Kritik des Bischofs von Worchester (Edward Stillingfleet) Bezug, indem a Reply‹, in: The Locke Newsletter, 11, 1980, 89–99; Predrag Cicovacki: ›Locke on Mathematical Knowledge‹, in: Journal of History of Philosophy, 28 (4), 1990, 511–524. 180 Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.8, § 8. 181 Ebd. 182 Cassirer, Erkenntnisproblem (1907), 2. Bd., 1922, S. 255. 183 Vgl. Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.2, § 1. 184 Cassirer, Erkenntnisproblem (1907), 2. Bd., 1922, S. 259. 185 Vgl. Cicovacki, ›Locke on Mathematical Knowledge‹, 1990.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Lockes synthetische Urteilstheorie

dort mathematische Ideen als ›wholly in the mind‹ charakterisiert werden, die mit realen Dingen korrespondieren.186 Diese Korrespondenz ist nach Cicovacki wie folgt zu verstehen: Für Locke seien mathematische Ideen keine Kopien existierender Dinge, sondern Archetypen. Insofern nun ein wahres Urteil über einen Archetyp wie den Triangel vorläge, gelte es auch für einen existierenden Triangel. In diesem Sinne, so Cicovacki, würden uns mathematische Ideen indirekt mit Wissen über die äußere Welt versorgen und seien daher synthetisch, ganz im Sinne der Revolution der Denkart bei Kant. »Like Kant, who claims that ›the reason has insight only into that which it produces after a plan of its own‹ (B xiii), Locke also advocates a version of the theory of maker’s knowledge. Except of the simple ideas and relations and complex ideas of substances, the mind is active (creative). Complex ideas of mixed modes and relations […] are our own products; they are originals or archetypes, as Locke calls them. […] We do not need to ›collect‹ properties of our own archetypes by observation. The causes of our archetypes are in us, and as far as we create something ourselves we are able to know its causes and understand its true principles, which are the work of our mind.«187 Allerdings sind diese Archetypen »not made at random and jumbled to­gether without any reason at all«188 und nur die nützlichen Archetypen werden mit Namen belegt und bewähren sich in der Kommunikation. Dies hat nicht nur pragmatische Gründe, sondern auch epistemische, denn komplexe Ideen setzten sich aus einfachen zusammen und diese haben ihren Ursprung in der Erfahrung. Ein Punkt beispielsweise ist für Locke nicht a priori gegeben oder erfunden, sondern entspringt der Wahrnehmung. Hier liegt eine weitere Verbindung zur Realität und begründet die Synthetizität mathematischer Urteile. Auch apriorisches Wissen ist für Locke durchaus denkbar, allerdings nicht im Sinne eingeborener, einfacher Ideen, sondern als kreiertes Wissen respektive komplexe Ideen. Insofern operiert Mathematik mit komplexen Ideen, die sowohl synthetische als auch apriorische Aspekte aufweisen. Ob dies im kantischen Sinne synthetischer Urteile a priori verstanden werden kann, ist jedoch fraglich, denn es gilt zu bezweifeln, dass Locke und Kant urteilstheoretisch dasselbe unter den Begriff des Synthetischen subsumieren.189 Ebenso bedarf der Begriff des Analytischen einer Klä186 Vgl. John Locke: ›Mr. Locke’s reply to the right reverend the Lord Bishop of Worchester’s answer to his second letter‹ (1696), in: Ders.: The Works of John Locke, 3. Bd., London: Rivington 1824. 187 Cicovacki, ›Locke on Mathematical Knowledge‹, 1990, S. 518. 188 Locke, Essay concerning Human Understanding (1690), 2008, Buch III, Kap.5, § 7. 189 Hier schlägt die fehlende Unterscheidung von Wirklichkeit und Realität bei Locke deutlich zu Buche.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

69



70

Kapitel 3  ·  Erkenntniskraft der Anschauung

rung. Denn es darf bezweifelt werden, dass Locke demonstrative Urteile in irgendeiner Weise mit analytischen Urteilen verbindet, nur weil sie sich auf Ideen ›wholly in the mind‹ beziehen. Im Gegenteil, Locke lehnt analytische Urteile im Sinne identischer Urteile rigoros ab, wie sie beispielsweise Leibniz später (gegen Locke) formuliert und wie sie üblicherweise mit mathematischen Urteilen in Verbindung gebracht werden.190

Leibniz’ analytische Urteilstheorie

Inwieweit die Logik von Leibniz Kants Konzeption analytischer und synthetischer Urteile zugrunde liegt, haben Gottfried Martin und Winfried Lenders untersucht.191 Dabei ist zu beachten, dass Leibniz’ Gedanken zur Logik über seine Schriften verstreut vorliegen, dass seine Neuen Abhandlungen über den menschlichen Verstand erst 1765 am Ende der vorkritischen Phase herausgegeben192 und dass wesentliche Teile seiner Logik erstmals 1903 von Louis Couturat editiert wurden.193 Nichtsdestotrotz zeigt Lenders, dass Kant nicht, wie oft angenommen, durch Christian Wolff oder dessen Schule mit Leibniz’ Logik in Kontakt kam. Die Unterschiede zwischen Leibniz und Wolff seien zu groß, argumentiert er, und in Kants Konzeption ließe sich eindeutig Leibniz’ Gedankengut erkennen. Daher ist »die Frage zu stellen, aus welchen Quellen Kant die Logik von Leibniz kennengelernt hat«.194 Die historischen Details 190 »I know there are some who, because identical propositions are self-evident, show a great concern for them, and think they do great service to philosophy by crying them up; as if in them was contained all knowledge, and the understanding were led into all truth by them only. I grant as forwardly as any one, that they are all true and selfevident. I grant further, that the foundation of all our knowledge lies in the faculty we have of perceiving the same idea to be the same, and of discerning it from those that are different; as I have shown in the foregoing chapter. But how that vindicates the making use of identical propositions, for the improvement of knowledge, from the imputation of trifling, I do not see.« Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.8, § 3. 191 Vgl. Gottfried Martin: Leibniz: Logik und Metaphysik, Köln: Kölner Universitätsverlag 1960; Gottfried Martin: Immanuel Kant. Ontologie und Wissenschaftstheorie, Köln: Kölner Universitätsverlag 1950; Lenders, Analytische Begriffs- und Urteilstheorie, 1971. 192 Vgl. Gottfried Wilhelm Leibniz: Neue Abhandlungen über den menschlichen Verstand (1765) (hrsg. von Ernst Cassirer), Hamburg: Meiner 1971. 193 Vgl. Gottfried Wilhelm Leibniz: Opuscules et fragments inédits (hrsg. von Louis Couturat), Paris: F. Alcan 1903; Gottfried Wilhelm Leibniz: Fragmente zur Logik (hrsg. von Franz Schmidt), Berlin: Akademie Verlag 1960. 194 Lenders, Analytische Begriffs- und Urteilstheorie, 1971, S. 179. Als mögliche Quelle käme nach Lenders eventuell Lamberts Abhandlung vom ›Criterium Veritatis‹ in Frage.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Leibniz’ analytische Urteilstheorie

sind für die vorliegende Studie nicht von Interesse. Wichtig ist jedoch ein Aspekt der analytischen Begriffs- und Urteilstheorie von Leibniz, der sich zu einem grundlegenden Missverständnis in der weiteren Debatte von Kant über Frege bis hin zu aktuellen Philosophie der Mathematik entwickelt hat. Gemeint ist die Unterscheidung zwischen intensionalen und extensionalen Interpretationen der Begriffe. Insbesondere Freges extensionale Deutung ist von Interesse, denn sie veranlasst ihn zur Kritik an Kants Konzeption mathematischer Urteile.195 Auch wenn die analytische Philosophie mittlerweile in der Nachfolge von Frege und vor allem von Russell in der analytischen Logik von Leibniz einen Vorläufer sieht, folgt sie Leibniz nicht in seiner intensionalen Konzeption.196 Eine analytische Logik ohne Bezugnahme auf Leibniz’ Metaphysik wird jedoch stark kritisiert.197 Denn ohne Leibniz’ Metaphysik, die eine originelle Neuformulierung von Platons Wiedererinnerungstheorie gibt, ist seine analytische Urteilstheorie nicht begründbar. Vor diesem Hintergrund nimmt Leibniz’ Begriffs- und Urteilstheorie einen wichtigen Platz in der Rekonstruktion der Debatte um die Urteilsformen ein, denn Leibniz gründet seine analytische Logik in seiner Substanzlehre, die sich explizit gegen Descartes’ mathematischen Realismus richtet.198 Wie Cassirer in seiner Einleitung zu Leibniz’ Neuen Abhandlungen bemerkt, hat Descartes »den Gegenstand der Natur selbst in ein mathematisches Allgemeines aufgelöst«.199 Möglich ist ihm dies, da er den Körper als rein geometrische Ausdehnung auffasst und sinnlich wahrnehmbare Eigenschaften als bloß zufällige Beschaffenheiten der subjektiven Empfindung zuordnet. Damit eliminiert er das Anwendungsproblem, denn »die reinen mathematischen Ideen besitzen in der ›substantia extensa‹, in der durchaus gleichartigen ›Materie‹ der Physik ein objektives Substrat und ein genaues Gegenbild«.200 Doch diese Eliminierung hat ihren Preis, denn die Reduktion der Materie auf Vgl. Heinrich J. Lambert: Abhandlung vom ›Criterium Veritatis‹ (1761) (hrsg. von Karl Bopp), Kant-Studien 36, 1915. 195 Vgl. Frege, Grundlagen der Arithmetik (1884), 1988. 196 Vgl. Bertrand Russell: A critical exposition of the philosophy of Leibniz, Cambridge: Cambridge University Press 1900. 197 Eine frühe Kritik der rein extensionalen Auffassung von Bertrand Russell findet sich bei Bogumil Jasinowski: Die analytische Urteilslehre Leibnizens in ihrem Verhältnis zu seiner Metaphysik, Wien: Chr. Reißers Söhne 1918. 198 Vgl. Descartes, Von der Methode (1637), 1960; René Descartes: Meditationes de prima philosophia. Meditationen über die Grundlagen der Philosophie (1641) (hrsg. von Christian Wohlers), Hamburg: Meiner 2008. 199 Ernst Cassirer: ›Einleitung‹ (1915), in: Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, S. IX-XXIV, S. XXII. 200 Cassirer, ›Einleitung‹ (1915), 1971, S. XXIII.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

71



72

Kapitel 3  ·  Erkenntniskraft der Anschauung

völlige Gleichförmigkeit sieht von jeglicher Ungleichartigkeit ab. Für Leibniz, der die Mannigfaltigkeit des Realen gewahrt sehen will, ist diese Haltung nicht annehmbar. Daraus erwächst ihm, so Cassirer, die ›Doppelaufgabe‹, zum einen Einheit und Vielheit zu vereinen ohne Hypostasierung der Allgemeinbegriffe, zum anderen »die Verflüchtigung der allgemeinen Begriffe zu bloßen ›Wortwesen‹ zu vermeiden«.201 Die Lösung ist Leibniz’ System der prästabilierten Harmonie, die jeglichen Dualismus – insbesondere den von Wahrheit und Realität – überwinden muss. Der Fortgang von der Substanzlehre auf die Begriffs- und Urteilstheorie schafft dabei den Übergang. Im Unterschied zu Descartes führt Leibniz individuelle oder einfache Substanzen ein, die er im Discours de métaphysique nominal wie real erklärt und die er später Monaden nennen wird.202 Eine individuelle Substanz ist für Leibniz nominal gesehen ein Subjekt, dem Prädikate zugeschrieben werden, wobei sowohl Subjekt wie Prädikat logisch als auch ontologisch zu verstehen sind. Die Natur einer Aussage besteht in dem Enthaltensein (›in-esse‹) des Prädikats im Subjekt – entweder in ausdrücklicher Weise bei identischen Sätzen oder in virtueller Weise bei nicht-identischen Sätzen.203 Nach Lenders folgert Leibniz aus diesen Annahmen die Real-Erklärung der individuellen Substanz. »Die Natur einer individuellen Substanz besteht darin, daß es zu ihr einen erfüllten Begriff gibt, aus dem alle Prädikate des Subjekts, dem er zugeschrieben wird (also der Substanz), verstanden und abgleitet werden können. Aus dieser Definition geht hervor, daß eine individuelle Substanz Bestimmungen in sich erhält. Dieses Enthaltensein findet seine Parallele auf der Ebene des Begriffs: im Begriff der individuellen Substanz, im Subjekt, müssen alle ihre Bestimmungen, d. h. alle dem Begriff und damit auch der Substanz möglicherweise zuzuschreibenden Prädikate, enthalten sein.«204 Veränderungen der individuellen Substanzen vollziehen sich durch wechselseitiges Handeln und Leiden aufgrund des inneren und aktiven Prinzips der Appetition der Substanzen. Möglich ist Veränderung nicht durch Austausch oder Zuwachs an Ideen, sondern durch Kommunikation und Reflexion. Leibniz, der sich hier explizit gegen Lockes Philosophie wendet, geht davon aus, dass die Zahl der Ideen, die den Substanzen innewohnen (›idea innatae‹), für alle Substanzen gleich ist; dass sie darin übereinstimmen (prästabilierte Har201 Ebd. 202

Vgl. Gottfried Wilhelm Leibniz: ›Discours de métaphysique‹ (1686), in: Ders.: Die philosophischen Schriften von Gottfried Wilhelm Leibniz (hrsg. von Carl Immanuel Gerhardt), 4. Bd., Berlin: Weidmann 1880, 427–463. 203 Vgl. Leibniz, Discours de métaphysique (1686), 1880, § 8. 204 Lenders, Analytische Begriffs- und Urteilstheorie, 1971, S. 17.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Leibniz’ analytische Urteilstheorie

monie).205 Allerdings unterscheiden sie sich durch den Grad der Deutlichkeit ihrer Perzeptionen voneinander. Durch Kommunikation und Reflexion entwickeln sich die immer schon vorhandenen Perzeptionen und werden deutlicher. Mit dieser Substanzlehre ist Leibniz’ analytische Begriffstheorie eng verbunden, indem der Übergang von Ideen zu Begriffen vollzogen wird. Begriffe (›notio‹, ›conceptus‹) sind dabei nichts anderes als klar begriffene Ideen oder aus diesen zusammengesetzte Begriffe. Analog lassen sich zusammengesetzte Begriffe zergliedern und auf einfache bringen. Dabei folgt Leibniz nach eigenem Bekenntnis der Idee Descartes’, der nach dem Vorbild der Mathematik sichere Erkenntnis durch Begriffszerlegung zu erhalten sucht, bis eine einfache und deutliche Erkenntnis möglich ist.206 Allerdings fordert Leibniz nicht nur wie Descartes eine Methode, sondern auch einen Maßstab des Klaren und Deutlichen, den er erst in seinen Erkenntnisstufen – ›cognitio obscura – clara‹, ›cognitio confusa – distincta‹, ›cognitio inadaequata – adaequata‹207 – gegeben sieht. Erst wenn die im Begriff dargestellte Sache wiedererkannt wird (›clara‹) und genügend Merkmale, welche die Sache von einer anderen unterscheiden, aufgezählt (›distincta‹) sind, so dass diese Merkmale klar erkannt werden können (›adaequata‹), liegt ein adäquater Begriff vor. Der Prozess der Analyse orientiert sich dabei am Prinzip des Widerspruchs, das heißt, Teilbegriffe eines zusammengesetzten Begriffs dürfen sich nicht widersprechen. Zudem muss die Analyse genügend weit durchgeführt worden sein, bis man sicher sein kann, dass kein Widerspruch mehr auftreten kann. Die Grade der Deutlichkeit der Begriffe entsprechen dabei der Art des Definierens.208 Nominaldefinitionen zeigen auf, inwieweit eine Sache von der anderen unterschieden ist. Erst Realdefinitionen geben an, ob etwas möglich ist oder nicht: a priori, wenn die Stufe der adäquaten Erkenntnis widerspruchsfrei erreicht ist; a posteriori, wenn die Erfahrung gemacht wird, das etwas wirklich existiert. Dies setzt eine vollendete Begriffsanalyse voraus, die letzt205 Vgl. Gottfried Wilhelm Leibniz: ›Systeme nouveau de la nature et de la communicacion des substances‹ (1704), in: Leibniz, Die philosophischen Schriften, 1880, 4. Bd., 471–530. 206 Die bekannte erste Regel von Descartes lautet: »[N]iemals eine Sache als wahr anzuerkennen, von der ich nicht evidentermaßen erkenne, daß sie wahr ist: d. h. Übereilung und Vorurteile sorgfältig zu vermeiden und über nichts urteilen, was sich meinem Denken nicht so klar und deutlich darstellte, daß ich keinen Anlaß hätte, daran zu zweifeln.« Descartes, Von der Methode des richtigen Vernunftgebrauchs (1637), 1960, S. 15. 207 Leibniz, Discours de métaphysique (1686), 1880, § 24. 208 Vgl. Gottfried Wilhelm Leibniz: ›Betrachtungen über die Erkenntnis, die Wahrheit und die Ideen‹ (1684), in: Ders.: Fünf Schriften zur Logik und Metaphysik (hrsg. von Herbert Herring), Stuttgart: Reclam 1995, 9–16.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

73



74

Kapitel 3  ·  Erkenntniskraft der Anschauung

endlich auf unauflösbare Grundbegriffe kommt. Die Frage, ob diese höchste Stufe der Erkenntnis jedoch je erreicht werden kann, lässt Leibniz offen.209 Die Theorien der analytischen Logik (›ars iudicandi‹ oder ›ars demonstrandi‹) und der Kombinatorik (›ars inveniendi‹ oder ›ars combinatoria‹) basieren jedoch auf der Notwendigkeit, dass die unauflösbaren Grundbegriffe aufzählbar sind und benannt werden können – auch wenn Leibniz keine Anzahl der Grundbegriffe für sein ›Alphabetum cogitationum humanorum‹ angeben kann und will. Wie also eine sichere Erkenntnis de facto erreicht werden kann, bleibt im Grunde fraglich. Eine Lösung versucht Leibniz durch die Analyse der Wahrheit zu geben, indem Urteile auf identische Urteile als wahre Axiome rückgeführt werden.210 Dabei leitet er drei Modalitäten der Wahrheit ab: notwendige Wahrheiten, die ohne Widersprüche auf identische Urteile zurückführbar sind, mögliche Wahrheiten, von welchen nur bewiesen werden kann, dass sie nicht zu Widersprüchen führen, und wahre zufällige Sätze, die sich identischen Wahrheiten annähern, deren Auflösung sich jedoch ins Unendliche hinein fortsetzt.211 Mit der Analyse der Wahrheit verlagert sich die Frage nach der Gewissheit der Erkenntnis von der Begriffs- auf die Urteilstheorie, die eine analytische Urteilstheorie ist, indem sie davon ausgeht, dass der Prädikatsbegriff eines jeden wahren Urteils im Subjektbegriff enthalten ist. Wie dieses Enthaltensein zu verstehen ist, gilt es ebenso zu klären wie auch die Frage, wie sich wahre Urteile auf identische zurückführen lassen. Das Enthaltensein des Prädikats im Subjekt hängt mit der Rolle der Urteile im menschlichen Erkenntnisprozess zusammen. Für Leibniz gibt es zwei Arten von Erkenntnis, die er im vierten Teil der Neuen Abhandlungen beschreibt. Die erste hat es mit einer Idee zu tun und gehört in den argumentativen Bereich, indem ein Thema erklärt oder beschrieben wird. Die zweite besteht im Vergleich zweier oder mehrerer Ideen und zielt auf Erkenntnis der Wahrheit ab, denn nur die Perzeption der Übereinstimmung oder der Nichtübereinstimmung zweier Ideen (apodiktische Wahrheit) beziehungsweise die 209 »Ob aber jemals von Menschen eine vollkommene Analyse der Begriffe bis zum ersten Möglichen und bis zu den unauflösbaren Begriffen durchführbar ist, ob sie (was dasselbe bedeutet) ihre Gedanken bis zu den absoluten Attributen Gottes selbst, welche die ersten Ursachen und der letzte Grund der Dinge sind, zurückführen können, das möchte ich jetzt nicht zu entscheiden wagen.« Leibniz, ›Betrachtungen über die Erkenntnis, die Wahrheit und die Ideen‹ (1684), 1995, S. 14. 210 Vgl. Leibniz, Allgemeine Untersuchungen über die Analyse der Begriffe und Wahrheiten (1686), 1993, insb. § 60 ff. 211 »Leibniz vergleicht notwendige und zufällige Wahrheiten mit sich schneidenden Linien und Asymptoten oder mit kommensurablen und nichtkommensurablen Zahlen.« Lenders, Analytische Begriffs- und Urteilstheorie, 1971, S. 42.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Leibniz’ analytische Urteilstheorie

Perzeption der Relation mehrerer Ideen durch Vorder- und Folgesatz (hypothetische Wahrheit) führt zur Erkenntnis der Wahrheit respektive Falschheit. Unter Erkenntnis versteht Leibniz also die Perzeption einer Relation zwischen Ideen eines Urteils (Subjekt und Prädikat) oder einer Folge von Sätzen. Mit Perzeptionen sind nichts anderes als immanente Ideen gemeint. Entscheidend ist nun, worin die Relation zwischen zwei Ideen im Urteil – zwischen Subjekt und Prädikat – besteht: zum einen als Enthaltensein, zum anderen als Identität. Auf dieser These des Enthaltenseins basiert die in seiner logischen Charakteristik vorgeschlagene »algebraische und arithmetische Darstellung der Sätze und Terme sowie ihre Auflösung in einfachere Sätze und Terme durch charakteristische Zahlen und Buchstaben«.212 Einfache Sätze und Terme stehen dabei für Begriffe oder Ideen. Das bedeutet, dass ein logischer Kalkül kein formales Zeichenspiel für Leibniz ist, sondern Ideen repräsentiert.213 Daher schlägt Leibniz vor, statt ›A ist B‹ die aristotelische Formulierung ›A ist in B‹ zu wählen, um die Verknüpfung zwischen Ideen, also zwischen Prädikat und Subjekt, deutlich zu machen, insofern die Idee des Prädikats in der des Subjekts eingeschlossen ist.214 Hier zeigt sich der intensionale Charakter der analytischen Logik von Leibniz. »Das Enthaltensein des Prädikats eines Urteils im Subjekt bezieht sich damit auf die Begriffe ›als reine Möglichkeiten‹, unabhängig davon, ob sie tatsächliche Gegenstände (exempla) um­­fassen.«215 Das Enthaltensein eines Prädikats im Subjekt kann ausdrücklich oder virtuell vorliegen. Liegt das Prädikat im Subjekt ausdrücklich vor, handelt es sich um ein identisches Urteil, das formal durch Gleichheit von Zeichen oder Wörtern (A = A) und inhaltlich durch Identität der Ideen ausgedrückt ist. Liegt das Enthaltensein nicht ausdrücklich vor (virtuell), dann lässt es sich formal als A = B darstellen und (1) inhaltlich als Enthaltensein im Sinne eines 212 Lenders,

Analytische Begriffs- und Urteilstheorie, 1971, S. 47. In diesem Punkt stimmen Leibniz und Frege überein und vor diesem Hintergrund ist Freges Kritik am Formelspiel von David Hilbert zu verstehen. Vgl. Frege, Brief an David Hilbert vom 1. Oktober 1895, 1980, S. 4. 214 Vgl. Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, IV, 17, § 8 sowie Leibniz, Allgemeine Untersuchungen über die Analyse der Begriffe und Wahrheiten (1686), 1993, § 16 ff. 215 Lenders, Analytische Begriffs- und Urteilstheorie, 1971, S. 48. »Leibniz führt aus, daß nach der aristotelischen Aussageweise (die er vorschlägt) mehr die Ideen beachtet würden als die Einzelwesen. So könne z. B. die Aussage ›Jeder Mensch ist ein Lebewesen‹ besagen, daß alle Menschen unter allen Lebewesen inbegriffen sind; sie könne aber auch besagen, daß die Idee des Lebewesens in der Idee des Menschseins enthalten sei. Die erste Aussageweise ziele mehr auf den Umfang (extensio), die zweite mehr auf den Inhalt (intensio). Leibniz hat sich […] für die zweite Aussageweise entschieden, die auf den Inhalt zielt und mit der der intensionale Charakter seiner Logik gegeben ist.« Lenders, Analytische Begriffs- und Urteilstheorie, 1971, S. 48. 213

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

75



76

Kapitel 3  ·  Erkenntniskraft der Anschauung

Teiles eines Ganzen verstehen. Es gibt jedoch auch den Fall, (2) dass A und B inhaltlich dieselben sind, also koinzidieren. Das Ziel der Analyse ist es nun, nicht-identische Urteile (A = B) in einfache, identische (A = A) aufzulösen. Um zu zeigen, dass (1) ein Teil von A mit B zusammenfällt beziehungsweise dass (2) A und B als Ganzes zusammenfallen, führt Leibniz das Kriterium der Austauschbarkeit ›salva veritate‹ ein.216 Insofern A und B dasselbe sind, lässt sich in einem Satz das eine durch das andere ersetzten, ohne dass dadurch die Wahrheit des Satzes verändert wird. Beispielsweise lässt sich in einem Satz der Ausdruck ›Alexander Magnus‹ durch ›Rex Macedoniae victor Darii‹ ersetzen, die beide sprachlich nicht identisch sind, aber eine ›innere Identität‹ der dargestellten Begriffe ausdrücken; im Sinne Freges dieselbe Bedeutung haben. Die Ersetzung betrifft also die Termini, nicht die Begriffe.217 Die Wahrheit eines Urteils gilt dann als bewiesen, wenn die Gleichheit der Definitionsreihen von Prädikat und Subjekt aufgezeigt werden kann, wenn also identische Urteile vorliegen. Dieses Ziel der Analyse als Rückführung auf identische Urteile hat im Verständnis von Leibniz unmittelbare Folgen für jede wissenschaftliche Disziplin, insofern diese nach dem Vorbild der Mathematik letztendlich zu einer Reihe von Prinzipien (wahre identische Urteile) gelangen muss. Daher sind für ihn alle Lehrsätze einer Wissenschaft analytische Urteile, die auf diesen Prinzipien basieren. Auf die Frage, durch welche Erkenntnis diese Prinzipien zustande kommen, antwortet er mit der Unterscheidung zwischen intuitiver, demonstrativer und sinnlicher Erkenntnis. »Die ursprünglichen Wahrheiten, die man durch Intuition erkennt, sind […] von zweierlei Art: sie gehören entweder zu den Vernunftwahrheiten oder zu den Tatsachenwahrheiten. Die Vernunftwahrheiten sind notwendige, die Tatsachenwahrheiten zufällige.«218 Die Unterscheidung zwischen Vernunft- und Tatsachenwahrheiten lässt sich auch mit analytisch und synthetisch bezeichnen. Im Unterschied zu Locke sind für Leibniz allein die intuitiv erkannten, identischen Vernunftwahrheiten der Art A = A die primitiven Axiome, die ursprünglich und unbeweisbar sind und somit die Grundlage der Wissenschaft darstellen. Die demonstrative Erkenntnis basiert auf einer Beweiskette intuitiver Erkenntnisse und ihre Wahrheit hängt von den intuitiven Erkenntnissen ab. Diese Art der Erkennt216 Dieses Kriterium wird für Quines Kritik der Analytizität eine wichtige Rolle spielen. Vgl. Quine, ›Two dogmas of empiricism‹ (1951), 1961. 217 Hier zeigt sich ein weiteres Mal der intensionale Charakter der Logik von Leibniz. 218 Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, Buch IV, Kap. 2, § 1. »Was die ursprünglichen Tatsachenwahrheiten anbetrifft, so sind dies die unmittelbaren inneren Erfahrungen von einer Unmittelbarkeit, wie sie der Empfindung zukommt.« Ebd., Buch IV, Kap. 2, § 1.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Demonstrative Urteile bei Locke und Leibniz

nis liegt in der Mathematik vor, aber auch außerhalb, da »die Logik der Geometrie oder die Schlussmethoden, welche Euklides bei seiner Lehre von den Verhältnissen erläutert und aufgestellt hat, eine Erweiterung oder spezielle Entwicklung der allgemeinen Logik bilden«.219

Demonstrative Urteile bei Locke und Leibniz

Bei allen Unterschieden zwischen Locke und Leibniz – Leibniz’ Nouveaux Essais sind eine diametrale Antwort auf Lockes Essay concerning Human Understanding – gibt es einen Bestand an Propositionen, den beide teilen und für notwendige Wahrheiten halten: mathematische Urteile.220 Sowohl für Leibniz als auch für Locke sind mathematische Urteile demonstrative Urteile, die auf grundlegenden Wahrheiten basieren. Allerdings ist der basale Begriff der einfachen Ideen für beide unterschiedlich. So sind für Leibniz die einfachen Ideen die grundlegenden Wahrheiten, die das Ziel des Analyseprozesses darstellen, in dessen Verlauf sich die Erkenntnis klärt. Für Locke hingegen bilden die einfachen Ideen – als äußere wie innere Eindrücke – den Ausgangspunkt seiner synthetischen Verstandestätigkeit, die zu komplexen Ideen führen. Leibniz lehnt dies ab, da »unsere Gewißheit […] gering oder vielmehr gleich null sein« würde, »wenn sie für die einfachen Ideen keine andere Grundlage besäße, als diejenigen, die aus den Sinnen stammt«.221 Andererseits lehnt Locke einfache Ideen im Sinne Leibniz’ (identische Vernunftwahrheiten der Art A = A) als ›trivling‹ rigoros ab: »Of Trifling Propositions [… ] there are universal propositions, which, though they be certainly true, yet they add no light to our understanding; bring no increase to our knowledge. Such are […] identical propositions.«222 Hier zeigt sich der unterschiedliche Kern beider Philosophien als rein analytische Konzeption demonstrativer Urteile für Leibniz versus einer konstruktiven Konzeption demonstrativer Urteile als ›theory of maker’s knowledge‹ bei Locke. Leibniz’ identische Urteile als 219 Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, Buch IV, Kap. 2, § 9. Die demonstrative Erkenntnis kann auch auf Hypothesen basieren, ist aber nur bedingt gültig, da erst noch erweisen werden muss, ob ihre Voraussetzungen wahr sind oder nicht. 220 Vgl. Marcel Weber: ›Über die Vergleichbarkeit metaphysischer Systeme: Der Fall Leibniz kontra Locke‹, in: Zeitschrift für philosophische Forschung, 59 (2), 2005, 202–222. 221 Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, Buch IV, Kap. 4, § 4. »Haben sie vergessen, wie ich bewiesen habe, daß die Ideen ursprünglich unserem Geiste innewohnen.« Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, Buch IV, Kap. 4, § 4. 222 Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.8, § 1–2.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

77



78

Kapitel 3  ·  Erkenntniskraft der Anschauung

Grundlage demonstrativer Erkenntnis ›entdecken‹ allgemeine Wahrheit, die schon immer vorhanden ist, während Lockes Archetypen – ›complex ideas of mixed modes and relations‹ – diese ›kreieren‹. Dieser Richtungsunterschied des Erkenntnisprozesses ist signifikant und lässt sich bis in die aktuelle Philosophie der Mathematik als grundlegender Gegensatz zwischen einer logischontologischen und einer epistemologischen Perspektive zurückführen – wie sie eben bereits bei Leibniz und Locke gegeben ist.223 Entsprechend dient das Beispiel des Triangels, dessen sich auch Kant bedient, zur Exemplifikation der jeweiligen Blickrichtungen. Für Locke ist klar, dass das Wissen, dass die äußeren Winkel größer als die inneren sind, der komplexen Idee des Triangels synthetisch als ›real truth‹ und ›instructive real knowledge‹ hinzukommt.224 Da sowohl der gedachte als auch der reale Triangel konstruiert sind, ist ihr Korrespondenzverhältnis ein gemachtes und das gedachte Wissen bestätigt sich somit an der Realität: »as we create something ourselves we are able to know its causes and understand its true principles«.225 Die ›theory of maker’s knowledge‹ wirft jedoch grundlegende Probleme auf. Deutlich wird dies an Lockes Bemerkungen zu Axiomen am Beispiel des ›allgemeinen Dreiecks‹ in seinem Essay concerning Human Understanding. »Because maxims or axioms are not the truths we first knew. […] For, when we nicely reflect upon them, we shall find that general ideas are fictions and contrivances of the mind, that carry difficulty with them, and do not so easily offer themselves as we are apt to imagine. For example, does it not require some pains and skill to form the general idea of a triangle, (which is yet none of the most abstract, comprehensive, and difficult,) for it must be neither oblique nor rectangle, neither equilateral, equicrural, nor scalenon; but all and none of these at once. In effect, it is something imperfect, that cannot exist; an idea wherein some parts of several different and inconsistent ideas are put together.«226 223

Der Gegensatz zeigt sich in den Differenzen des Platonismus und des Intuitionismus. Vgl. Hermann Weyl: ›Über die neue Grundlagenkrise der Mathematik‹, in: Mathematische Zeitschrift, 10, 1921, 39–79. 224 Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.8, § 8. 225 Cicovacki, ›Locke on Mathematical Knowledge‹, 1990, S. 518. 226 Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.7, § 9. Weiter heißt es da: »It is true, the mind, in this imperfect state, has need of such ideas, and makes all the haste to them it can, for the conveniency of communication and enlargement of knowledge; to both which it is naturally very much inclined. But yet one has reason to suspect such ideas are marks of our imperfection; at least, this is enough to show that the most abstract and general ideas are not those that the mind is first and most easily acquainted with, nor such as its earliest knowledge is conversant about.« Locke, Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.7, § 9.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Demonstrative Urteile bei Locke und Leibniz

Interessanterweise geht Leibniz bei seiner direkten Entgegnung in den Neuen Abhandlungen nicht auf das Beispiel des Triangels ein, sondern bezweifelt lediglich, dass Axiome das nicht zuerst Erkannte seien. Sie hätten keine ›Geschichte der Entdeckung‹ in der Erfahrung verschiedener Menschen, sondern es handle sich »um die Verknüpfung und natürliche Ordnung der Wahrheiten, welche immer dieselbe ist«.227 Bereits zuvor hat er jedoch klargestellt, dass für ihn die identischen Urteile als ursprüngliche Axiome gegeben sind, dass diese jedoch durch Analyse zur klaren Erkenntnis gebracht werden müssen. Erst als solche seien sie die Ausgangsbasis mathematischer wie wissenschaftlicher Urteile und Definitionen.228 Ebenso sei in der Geometrie aus einem besonderen Beweis an einer einzelnen Figur keine allgemeine Gewissheit erreichbar: »Denn man muß wissen, daß es nicht die Figuren sind, auf denen die geometrischen Beweise beruhen, obgleich der ekthetische Stil des Vortrages dies glauben machen kann. Die Kraft der Beweisführung ist von der gezeichneten Figur ganz unabhängig, und diese dient nur dazu, das Verständnis dessen, was man sagen will, zu erleichtern und die Aufmerksamkeit festzuhalten. Es sind die allgemeinen Sätze, d. h. die Definitionen, die Axiome und die schon bewiesenen Lehrsätze, die den eigentlichen Beweis ausmachen und ihn auch dann, wenn keine Figur dabei wäre, aufrechterhalten würden.«229 Neben Leibniz‘ Entgegnung hat insbesondre Lockes Bemerkung zum allgemeinen Dreieck für viel Diskussion im Laufe der Philosophiegeschichte gesorgt.230 Einerseits behauptet er, dass es allgemeine Ideen als erste Wahrheiten nicht gäbe, andererseits anerkennt er, dass allgemeine Ideen als gemachte (›fictions‹, ›contrivances‹) dennoch denkbar seien. Letzteres wurde von George Berkeley heftig kritisiert, insofern er bezweifelt, dass eine Demonstration eines allgemeinen Dreiecks möglich sei, da jedes konstruierte Dreieck ein partikuläres sei, dessen Eigenschaften sich nicht verallgemeinern ließen. Entweder müsse man alle erdenklichen Dreiecke konstruieren, um zu prüfen, ob eine Eigenschaft zuträfe, oder man müsse sich ein so allgemeines Dreieck 227 Leibniz, Neue Abhandlungen über den menschlichen Verstand (1765), 1971, Buch IV, Kap. 7, § 9. 228 Vgl. ebd., Kap. 7, § 1. 229 Ebd., Kap. 1, § 9. »Die ›Ekthese‹ wird hier als die Darstellung eines allgemeinen geometrischen Satzes in einem besonderen Beispiel erklärt, – welches Beispiel jedoch nur als Anknüpfung für den Beweis dient, nicht aber dessen logischen Grund ausmacht.« Ebd., Kap. 1, § 9, Fn. 7. 230 Vgl. Evert Willem Beth: ›Über Lockes ›Allgemeines Dreieck‹‹, in: Kant-Studien, 48, 1956/57, 361–380; Georg Korth: ›Zum Problem der geometrischen Methode. Eine Stellungnahme zu E. W. Beths Abhandlung ›Über Lockes ›allgemeines Dreieck‹‹, in: Kant-Studien, 50, 1958/59, 461–478.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

79



80

Kapitel 3  ·  Erkenntniskraft der Anschauung

denken, das alle Fälle einschließe, was kaum möglich wäre.231 Berkeleys idealistische Stoßrichtung erklärt sich aus seiner Ablehnung einer Zuweisung der Mathematik in die ›niederen‹ Sphären einer sensualistisch geprägten Wissenschaft.232 Damit weißt er implizit auf das von David Hume thematisierte Induktionsproblem hin, das schließlich zur Kant’schen Frage führt, ob nicht doch, und wenn ja, wie, wahrheitskonservierende Erweiterungsurteile möglich sind.233 Eine anders gelagerte Kritik des allgemeinen Dreiecks gibt Husserl, der Lockes Beispiel zum Anlass nimmt, dessen psychologische Hypostasierung des Allgemeinen zu verdeutlichen.234 Indem er die oben zitierte Stelle von Locke zum allgemeinen Dreieck wortwörtlich wiedergibt, zählt Husserl die vielfältigen Vermengungen, die Locke unter dem Begriff ›Idee‹ (Empfindung, Vorstellungen und Vorgestelltes, anschauliche Vorstellung, Bedeutungsvorstellung, etc.) subsumiert, auf, was den »abstracten allgemeinen Ideen den Anstrich von selbstverständlicher Klarheit [gäbe], der ihren Urheber täuschen konnte«.235 Die Hypostasierung des Allgemeinen käme durch eine Verwechslung sinnlich-anschaulicher Bilder mit deren Bedeutung zustande. Auf das ›allgemeine Dreieck‹ gewandt, das weder spitzwinklig noch rechtwinklig, etc. sei, erscheine die allgemeine Idee eines solchen Dreiecks als allgemeine Bedeutung des Namens, der dann die anschaulichen Sondervorstellungen beigelegt und dem Bewusstsein untergeschoben würden. »Nun 231 »But here it will be demanded, how we can know any proposition to be true of all particular triangles, except we have first seen it demonstrated of the abstract idea of a triangle which equally agrees to all? For, because a property may be demonstrated to agree to some one particular triangle, it will not thence follow that it equally belongs to any other triangle, which in all respects is not the same with it. For example, having demonstrated that the three angles of an isosceles rectangular triangle are equal to two right ones, I cannot therefore conclude this affection agrees to all other triangles which have neither a right angle nor two equal sides. It seems therefore that, to be certain this proposition is universally true, we must either make a particular demonstration for every particular triangle, which is impossible, or once for all demonstrate it of the abstract idea of a triangle, in which all the particulars do indifferently partake and by which they are all equally represented. [… But,] I may nevertheless be certain it extends to all other rectilinear triangles, of what sort or bigness so ever.« George Berkeley: A Treatise Concerning the Principles of Human Knowledge (1710), Menston: Scolar Press 1971, Introduction, § 16. 232 Vgl. Cassirer, Erkenntnisproblem (1907), 2. Bd., 1922, S. 325 f und S. 336 f; Kant, Prolegomena, 2001, Anhang, S. 159 ff. 233 Cassirer ist davon fasziniert, »zu welch verschiedenartigen Ergebnissen« bei Berekely und Hume »ein und dieselbe methodische Betrachtungsweise hinführen kann«. Cassirer, Erkenntnisproblem (1907), 2. Bd., 1922, S. 337. 234 Vgl. Edmund Husserl: Logische Untersuchungen. 2. Theil: Untersuchungen zur Phänomenologie und Theorie des Erkennens, Halle: Niemeyer 1901, Kap. II2, §§ 9–11. 235 Ebd., Kap. II2, § 10.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Demonstrative Urteile bei Locke und Leibniz

hätten wir ein inneres Bild, welches Dreieck ist und nichts weiter; die Gattungsmerkmale losgetrennt von den specifischen Differenzen und zu einer psychischen Realität verselbständigt.«236 Dies sei absurd, denn es vermenge den allgemeinen Begriff des Dreiecks mit dessen Begriffsinhalt (Dreieckigkeit) und dem konkreten Begriffsgegenstand. Und die Absurditäten würden sich weiter häufen, »indem er das allgemeine Dreieck nicht nur als ein Dreieck auffaßt, welches aller specifischen Differenzen bar ist, sondern auch als ein Dreieck, das sie alle zugleich vereint, also dem Inhalt des Dreieckbegriffs den Umfang der in eintheilenden Arten unterschiebt«.237 Über die unzulässige Vermengung intensionaler und extensionaler Aspekte hinaus berührt Husserl hier den Punkt der Anschaulichkeit, der für die Geometrie und später für Kant zur Herausforderung wird. Denn ein allgemeines Dreieck, so Husserl, könne sich niemand anschaulich vorstellen. Auch wenn nur einige Aspekte der Erkenntnisform mathematischer Urteile angesprochen werden konnten, so zeichnet sich doch die Problemlage ab, die Kant dazu veranlasst, dem Begriffspaar analytisch/synthetisch eine neue Wendung zu geben, aber auch, um das Erkenntnisideal des Mathematischen für die Philosophie in Frage zu stellen. Bereits die Kritik Berkeleys an Lockes Gemengelage macht deutlich, wo zukünftig Strukturelles zu denken ist. Leibniz ist hier wesentlich stringenter, doch seine Position geht mit metaphysischen Voraussetzungen einher, die notwendig sind, um den Dualismus von Wahrheit und Realität aufzulösen. Seine analytische Theorie setzt eine mathematisch geordnete Realität voraus, bis hin zur genau festgelegten Anzahl an Ideen, die allen Monaden innewohnen. Dieses Symmetrieverhältnis der prästabilierten Harmonie involviert das mathematische Erkenntnisdeal in doppelter Weise. Einmal zur »Strukturierung eines logisch-metaphysischen Grundlagenbereichs, in dem Leibniz die Welt als Produkt eines göttlichen Kalküls interpretiert«, und einmal als philosophische Methode zur »Aufdeckung dieser mathematischen Struktur der Welt«.238 Dieser Zirkel verdeutlicht das epistemische Dilemma einer Vermischung von mathematischer und philosophischer Methode, die Kant kritisieren wird. Sie verdeutlicht aber auch die Probleme einer analytischen Theorie, die, ohne den Bezug zur Realität durch Isomorphien oder prästabilierte Harmonien postulieren zu wollen, an der Anwendungsfrage scheitern muss.

236 Husserl, 237 Ebd.

238 Engfer,

Logische Untersuchungen 2. Theil, 1901, Kap. II2, § 11.

Studien zur Entwicklung philosophischer Analysiskonzeptionen, 1982, S. 171.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

81



82

Kapitel 3  ·  Erkenntniskraft der Anschauung

Kants synthetische Urteile a priori

Die Fragen, die sich also aus der Problemlage Mitte des 18.  Jahrhunderts ergeben und denen sich Kant in puncto Urteilstheorie zu widmen hat, sind folgende: Wie sind wahrheitskonservative Erweiterungsurteile möglich? Wie ist das Verhältnis von Intension und Extension? Welche Rolle spielt die Anschauung? Welche Rolle kommt der Intuition zu? Wie sind mathematischer und philosophischer Vernunftgebrauch unterschieden? Die Beantwortung dieser Fragen ist für den Anwendungskontext mathematischer Erkenntnisse von Bedeutung, denn die präsentierten Ansätze zur Überbrückung der ontologischen Differenz von Mathematik und Realität – ›theory of maker’s knowledge‹ (Locke), Auflösung der Natur in ein mathematisch Allgemeines (Descartes) respektive Welt als Produkt eines göttlichen Kalküls (Leibniz) – sind bislang wenig befriedigend. Auch Humes Fazit, die Geometrie könne nur das induktive Verfahren der Naturwissenschaft nachahmen und wäre daher alles andere als exakt und allgemein, ist wenig hilfreich.239 Denn aus dieser Perspektive lässt sich kein exaktes Verfahren angeben, die Gleichheit von Strecken oder die Kongruenz von Gebilden zu prüfen. Zwei Strecken sind gleich, so Hume, wenn sie uns als gleichartig in der Betrachtung anmuten. »Alle Verbesserungen und Verfeinerungen unserer Instrumente stellen doch das Verfahren selbst auf keinen neuen logischen Grund: das völlig ›exakte Maß‹, nach dem wir suchen, ist lediglich ein imaginäres Gebilde, das sogleich verschwindet, wenn wir uns streng an die besondere, konkrete Erscheinung der Dinge halten.«240 In den Worten Humes: »This Standard is plainly imaginary.«241 Sie sind Folgen zügelloser Einbildungskraft, ähnlich den begrifflichen Scheinwelten absoluter Substanzen der scholastischen Ontologie. Es ist das logische, nicht das pragmatische Argument, das Humes Gedankengang Sprengkraft verleiht. Denn es ist eine Kritik der (reinen) geometrischen Begriffe wie dem der Gleichheit, der ohne Anwendung leer und daher nicht wahr wäre. In dem späteren Enquiry concerning human Understanding nimmt Hume diese Position zurück und greift Lockes Vorschlag auf, dass reine Relationen zwischen Ideen ohne Bezug auf Erfahrung möglich sind – laut Cassirer ein »ungerechtfertigtes Zugeständnis an die traditionelle Anschauung«.242 Denn die eigentlich spannende Frage ist, 239

Vgl. Hume, Treatise of Human Nature (1739–1740), 2002, Teil II, Kap. IV. Erkenntnisproblem (1907), 2. Bd., 1922, S. 344. 241 Hume, Treatise of Human Nature (1739–1740), 2002, Teil II, Kap. IV. 242 Cassirer, Erkenntnisproblem (1907), 2. Bd., 1922, S. 346. Vgl. David Hume: An Enquiry concerning human Understanding (1748), La Salle, Ill: Open Court Publisher 1949, Teil IV, Kapitel I. 240 Cassirer,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kants synthetische Urteile a priori

so Cassirer, die nach dem Verständnis des (subjektiven) »Prozesses, der zur Bildung der mathematischen Abstrakta hinführt […] Es mag sein, daß diesen Gebilden jeglicher objektive Wert abzusprechen ist: wie aber vermögen sie auch nur als psychologische Täuschungen zu entstehen und sich zu behaupten?«243 Damit ist die Plattform bereitet, auf der sich Kants Konzeption der intentionalen Gegenstandsbeziehungen und der reinen Anschauungsformen entwickelt, in deren Zentrum die transzendentale Synthesis als apriorische Regelerfüllung steht. Bezogen nun auf die mathematischen Urteile setzt Kant diese als synthetische Urteile den analytischen entgegen.244 Das Missverständnis bezüglich der vermeintlichen Analytizität der Mathematik, so Kant, leite sich aus der apodiktischen Gewissheit der Mathematik und diese aus dem Satz des Widerspruches ab, der eben nur für analytische Urteile gelte. »So überredete man sich, daß auch die Grundsätze aus dem Satz des Widerspruchs erkannt würden, worin sie sich sehr irrten.«245 Denn ein synthetischer Satz, der aus einem anderen folgt, könne durchaus nach dem Satz des Widerspruches eingesehen werden. Im Unterschied aber zu empirischen Erweiterungsurteilen seien mathematische Urteile jederzeit a priori, also notwendig, und diese Notwendigkeit generiert sich nicht aus der Erfahrung im Sinne einer Gewöhnung oder Ähnlichem. Anhand des Beispiels 7 + 5 = 12 zeigt Kant, dass keine Analyse des Begriffs ›Zwölf‹ auf die ›Sieben‹ oder die ›Fünf‹ führen würde, es also kein analytisches Urteil sei, sondern eines allein mittels Synthese erzielten Urteils, das formal (nicht material) die Anschauung a priori als reine Form der Sinnlichkeit zu Hilfe nimmt.246 Dies gelte auch für die Geometrie. Da Mathematik (synthetische) Begriffskonstruktion und eben nicht wie die Philosophie Begriffsanalyse betreibe, muss sie über die bloßen Begriffe hinausgehen und sei deshalb nicht analytisch auflösbar. Den Grund dafür, dass synthetische Urteile a priori möglich sind, klärt Kant ganz analytisch in den Prolegomena auf. Denn es bedarf der reinen 243 Cassirer, Erkenntnisproblem (1907), 2. Bd., 1922, S. 346. An dieser Frage wird sich Husserls Philosophie der Arithmetik abarbeiten. Vgl. Husserl, Philosophie der Arithmetik (1891), 1992. 244 Dass diese Einschätzung Kants nicht wirklich auf Locke, Hume oder Leibniz zutrifft, wurde bereits dargestellt. Eine derart konstruierte Dichotomie erleichtert die argumentative Positionierung, wird aber der Mathematik nicht gerecht. Vgl. Frege, Grundlagen der Arithmetik (1884), 1988. 245 Kant, Prolegomena (1783), 2001, § 2. 246 Hier bringt Kant leider das verhängnisvolle Beispiel mit den Fingern, auf das sich Frege später polemisch beziehen wird. Vgl. Kant, Prolegomena (1783), 2001, § 2, Frege, Grundlagen der Arithmetik (1884), 1988, § 5.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

83



84

Kapitel 3  ·  Erkenntniskraft der Anschauung

Anschauung, damit die Mathematik ihre Begriffe konstruieren kann. Die Synthese bezieht sich also nicht auf Begriff und Erfahrung wie bei Locke oder Hume, sondern auf Begriff und Anschauung. Analog zum Mechanismus der Erweiterungsurteile a posteriori durch Erfahrung generiert die Mathematik Erweiterungsurteile durch Anschauung a priori – im Sinne: »vor aller Erfahrung«.247 Insofern es gelingt, zu erklären, so Kant, wie etwas a priori anzuschauen möglich ist, wäre das Rätsel um diese Urteilsform gelöst. Voraussetzung dafür ist, Anschauung vom Bezug auf die Gegenstände der Sinne lösen.248 Mehr noch, sie hat mit dem, was üblicherweise mit Anschaulichkeit gemeint ist, nichts zu tun, sondern sie geht der sinnlichen Anschaulichkeit voraus. Dies »ist nur auf eine einzige Art möglich, […] wenn sie nämlich nichts anderes enthält, als die Form der Sinnlichkeit, die in meinem Subjekt vor allen wirklichen Eindrücken vorhergeht, dadurch ich von Gegenständen affiziert werde«.249 Anschauung a priori ist die Bedingung der Möglichkeit sinnlicher Anschauung und unterliegt eigenen Bestimmungen. Da Mathematik ihre Begriffe konstruiert, bedarf sie notwendigerweise der reinen Anschauungsformen von Zeit und Raum.250 Geometrie bedarf dem Nebeneinander der Mannigfaltigkeiten (Raum); Arithmetik und reine Mechanik dem Nacheinander als sukzessive Hinzusetzung (Zeit). Über diese Verortung der mathematischen Urteile als synthetische a priori sowie der bereits dargestellten wechselseitigen Bedingung der metaphysischen und mathematischen Konstruktion zur Begründung der Objektivität eigentlicher Wissenschaft hinaus gibt Kant in der Kritik der reinen Vernunft eine aufschlussreiche Interpretation der Mathematik als ›glänzendstem‹ Beispiel einer Disziplin der reinen Vernunft im dogmatischen Gebrauch. Diese ist dadurch gekennzeichnet, dass sie sich selbst erweiternde Vernunft ohne Beihilfe der Erfahrung ist. Hier ist auch der Ort, wo philosophischer und mathematischer Vernunftgebrauch unterschieden werden.251 Was es bedeutet, einen mathematischen Begriff zu konstruieren, wurde bereits aufgezeigt. Doch wie Mathematik konkret als Wissenschaft operiert, wird nun von Kant näher beschrieben. Das Geschäft der Mathematik wird – 247 Kant,

Prolegomena (1783), 2001, § 7. Vgl. ebd., § 8. Hier ist die Analogie zum operativen Symbolismus zu beachten, aber auch zur distinkten Imagination bei Leibniz, die über sinnliche Anschauung hinausgeht. 249 Ebd., § 9. 250 »Es ist ihr unmöglich, einen Schritt zu tun, so lange ihr nämlich reine Anschauung fehlt, in der allein der Stoff zu synthetischen Urteilen a priori gegeben werden kann.« Kant, Prolegomena (1783), 2001, § 10. 251 Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 745 ff; Brigitta-Sophie von Wolff-Metternich: Die Überwindung des mathematischen Erkenntnisideals. Kants Grenzbestimmung von Mathematik und Philosophie, Berlin, New York: Walter de Gruyter 1995. 248

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kants synthetische Urteile a priori

analog zur Transformation der Mathematik in der Neuzeit – in der Konstruktion von Größenbegriffen gesehen, wobei diese konkret wie in der Geometrie (›quanta‹) als auch allgemein wie in der Algebra (›quantitas‹) sein können. Dabei gelangt die Mathematik »vermittels einer symbolischen Konstruktion […] dahin, wohin die diskursive Erkenntnis vermittels bloßer Begriffe niemals gelangen könnte«.252 Der gesamte Charakter der Mathematik wird als ein konstruktiver beschrieben, denn wäre er analytisch, müssten bereits alle Begriffe fertig vorliegen (wie dies Leibniz voraussetzt), die es dann nur noch zu zerlegen gelte. »Denn ich soll nicht auf dasjenige sehen, was ich in meinem Begriff vom Triangel wirklich denke, (dieses ist nichts weiter, als die bloße Definition) vielmehr soll ich über ihn zu Eigenschaften, die in diesem Begriff nicht liegen, aber doch zu ihm gehören, hinausgehen.«253 Dieses Darüberhinausgehen mittels symbolischer Konstruktion ist das genuin Mathematische für Kant und diese mathematische Tätigkeit, da als synthetische auf Anschauung a priori bezogen, ist eben nicht diskursiv, sondern intuitiv. Intuitiv, insofern als sie auf die Form der Erscheinungen bezogen ist, die ohne Qualität bloße Quantität (reine Synthesis des gleichartig Mannigfaltigen) ist. Mathematik schafft auf diese Weise ihre »Gegenstände selbst durch gleichförmige Synthesis«, und zwar als gleichförmig geordnetes Neben- oder Nacheinander von Mannigfaltigkeiten.254 Die ›Gründlichkeit‹ der Mathematik beruht dabei auf Definitionen, Axiomen und Demonstrationen. Definitionen werden von Kant als Merkmalsbestimmungen verstanden, wobei den empirischen Begriffen wie auch den apriorischen Begriffen keine Definitionen zugrunde liegen.255 Ein empirischer Begriff kann nicht definiert, sondern allenfalls expliziert werden, da 252 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 745. Ebd., B 746. »Das erstere würde nur einen empirischen Satz (durch Messung seiner Winkel), der keine Allgemeinheit, noch weniger Notwendigkeit enthielte, abgeben […]. Das zweite Verfahren aber ist die mathematische und zwar hier die geometrische Konstruktion, […] wodurch allerdings allgemeine synthetische Sätze konstruiert werden.« Ebd., B 746. 254 Ebd., B 751. 255 »Definieren soll, wie es der Ausdruck selbst gibt, eigentlich nur so viel bedeuten, als, den ausführlichen Begriff eines Dinges innerhalb seiner Grenzen ursprünglich darstellen*).« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 755. »*) Ausführlichkeit bedeutet die Klarheit und Zugänglichkeit der Merkmale; Grenzen der Präzision, daß deren nicht mehr sind, als zum ausführlichen Begriffe gehören; ursprünglich aber, daß diese Grenzbestimmung nicht irgendwoher abgeleitet sei und also noch eines Beweises bedürfe, welches die vermeintliche Erklärung unfähig machen würde, an der Spitze aller Urteile über einen Gegenstand zu stehen.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, Anmerkung zu B 755. 253

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

85



86

Kapitel 3  ·  Erkenntniskraft der Anschauung

die empirischen Merkmalsbestimmungen nie gewiss und vollständig sein können. Letztendlich handelt es sich, so Kant, um Wortbestimmungen, die sich wandeln, insofern neue Merkmalsbestimmungen hinzukommen, andere wegfallen. Ebenso lässt sich für apriorische Begriffe wie den der Substanz oder der Ursache keine Definition geben, da die Ausführlichkeit der Zergliederung zweifelhaft und daher hypothetisch bleiben muss, insofern man »niemals sicher sein [kann], daß die deutliche Vorstellung eines (noch verworren) gegeben Begriffs ausführlich entwickelt worden« ist.256 Diese gegen Leibniz’ analytische Begriffstheorie gemünzte Position ordnet den apriorischen Begriffen statt des Ausdrucks ›Definition‹ den der ›Exposition‹ zu. Schließlich stellt sich die Frage, welche Begriffe dann überhaupt definiert werden. Die Antwort erinnert erstaunlich an Lockes ›theory of maker’s knowledge‹, denn es »bleiben keine anderen Begriffe übrig, die zum Definieren taugen, als solche, die eine willkürliche Synthesis enthalten, welche a priori konstruiert werden kann, mithin hat nur die Mathematik Definitionen«.257 Diese Aussage widerspricht scheinbar der in den Metaphysischen Anfangsgründen getroffenen, dass die Mathematik keine Begriffe erzeugt, sondern die von der metaphysischen Konstruktion vorgebenden Begriffe konstruiert und dadurch weiter bestimmt. Allerdings liegt der Unterschied darin, dass in den Metaphysischen Anfangsgründen die Mathematik als Erkenntnismittel der Naturwissenschaft, deren notwendige Begriffe in der Metaphysik verankert sind, also als angewandte Mathematik untersucht wird, während nun von der Mathematik allgemein die Rede ist. Aufgrund ihrer Gemachtheit können mathematische Definitionen, im Unterschied zu den analytischen der Philosophie, niemals irren, allenfalls ihre Form, »nämlich in Ansehung der Präzision«, kann fehlgehen.258 Zu den Definitionen kommen nun noch Axiome und Demonstrationen hinzu. Erstere sind synthetische Grundsätze a priori, die unmittelbar gewiss sind, Letztere apodiktische Beweise, die intuitiv einsichtig sind. Auch diese sind allein der Mathematik vorbehalten und als Konstruktionsbeweise nicht nur auf die Geometrie bezogen, sondern auch auf »das Verfahren der Algebra mit ihren Gleichungen, aus denen sie durch Reduktion die Wahrheit samt dem Beweise hervorbringt, [… als] charakteristische Konstruktion, in welcher man sich an den Zeichen die Begriffe, vornehmlich von dem Verhältnisse der Größen, in der Anschauung darlegt, und, ohne einmal 256 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 756. Ebd., B 757. Allerdings unterscheiden sich beide Ansätze, insofern Locke nicht auf eine willkürliche Synthesis, die die Anschauung a priori umfasst, rekurriert. 258 Ebd., B 759. Beispielsweise, indem im Begriff der Kreislinie der Hinweis auf die krumme Linie überflüssig ist. 257

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Kants synthetische Urteile a priori

auf das Heuristische zu sehen, alle Schlüsse vor Fehlern dadurch sichert, daß jeder derselben vor Augen gestellt wird.«259 Demonstrationen bedürfen zwingend eines Aufweises im Symbolischen.

259

Ebd., B 762.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

87

Kapitel 4 Kritik der Anschauung

K  

ants anschauungsbasierte Mathematikkonzeption ist vielfältig kritisiert worden. In der Fülle der Entgegnungen lassen sich verschiedene Stoßrichtungen ausmachen, die für den Anwendungskontext von Interesse sind.260 An dieser Stelle soll jedoch nur die Kritik der Logizisten diskutiert werden, die den Vorwurf erheben, Kant hätte mit seinen synthetischen Urteilen a priori den Charakter der Mathematik verfehlt.261 Die Debatte konzentriert sich dabei weitgehend auf die Form arithmetischer Urteile, die analytisch und keinesfalls synthetisch a priori seien und die von Frege ausgehend die ihm nachfolgende analytische Philosophie beherrscht.

Freges Kritik an Kant

In seinen Grundlagen der Arithmetik kritisiert Frege Kant, der zum Beweis der »synthetische[n] Natur« arithmetischer Sätze »die Anschauung von Fingern und Punkten zu Hilfe nehmen will« und »offenbar nur kleine Zahlen im Sinn gehabt« habe.262 Frege kritisiert aber auch Leibniz und Grassmann, die 260 Einen Überblick der Kritik an Kants Mathematikkonzeption gibt Rebecca Iseli. Sie unterteilt die Kritik in drei Stoßrichtungen: Zum einen in eine formale Kritik an der Apriorität von Raum und Zeit (Strawson, Kitcher), eine progressivistische Kritik der nach-kantischen Mathematikentwicklung als Falsifikator (Bennett) sowie eine essentialistische Kritik am Wesen der Mathematik, wie es in der Urteilsform zum Ausdruck kommt (Helmholtz, Poincaré, Carnap, Frege). Vgl. Iseli, Kants Philosophie der Mathematik, 2001, S. 23 ff. Zur Darstellung der Kritik an Kants Rolle der Einbildungskraft bei Heidegger und ausführlich bei Strawson vgl. Wunsch, Einbildungskraft und Erfahrung bei Kant, 2007. 261 Die weitere Kritik bezüglich der Unanschaulichkeit der modernen Mathematik wird ausführlich in den folgenden Kapiteln erörtert. 262 Frege, Grundlagen der Arithmetik (1884), 1988, § 5. Zur Grundlegung der Mathematik bei Frege vgl. Christian Thiel (Hrsg.): Frege und die moderne Grundlagenforschung, Meisenheim am Glan: Verlag Anton Hain 1975; Matthias Schirn (Hrsg.): Studien zu Frege I. Logik und Philosophie der Mathematik, Stuttgart-Bad Cannstatt: Frommann-Holzboog 1976; Crispin Wright: Freges Conception of Numbers as Objects, Aberdeen: Aberdeen University Press 1983; Michael Dummett: Frege: Philosophy of Mathematics, Cambridge: Harvard University Press 1991; William Demopoulos (Hrsg.): Frege’s Philosophy of Mathematics, Cambridge: Harvard University Press 1995. Zu Frege und Russell vgl. Gordon G. Brittan: Kants Theory of Science, Princeton: Princeton University Press 1978.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Freges Kritik an Kant

zwar richtig von der Logik und damit dem Analytischen als Grundlage der Arithmetik ausgingen, die aber die Beweisbarkeit der Zahlenformeln behaupten.263 John Stuart Mill wird von ihm abgelehnt, da dieser Definitionen nicht als logische, sondern als beobachtbare Tatsachen begreift.264 Und selbst W. Stanley Jevons, der sowohl Zahl als auch Algebra auf Basis der Logik versteht, wird ob der Frage kritisiert, wie »die leeren Formen der Logik […] aus sich heraus solchen Inhalt gewinnen« vermögen.265 Von der Zahl als Hinzufügungen Ding zu Ding zu sprechen sei ebenso verkehrt, wie den unbestimmten Ausdrücken Menge, Vielheit oder Mehrheit etwas abgewinnen zu wollen. Für das Wort ›Ein‹ seien Abgegrenztheit oder Unzerlegbarkeit keine brauchbaren Merkmale. Schließlich wäre ein Unterschied zwischen Eins und Einheit zu machen, Ersteres ein Eigenname eines singulären Objekts der mathematischen Forschung, Letzteres ein Begriff, der gleich und dennoch unterscheidbar, also widersprüchlich ist. »Um [nun] Licht in die Sache zu bringen, wird es gut sein«, so Frege, »die Zahl im Zusammenhang eines Urteils zu betrachten, wo ihre ursprüngliche Anwendungsweise hervortritt«, denn dadurch würde klar, »dass die Zahlenangabe eine Aussage von einem Begriff enthalte«.266 Begriffe sind aus dieser Perspektive nicht subjektiv auf Vorstellungen bezogen, sondern objektiv auf Gegenstände, die zwingend der Bezeichnung bedürfen. So klärt sich laut Frege auch manche Unzulänglichkeit der verschiedenen Zahlbestimmungen, denn sie hätten den Gegenstand statt des Begriffs als Träger der Zahl angenommen. Zahlen lassen sich jedoch nicht als Abstraktionen von Gegenständen gewinnen, vielmehr enthält man durch die Abstraktion einen Begriff und entdeckt an ihm die Zahl. Damit formuliert Frege einen Hauptkritikpunkt der analytischen Philosophie gegenüber Kant, denn die »sammelnde Kraft des Begriffs übertrifft weit die vereinigende der synthetischen Apperzeption«.267 Kitcher wird es später so formulieren: »Kant’s optimism about our powers of conceptual analysis must also be questioned. Frege, for example, would reply that the exhibition of the analyticity of the truths of arithmetic is a long and difficult affair. […] Alternatively, if Kant were to stick with the idea that analytic truth can be 263 Vgl. Graßmann, Geometrische Analyse geknüpft an die von Leibniz erfundene geometrische Charakteristik, 1847. 264 Vgl. John Stuart Mill: A System of Logic, London: Longman Green 1843. 265 Frege, Grundlagen der Arithmetik (1884), 1988, § 16. Auch der einfacher erscheinende Begriff der Anzahl wird mathematikhistorisch dekliniert als etwas Physikalisches (Mill), als Verhältnis von Größen allgemein (Newton), als etwas von außen Gegebenes (Cantor), als etwas Wirkliches (Schröder), als Idee (Locke, Leibniz), als Menge, basierend auf Einheit respektive Verschiedenheit. Vgl. ebd., § 18–28 sowie § 29–44. 266 Frege, Grundlagen der Arithmetik (1884), 1988, § 46. 267 Ebd., § 48.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

89



90

Kapitel 4  ·  Kritik der Anschauung

revealed so easily, he would be trivializing his sense of analyticity in playing down deep and exciting conceptual relations.«268 Kants maßgebliches Argument gegen Analytizität (als Methode) im Kontext der Mathematik besteht jedoch darin, dass eine analytische Begriffsbestimmung immer nur hypothetisch, da nie vollständig sein kann und daher die apodiktische Gewissheit der mathematischen Begriffe nicht zu gewährleisten vermag.269 Keineswegs schätzt er deswegen die analytische Methode gering oder trivialisiert sie, da es die maßgebliche Methode der Philosophie ist, um durch die ›abgemessene Deutlichkeit‹ die vollständige Exposition eines Begriffes zu erschließen.270 In dem Sinne kann Kant als ›analytischer Philosoph‹ gelten, der bereits mit seiner Antwort auf die Preisfrage nach der Natur der Gewissheit in der Metaphysik und Theologie der Berliner Akademie der Wissenschaften für das Jahr 1763 für die analytische Methode plädierte – ebenso wie die beiden anderen Preisträger Moses Mendelsohn und Johann Heinrich Lambert.271 Lediglich eine Reduktion auf bloße Sprachanalyse und Paraphrasierung kann man Kant und der analytischen Philosophie seiner Zeit nicht unterstellen. Die skizzierte Zuspitzung verschafft Frege die Bühne, seinen (semantischen) Begriff der Zahl näher zu bestimmen. Sich auf Leibniz beziehend versucht er eine erste Definition als »dem Begriffe F kommt die Zahl (n+1) zu, wenn es einen Gegenstand a giebt, der unter F fällt und so beschaffen ist, dass dem Begriff ›unter F fallend, aber nicht a‹ die Zahl n zukommt«.272 Allerdings sei diese erste Annäherung zu unbestimmt, da Zahlen hier attributiv verwendet werden.273 Sie bedarf daher der Konkretisierung gemäß dem arithmetischen Sprachgebrauch, der im Aufstellen von Gleichungen besteht. Die Zahl 268 Philip Kitcher: ›Kant and the Foundations of Mathematics‹, in: The Philosophical Review, 84 (1), 1975, 23–50, S. 28« 269 Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 756. Das Problem ist, dass nicht klar zwischen Analytizität als Methode und analytischen Urteilen in diesen Debatten unterschieden wird. 270 Damit gibt Kant eine implizite Kritik derjenigen Philosophen, die die philosophische Methode der analytischen Zergliederung der Mathematik unterschieben möchten. Beide Methoden, die philosophisch analytische und die mathematisch synthetische, gehen nämlich mit unterschiedlichen Untersuchungsrichtungen einher. In der Philosophie schließt die Definition als ›abgemessene Deutlichkeit‹ der vollständigen Exposition den analytischen Prozess, während in der Mathematik die Definitionen vorangehen und den Begriff vorgeben. Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 759. 271 »Spätestens nach der Preisfrage von 1763 beginnt auch in Deutschland eine Epoche, in der die Philosophie sich […] als analytische Wissenschaft interpretiert.« Engfer, Studien zur Entwicklung philosophischer Analysiskonzepte, 1982, S. 27. 272 Frege, Grundlagen der Arithmetik (1884), 1988, § 55. 273 Um den Sinn einer solchen Aussage festzustellen, wäre man auf das Zählen verwiesen. Doch genau dies will Frege vermeiden.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Freges Kritik an Kant

ist dabei als etwas Selbständiges zu verwenden, ohne als etwas Selbständiges oder als Eigenschaft äußeren Dingen zuzukommen.274 Laut Frege haben wir weder eine Vorstellung noch eine Anschauung von einer Zahl, daher lassen sich auch nur aus der Verwendungsweise der Zahlworte im Satz Rückschlüsse auf Zahlen gewinnen. Auch wenn der Inhalt dieses selbständigen Gegenstandes nicht vorstellbar ist oder irgendwelche inneren Bilder hervorruft, hat das keinen Einfluss auf den logischen Bestandteil des Urteils. Die Zahl geht ›substantivisch‹ in die Satzgleichung ein und es »genügt, wenn der Satz als Ganzes einen Sinn hat; dadurch erhalten auch seine Theile einen Inhalt«.275 Dieses von Frege eingeführte Kontextprinzip wird von sprachanalytischen Philosophen wie Michael Dummett als »the very first example of what has become known as the ›linguistic turn‹ in philosophy« bezeichnet.276 Um einem Zahlwort im Satzkontext Bedeutung zuzusprechen, bedarf es jedoch der Klärung des Sinns des Satzes, der ein Wiedererkennen erlaubt. Auf die Zahl gewandt heißt dies, ein Kennzeichen anzugeben, das die Frage, ob a dasselbe wie b ist, entscheidet. Dies bedeutet, »den Sinn des Satzes ›die Zahl, welche dem Begriff F zukommt, ist dieselbe, welche dem Begriff G zukommt‹ [zu] erklären, d. h. wir müssen den Inhalt dieses Satzes in anderer Weise wiedergeben, ohne den Ausdruck ›die Anzahl, welche dem Begriff F zukommt‹ zu gebrauchen«.277 Auf Leibniz’ ›salva-vertitate‹-Strategie der Austauschbarkeit von Termini ohne wahrheitswertverändernden Einfluss rekurrierend schlägt Frege nun vor,278 nicht die Begriffe, sondern die Umfänge der Begriffe 274

Um den attributiven Eindruck zu vermeiden, empfiehlt sich statt ›Jupiter hat vier Monde‹ die Redeweise ›die Zahl der Jupitersmonde ist gleich der Zahl 4‹. Vgl. Frege, Grundlagen der Arithmetik, 1988, § 57 sowie § 58. »Die Selbständigkeit, die ich für die Zahl in Anspruch nehme, soll nicht bedeuten, dass ein Zahlwort ausser dem Zusammenhange eines Satzes etwas bezeichne, sondern ich will damit nur dessen Gebrauch als Prädicat oder Attribut ausschließen.« Frege, Grundlagen der Arithmetik (1884), 1988, § 60. 275 Ebd. 276 Dummett, Frege: Philosophy of Mathematics, 1991, S. 111. »Freges Grundlagen may justly be called the first work of analytical philosophy.« Dummett, Frege: Philosophy of Mathematics, 1991, S. 111. 277 Frege, Grundlagen der Arithmetik (1884), 1988, § 62. 278 Frege analysiert Gleichheit am Beispiel der Äquivalenzaussage, wobei sich laut Frege die Aussage ›Gerade a ist parallel Gerade b‹ (a  //  b) mit Leibniz’ ›salva-vertiate‹Strategie als gleichbedeutend mit der Gleichheitsaussage, dass ›die Richtung der Gerade a gleich der Richtung der Gerade b ist‹, herausstellt. »Wir brauchen also nur die Ersetzbarkeit in einer solchen Gleichheit nachzuweisen oder in Inhalten, welche solche Gleichheiten als Bestandtheile enthalten würden.« Frege, Grundlagen der Arithmetik, 1988, § 65. Das Problem ist jedoch, dass diese Gleichheitsaussagen wie ›Die Richtung der Gerade a ist gleich der Richtung der Gerade b‹ nur funktionieren, solange auf beiden Seiten Ausdrücke derselben Gestalt (›Richtung von‹) stehen. Sie sind es, die ein Wiedererkennen ermöglichen. Doch für Zahlausdrücke wäre dies zu eng formuliert. Zudem fehlt ein

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

91



92

Kapitel 4  ·  Kritik der Anschauung

bezüglich der Gleichheit zu prüfen.279 Als gleichzahlig werden zwei Begriffe genannt, wenn sich die unter die Begriffe fallenden Gegenstände beiderseitig eindeutig zuordnen lassen, also in einer Zuordnungsbeziehung φ stehen, die das Wiedererkennungsurteil motiviert. Nun kann Frege seine Definition der Anzahl geben. »Ich definiere demnach: die Anzahl, welche dem Begriffe F zukommt, ist der Umfang des Begriffes ›gleichzahlig dem Begriffe F‹.«280 Die Frage, die jedoch offen bleibt, ist die, wie sich die Zuordnungsbeziehung φ bestimmen lässt, so dass das Wiedererkennungsurteil gerechtfertigt ist.281 Hat man sich konkret die räumliche und zeitliche Ausführung der Begriff der Richtung, der die Entscheidung, ob eine solche Aussage wahr oder falsch ist, verifizierbar macht. Vgl. Frege, Grundlagen der Arithmetik (1884), 1988, § 66. Aus diesen Überlegungen resultiert der dritte Anlauf der Anzahldefinition durch Begriffsumfänge. Analog zu »Die Richtung der Gerade a ist der Umfang des Begriffes ›parallel der Gerade a‹« ergibt sich die oben genannte logizistische Anzahldefinition. Frege, Grundlagen der Arithmetik, 1988, § 68. 279 Das Problem der Grundlagen der Arithmetik ist, dass der Begriff des Begriffsumfangs unbestimmt bleibt. In der Fußnote zu § 68 schreibt Frege: »Ich setze voraus, dass man wisse, was der Umfang eines Begriffs sei.« In § 69 versucht Frege aus der Gebrauchsweise im Satz abzuleiten, dass in folgender Weise von Begriffsumfängen die Rede ist: »2. Die Gleichheit, 2. dass der eine umfassender als der andere sei.« Aber er muss dies sofort einschränken, insofern ›umfassender‹ nicht als ›größer‹ missverstanden werden darf, da dies sonst mit seinem Gleichzahligkeitskriterium konfligieren würde. Aus eben dieser Unbestimmtheit des Begriffsumfangs ergeben sich später die Antinomien in Freges Grundgesetze der Arithmetik. Vgl. Gottlob Frege: Grundgesetze der Arithmetik (1893, 1903), 2 Bde., Hildesheim, New York: Georg Olms 1966. 280 Frege, Grundlagen der Arithmetik (1884), 1988, § 68. »Der Ausdruck: ›der Begriff F ist gleichzahlig dem Begriffe G‹ sei gleichbedeutend mit dem Ausdrucke ›es giebt eine Beziehung φ, welche die unter den Begriff F fallenden Gegenstände den unter G fallenden Gegenständen beiderseits eindeutig zuordnet‹.« Frege, Grundlagen der Arithmetik (1884), 1988, § 72. Diese Vorgehensweise ist der von Leibniz’ kontextueller Definition in De analysi situs bezüglich des Begriffes der ›Ähnlichkeit‹ erstaunlich analog. Leibniz definiert Ähnlichkeit im geometrischen Kontext nicht durch ›selbe Form‹, da hierfür kein allgemeiner Begriff vorläge, sondern durch Ununterscheidbarkeit, da hierfür der Umfang angebbarer und durch Zuordnung überprüfbar sei. 281 Die Kennzeichnung der Gleichheit nicht durch Abzählung, sondern Zuordnung charakterisiert moderne Zahlbegriffe. So versucht Richard Dedekind die gesamte Arithmetik auf Zuordnungsbeziehungen zu gründen. »Verfolgt man genau, was wir bei dem Zählen der Menge oder Anzahl von Dingen thun, so wird man auf die Betrachtung der Fähigkeit des Geistes geführt, Dinge auf Dinge zu beziehen, einem Ding ein Ding entsprechen zu lassen, oder ein Ding durch ein Ding abzubilden, ohne welche Fähigkeit überhaupt kein Denken möglich ist. Auf dieser einzigen und ganz unentbehrlichen Grundlage muss nach meiner Ansicht […] die gesamte Wissenschaft der Zahlen errichtet werden.« Richard Dedekind: ›Was sind und was sollen die Zahlen?‹ (1888), in: Ders.: Gesammelte mathematische Werke, Braunschweig: Vieweg 1930, 335–391, S. 336. Frege referiert hier jedoch auf Humes Prinzip der Gleichheit von Zahlen via Zuordenbarkeit. Zu

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Freges Kritik an Kant

Zuordnung vorzustellen, wie Freges Beispiel des Kellners nahelegt, der die Bestecke den Tellern zuordnet?282 Oder ist Zuordnung eine Aufmerksamkeitsrelation, die von einem Gegenstand zu dem ihm zugeordneten wandert?283 Beides würde aus dem Wiedererkennungsurteil ein synthetisches machen, einmal auf Äußeres, einmal auf Introspektion gerichtet. Das wäre kaum im Sinne Freges. Da diese Fragen nach der Weise der Untersuchung der Zuordnung nicht die Definitionen sind, müssen sie uns, so Frege, nicht weiter kümmern. Denn »wir [haben] ein Merkmal, das die Frage überall entscheidet, wo sie gestellt werden kann, mögen wir auch im einzelnen Falle durch äussere Schwierigkeiten verhindert sein zu beurtheilen, ob es zutrifft«.284 Doch der Zusatz ›wo sie gestellt werden kann‹ verrät die Problematik dieser Art des Definierens. Zuordenbarkeit und damit die Gleichheit beider Satzteile einer Satzgleichung einfach zu behaupten, würde jedoch Freges eigener Intention zuwiderlaufen, denn dann wäre Zuordenbarkeit evident, also einsichtig, mithin durch Intuition oder Anschauung.285 Die Sachlage verschärft sich sogar noch weiter, denn Frege fordert in seinen Anmerkungen: »Ein Wiedererkennungssatz muss nämlich immer einen Sinn haben.«286 Der einzige Ausweg ist darzulegen, dass Zuordenbarkeit auf rein logische Verhältnisse zurückführbar ist, denn der Sinn eines Wiedererkennungssatzes generiert sich eben aus der beidseitig eindeutigen Zuordnung. Frege behauptet nun oder nimmt an, dass der »Beziehungsbegriff […] wie der einfache der reinen Logik an[gehört]. Es kommt hier nicht der besondere Inhalt der Beziehung in Betracht, sondern allein die logische Form. Und was von dieser ausgesagt werden kann, dessen Wahrheit ist analytisch und wird a priori erkannt.«287 Dabei beruft er sich auf Humes Prinzip (≠F = ≠G ↔ F ≈ G): »›Wenn zwei Zahlen so combiniert werden, dass die eine immer eine Einheit hat, die jeder Einheit der anderen entspricht, so geben wir sie als gleich an.‹«288 Freges Konzept steht und fällt also damit, ob dieses Prinzip tatsächlich als rein logisch angesehen werden kann.289 Doch dies darf bezweifelt werden. »Indeed, not only do we have no reason for regarding Freges Bezug zu Hume und Dedekind vgl. George Boolos: ›The Standard of Equality of Numbers‹, in: Demopoulos, Frege’s Philosophy of Mathematics, 1995, 234–254. 282 Vgl. Frege, Grundlagen der Arithmetik (1884), 1988, § 70. 283 Vgl. ebd., § 80. 284 Ebd. 285 Die Gleichheit darf nur behauptet werden, wenn die Zuordenbarkeit gewährleistet ist, um zu beurteilen, ob eine Aussage wahr oder falsch ist. Vgl. ebd., § 107. 286 Ebd. 287 Ebd., § 70. 288 David Hume zitiert in Frege, Grundlagen der Arithmetik (1884), 1988, § 63. 289 Hinzukommt noch das Problem der mangelnden Bestimmung des Begriffs

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

93



94

Kapitel 4  ·  Kritik der Anschauung

Humes principle as a truth of logic, it is doubtful whether it is a truth at all. […] But Frege can be thought to have carried the day against Kant only if it has been shown that Humes principle is analytic, or a truth of logic. This has not been done.«290 Doch, so lässt sich weiter fragen, ist Freges Positionierung gegenüber Kant überhaupt gerechtfertigt? In seiner Studie zu Extensional and intensional Interpretation of Synthetic Propositions a priori entwickelt Gerhard Knauss einen interessanten Gedankengang dazu.291 Den Hintergrund bildet Kants Verständnis von Urteilen als Verknüpfungen von Vorstellungen oder Begriffen in Form einer Subjekt-Prädikat-Struktur – in analytischen Urteilen ist das Prädikat im Subjekt enthalten, in synthetischen ist es nicht enthalten – sowie seine Unterscheidung zwischen Inhalt und Umfang eines Begriffs. Dabei stehen Inhalt und Umfang im umgekehrten Verhältnis zueinander: »Je mehr nämlich ein Begriff unter sich enthält [Umfang/Referenzobjekte], desto weniger enthält er in sich [Inhalt/Merkmale] und umgekehrt.«292 Die Frage, die sich nun stellt, ist die, ob Kant arithmetische Urteile extensional oder intensional versteht.293 Grundsätzlich ist bei aller Betonung des Synthetischen zu Kants Mathematikauffassung zu sagen, dass die Schlussregeln mathematischer Ableitungen analytisch sind. Daher kann die erkenntniserweiternde Funktion mathematischer Sätze nicht aus dem Deduktionsprinzip der Ableitungen resultieren, ›Be­g riffs­u mfang‹. Frege greift dazu später auf den Funktionsbegriff der Mathematik zurück und dies führt zu Russells Antinomie. 290 Boolos, ›The Standard of Equality of Numbers‹, 1995, S. 252, 253. »Well. Neither Frege nor Dedekind showed arithmetic to be part of logic. Nor did Russell or von Neumann. Nor did the author of Tractatus 6.02 or his follower Church. They merely shed light on it.« Boolos, ›The Standard of Equality of Numbers‹, 1995, S. 253. 291 Vgl. Gerhard Knauss: ›Extensional and intensional Interpretation of Synthetic Propositions a priori‹ (Proceedings of the Third International Kant Congress), in: Synthese Historical Library, 4, 1971, 356–361. »I am not of the opinion that the problem of the synthetic a priori is a dead issue as C. I. Lewis declared in 1946 and others before him and after him. I am also of the opinion that a problem which has been thought over so long, so intensively and by such outstanding people, cannot be solved by a simple yes or no decision.« Knauss, ›Extensional and intensional Interpretation of Synthetic Propositions a priori‹, 1971, S. 356. Vgl. Clarence I. Lewis: An Analysis of Knowledge and Valuation, La Salle: Open Court 1946. Auf eben diese Interpretation von Knauss referiert auch Iseli. Vgl. Iseli, Kants Philosophie der Mathematik, 2001, S. 83 ff. 292 Immanuel Kant: Logik – ein Handbuch zu Vorlesungen (hrsg. von Gottlob Benjamin Jäsche), Königsberg: Nicolovius 1800, I. Teil, 1. Abschnitt, § 7. Vgl. Kant, Prolegomena (1783), 2001, § 2. 293 »Obviously concepts may be broader, narrower or equal in their content and their extent; and the question will be which aspect Kant means when he calls a proposition analytic or synthetic.« Knauss, ›Extensional and intensional Interpretation of Synthetic Propositions a priori‹, 1971, S. 357.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Freges Kritik an Kant

sondern nur aus den Axiomen, die synthetische Grundsätze sind. Im Falle der Arithmetik sind diese Grundsätze ebenfalls synthetisch a priori, aber nicht allgemein, sondern als arithmetische Gleichungen singulär (›Zahlformeln‹). Knauss schlägt nun vor, bezogen auf die Subjekt-Prädikat-Struktur arithmetischer Urteile Subjekt und Prädikat als ›conceptus reciproci‹ aufzufassen. Diese Begriffsform führt Kant in seiner Logikvorlesung im Kontext höherer Begriffe ein. »Der höhere Begriff heißt auch ein weiterer, der niedere ein engerer Begriff. Begriffe, die einerlei Sphäre haben, werden Wechselbegriffe (conceptus reciproci) genannt.«294 Demnach hätten ›7 + 5‹ sowie ›12‹ denselben Umfang (Referenz), so Knauss, aber unterschiedlichen Inhalt.295 Subjekts- und Prädikatsbegriff sind subjektiv verschieden, aber objektiv identisch. Daraus lässt sich schließen, dass wenn Kant sich »zur Charakterisierung arithmetischer Urteile des Prädikats ›synthetisch‹ [bedient], dann bezieht er sich damit offensichtlich auf den intensionalen Aspekt von Zahlformeln. […] Dagegen ist im Falle arithmetischer Urteile genau das, was unter dem Subjektbegriff enthalten ist, auch unter dem Prädikatsbegriff enthalten. […] Würde sich Kant in bezug auf seine analytisch-synthetisch-Dichotomie also am extensionalen Aspekt von Zahlformeln orientieren, dann hätte er arithmetische Gleichungen entsprechend als analytisch auszuzeichnen.«296 Diese Schlussfolgerung ist in der Tat sehr interessant, erlaubt sie doch die von Frege stilisierte Dichotomie zwischen ihm und Kant teilweise aufzulösen. Denn Frege führt ebenfalls Unterscheidungsebenen ein. »›24‹ und ›4 ∙ 4‹ haben zwar dieselbe Bedeutung; d. h. sie sind Eigennamen derselben Zahl; aber sie haben nicht denselben Sinn […] sie enthalten nicht denselben Gedanken.«297 Dennoch entscheidet sich Frege für die rein extensionale Betrachtungsweise, was vor dem Hintergrund seines formalsprachlichen Programms verständlich ist. Ob dadurch die Frage bezüglich der Analytizität arithmetischer Objekte (Zahlformeln) bereits mitentschieden ist, kann verneint werden, denn es ist eine philosophische Frage der Art der Verfasstheit des Sinnkriteriums und keine formale, sprachimmanente. George Boolos‹ Kritik am fehlenden Aufweis des Prinzips der Zuord294

Kant, Logik, 1800, I. Teil, 1. Abschnitt, § 12. Vgl. Knauss, ›Extensional and intensional Interpretation of Synthetic Propositions a priori‹, 1971, S. 359. Pirmin Stekeler-Weithofer sieht die Intensionalität von Kants Zahlbegriff »als Rechenanweisung, und nicht wie in der modernen Logik ,extensional‹, als Name resp. Kennzeichnung der Zahl 12«. Pirmin Stekeler-Weithofer: ›Sind die Urteile der Arithmetik synthetisch a priori? Zur sprachanalytischen Interpretation einer vernunftkritischen Überlegung‹, in: Zeitschrift für allgemeine Wissenschaftstheorie, 18 (1–2), 1987, 215–238, S. 220. 296 Iseli, Kants Philosophie der Mathematik, 2001, S. 91. 297 Gottlob Frege: ›Funktion und Begriff‹ (1891), in: Ders.: Funktion, Begriff, Bedeutung (hrsg. von Günther Patzig), Göttingen: Vanderhoeck & Rupprecht 1994, 17–39, S. 27. 295

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

95



96

Kapitel 4  ·  Kritik der Anschauung

nung (›Humes principle‹) als rein logisches für Freges Satzgleichungen macht dies deutlich.298

Cassirers Verteidigung

Bereits Cassirer beschäftigte sich mit den Entgegnungen der Logizisten, insbesondere in Auseinandersetzung mit Louis Couturats Prinzipien der Mathematik, der darin eine Kehrtwende von Kants Theorie zur Analytizität mathematischer Urteile vollzieht.299 Seine Argumentation macht den Kern der Missverständnisse zu Kants Urteilstheorie aus logizistischer Sicht deutlich. Cassirer erläutert die Gründe der Kehrtwende Couturats, denn es liegt auf der Hand, dass sich die Mathematik seit Kants Zeiten verändert hat und durch die streng formale Axiomatisierung ihre Begriffe allgemeiner fasst. Dabei verwirkt sie das Recht auf das Verfahren der ›evidenten Anschauung‹ zu Beweiszwecken. Die ›Logistik‹, wie Couturat die symbolischen Kalküle der Relationen nennt, wird nun zum Instrument der mathematischen Forschung und die Deduktion wird ihre Erkenntnisstrategie. Selbst die Geometrie wird zu einem System beliebiger Axiome, dessen lückenlose Folgerungen ohne weiteren Rekurs auf Wirklichkeit auskommen. Damit scheint die Mathematik, so Cassirer, ›dialektisch‹ im Sinne Platons geworden zu sein, da nur das, was sich aus ersten Definitionen deduktiv folgern lässt, Bestand hat und darüber hinaus die ersten Definitionen in logische Ursprungsbegriffe zu gründen sind. Damit umreißt er das Programm des Logizismus, das die systematische Fundierung der gesamten Mathematik als seine grundlegende Aufgabe sieht. Zudem zeichnet sich in Folge von Leibniz’ abstraktem Funktionsbegriff die Erweiterung des Gegenstandsbereichs der Mathematik über den Bereich der Größen und Zahlen hinaus auf alle Inhalte ab, »in denen vollkommene 298

Die Favorisierung der Synthetizität bei Kant und der Analytizität bei Frege spiegelt die Entwicklung der analytischen Philosophie von Kants Zeiten bis zur analytischen Philosophie des 20. Jahrhunderts als Reduktionsprogramm wider, insbesondere in Folge von Rudolf Carnaps antimetaphysischem Dogma. Vgl. Rudolf Carnap: Scheinprobleme in der Philosophie. Das Fremdpsychische und der Realismusstreit, Berlin-Schlachtensee: Weltkreis-Verlag 1928; Rudolf Carnap: ›Überwindung der Metaphysik durch logische Analyse der Sprache‹, in: Erkenntnis, 2, 1931/32, 219–241. Zum Überblick über das Programm der analytischen Philosophie sowie zur Preisgabe des streng sprachanalytischen Programms vgl. Geert Edel: Hypothesis versus Linguistic Turn: Zur Kritik der sprachanalytischen Philosophie, Waldkirch: Edition Gorz 2010, insb. S. 9–126. 299 Vgl. Cassirer, ›Kant und die moderne Mathematik‹, 1907; Luis Couturat: Les Principles des Mathématiques, avec un appendice sur la philosophie des Mathématiques de Kant, Paris: Alcan 1905.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Cassirers Verteidigung

gesetzliche Bestimmtheit und stetige deduktive Verknüpfung erreichbar ist«.300 Durch das Bestreben, die Mathematik in Logik zu gründen, wird der Begriff der Größe durch den Begriff der relational erzeugten (Zu-)Ordnung ersetzt. Dadurch eröffnen die abstrakten mathematischen Begriffe Zugänge, die der »Sinnlichkeit [und den Größenbegriffen] für immer versagt bleiben« werden 301 – wie der Inbegriff der überall dichten rationalen Zahlen zeigt. Vor diesem Hintergrund wird die Kehrtwende von Couturat verständlich, denn es stellt sich die Frage nach dem Platz, den Kants Konzeption synthetischer Urteile a priori noch einnehmen kann. Doch Cassirer sieht das Scheitern des Logizismus genau an jenem Problem, das Kant als Erster in die Philosophie einbrachte, nämlich, dass mathematische Begriffe keine diskursiven und damit logischen, sondern konstruierte Begriffe sind.302 Versteht man logische Begriffsbildung als Abstrahieren von Merkmalen, so decken sich Frege und Kant an diesem Punkt, da für beide mathematische Objekte keine an Gegenständen gewonnenen Abstraktionen sind. Für Frege lässt sich durch Abstraktion der Begriff gewinnen und an diesem entdeckt man die Zahl. Für Kant sind sie synthetische Erschaffungen und entstammen der Funktion des Denkens, welche die Vorbedingungen im Umgang mit der Sinnlichkeit stellen. Cassirer wirft nun Couturat (und den Logizisten) vor, dass die logische Natur mathematischer Urteile keineswegs deren Analytizität impliziert, wie dies Couturat annimmt. Dies wäre nur der Fall, wenn man analytisch mit ›reinem Denken‹ und synthetisch mit ›aus der Empfindung stammend‹ auffassen würde. Eine solche Fehlinterpretation Kants kommt zustande, wenn man den nominaldefinitorischen Charakter, der zu Beginn der Kritik der reinen Vernunft gegebenen Unterscheidung analytischer und synthetischer Urteile als im Subjektbegriff enthalten respektive nicht enthalten verkennt. Tatsächlich ist es aber die Leistung Kants, so Cassirer, mit der Ausführung der synthetischen Grundsätze dieser Nominaldefinition einen realen Gehalt gegeben zu haben. Mehr noch, Kant bringt mit den synthetischen Verknüpfungen a priori jene Urteile ins Spiel, deren Fehlen der klassischen Logik zu Recht unterstellt wird und deren ›Entdeckung‹ sich die moderne Logik rühmt; dies sind Verhältnisse wie etwa im Grundsatz der Kausalität oder der Wechselwirkung, »die innerhalb des gewöhnlichen Schemas der ›Prädikation‹ niemals ihren vollen logischen Ausdruck finden 300

Cassirer, ›Kant und die moderne Mathematik‹, 1907, S. 2. Ebd., S. 20. 302 »Kants Auffassung der Mathematik mag, nach dem heutigen Stande der Wissenschaft, mannigfach modifiziert werden müssen: dennoch bleibt das Problem, das er als Erster der Philosophie gestellt hat, nach wie vor in Kraft.« Cassirer, ›Kant und die moderne Mathematik‹, 1907, S. 32. 301

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

97



98

Kapitel 4  ·  Kritik der Anschauung

können: wollen sie doch nicht irgendwelchen festen Dingen bestimmte Eigenschaften zuschreiben, sondern die Geltung rein gesetzlicher Beziehungen zwischen Erscheinungen feststellen.«303 Das Neue der Urteilstheorie Kants besteht gerade in der Überwindung der rein formalen Betrachtungsweise der Subjekt-Prädikat-Verknüpfung als analytisch oder synthetisch, indem dem transzendentalen Ursprung der Erkenntnis, der im Subjektbegriff enthalten ist, Rechenschaft zugesprochen wird. Tut man dies nicht, muss man diesen Ursprung entweder als (aristotelische) Abstraktion oder als (platonisches) Apriori annehmen.304 Interessanterweise sieht Cassirer diese Fehlinterpretation von Couturat nicht in Whiteheads und Russells Principia Mathematica gegeben. Im Gegenteil, es sei Russell, dem Kants synthetische Begründung nicht weit genug gehe, denn diese habe vor den logischen Urteilen Halt gemacht.305 Aus dem Satz des Widerspruchs alleine, so Russell, sei jedoch keine Erkenntnis zu gewinnen, es bedürfe darüber hinaus der vermittelnden (synthetischen) Ober- und Hilfssätze.306 Analyse, beispielsweise im Beweis, setzt Synthese voraus und Kant geht es um die Untersuchung der Prämissen als synthetische Sätze und nicht als formale Verknüpfungen von Namen.307 Damit bringt 303 Cassirer, ›Kant und die moderne Mathematik‹, 1907, S. 39. Couturats Kritik »macht vor dem System der Grundsätze Halt. Und doch weist er selbst deutlich auf den Grund hin, aus welchem die anfängliche Erklärung Kants [Nominaldefinition] unvollkommen geblieben ist, ja unvollkommen bleiben musste. Diese Erklärung – so wendet er ein – setzt voraus, dass alle Urteile in nichts anderem bestehe, als darin, irgend einem Subjekt ein bestimmtes Prädikat zuzuordnen; während die moderne Logik uns Urteile gelehrt hat, die sich der Zurückführung auf diese Form prinzipiell entziehen. […] So treffend dieser Einwand ist: so zeigt sich doch bei näherer Betrachtung sogleich, dass gerade diejenigen Verfahrensweisen, die für Kant im eigentlichen und typischen Sinne synthetisch heissen, eben dieser letzten Gattung angehören.« Cassirer, ›Kant und die moderne Mathematik‹, 1907, S. 38, 39. 304 Dadurch ist klar, dass der Logizismus per se mit einem Platonismus einhergehen muss. Dieser Platonismus führt zu einem dezidierten Verneinen jeglichen anthropozentrischen Ursprungs der Mathematik. Zur Rolle des Platonismus in der Mathematik des 20. Jahrhunderts vgl. Paul Bernays: ›Über den Platonismus in der Mathematik‹ (1935), in: Ders.: Abhandlungen zur Philosophie der Mathematik, Darmstadt: Wissenschaftliche Buchgesellschaft 1976, 62–78. 305 Allerdings ändert Russell seine Meinung zugunsten einer rein analytischen Verfassung der Mathematik später. Vgl. Russell, ›Die Mathematik und die Metaphysik‹ (1901), 1952. 306 Vgl. Alfred North Whitehead, Bertrand Russell: ›The Theory of Logical Types‹, in: Dies.: Principia Mathematica, 1. Bd., 1910, § 434 sowie Cassirer, ›Kant und die moderne Mathematik‹,1907, S. 37. 307 »Wo der Verstand vorher nichts verbunden hat, da kann er auch nichts auflösen.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 130.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Cassirers Verteidigung

Cassirer sein entscheidendes Argument, denn wären die Prämissen tatsächlich nur formale Verknüpfungen von Namen, so würde die Anwendbarkeit der Mathematik zum ›glücklichen Zufall‹ – zum ›Mysterium‹ in der Lesart Eugene Wigners – geraten.308 »Wie vermöchte sie [Logistik] es zu rechtfertigen, dass wir die logischen Gesetze, die wir gänzlich unabhängig von der Betrachtung der Dinge gewonnen haben, nachträglich den Dingen aufzwingen; wie vermöchte sie zu beweisen, dass die künftige Erfahrung den Folgerungen gemäss sein werde, die wir aus rein logischen Prämissen und ohne jede Rücksicht auf Anschauung und Beobachtung gezogen haben?«309 Um diesem Gemunkel um Mysterien wie auch metaphysischen Annahmen über prästabilierte Harmonien oder einen mathematisch verfassten Kosmos zu entgehen, legt Kant in seiner Konzeption jedem mathematischen Grundbegriff eine Wirklichkeitsbehauptung bei, indem er ihn – über dessen logische Verfasstheit hinaus – als synthetisch a priori bestimmt. Allerdings ist dies eine Wirklichkeitsbehauptung, die über den Satz des Widerspruchs hinausweisend nur die Bedingung der Möglichkeit des Erkennens von Gegebenem miteinschließt.310 Damit referieren Kants mathematische Grundbegriffe in synthetisch apriorischer Weise – und eben nicht in abstrahierender Weise – auf empirisches Sein, das der Logistik, so Cassirer, ein ewig unbegriffenes Problem bleiben wird.311 Es dürfte deutlich geworden sein, dass die simplifizierende Rede von der Dichotomie analytischer und synthetischer Urteile die grundlegende Trans308 Vgl. Eugene Wigner: ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹ (1960), in: Ders.: Symmetries and Reflections. Scientific Essays of Eugene P. Wigner, Bloomington: Indiana University Press 1967, 222–237. 309 Cassirer, ›Kant und die moderne Mathematik‹, 1907, S. 44. Das Aufzwingen kann nur dann erfolgreich sein – Kant hat es als ›Nötigungscharakter‹ der Vernunft beschrieben – wenn irgendetwas vom Gegebenen im Mathematischen enthalten ist. 310 Der mathematische Satz ›7 + 5 = 12‹ mag analytisch sein, doch der Begriff der Summe enthält synthetische Bedingungen, nämlich ein Verfahren, Ordnung (und Zuordnung) herzustellen. »Dass ein solches Verfahren möglich ist, und dass es ein eindeutig bestimmtes Ergebnis liefere, kann aus dem Satz der Identität oder des Widerspruches niemals eingesehen werden: es ist eine neue schöpferische Setzung des Denkens, die wir in der Behauptung einer derartigen Möglichkeit vollziehen.« Cassirer, ›Kant und die moderne Mathematik‹, 1907, S. 42. 311 Das Ziel Leonard Nelsons im Anschluss an Kant und Jakob Fries war, eben jene Position zu rehabilitieren und sie im Dialog mit Hilbert der modernen Mathematik anzupassen. Vgl. Leonard Nelson: ›Kritische Philosophie und mathematische Axiomatik‹, in: Ders.: Beiträge zur Philosophie der Logik und Mathematik, Frankfurt: Verlag Öffentliches Leben 1959, 91–124; Jakob F. Fries: Die mathematische Naturphilosophie nach philosophischer Methode bearbeitet. Ein Versuch (1822), Sämtliche Schriften, 1. Bd., Aalen: Scientia Verlag 1979; Peckhaus, Logik, Mathesis universalis und allgemeine Wissenschaft, 1997.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

99



100

Kapitel 4  ·  Kritik der Anschauung

formation der Urteilstheorie verschleiert, die sich in der Neuzeit anbahnt und in der Moderne mit den formalen Systemen vollendet. Diese Transformation erfasst nicht nur die Konstitution mathematischer Begriffe und Urteile, sondern sprengt auch den Kanon der traditionellen Logik, insofern mit Operationsformen hantiert wird, die eben nicht mehr rein logisch, sondern (bestenfalls) auch mathematisch sind. Statt von einer Begründung der Mathematik durch Logik oder umgekehrt zu sprechen, handelt es sich vielmehr um eine Verschmelzung, die in der Redeweise in und über Kalküle – in Begriffen wie der Funktion, Menge, Klasse etc., aber auch den Ordnungsrelationen – zum Ausdruck kommt. Cassirers Argumentation hält jedoch nur, wenn er auf die erste Verwendungsweise des Mathematischen bei Kant referiert, nämlich die (numerische) Einheit der Apperzeption als Bedingung der Möglichkeit, Gegenstandsbeziehungen überhaupt herzustellen. Die Frage ist jedoch, ob man Kant tatsächlich so abstrakt interpretieren kann. Insbesondere die Kritiker im Anschluss an Peter Strawson sind da anderer Meinung.312 Hier gerät die Rolle der Einbildungskraft sowie die Apriorität von Raum und Zeit begründungstheoretisch ins Visier. Denn Strawson kritisiert den Anschauungscharakter von Raum und Zeit als von Kants Mathematikauffassung abhängig und nicht als deren Vorbedingung.313 Tatsächlich ist die sukzes312 Eine ähnliche, begründungstheoretische Kritik wie Strawson gibt Kitcher, insofern er ebenfalls auf die wechselseitige Begründung der transzendentalen Ästhetik und der Mathematikkonzeption hinweist. Allerdings sind manche Interpretationen von Kants Geometrietheorie derart konstruiert und unzulässig, dass hier nicht weiter darauf eingegangen wird. Beispielsweise: »Kant believes that mathematics proceeds to universal conclusions from intuitions of particular objects. By examining a diagram of one particular rectangle we come to know properties common to all triangles.« Kitcher, ›Kant and the Foundations of Mathematics‹, 1975, 23–50, S. 38. Vgl. auch Kitcher, The Nature of Mathematical Knowledge, 1984. Zur Diskussion von Kitchers Kritik vgl. Iseli, Kants Philosophie der Mathematik, 2001, S. 23 ff. 313 Einbildungskraft und damit die Synthesis werden von Strawson als inkohärent entlarvt, da sie angeblich Kants eigenem Diktum der ›principle of significance‹ empirisch fundierter Begriffe widersprechen. Die Unterscheidung zwischen Erscheinung und Ding an sich wird so interpretiert, als wären Erscheinungen und damit Erkenntnisse nicht realitätsbezogen. Kant wird damit zum phänomenalistischen Idealisten noumenalistischer Ausprägung erklärt. Die Frage, wie Realität, wenn nicht über intensive Größen, der Erkenntnis zukommen soll, ohne einem naiven Realismus frönen zu wollen, wird jedoch von Strawson nicht beantwortet. Wichtiger erscheinen jedoch die Argumente gegen Kants Synthesis-Konzept, dessen konstitutive Rolle Strawson unter einer idealistischen (Fehl-)Einschätzung als ›theory of the mind making Nature‹ sowie dem nicht ganz neuen Psychologismus-Einwand ablehnt. Strawsons Einschätzung scheint hier einer Verwechslung der Bedingungen der Möglichkeit von Erkenntnis, wie es das Klärungsziel der Transzendentalphilosophie ist, und dem Inhalt von Erkenntnis anheim zu fallen. »Liest man nun Strawsons Rede von Kants ›theory of the mind making Nature‹ in ihrem Kon-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Cassirers Verteidigung

sive Synthesis – als die extensiven Größen erfassend und als Axiome der Anschauung – Kants gesamter Konzeption zugrunde gelegt, auch wenn Kant selbst Axiome als evident einsichtig für die Philosophie nicht gelten lässt.314 Den eigentlichen Kern macht jedoch der entsprechende Beweis des Axioms der Anschauung aus, der – wie von Schüssler in seiner syllogistischen Form rekonstruiert – formal-logisch korrekt ist.315 Damit ist der Gegenstandsbezug als ›quantitas‹ »zwingend sichergestellt« sowie die Berechtigung gegeben, die Synthesis als sukzessive zu denken.316 Da nun Sukzession maßgebliches Kriterium des Mathematischen ist, ist die Einheit der Apperzeption eine mathematisch verfasste. Dies lässt sich nun entweder als Analogie von Sukzession und Apperzeption interpretieren oder operativ als wechselseitige Bedingung von Erkenntnismittel (Sukzession) und Erkenntnisform (Apperzeption), die sich analytisch nicht weiter auflösen lässt, da ansonsten axiomatische Setzungen notwendig wären. Da Kant aber die philosophische Methode in der analytischen sieht und dennoch axiomatische Setzungen – wie sie letztendlich für eine analytische Konzeption nötig sind – ablehnt, sich jedoch mit den Bedingungen der Möglichkeit von Erkenntnis befasst, sind die Bedingungen selbst nicht rückführbar. Hier stößt Kant an seine eigenen Grenzen, wie jedes System, das letztendlich an seinen Selbstbegründungsmechanismen anecken muss.

text, so wird deutlich, dass im Zentrum des Konstitutionstheorie-Einwandes der Angriff auf Kants so genannte ›kopernikanische Wende‹ steht.« Wunsch, Einbildungskraft und Erfahrung bei Kant, 2007, S. 53. Hier wird deutlich, dass eine analytische Kritik am Konstitutionscharakter bezüglich der Bedingungen der Möglichkeit von Erkenntnis scheitern muss, dass sich aber aus ›operativer‹ Perspektive gerade dieser Konstitutionscharakter als formaler (nicht als materialer) als fruchtbar erweist. Da hier nicht der Ort ist, um auf diese Kritik näher einzugehen, sei auf Matthias Wunschs Widerlegung von Strawsons Kritik hingewiesen. Vgl. Wunsch, Einbildungskraft und Erfahrung bei Kant, 2007, S. 43 ff. 314 Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 733. 315 Vgl. Schüssler, Philosophie und Wissenschaftspositivismus, 1979, S. 88 ff. 316 Ebd., S. 84.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

101

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

TEIL II VERLUST DER ANSCHAUUNG

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 5 Verlust der mathematischen Anschauung

E 

s ist erstaunlich, dass die Geometrie bis ins 19. Jahrhundert an ihrer klassischen Gestalt als euklidische Geometrie festhält, vor allem wenn man die Entwicklungen der Algebra und der Arithmetik seit dem 17. Jahrhundert hin zu einer abstrakten und funktionalen Denkweise betrachtet. Zwar vollzieht Descartes mit seiner analytischen Geometrie den Bruch mit der Antike und dieser Bruch verstärkt sich durch die Einführung transzendenter Kurven bei Leibniz, doch »erst seit dem Ende des 18. Jahrhunderts [macht sie] prinzipielle Schritte nach vorne in Richtung auf die Ablösung antiker Auffassungen vom Wesen der Geometrie«.1 Dieser Bruch wird in der Überwindung der geometrischen Anschauung gesehen. Doch es stellt sich die Frage, worin dieser Bruch genau besteht. Löst sich die Anschauung tatsächlich komplett auf oder durchläuft sie einen Wandel von einer sinnlichen Anschaulichkeit in eine abstrakte Anschauungsform? Zwar wird in der philosophischen Debatte den nicht-euklidischen Geometrien eine große Rolle in der Diskussion um die Desavouierung der geometrischen Anschauung zugesprochen – wobei die nicht-euklidischen Geometrien in ihrer synthetisch-konstruierenden Ausgestaltung recht anschaulich bleiben –, doch die Transformationen, die letztendlich zum Verlust der Anschauung der Geometrie führen, sind weitaus grundlegenderer Natur. Zusammengefasst zeigen sich diese in dem sich verändernden Verhältnis von geometrischem Objekt, geometrischem Raum und geometrischer Koordinate, das durch die Projektion geometrischer Gebilde, die Auflösung des Raumes in n-dimensionale Mannigfaltigkeiten und die invarianten Eigenschaften von Transformationsgruppen neu gefasst wird. Im Zentrum der Entwicklung steht dabei die projektive Geometrie des 19. Jahrhunderts, die sich bis zum Beginn des 20. Jahrhunderts zur abstrakten Gruppentheorie wandelt. Sie hat die Verwandtschaft geometrischer Gebilde und ihrer Eigenschaften unter transformatorischen Bedingungen zum Forschungsgegenstand und integriert auf diese Weise das Konzept der Bewegung in die statische euklidische Geometrie. Die Frage, die sich ihr stellt, ist: Welche Eigenschaften einer Figur bleiben unter den verschiedenen Projektions- und Transformationsoperationen bestehen? Damit verschiebt sich die 1 Hans Wußing: Die Genesis des abstrakten Gruppenbegriffes. Ein Beitrag zur Entstehung der abstrakten Gruppentheorie, Ost-Berlin: VEB Deutscher Verlag der Wissenschaften 1969, S. 15.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



106

Kapitel 5  ·  Verlust der mathematischen Anschauung

geometrische Forschung von metrischen Eigenschaften auf deskriptive Eigenschaften der Lage, die zunehmend abstrakter formuliert werden. Schließlich wird die Objekt-Koordinaten-Relation durch die algebraische Darstellungsform invertiert, insofern die Transformationen geometrischer Gebilde als Koordinatentransformationen darstellbar werden. Damit löst sich ganz nebenbei der kartesische Koordinatenbegriff in beliebig gestaltbare Systeme von Zahlenmannigfaltigkeiten auf, deren Dimensionen der Anzahl unabhängiger Parameter entsprechen. Das Primat des dreidimensionalen euklidischen Raumes geht verloren und mit ihm seine ausgezeichnete Symmetrie. Doch dies ist nur möglich, wenn sich die maßgeblichen geometrischen Begriffe wie Lage, Abstand und Koordinate analytisch fassen lassen.

Blickrichtungen der euklidischen Geometrie

Bevor der Verlust der geometrischen Anschauung analysiert wird, erweist es sich als hilfreich, die Rede vom Anschauungscharakter der euklidischen Geometrie zu hinterfragen. Dieser Anschauungscharakter, der in der philosophischen wie mathematischen Literatur als charakteristisch für die euklidische Geometrie verstanden wird, scheint sich in ihrer Begrenzung auf den dreidimensionalen Raum, die Orthogonalität (Rechtwinkligkeit) und Parallelität, aber auch bezüglich der Definitionen von Punkt, Linie und Gerade als Grundelemente zu dokumentieren. Doch bei näherer Betrachtung zeigt sich, dass Anschauung im Kontext der euklidischen Geometrie ein Konglomerat ist, das unterschiedliche Blickrichtungen in sich vereint. So erweist sich der Anschauungscharakter im Sinne einer sinnlichen Anschauung, die insbesondere in der Rede vom realen Raum nahegelegt wird, bereits in der Antike durch Nautik und Geographie als wenig an der Gestalt der tatsächlichen Erfahrungswelt orientiert, insofern sich diese zwar als dreidimensionale, aber gekrümmte darstellt. Ebenso ist es der sinnlichen Anschauung näher, parallele Linien in der Ferne in einem Punkt zusammenlaufen zu sehen, als sich diese im Unendlichen nie schneidend vorzustellen. Dies verdeutlicht den Idealcharakter – ideal im Sinne platonischer Anschauung – der euklidischen Geometrie, der sich an der Unveränderlichkeit der Proportionen und Formen sowie an der Bedingung der Symmetrie orientiert und daraus seine Wissenschaftlichkeit generiert. Es ist kein Zufall, dass die vollkommene Symmetrie des Kreises das Inbild antiken Denkens ist. Erst diese Symmetrie erweist den Kreis als invariant gegenüber den verschiedenen Transformationen (Spiegelung, Drehung) und zeichnet ihn damit als unveränderlich aus. Auch der euklidische Raum – später als orthogonaler

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Blickrichtungen der euklidischen Geometrie

Raum kartesischer Parallelkoordinaten konstruiert – ist »durch die Gruppe aller Automorphismen (›Ähnlichkeiten‹) gekennzeichnet« und besitzt damit »die volle Symmetrie, von der Leibniz sprach« (Homogenität und Isotropie).2 Der Ertrag des platonischen Anschauungsgehalts dokumentiert sich wohl am deutlichsten in der Definition aller regulären Körper, die im euklidischen Raum möglich sind: Tetraeder (vier reguläre Dreiecke), Würfel (sechs reguläre Quadrate), Oktaeder (acht reguläre Dreiecke), Ikosaeder (zwanzig reguläre Dreiecke) und Dodekaeder (zwölf reguläre Fünfecke). Es sind die Definitionsbedingungen, die nur diese regulären Körper zulassen, denn ein reguläres Polyeder zeichnet sich dadurch aus, dass alle Kanten, Ecken und Flächen gleich, also ununterscheidbar, sind und dass alle Flächen reguläre Polygone sind. Diese Ununterscheidbarkeit zeigt sich an den Symmetrieeigenschaften der fünf regulären Körper, die gegenüber Spiegelung und Drehung invariant sind. Als platonische Körper begründen sie die antike Kosmologie.3 Die Begrenzung der euklidischen Geometrie durch die platonische Anschauung hingegen dokumentiert sich in der Ablehnung des Bewegungsbegriffes, der später für die projektive Geometrie zentral wird. Deutlich wird dies am konstruiert-anschaulichen Deckungsbegriff für Euklids ersten Kongruenzsatz. Dieser behauptet, dass zwei Dreiecke, die in zwei Seiten und dem eingeschlossenen Winkel übereinstimmen, auch in den gegenüberliegenden Seiten übereinstimmen. »Zwar lehrt uns […] die Anschauung, daß CB auf C‹ B‹ zur Deckung kommen ›muß‹. Dieser Schluss ist aber mathematisch nur gerechtfertigt, wenn die Existenz von Bewegung vorausgesetzt wird, welche geometrische Figuren in andere überführen, ohne ihre Form und Größe zu verändern. Ziel Euklids war es aber, seine Konstruktionen nur mit den vorausgesetzten Postulaten und Axiomen deduktiv zu rechtfertigen, ohne Voraussetzung eines Bewegungsbegriffes, der nach platonischer Auffassung dem Bereich der ›Materie‹ angehört und in der ›idealen‹ Geometrie unzulässig ist.«4 Das bedeutet, dass der platonische Anschauungsgehalt, der die Wissenschaftlichkeit der euklidischen Geometrie motiviert, nicht vollständig ist und dass er deshalb durch die sinnliche Anschauung ergänzt werden muss. Dies erklärt die zentrale Rolle der Konstruktion in der euklidischen Geometrie. 2 Klaus Mainzer: Symmetrien der Natur. Ein Handbuch zur Natur- und Wissenschaftsphilosophie, Berlin, New York: de Gruyter 1988, S. 144. 3 Vgl. Platon: Timaios (hrsg. von Hans Günter Zekl), Hamburg: Meiner 1992. 4 Klaus Mainzer: Geschichte der Geometrie, Zürich: BI Wissenschaftsverlag 1980, S. 47. Hier zeigt sich der Fortschritt von Kants Philosophie, der den Bewegungsbegriff in die Kategorien inkludiert, insofern Physik Bewegungslehre ist, da Materie nur durch Bewegung die Sinne affizieren kann. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

107



108

Kapitel 5  ·  Verlust der mathematischen Anschauung

So ist der Abtrag einer Strecke auf eine andere nur durch eine Zirkelkonstruktion möglich – anstelle des Verschiebens eines Lineals, das in der euklidischen Geometrie nicht definiert ist –, die jedoch ›anschaulich‹ (bezogen auf die Konstruktion) die Existenz eines Schnittpunktes zweier Kreise voraussetzt. Es ist die synthetisch-konstruierende Methode der Geometrie mit Hilfe von Zirkel (und Lineal) auf der ebenen Fläche des Papiers, die diese Art der konstruierenden Anschaulichkeit charakterisiert. Geometrische Anschauung im Kontext der euklidischen Geometrie vereint also mindestens drei Blickrichtungen in sich: die platonische Anschauung idealer Objekte und Prinzipien, die sinnliche Anschauung der Gestalt der tatsächlichen Erfahrungswelt und die konstruierende Anschaulichkeit der synthetischen Methode, wobei Letztere ebenfalls eine sinnliche Anschaulichkeit darstellt, aber eben eine konstruktiv erzeugte. Die Rede von der anschaulichen euklidischen Geometrie ist also mit Vorsicht zu genießen. Dies gilt auch für die Reduktion der antiken Geometrie auf das, was heute pauschal als ›euklidische Geometrie‹ verstanden wird. Denn interessanterweise deutet sich bereits im sechsten Buch der Elemente auf Basis der Proportionslehre ein abstrakterer Ähnlichkeitsbegriff an als der quasi-empirische Deckungsbegriff. Indem drei Strecken mit dem proportionalen Verhältnis a : b : c zu Dreiecken zusammengesetzt werden, lassen sich beliebig viele ähnliche Dreiecke konstruieren. Fügt man feste Größenangaben der Strecken hinzu, erhält man kongruente Dreiecke. Damit sind erste Schritte in Richtung einer projektiven Geometrie erkennbar, die sich im Kontext der antiken Theorie der Kegelschnitte weiter verstärken.5 Apollonios von Perge überschreitet mit seiner Theorie der Schnitte am Kreiskegel nicht nur die euklidische Geometrie der Elemente bezüglich der Konstruktion neuer geometrischer Gebilde wie Ellipse, Hyperbel und Parabel, sondern auch deren statische Auffassung, insofern er die »Erzeugung aller möglichen Kegelschnitte durch [bewegliche] Tangenten« denkt.6 Ebenso soll Euklids verschollenes Werk Porismen bereits eine mögliche Kegelschnittlehre inklusive projektiv-geometrischer 5 Konstruktionsaufgaben wie die Konstruktion von Kegelschnitten, die Dreiteilung des Winkels sowie die Verdoppelung des Würfels lassen sich nicht allein mit Zirkel und Lineal bewerkstelligen und weisen damit über die Möglichkeiten der euklidischen Geometrie hinaus. 6 Hieronymus G. Zeuthen: Die Lehre von den Kegelschnitten im Altertum, Hildesheim: Olms 1886, S. 344. »Mit der Kegelschnittlehre des Apollonius werden Ellipse, Parabel und Hyperbel auch als Kreisprojektionen erkannt. Wenn nämlich das Auge die Stellung im Mittelpunkt M des Apollonischen Doppelkegels einnimmt, so erscheint selbst die Parabel trotz ihrer unendlichen Verlängerung in perspektivischer Verkürzung als Kreis.« Mainzer, Geschichte der Geometrie, 1980, S. 70.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Blickrichtungen der euklidischen Geometrie

Aussagen – selbst den Desargues’schen Satz – vorweggenommen haben.7 So schreibt etwa Jean-Victor Poncelet, einer der Begründer der projektiven Geometrie im 19. Jahrhundert, dass »die Porismen des Euclids […] keinen anderen Inhalt gehabt [hätten], als die allgemeinsten, abstractesten Eigenschaften der Figuren, deren Charakter nur schwer durch die Sprache der alten Geometrie definirbar war. Mit einem Worte, es lägen hier wirkliche projectivische Eigenschaften vor, die Euklid durch Betrachtungen, die der Perspective angehören, abgeleitet habe.«8 Darüber hinaus findet sich in Euklids Katop­trik »nichts über parallele Lichtstrahlen, und in dem letzten Satze desselben, der von sphärischen Hohlspiegeln handelt, werden ausdrücklich Strahlen betrachtet, welche von einem Punkt der Sonne ausgehen, und nicht parallele Strahlen« sind; während sich bei Apollonios Andeutungen von »parallelen Strahlen« finden lassen, die eventuell auf das geometrische Studium »parabolischer Spiegel« schließen lassen.9 Auch wenn solche mathematikhistorischen Vermutungen zu hinterfragen sind, wird doch deutlich, dass bereits Euklid über die ›euklidische Geome­ trie‹ hinaus gedacht hat und dass das Studium des relationalen Gefüges von Objekt, Raum und Koordinate – nach Hieronymus Zeuthen besitzt auch die griechische Mathematik ein Verständnis von Koordinaten10 – schon in der Antike ein Forschungsgegenstand ist. So weist Zeuthen auch darauf hin, dass es in der griechischen Mathematik bereits eine ›analytische Geometrie‹ gegeben habe, die Größen als Zahlen darstellt und damit rechnet, und dass die Proportionslehre nicht nur als Verhältnislehre, sondern auch als Gleichheitslehre – wie sie später in der Algebra grundlegend wird – Anwendung findet. Das Problem der antiken Mathematik ist jedoch die fehlende Darstellungsmöglichkeit jenseits der Alltagssprache, denn das »Altertum hatte […] keine Zeichensprache«.11 Woran es der griechischen Mathematik also mangelt und 7

Vgl. Jürgen Schönbeck: Euklid, Basel: Birkhäuser 2003, S. 84 ff. Jean-Victor Poncelet übersetzt in Moritz Cantor: ›Über die Porismen des Euclid und deren Divinatoren‹, in: Zeitschrift für Mathematik und Physik, 2, 1857, 17–27, S. 24. Vgl. Jean-Victor Poncelet: Traité des propriétés projectives des figures, Paris: Gauthier-Villars 1822. 9 Zeuthen, Die Lehre von den Kegelschnitten im Altertum, 1886, S. 377 und S. 378. 10 Vgl. ebd., S. 2. Die Griechen hätten dabei nicht nur rechtwinklige, sondern auch schiefwinklige Koordinaten angewandt, auch wenn der Begriff des Koordinatensystems und seine analytische Darstellung unbekannt waren. 11 Das Fehlen einer künstlichen Sprache macht es unmöglich, eine algebraische Proportionslehre zu formulieren. »Sie [Probleme] hängen nämlich damit zusammen, daß, wenn die Proportionslehre auch in ihren Sätzen faktische Resultate der elementaren Rechenoperationen ausdrückt, sie dies doch nicht der Form nach thut. Der Satzbau der Proportionslehre hat und muß eine künstlichere Form haben als eine Sammlung von einfachen Rechenregeln.« Zeuthen, Die Lehre von den Kegelschnitten im Altertum, 1886, S. 4. 8

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

109



110

Kapitel 5  ·  Verlust der mathematischen Anschauung

sie enorm einschränkt, ist ein operativer Symbolismus. Hingegen aber besitzt sie »in der geometrischen Darstellung und Behandlung allgemeiner Größen und der mit ihnen vorzunehmenden Operationen« ein »Hülfsmittel zur Veranschaulichung dieser [Proportionslehre] sowie anderer Operationen«.12 Aus diesem Umstand leitet sich die Dominanz der Geometrie ab, die sich durch die Entdeckung inkommensurabler Größen verstärkt, und es entwickelt sich eine ›geometrische Algebra‹ mit allgemeinen, irrationalen und rationalen Größen – allerdings ohne negative Größen.13

Projektionen geometrischer Gebilde

Die Bezogenheit von Objekt, Raum und Koordinate im Sinne eines variablen, voneinander abhängigen Gefüges rückt erst im Kontext der projektiven Geometrie des 19. Jahrhunderts in den Mittelpunkt. Dabei führt der Begriff der Projektion respektive der Begriff der Transformation über die Statik der euklidischen Geometrie der Elemente hinaus und die Erforschung der Beziehungsmuster aller möglichen Transformationen orientiert sich als ein quasi-empirisches Studium an der Anschaulichkeit. Dies zeigt sich daran, dass die projektive Geometrie, die sich zu Beginn der Neuzeit aus der darstellenden Geometrie und ihrer perspektivischen Konstruktions- und Transformationsverfahren entwickelt, am Sehraum orientiert ist: zu Anfang am Außenraum der Sehwelt des Betrachters, später an der Physiologie des Auges als Invertierung der Außenwelt in das Innere der ›sphäroiden Sehwelt‹. Viele der später wichtigen Konzepte wie die idealen Elemente, das Unendliche sowie die Desavouierung des Parallelenaxioms nehmen hier ihren anschaulichen Anfang; ›Anschaulichkeit‹ ist nun jedoch weniger an der platonischen Anschauung orientiert zu denken, als an der konstruierenden Anschaulichkeit. Diese bedarf jedoch mathematisch der Vervollständigung im Idealen und damit der Überschreitung der Anschauung, wie sich am Beispiel der Kreisund Kugelgeometrie zeigen wird. Wohl als Erster nutzt Anfang des 15. Jahrhunderts Filippo Brunelleschi planperspektivische Konstruktionen zur Kontrolle der räumlichen Tiefenverhältnisse seiner Bauten und bereits 1435 präsentiert Leon Battista Alberti eine mathematische Methode, um auf Gemälden eine perspektivische Wirkung 12 Zeuthen,

Die Lehre von den Kegelschnitten im Altertum, 1886, S. 6. geometrische Algebra hatte zu Euklids Zeiten eine solche Entwicklung erreicht, daß sie dieselben Aufgaben bewältigen konnte wie unsere Algebra, solange diese nicht über die Behandlung von Ausdrücken zweiten Grades hinausgeht.« Zeuthen, Die Lehre von den Kegelschnitten im Altertum, 1886, S. 7. 13 »Diese

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Projektionen geometrischer Gebilde

zu erzielen. Dies erfordert die Einbeziehung des ›anschaulich Unendlichen‹ und des Horizonts als Fluchtgerade zur Konstruktion perspektivischer Bilder. Albertis mathematische Methode wendet sich dabei gegen die mechanische Drittelung der Bodenstreifen eines den Gemälden zugrunde gelegten Rasters als Näherungswert. Schließlich fasst Albrecht Dürer 1525 in seiner Schrift Underweysung der Messung mit dem Zirckel und Richtscheyt die mathematisch-geometrischen Grundlagen der perspektivischen Konstruktionsverfahren zusammen und verankert sie als Teilbereich der darstellenden Geometrie.14 Dieser Prozess der Entdeckung, besser gesagt, Entwicklung eines Konstruktionsverfahrens zur Herstellung der Zentralperspektive – als Paradigmenwechsel vom Fluchtachsenprinzip der Antike zur modernen Fluchtpunkt-Konstruktion15 – durchläuft dabei verschiedene Stadien: von der perspektivischen Vereinheitlichung einer Teilebene in der frühen Renaissance zum allgemeinen ›Systemraum‹ als perspektivische Vereinheitlichung der Gesamtebene und schließlich des gesamten Raumes durch Koordinatensystem und Sehpyramide.16 Ende des 18. Jahrhunderts entwickelt sich dann die 14 Vgl. Leon Battista Alberti: De pictura, Florenz 1435; Piero della Francesca: De prospectiva pingendi, ca. 1475; Albrecht Dürer: Underweysung der Messung mit dem Zirckel und Richtscheyt (1525), Nürnberg: Verlag A. Wofsy 1981. 15 Die Orientierung der Geometrie am Sehen wird bereits in Euklids 8. Theorem deutlich (›Winkelaxiom‹), das die scheinbare Größenverzerrung gleichgroßer Objekte in unterschiedlichen Abständen zum Betrachter nicht als eine Funktion der Abstände, sondern des Sehwinkels definiert. Daraus sowie aus den Bildnissen und Gebäuden jener Zeit lässt sich schließen, dass es ein antikes Verfahren der Perspektivendarstellung (Fluchtachsenprinzip) gegeben haben muss, das jedoch grundlegend anders funktionierte als das der Renaissance. »[W]ährend die moderne Fluchtpunkt-Konstruktion – und das ist eben der ungeheure Vorteil, um dessentwillen man sich mit solcher Leidenschaft um sie bemüht hat – sämtliche Breiten-, Tiefen- und Höhenwerte in einem völlig konstanten Verhältnis verändert und dadurch für jeden Gegenstand die seinen eigenen Abmessungen und seiner Lage zum Auge entsprechende Scheingröße eindeutig festlegt, ist das sub specie des Fluchtachsenprinzips unmöglich, da hier der Strahlensatz keine Geltung besitzt, – was sich sehr schlagend darin ausdrückt, daß dieses Fluchtachsenprinzip niemals zur widerspruchsfreien Verkürzung eines Schachbrettmusters führen kann: die Mittelquadrate werden im Verhältnis zu ihren Nachbarquadraten entweder zu groß oder zu klein, woraus sich eine peinliche Unstimmigkeit ergibt, die schon die Antike, vor allem aber das spätere Mittelalter, das jene Konstruktion in weiten Kunstgebieten wieder aufgenommen hat, durch ein Schildchen, eine Guirlande, ein Gewandstück oder ein anderes perspektivisches Feigenblatt zu verdecken gesucht hatte.« Erwin Panofsky: ›Die Perspektive als ›symbolische Form‹‹ (1927), in: Ders.: Aufsätze zu Grundfragen der Kunstwissenschaft (hrsg. von Hariolf Oberer und Egon Verheyen), Berlin: Verlag Volker Spiess 1980, 99–167, S. 108. 16 Aus dieser unterschiedlichen ›Wesensbedeutung‹ der jeweiligen Perspektiven in der Antike und Renaissance begründet Erwin Panofsky seine Kennzeichnung der Perspektive als ›symbolische Form‹, also im Sinne Ernst Cassirers als Verknüpfung und

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

111



112

Kapitel 5  ·  Verlust der mathematischen Anschauung

darstellende Geometrie in Form von Konstruktionszeichnungen zur ›Sprache der Ingenieure‹ und zur maßgeblichen Bedingung der maschinellen Produktion der frühen Industrialisierung.17 Dabei löst Gaspard Monge 1794 in seiner Géométrie descriptive (Orthogonalprojektion) die metrischen Eigenschaften (Größen der Figuren betreffend) von den deskriptiven Eigenschaften (Lage, also die Inzidenzen der Figur betreffend).18 Jean-Victor Poncelet, der 1822 eine erste Gesamtdarstellung der projektiven Geometrie unter dem Leitbegriff der Zentralprojektion gibt, differenziert dann weiter zwischen projektiven und nicht-projektiven Eigenschaften, wobei letztere in der Projektion nicht erhalten bleiben.19 Damit rückt die Frage nach den invarianten Eigenschaften von Figuren in den Mittelpunkt, denn der entscheidende Vorteil der projektiven Geometrie, so Felix Klein, besteht darin, »Eigenschaften bekannter Gebilde auf neue Gebilde zu übertragen. So verwerthen wir die Geometrie der Ebene für die Geometrie der Flächen, die sich auf die Ebene abbilden lassen; […] Aber die projectivische Geometrie erwuchs erst, als man sich gewöhnte, die ursprüngliche Figur mit allen aus ihren projectivisch ableitbaren als wesentlich identisch zu erachten und die Eigenschaften, welche sich beim Projicieren übertragen, so auszusprechen, dass ihre Unabhängigkeit von der mit dem Projicieren verknüpften Aenderung in Evidenz tritt.«20 In diesem Sinne wird die projektive Geometrie zum Forschungsmittel, das neue Räume und Gestalten erschließt. Da zu Beginn der Entwicklung jedoch ausschließlich die synthetisch-konstruierende Methode verwendet wird, bleiben die Projektionen vorerst auf geometrische Eigenschaften beschränkt. Erst später werden diese durch die analytische Methode zunehmend abstrakter. Die mathematischen Eigentümlichkeiten einer projektiven Geometrie lassen sich aus heutiger Perspektive am einfachen Beispiel einer Kreisund Kugelgeometrie – als Hohlweltentheorie auf die Erdkugel angeinnerliche Zueignung eines geistigen Bedeutungsinhalts an ein konkretes Symbol. Vgl. Panofsky, ›Die Perspektive als ›symbolische Form‹‹ (1927), 1980, S. 108; Ernst Cassirer: Philosophie der symbolischen Formen (1923, 1924, 1929), 3 Bde., Darmstadt: Wissenschaftliche Buchgesellschaft 1988, 1987, 1990. Die verschiedenen Perspektiven der Orthogonalprojektion (Aufriss, Seitenriss), der Zentralprojektion (Fluchtpunkt-Konstruktion) und der Parallelprojektion (Schrägbilder) lassen sich in den konstruierten optischen Täuschungen der Anamorphose vereinen. 17 Vgl. Hans Wußing: Vorlesungen zur Geschichte der Mathematik, Ost-Berlin: VEB Deutscher Verlag der Wissenschaften 1989, S. 198 ff. 18 Vgl. Gaspard Monge: Géométrie descriptive (1794), Paris: Bachelier 1847. 19 Vgl. Poncelet, Traité des propriétés projectives des figures, 1822. 20 Felix Klein: ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), in: Mathematische Annalen, 43, 1893, 63–100, S. 69, 70.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Projektionen geometrischer Gebilde

wandt – illustrieren.21 Für diese Hohlwelttheorie bedarf es der Inversion am Kreis beziehungsweise an der Kugel, das bedeutet, dass bezogen auf die Erdkugel, Erdäußeres und Erdinneres invertiert werden. Das heißt, dass das neue Erdinnere »nach allen Seiten unbeschränkt weit [reicht]. Die früheren unermesslichen Himmelsweiten dagegen haben im zuvor endlichen Erdinneren Platz. Insofern übertragen sich daher auch die Entfernungsverhältnisse derart, dass die Entfernung von der Erdoberfläche zum Mittelpunkt der Hohlwelt unendlich ist, während die Entfernung von der Erdoberfläche zum früheren Unendlichen [… den Erdradius] beträgt.«22 Analog bildet sich der ›unendliche‹ Außenraum in den ›endlichen‹ Sehraum der Pupille oder Kameralinse ab.23 Im Falle der Kreisinversion wird der zuvor endlich gegebene Erdmittelpunkt euklidisch gesehen unendlich fern und man hat für dessen Projektion die euklidische Ebene um einen unendlich fernen Punkt U zu erweitern (konforme Ebene), der als Bildpunkt des Mittelpunktes des Inversionskreises dient. Ohne diese ideelle Setzung hätte der Mittelpunkt des Inversionskreises keinen Bildpunkt; er wäre nicht definiert. Der Grund, die euklidische Ebene um einen unendlich fernen Punkt U zu erweitern, liegt darin, dass dadurch die Figuren der euklidischen Geometrie als Ganzes und damit die übliche ›Anschauung‹ des Geometers diesbezüglich erhalten bleiben.24 In dieser Methode der idealen Elemente sieht Hermann Weyl zu Recht 21 Die Hohlwelttheorie, in deren Mittelpunkt sich Hohlweltwesen befinden, aus deren ›Sicht‹ sich die Geometrie darstellt, geht auf den Autor Cyrus R. Teed um 1869 zurück. Vgl. Gerhard Kowol: Projektive Geometrie und Cayley-Klein Geometrien der Ebene, Basel u.a.: Birkhäuser 2009, S. 1. 22 Kowol, Projektive Geometrie und Cayley-Klein Geometrien der Ebene, 2009, S. 3. 23 Nicht der körperliche Beobachter als Ausgangspunkt, sondern die Sehstrahlen stehen im Zentrum der projektiven Geometrie. Dabei ist zu berücksichtigen, dass der Sehstrahl nicht auf eine Ebene, sondern auf die gekrümmte Fläche der sphäroiden Sehwelt trifft. Dies führt zu Verzerrungen, die durch die projektiven Transformationen entzerrt werden müssen. Wird nun angenommen, dass das Sehfeld 360° umfasst – so als ob das gesamte Auge Pupille wäre –, so treffen die Sehstrahlen die Pupille zweimal, einmal beim Eintritt und einmal beim Austritt. Jeder Sehstrahl geht dabei durch den Augenmittelpunkt. Indem nun die Eintritts- und Austrittspunkte des Sehstrahls als sich diametral gegenüberliegend identifiziert werden, wird aus der Sphäre des Auges eine projektive Ebene, die sich anschaulich als Band auf einer Halbkugel verstehen lässt, das durch die antipodische Zusammenfügung der Kanten des Bandes ein Möbiusband darstellt. Die projektive Geometrie besteht nun aus der projektiven Ebene und den geometrischen Objekten in dieser Ebene. In ihr gilt das Parallelenaxiom nicht. Damit stellt die konkrete projektive Geometrie der sphäroiden Sehwelt eine nicht-euklidische Geometrie dar. Vgl. Kowol, Projektive Geometrie und Cayley-Klein Geometrien der Ebene, 2009. 24 »Kepler spricht erstmals von ›unendlich fernen Punkten‹, die in der projektiven Geometrie Parallelen als unendlich ferne Schnittpunkte zugeordnet werden.« Mainzer, Symmetrien der Natur, 1988, S. 200.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

113



114

Kapitel 5  ·  Verlust der mathematischen Anschauung

die schöpferische Kraft der Mathematik.25 Dabei wird an diesem noch sehr eingängigen Beispiel deutlich, wie die konstruierende Anschaulichkeit überschritten wird, ohne jedoch die Urintuition der Anschauung preiszugeben. Die Kreis- beziehungsweise Kugelinversion bildet die um U erweiterte euklidische Geometrie bijektiv in sich ab und Klassen von Figuren werden in ganze Klassen überführt (Übertragungsprinzip). Damit dient die Kreis- beziehungsweise Kugelinversion als Hilfsmittel, um Sätze der Geometrie herzuleiten. Doch die Projektion einer Kugel auf die konforme Ebene fordert ihren Tribut. Bezogen auf die stereographische Projektion verhalten sich Geraden wie Kreise, das bedeutet, die Objekte der Kreisgeometrie sind ausschließlich Punkte und Kreise. Analytisch – also anhand von Gleichungen – betrachtet kann ein Kreis der Kreisgeometrie euklidisch betrachtet ein Kreis oder eine Gerade sein.26 Etwas komplizierter verhält es sich im Falle der Zentralprojektion. Denn trotz aller Verallgemeinerung ist es »eben doch der Sehraum, den sie [Zentralperspektive] mathematisiert – sie ist eine Ordnung, aber sie ist eine Ordnung der visuellen Erscheinung«.27 Mathematisch gesehen erhält man jedoch nur dann eine wohldefinierte Beschreibung, wenn man den Definitions- wie Bildbereich einschränkt, da die von Augenhöhe aus verlaufende Gerade keine Schnittpunkte in der Projektion und die durch den Fußpunkt verlaufende Gerade keine Bildpunkte besitzt. So wie für den Mittelpunkt des Inversionskreises der unendlich ferne Punkt U als Bildpunkt eingeführt wurde, so muss nun eine ›Ferngerade‹ hinzugenommen werden, um ein vollständiges System zu erhalten.28 Dies hat zur Folge, dass in der um die Elemente der Ferngeraden erweiterten euklidischen Ebene alle parallelen Geraden durch einen gemeinsamen Fernpunkt charakterisiert sind. »Von daher rührt die Aussage, dass 25 Zur Methode der idealen Elemente als schöpferische Kraft der Mathematik vgl. Weyl, Philosophie der Mathematik und Naturwissenschaft (1928), 1949, S. 9 ff. 26 »Aufgrund der Bijektivität der stereographischen Projektion ist eine beliebige Kugel Γ ein ›Modell‹ der konformen Ebene […], wobei das hier nur heissen soll, dass man damit ein anschauliches Bild dieser Ebene gewonnen hat. Beispielsweise sieht man sofort, dass alle Geraden durch U verlaufen, denn deren Bilder sind genau die Kreise durch N [Nordpol der Kugel].« Kowol, Projektive Geometrie und Cayley-Klein Geometrien der Ebene, 2009, S. 17. Um U in diese Fallunterscheidung einzubeziehen, bedarf es komplexer Koordinaten (für U die Koordinate ∞ mit entsprechenden Rechenregeln). Ein Punkt in der euklidischen Ebene (x, y) wird dabei durch die komplexe Koordinate z = x + iy dargestellt. Nun lassen sich die verschiedenen Transformationen wie Drehung ϑ (Drehung um 0 um den Winkel φ im Gegenuhrzeigersinn) oder Spiegelung σ analytisch fassen und daraus lassen sich Aussagen über Eigenschaften dieser Geometrie ableiten. 27 Panofsky, ›Die Perspektive als ›symbolische Form‹‹ (1927), 1980, S. 126. 28 Dies macht deutlich, dass Abstraktion und Idealisierung in der Mathematik oft der Systematisierung eines bestehenden mathematischen Ansatzes geschuldet sind.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Projektionen geometrischer Gebilde

sich parallele Geraden ›im Unendlichen schneiden‹. Sie bedeutet, dass der jeweilige ideale Zusatzpunkt, den jede Gerade nun besitzt, genau dann mit einem anderen übereinstimmt, wenn die entsprechenden Geraden parallel sind.«29 Dies bedeutet aber nichts weniger, als dass der Begriff des Unendlichen kontextabhängig wird: Er wird zum Punkt in der Kreisinversion und zur Geraden in der Zentralprojektion. Anders gewendet, in der um einen unendlich fernen Punkt U erweiterten euklidischen Ebene schneiden sich alle Geraden; in der um Fernelemente erweiterten euklidischen Ebene der Zentralprojektion schneiden sich nur parallele Geraden in einem Fernpunkt. Durch die Einführung unendlich ferner Punkte, die die sinnliche Anschauung überschreiten, lassen sich Parallel- und Zentralprojektion zu einem System mathematisch zusammenführen. Dies macht deutlich, dass die fixen Elemente der euklidischen Geometrie sich aufzulösen beginnen und mit ihnen die seit zwei Jahrtausenden gültigen Definitionen und Axiome. Neben der projektiven Geometrie gibt es weitere Versuche, die euklidische Doktrin der Elemente zu überwinden. Bereits 1767 hatte Jean-Baptiste D’Alembert moniert: »Die Erklärung und die Eigenschaften der geraden Linie, sowie die parallelen Geraden, sind die Klippe und sozusagen das Ärgernis der Elementargeometrie.«30 1794 zeigt Adrien-Marie Legendre, dass das Parallelenaxiom gleichbedeutend ist mit dem Satz, dass die Winkelsumme des Dreiecks zwei Rechte beträgt.31 Für seinen Beweis löst Legendre die Orientierung an Längeneinheiten auf und geht von der Existenz ähnlicher Figuren aus.32 Bezogen auf die euklidische Geometrie bedeutet dies, dass die Winkelsumme des Dreiecks nicht größer oder kleiner als 180° sein kann. Damit eröffnet sich von selbst die naheliegende Frage, ob es nicht Dreiecke geben kann, für die das nicht gilt. Bereits 1766 stellt sich Johann Heinrich Lambert eben diese Frage und nimmt eine Fallunterscheidung von Dreiecken mit einer Winkelsumme gleich, größer und kleiner 180° vor. Eine Winkelsumme größer als 180° könnte zu Widersprüchen führen, so Lambert, und eine kleiner als 180° würde erhebliche Unannehmlichkeiten mit sich bringen. »Die trigonometrischen Tafeln würden unendlich weitläufig; und die Aehnlichkeit und Proportionalität der Figuren würde ganz wegfallen; keine Figur ließe sich anders als in ihrer abso29 Kowol,

Projektive Geometrie und Cayley-Klein Geometrien der Ebene, 2009, S. 78. D’Alembert übersetzt in Friedrich Engel, Paul Stäckel (Hrsg.): Die Theo­rie der Parallellinien von Euklid bis Gauß. Eine Urkundensammlung zur Vorgeschichte der nichteuklidischen Geometrie, Leipzig: Teubner 1895, S. 211. Vgl. Jean-Baptiste D’Alembert: ›Éclaircissemens sur différrens endriots des Élements de Philosophie‹, in: Ders.: Mélanges de littérature, d’histoire, et de philosophie, 5. Bd., Amsterdam: Chatelain 1767, 3–274. 31 Vgl. Adrien-Marie Legendre: Éléments de géométrie, Paris: Didot 1794. 32 Vgl. Engel, Stäckel, Die Theorie der Parallellinien von Euklid bis Gauß, 1895, S. 211 ff. 30 Jean-Baptiste

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

115



116

Kapitel 5  ·  Verlust der mathematischen Anschauung

luten Größe vorstellen; um die Astronomie wäre es übel bestellt.«33 Doch seien diese Argumente ›ab amore & invidia ducta‹ und hätten keine Bewandtnis für die Geometrie. Entscheidend nun ist, dass Lambert Dreiecke mit einer Winkelsumme größer 180° der sphärischen Geometrie und Dreiecke mit einer Winkelsumme kleiner 180° der imaginären Kugelfläche zuordnet.34 Carl Friedrich Gauß, der sich ab den 1790er Jahren mit der Parallellinientheorie beschäftigt, jedoch nichts dazu veröffentlichte, weil er das »Geschrei der Boeoter« fürchtet,35 spricht dann in einem Brief aus dem Jahr 1831 erstmals von der »Nicht-Euclidischen Geometrie«.36 Die tatsächliche Axiomatisierung einer nicht-euklidischen Geometrie erfolgt jedoch erst durch Nikolai Lobatschewski und János Bolyai ab den 1820er Jahren. Beide entwerfen eine hyperbolische Geometrie, in der es beliebig viele Parallelen gibt.37 Bernhard Riemann wird später den Weg für elliptische Geometrien freimachen, in welchen es keine Parallelen mehr gibt.38

33 Johann H. Lambert: ›Theorie der Parallellinien‹ (1766), in: Leipziger Magazin für reine und angewandte Mathematik, 1, 1786, 137–164, 325–358, neu abgedruckt in: Engel, Stäckel, Die Theorie der Parallellinien von Euklid bis Gauß, 1895, 152–208, S. 201. 34 »Ich sollte daraus fast den Schluß machen, die dritte Hypothese komme bey einer imaginären Kugelfläche vor.« Lambert, ›Theorie der Parallellinien‹ (1766), 1895, S. 203. 35 Carl Friedrich Gauß: Brief an Bessel vom 27. Januar 1829, in: Engel, Stäckel, Die Theo­rie der Parallellinien von Euklid bis Gauß, 1895, S. 226. Mit dem Geschrei der Boeoter meint Gauß die Kantianer seiner Zeit. »[D]ie Beschäftigung mit der ›berüchtigten‹ fünften Forderung« wurde als ähnlich verwerflich angesehen wie das Bemühen »um die Quadratur des Kreises und um das Perpetuum mobile.« Ebd., S. 239. 36 Carl Friedrich Gauß: Brief an Schumacher vom 12. Juli 1831, abgedruckt in: Engel, Stäckel, Die Theorie der Parallellinien von Euklid bis Gauß, 1895, 232–234, S. 233. 37 Eine erste zusammenfassende Darstellung und Dokumentensammlung der Theorie der Parallellinien bis in die Zeit von Gauß, Lobatschewski und Bolyai geben Paul Stäckel und Friedrich Engel 1885 heraus. Insbesondere zur Rezeptions- und Editionsgeschichte von Lobatschewskys und Bolyais Werken vgl. Engel, Stäckel, Die Theorie der Parallellinien von Euklid bis Gauß, 1895, S. 239 ff. 38 Felix Klein formuliert dann 1872 ein ebenes Modell einer nicht-euklidischen Geometrie anhand des Inneren einer Ellipse. Vgl. Felix Klein: ›Über die sogenannte Nicht-Euklidische Geometrie (erster Aufsatz)‹ (1872), in: Ders.: Gesammelte mathematische Abhandlungen, 3. Bd., Berlin: Springer 1921, 254–305; Bernhard Riemann: ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (Habilitationsvortrag vom 10. Juni 1854), in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen 1866/1867, 13. Bd., Göttingen: Dietrichsche Buchhandlung 1868, 133–150. »Als Modell einer elliptischen Geometrie hat man etwa die Geometrie auf der Fläche einer reellen Kugel, wenn man ›Ebene‹ durch Kugeloberfläche, ›Gerade‹ durch Großkreis auf der Kugeloberfläche und ›Punkt‹ durch ein paar diametral gegenüberliegende Punkte interpretiert.« Wußing, Vorlesungen zur Geschichte der Mathematik, 1989, S. 255.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



n-dimensionale Mannigfaltigkeiten

n-dimensionale Mannigfaltigkeiten

Noch bewegen sich projektive und nicht-euklidische Geometrie im Dreidimensionalen. Doch der nächste und naheliegende Schritt besteht in der Überwindung der Beschränkung auf drei Dimensionen. Diese Überwindung bereitet sich in der Erweiterung und Verallgemeinerung des Koordinatenbegriffs vor. Bis ins 19. Jahrhundert werden Punktkoordinaten als kartesische Parallelkoordinaten verwendet, auch wenn bereits Leibniz krummlinige Koordinatensysteme benutzte und Legendre die analytische Auffassung von vierdimensionalen Koordinaten schon 1794 vertrat.39 1835 erweitert Julius Plücker mit seinem System der analytischen Geometrie den Begriff der Punktkoordinaten, indem er diese durch lineare Gleichungen darstellt und die verschiedenen Typen linearer Punktkoordinaten durch Transformationen auseinander hervorgehen lässt.40 Dadurch wird der Koordinatenbegriff allgemeiner gefasst und der Raum wird zur abstrakten Zahlenmannigfaltigkeit, deren Dimension der Anzahl der unabhängigen Parameter entspricht.41 Der dreidimensionale Raum nimmt dabei nur noch eine Sonderstellung ein. Ein erster Ertrag dieser abstrakten Auffassung zeigt sich in den Untersuchungen von Gauß und Riemann über die innere Geometrie von Flächen (bei Riemann im n-dimensionalen Raum). Ausgehend von Raumverhältnissen als Maßverhältnissen und von der analytischen Darstellung dieser Maßverhältnisse als Zahlenverhältnisse führt Gauß 1827 in seiner Flächentheorie ein Krümmungsmaß der Fläche ein, das die innere Struktur einer Fläche ohne Rückgriff auf den umgebenden Raum bestimmt.42 Das bedeutet, die Krümmung lässt sich lokal innerhalb der Fläche messen und dadurch 39

Vgl. Legendre, Éléments de géométrie, 1794. Julius Plücker: System der analytischen Geometrie, Berlin: Duncker & Humblot

40 Vgl.

1835.

41 Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 19 f. Kartesische Punktkoordinaten genügen nicht für die um unendlich ferne Punkte erweiterte affine Ebene Ɛ. Indem alle Punkte von Ɛ durch die Koordinaten (x, y, 1) bestimmt werden und 0 als Projektionszentrum definiert wird, lassen sich die homogenen Koordinaten einer Geraden durch 0 als (x0, y0, 1) angeben. Für die homogenen Koordinaten der projektiven Geometrie gilt die Symmetrie von Punkten und Geraden, das heißt das Tripel von Koordinaten lässt sich als Punktkoordinaten oder Geradenkoordinaten interpretieren (Dualitätsprinzip). Vgl. Mainzer, Geschichte der Geometrie, 1980, S. 148 ff. 42 Dies ist für die Verallgemeinerung vom Zweidimensionalen ins Dreidimensionale von Bedeutung, denn dadurch ist es möglich, »das Krümmungsmaß des uns umgebenden physikalischen Raumes zu bestimmen, ohne daß dazu die Existenz eines vierdimensionalen einbettenden Raumes […] angenommen werden müßte«. Annette Garbe: Die partiell konventional, partiell empirisch bestimmte Realität physikalischer RaumZeiten, Würzburg: Königshausen & Neumann 2001, S. 73. Vgl. Carl Friedrich Gauß: ›Disquisitiones generales

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

117



118

Kapitel 5  ·  Verlust der mathematischen Anschauung

werden unterschiedlich gekrümmte Flächen als ineinander transformierbar beschreibbar: die sphärische Fläche als konstant positiv, die hyperbolische Fläche als konstant negativ gekrümmte und die ebene Fläche der euklidischen Geometrie mit dem Krümmungsmaß 0. Das heißt, eine Kugel mit dem Radius 1 hat eine konstant positive Krümmung 1, Lamberts imaginäre Kugel mit Radius i hat die konstant negative Krümmung -1. Ein Objekt wie der Sattelrücken hat zwar an allen Punkten eine negative Krümmung, doch der Grad der Krümmung variiert; ebenso ist ein Ei variabel positiv gekrümmt. Ein Torus (Ringfläche) hingegen hat eine positive wie auch negative Krümmung. Die Krümmungszahl bleibt auch im Falle der Verbiegung einer Fläche erhalten, insofern keine Zerrung oder Dehnung erfolgt, da das Krümmungsmaß nur von der inneren Geometrie der Fläche abhängt und damit gegenüber linientreuen Transformationen invariant ist. Die Voraussetzung zur Bestimmung eines lokalen Krümmungsmaßes ist die Einführung eines messenden Koordinatennetzes mit krummlinigen Koordinaten, wobei sich der Abstand zweier Punkte auf der gekrümmten Fläche durch ein Linienelement angegeben lässt, das durch die entsprechenden Koordinatendifferentiale bestimmbar ist.43 1854 stellt dann Bernhard Riemann in seinem Habilitationsvortrag Ueber die Hypothesen, welche der Geometrie zu Grunde liegen seine Differentialgeometrie als Verallgemeinerung von Gauß‹ Flächentheorie für n-dimensionale Mannigfaltigkeiten vor. Er kritisiert die »Dunkelheit« der axiomatischen Methode »von Euklid bis auf Legendre«, die »weder von den Mathematikern, noch von den Philosophen, welche sich damit beschäftigten«, behoben wurde, weil »der allgemeine Begriff mehrfach ausgedehnter Grössen, unter welchen die Raumgrössen enthalten sind, [bislang] ganz unbearbeitet blieb«.44 Für einen solch allgemeinen, analytischen Begriff mehrfach ausgedehnter Größen schlägt Riemann nun vor, nicht auf Eigenschaften des Raumes aus der Erfahrung zu rekurrieren, sondern die einfachsten Tatsachen zu charakterisieren, die zur Bestimmung der Maßverhältnisse des Raumes hinreichen: Nicht die Ausdehnung, sondern die Stetigkeit und Mehrdimensionalität seien die circa superficies curvas‹ (1827), in: Commentationes Societatis Regiae Scientiarum Gottingensis recentiores, 6 (Mathematische Klasse), 1828, 99–146. 43 »Das Erstaunliche an der Gaußschen Flächentheorie ist aber, daß sie, obwohl von einem völlig anderen Ansatz her entwickelt als die nicht-euklidischen Geometrien von Bolyai und Lobatschewskij, eine der Dreiteilung der (nicht-euklidischen) Geometrien in hyperbolische, euklidische und sphärische Geometrie analoge Klassifizierung in Bezug auf zwei Dimensionen mittelst des Gaußschen Krümmungsmaßes erlaubt.« Garbe, Die partiell konventional, partiell empirisch bestimmte Realität physikalischer RaumZeiten, 2001, S. 67. 44 Riemann, ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (1854), 1868, S. 133.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



n-dimensionale Mannigfaltigkeiten

allgemeinsten Eigenschaften. Der Raum nimmt dabei nur eine Sonderrolle ein als »dreifach ausgedehnte Zahlenmannigfaltigkeit, in welcher sich das Quadrat des Bogenelementes durch eine quadratische Form der Differentiale der Coordinaten ausdrückt«.45 Riemann unterscheidet zwischen diskreten und stetigen Mannigfaltigkeiten. Während erstere häufig sind, seien letztere »im gemeinen Leben so selten, dass die Orte der Sinnengegenstände und die Farben wohl die einzigen einfachen Begriffe sind, deren Bestimmungsweisen eine mehrfach ausgedehnte Mannigfaltigkeit bilden«.46 Entsprechend lassen sich diskrete Mannigfaltigkeiten durch Abzählung und stetige Mannigfaltigkeiten durch Messung vergleichbarer Größen bestimmen. Durch die Einführung diskreter Mannigfaltigkeiten erhält jedes Element einer stetigen, n-dimensionalen Mannigfaltigkeit eine eindeutig koordinierte Bestimmung. Dabei sind die Koordinaten beliebig wählbar und frei von jeglichen metrischen Vorschriften. In Riemanns Worten: Jeder Punkt (veränderliches Stück einer Mannigfaltigkeit von einer Dimension) hat »einen bestimmten mit ihm stetig sich ändernden Werth« und »jedes System von Punkten, wo die Funktion einen constanten Werth hat, bildet dann eine stetige Mannigfaltigkeit von weniger Dimensionen, als die gegebene. Diese Mannigfaltigkeiten gehen bei Aenderung der Function stetig ineinander über […] Hierdurch wird die Ortsbestimmung in der gegebenen Mannigfaltigkeit zurückgeführt auf eine Grössenbestimmung und auf eine Ortsbestimmung in einer minderfach ausgedehnten Mannigfaltigkeit. […] Durch nmalige Wiederholung dieses Verfahrens wird daher die Ortsbestimmung in einer nfach ausgedehnten Mannigfaltigkeit auf n Grössenbestimmungen, und […] wenn dies möglich ist, auf eine endliche Anzahl von Quantitätsbestimmungen zurückgeführt.«47 So ist jeder Punkt einer n-fach ausgedehnten stetigen Mannigfaltigkeit durch n Zahlen festgelegt. Der neue Aspekt an Riemanns analytischer Geometrie als Differentialgeometrie ist, dass er den Maßstab für die Mannigfaltigkeiten definiert, indem er den Abstand (Linienelement) von beliebig nahe benachbarten Punkten 45 Felix Klein: ›Riemann und seine Bedeutung für die Entwicklung der modernen Mathematik‹ (1894), in: Jahresbericht der Deutschen Mathematikervereinigung, 4, 1894/95 (1897), 71–87, S. 80. 46 Riemann, ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (1854), 1868, S. 135. 47 Ebd. »Es giebt indess auch Mannigfaltigkeiten, in welchen die Ortsbestimmung nicht eine endliche Zahl, sondern entweder eine unendliche Reihe oder eine stetige Mannigfaltigkeit von Grössenbestimmungen erfordert. Solche Mannigfaltigkeiten bilden z. B. die möglichen Bestimmungen einer Function für ein gegebenes Gebiet, die möglichen Gestalten einer räumlichen Figur u.s.w.« Riemann, ›Ueber die Hypothesen, welche der Geometrie Grunde liegen‹ (1854), 1868, S. 135, 136.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

119



120

Kapitel 5  ·  Verlust der mathematischen Anschauung

und den Abstand weiter entfernter Punkte durch Einfügen von Zwischenpunkten und deren Aufsummieren bestimmt. Weyl kommentiert dies wie folgt: »Das Prinzip, die Welt aus ihrem Verhalten im Unendlichkleinen zu verstehen, ist das treibende erkenntnistheoretische Motiv der Nahwirkungsphysik [von Faraday, Maxwell und später Einstein] wie der Riemannschen Geometrie.«48 Voraussetzung ist, »dass die Linien unabhängig von der Lage eine Länge besitzen, also jede Linie durch jede messbar ist«, und es gelingt, »für die Länge der Linie einen mathematischen Ausdruck aufzustellen«.49 Für den Raum der euklidischen Geometrie, dargestellt in einem orthogonalen Koordinatensystem, ergibt sich folgender analytischer Ausdruck für das Linienelement (ds) – »Quadratwurzel aus einer immer positiven ganzen homogenen Funktion zweiten Grades der Grösse dx, in welcher die Coefficienten stetige Functionen der Grösse x sind«:50 ds = √Σ(dx)2 Dies ist ein Spezialfall: Nur für eine ebene Geometrie ist das Quadrat des Linienelements Σ(dx)2, da das Krümmungsmaß 0 ist. Für Gauß‹ krummlinige Fläche wird das Quadrat des Linienelements mit dem konstanten Krümmungsmaß -3/4 multipliziert, insofern sich die inneren Maßverhältnisse nicht durch Dehnung ändern. Allgemein nun, für n-fach ausgedehnte Mannigfaltigkeiten, ist das Quadrat des Linienelements Σ(dx)2 in jedem Punkt in n((n – 1)/2) Flächenrichtungen mit voneinander unabhängigen Krümmungsmaßen zu multiplizieren. Auch wenn sich komplexere Linienelemente denken lassen – wie etwa vierte Wurzel aus einem Differentialausdruck vierten Grades –, so ist das eigentliche Ergebnis, das Riemann zeigen will, »dass sich die Verhältnisse der zweifach ausgedehnten [Mannigfaltigkeiten] geometrisch durch Flächen darstellen und die der mehrfach ausgedehnten auf die der in ihnen enthaltenen Flächen zurückführen lassen«.51 Damit sind nicht nur die beiden von Lobatschewski und Bolyai synthetisch konstruierten nicht-euklidischen Geometrien allgemein darstellbar, sondern ganze Klassen nicht-euklidischer Mannigfaltigkeiten mit unterschiedlichen 48 Hermann Weyl: Raum. Zeit. Materie. Vorlesungen über allgemeine Relativitätstheorie (1918), Berlin: Springer 1919, S. 82. Gauß’ Entdeckung, dass die Krümmung nur von den inneren Maßverhältnissen der Fläche abhängt, lässt sich geometrisch als »Differentialinvariante der quadratischen Differentialform von zwei Variablen« formulieren, die für die Fläche ein Skalar ist und die Riemann auf n Variablen überträgt, so »daß sie dann kein Skalar mehr ist, sondern ein Tensor«. Ebd., S. 85, 86. 49 Riemann, ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (1854), 1868, S. 138. 50 Ebd., S. 140. 51 Ebd., S. 143

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



n-dimensionale Mannigfaltigkeiten

negativen oder positiven Krümmungsmaßen.52 Es wird sofort ersichtlich, dass eine n-dimensionale euklidische Geometrie mit Krümmungsmaß 0 nur einen einzigen n-dimensionalen Raum als Erfüllung hat und keine Klasse von Räumen generiert. Da ›Riemannsche Räume‹ nicht nur analytisch durch das Linienelement bestimmt sind, sondern n-dimensional und beliebig gekrümmt sein können, ist der allgemeinste Fall eine n-dimensionale Mannigfaltigkeit mit variablem Krümmungsmaß in jedem Punkt. Am Ende seines Vortrags stellt sich Riemann die Frage »nach der Gültigkeit der Voraussetzungen der Geometrie im Unendlichkleinen«, die »mit der Frage nach dem inneren Grunde der Massverhältnisse des Raumes« zusammenhängt.53 Dieser innere Grund wurde zu Anfang von ihm für diskrete und stetige Mannigfaltigkeiten unterschieden, insofern im Begriff der diskreten Mannigfaltigkeiten das Prinzip der Maßverhältnisse enthalten ist, wohingegen für stetige Mannigfaltigkeiten es zu dem Begriff hinzukommen muss. Diskrete Mannigfaltigkeiten sind philosophisch gewendet ›analytisch‹, während stetige Mannigfaltigkeiten ›synthetisch‹ sind. »Es muss also entweder das dem Raume zu Grunde liegende Wirkliche eine discrete Mannigfaltigkeit bilden, oder der Grund der Massverhältnisse ausserhalb, in darauf wirkenden Kräften gesucht werden.«54 Die Geometrie liefert nicht die Antwort auf diese Frage, daher kann sie nur von der Physik anhand der Erfahrung beantwortet werden, so Riemann. Erst ein halbes Jahrhundert später wird Albert Einstein eine Antwort darauf geben.55 Riemanns Konzeption des Raums resultiert aus der zunehmenden Verschmelzung von Mathematik und Mechanik Mitte des 19. Jahrhunderts. Vor dem Hintergrund der Entwicklungen in der Thermo- und Hydrodynamik wie auch der Elektrodynamik und Optik wird das Konzept der Bewegung – artikuliert als Koordinatentransformation – zunehmend als Widerspiegelung wirklicher physikalisch-mechanischer Bewegung aufgefasst. Der mathematische Punkt wird zur Repräsentation materieller Punkte und physikalische Körper lassen sich als Punktaggregate behandeln. Damit wird die Geometrie 52 Vgl. Garbe, Die partiell konventional, partiell empirisch bestimmte Realität physikalischer RaumZeiten, 2001, S. 75 ff. 53 Riemann, ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (1854), 1868, S. 149. 54 Ebd. 55 Die Antwort Einsteins fordert Kants Konzeption heraus. Nicht weil seine Relativitätstheorie so ›unanschaulich‹ wäre, sondern weil sich zeigt, dass sich »die Maßverhältnisse […] nicht auf Rechnung des Raumes als Form der Erscheinungen, sondern auf Rechnung des durch das Gravitationsfeld bestimmten physikalischen Verhaltens von Maßstäben und Lichtstrahlen« generieren. Weyl, Raum. Zeit. Materie, 1919, S. 91.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

121



122

Kapitel 5  ·  Verlust der mathematischen Anschauung

des physischen Raumes durch Punkttransformationen analysierbar.56 Dieser ›mechanische Materialismus‹, der Physik auf Punktmechanik und diese auf Mathematik zurückführt, stellt eine Gegenbewegung zur Loslösung des geometrischen Raumbegriffs vom physikalischen Raumbegriff in der projektiven Geometrie dar. Im Zentrum beider Tendenzen steht jedoch der Bewegungsbegriff, der zur Kongruenz zweier geometrischer Gebilde führt und sich analytisch als Deckungsabbildung durch Punkttransformationen formulieren lässt. Damit bildet der Begriff der Kongruenz die Voraussetzung, um die Bewegung von Körpern und damit das Messen durch Maßstabsvergleich zu definieren, und daran entzündet sich Hermann von Helmholtz’ Kritik an Riemanns Konzeption. Denn von Helmholtz, der 1868 mit der analytischen Formulierung des Quadrats des Linienelements als homogene Funktion zweiten Grades zu einer analogen Bestimmungsweise der Raumgrößen wie Riemann gelangt, sieht Kongruenz nicht als gesetztes Axiom, sondern als ›Thatsache der Beobachtung‹.57 Riemann, so von Helmholtz, setzt »die Forderung einer unbedingt freien Beweglichkeit in sich fester Figuren [starre Messkörper] ohne Formänderung in allen Theilen des Raumes« als Ausgangshypothese seiner Überlegungen voraus und leitet alles weitere daraus ab,58 während sich für ihn »die Nothwendigkeit jenes algebraischen Ausdrucks« des Linienelements aus »der Thatsache der Beobachtung […], dass in unserem Raume die Bewegung fester Raumgebilde mit demjenigen Grade von Freiheit möglich ist, den wir kennen«, ergibt.59 Diese Argumentation, die aus von Helmholtz’ Studien zur Dimensionalität des Farb- und Tonraumes und seiner Orientierung am ›wirklichen Raum‹ resultieren,60 speisen sich wie bei Riemann aus der Kritik des 56

Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 144 f. Hermann von Helmholtz: ›Ueber die Thatsachen, die der Geometrie zu Grunde liegen‹, in: Nachrichten der Königlichen Gesellschaft der Wissenschaften zu Göttingen und der Georg-Augusts-Universität zu Göttingen, 9. Bd., Göttingen: Dieterichsche Buchhandlung 1868, 193–221. 58 von Helmholtz, ›Ueber die Thatsachen, die der Geometrie zu Grunde liegen‹, 1868, S. 196. 59 Hermann von Helmholtz: ›Über den Ursprung und die Bedeutung der geometrischen Axiome‹ (1870), in: Ders.: Vorträge und Reden, 2. Bd., Braunschweig: Vieweg 1883, 1–31, S. 14. Annette Garbe weist darauf hin, dass Helmholtz unter ›Axiom‹ einen empirischen Grundsatz versteht und keine formal-logische Auffassung. Vgl. Garbe, Die partiell konventional, partiell empirisch bestimmte Realität physikalischer RaumZeiten, 2001, S. 92, Fn. 23. Letztendlich erweisen sich von Helmholtz’ anschauliche Überlegungen als heuristisch wertvoll, aber mathematisch unzutreffend. 60 »Riemann nennt ein System von Unterschieden, in welchem das Einzelne durch n Abmessungen bestimmt werden kann, eine nfach ausgedehnte Mannigfaltigkeit oder eine Mannigfaltigkeit von n Dimensionen. Somit ist also der uns bekannte Raum, in dem wir leben, eine dreifach ausgedehnte Mannigfaltigkeit«, aber auch »das System der Far57

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



n-dimensionale Mannigfaltigkeiten

Anschauungscharakters der euklidischen Geometrie; und zwar nicht nur ihrer Axiome, sondern ihrer Methode und der sich daraus ableitenden Art der Beweisführung. Den Grund für die Schwierigkeiten der Etablierung der nicht-euklidischen Geometrien sieht von Helmholtz darin, »dass sich mit den logischen Begriffsentwickelungen gar zu leicht Ergebnisse der alltäglichen Erfahrung als scheinbare Denknothwendigkeiten vermischten, solange die einzige Methode der Geometrie die von Euklides gelehrte Methode der Anschauung war«.61 Doch anders als Riemanns analytische Kritik, dass der euklidischen Geometrie ein allgemeiner Begriff mehrfach ausgedehnter Größen fehle, kritisiert von Helmholtz, dass den Geometern entgangen sei, dass jeder Kongruenzbeweis, der »die Grundlage aller Beweise in der Euklid’schen Methode ist, […] auf eine nur aus der Erfahrung genommene Thatsache gestützt ist«, denn »um die Congruenz anschaulich zu machen, stellt man sich vor, dass die betreffenden geometrischen Gebilde zu einander hinbewegt werden, natürlich ohne ihre Form und Dimensionen zu verändern«.62 Damit kritisiert von Helmholtz genau jenen Aspekt der euklidischen Geometrie, der wissenschaftlich undefiniert geblieben war, da Bewegung nicht zur Grundlage der Elemente gehörte. ›Erfahrung‹ rekurriert hier auf die konstruierende Anschauung, die die fehlende Reichweite der platonischen Anschauung durch den Mangel eines Bewegungsbegriffes ergänzen muss. Mit von Helmholtz’ Kritik eröffnet sich der Grundlagenstreit über die ›Natur‹ geometrischer Axiome, aber auch zur Geometrie insgesamt, ob diese Erfahrungswissenschaft oder rein deduktive Theorie ist. Henri Poincaré wird ben«; »das Reich der einfachen Töne« (Tonhöhe, Tonstärke) lässt sich als eine zweifach ausgedehnte Mannigfaltigkeit verstehen. von Helmholtz, ›Über den Ursprung und die Bedeutung der geometrischen Axiome‹ (1870), 1883, S. 12. Im Unterschied zu homogenen geometrischen Mannigfaltigkeiten mit konstanter Krümmung, lassen sich für physiologische Mannigfaltigkeiten (Ton, Farbe) keine gleichen Punktabstände, das heißt kein starrer Maßstab angeben. 61 von Helmholtz, ›Über den Ursprung und die Bedeutung der geometrischen Axiome‹ (1870), 1883, S. 4, 5. »Ich führe diese Überlegungen hier zunächst nur an, um klar zu machen, auf welche Schwierigkeiten wir bei der vollständigen Analyse aller von uns gemachten Voraussetzungen nach der Methode der Anschauung stossen. Ihnen entgehen wir, wenn wir die von der neueren rechnenden Geometrie ausgearbeitete analytische Methode auf die Untersuchung der Principien anwenden. Die ganze Ausführung der Rechnung ist eine rein logische Operation; sie kann keine Beziehung zwischen den der Rechnung unterworfenen Grössen ergeben, die nicht schon in den Gleichungen, welche den Ansatz der Rechnung bilden, enthalten ist. Die erwähnten neueren Untersuchungen sind deshalb fast ausschliesslich mittelst der rein abstracten Methode der analytischen Geometrie geführt worden.« von Helmholtz, ›Über den Ursprung und die Bedeutung der geometrischen Axiome‹ (1870), 1883, S. 5. 62 Ebd., S. 5.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

123



124

Kapitel 5  ·  Verlust der mathematischen Anschauung

bezüglich geometrischer Axiome konstatieren, dass sie »weder synthetische Urteile a priori noch experimentelle Tatsachen [sind]. Es sind auf Übereinkommen beruhende Festsetzungen; unter allen möglichen Festsetzungen wird unsere Wahl von experimentellen Tatsachen geleitet; aber sie bleibt frei und ist nur durch die Notwendigkeit begrenzt, jeden Widerspruch zu vermeiden. […] Die geometrischen Axiome […] sind nur verkleidete Definitionen.«63 Erst durch die nicht-euklidischen Geometrien wird die Ambivalenz der euklidischen Axiome offensichtlich. Der Vorteil der analytischen Methode, wie sie Gauß und Riemann einführen, ist laut von Helmholtz, dass »gewohnte Anschauungsthatsachen [der euklidischen Geometrie nicht mehr] als Denknothwendigkeiten« untergeschoben werden können.64 Allerdings wird in der Diskussion der Begriff der Anschauung – analog zu den drei skizzierten Blickrichtungen der euklidischen Geometrie – nicht hinreichend differenziert. Damit werden auch die Gründe für die Notwendigkeit der verschiedenen Blickrichtungen nicht expliziert. Der eigentliche Vorteil der analytischrechnenden Methode liegt jedoch in ihrer Überschreitungsfunktion genau an der Stelle, die von der konstruierenden Anschaulichkeit bislang überbrückt werden musste, solange Bewegung nicht Teil der axiomatischen Begründung der Geometrie war. Diese Überschreitungsfunktion wird von Felix Klein im »präcisen und durchsichtigen Ausdruck der geometrischen Beziehungen« und als »begrifflich evident« gesehen, ohne die »gestaltliche Wirklichkeit« aufzugeben; auch wenn diese nicht mehr konstituierend von Nöten ist, um die Unvollständigkeit der platonischen Anschauung zu überbrücken, so bleibt sie als »Modell – mag es nun ausgeführt und angeschaut oder nur lebhaft vorgestellt sein – [erhalten, denn] für die Geometrie [ist die konstruierende Anschauung] nicht ein Mittel zum Zwecke, sondern die Sache selbst«.65 Historisch betrachtet hält sich in Deutschland bis weit in die Mitte des 19.  Jahrhunderts eine nicht unerhebliche Rivalität zwischen der synthetisch-konstruierenden Richtung der Geometrie (Jakob Steiner, Christian von Staudt) und den verschiedenen analytischen Richtungen (August F. Möbius, Julius Plücker sowie Bernhard Riemann, Hermann von Helmholtz). Dabei sind es nicht nur die analytisch formulierten nicht-euklidischen Geometrie 63

Henri Poincaré: Wissenschaft und Hypothese (1902), Leipzig: Teubner 1904, S. 51. Helmholtz, ›Über den Ursprung und die Bedeutung der geometrischen Axiome‹ (1870), 1883, S. 11. 65 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 93, 94. Felix Klein spricht hier aus der Perspektive des Mathematikers und er bezieht sich auf die Modelle der nicht-euklidischen Geometrie, beispielsweise sein ebenes, anschauliches Modell einer elliptischen Geometrie als Bild einer nicht-euklidischen Geometrie. 64 von

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Transformationsgruppen in Mannigfaltigkeiten

von Riemann und von Helmholtz, die die synthetische Richtung herausfordern. Das zunehmende Interesse an invarianten Eigenschaften von Figuren in der projektiven Geometrie bei Plücker und Möbius macht die Grenzen der synthetisch-konstruierenden Methode deutlich; beispielsweise bei der Einbeziehung des Imaginären in die projektive Geometrie, wie es erst durch Möbius’ analytische Methode der algebraischen Kennzeichnung der Orientierung durch Vorzeichen möglich wird. Letztendlich setzt sich die analytisch-rechnende Methode in den 1860er Jahren durch, doch die Frage, welche algebraische Methode für die projektive Geometrie geeignet ist, bleibt zunächst offen.66

Transformationsgruppen in Mannigfaltigkeiten

Der Preis für die rasante Entwicklung der Geometrie bis Mitte des 19. Jahrhunderts ist der Verlust ihrer inneren Geschlossenheit durch den Zerfall in unterschiedliche Methoden: in die differentialgeometrische, die synthetischkonstruierende, die projektive sowie andere Methoden. Daher ist es das Ziel der ›neueren geometrischen Forschungen‹ von Felix Klein, eine systematisierende Klassifizierung der Geometrien zu leisten, wie er es anlässlich seiner Berufung nach Erlangen 1872 in seinem Erlanger Programm formuliert. Dies gelingt jedoch nur auf Basis zunehmender Abstraktion und der Neustrukturierung geometrischer Sachverhalte. Im Zentrum stehen dabei zwei Begriffe: zum einen der abstrakte Begriff der Mannigfaltigkeiten, der sich »unter [völliger] Abstreifung des für die rein mathematische Betrachtungen unwesentlichen räumlichen Bildes« entwickelt hat und mittlerweile alle Gebiete der Geometrie durchdringt;67 zum anderen der Begriff der Transformationsgruppe, den sich Klein aus der Substitutionstheorie der Algebra entleiht und der ihm eine systematisierende Klassifizierung der Geometrie ermöglicht.68 Die Aufgabe der Systematisierung formuliert Klein wie folgt: »Es ist eine Mannigfaltigkeit und in derselben eine Transformationsgruppe gegeben; 66 »Der Versuch, die Determinantenrechnung in Verbindung mit dem Übergang zu homogenen Koordinaten tragfähig zu machen (Jacobi, Hesse) erwies sich bald als fehlgeschlagen.« Wußing, Die Genesis des abstrakten Gruppen Begriffes, 1969, S. 33. 67 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 63. 68 Durch die Substitution lassen sich algebraische Gleichungen einfacher lösen. Dabei lassen sich Gruppen von Substitutionen und Transformationen finden und deren Eigenschaften untersuchen. Vgl. Eugen Netto: Die Substitutionentheorie und ihre Anwendung auf die Algebra, Leipzig: Teubner 1882; William Burnside: Theory of Groups of Finite Order, Cambridge: Cambridge University Press 1897.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

125



126

Kapitel 5  ·  Verlust der mathematischen Anschauung

man soll die der Mannigfaltigkeit angehörigen Gebilde hinsichtlich solcher Eigenschaften untersuchen, die durch die Transformationen der Gruppe nicht geändert werden.«69 Dabei folgt er Arthur Cayleys Diktum, »that ›a group is defined by means of the laws of combination of its symbols‹ […] in dealing purely with the theory of groups, no more concrete mode of representation should be used than is absolutely necessary«.70 Damit stehen nicht mehr die Verwandtschaften geometrischer Gebilde der konkreten projektiven Geometrie im Zentrum der Forschung oder die Transformationen selbst, sondern die logischen Verhältnisse der Transformationen untereinander.71 Projektive Geometrie wird durch die Einführung eines abstrakten Gruppenbegriffs zum »Operieren mit Operationen«.72 Voraussetzung dafür ist jedoch, den Abstandsbegriff – ähnlich zum Linienelement der Differentialgeometrie, das nur von der inneren Geometrie der Fläche abhängig ist – rein projektiv zu begründen. Denn Projektion setzt einen Stetigkeitsbegriff voraus, der eines Messaxioms bedarf, und dieses wiederum involviert einen metrischen Abstandsbegriff. Eine projektive Begründung des Messaxioms hingegen sollte einen metrikfreien Abstandsbegriff liefern, der sein ›Maß‹ durch ein Anordnungsaxiom erhält. Bereits 1847 formuliert Christian von Staudt die erste metrikfreie Geometrie der Lage für die euklidische Geometrie, doch die eigentliche Herausforderung besteht darin, einen unabhängigen Abstandsbegriff für alle Geometrien zu finden.73 Dies gelingt Cayley in den 1850er und 1860er Jahren mit der Bestimmung der Fundamentalgebilde (Absolute) auf Basis gruppentheoretischer Überlegungen. Klein wird dann Cayleys Ansatz weiter verallgemeinern.74 Eine umfassende historische Rekonstruktion der Entwicklung des Gruppenbegriffs – von einem impliziten zu einem expliziten und zunehmend abstrakter gefassten Begriff in Algebra und Geometrie – gibt Hans Wußing 1969 69 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 67. 70 Arthur Cayley zitiert in Burnside, Theory of Groups of Finite Order, 1897, S. vi. 71 Zu diesem Dreiphasenmodell vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 24 f. 72 Netto, Die Substitutionentheorie und ihre Anwendung auf die Algebra, 1882, S. V. 73 Vgl. Christian von Staudt: Geometrie der Lage, Nürnberg: F. Korn 1847. 74 Hätte nämlich Poncelet statt »der synthetischen Projektion die analytische Behandlung von Koordinatentransformationen bei der Suche nach Invarianten unter diesen Transformationen« verwendet, so hätte er den »Leitgedanken der späteren Entwicklung [zur abstrakten Gruppentheorie] vorausgenommen«. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 17. Doch Poncelet standen die analytischen Mittel dafür noch nicht zur Verfügung. Sowohl er als auch Monge mussten für die Definition projektiver Koordinaten metrische Begriffe benutzen.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Transformationsgruppen in Mannigfaltigkeiten

in seiner Genesis des abstrakten Gruppenbegriffes. In seiner abstrakten Version gilt der Gruppenbegriff als der erste Strukturbegriff der Mathematik und er spielt für die neuen physikalischen Theorien des beginnenden 20. Jahrhunderts eine tragende Rolle. Im Zentrum der Entwicklung steht die analytische Methode, die geometrische Probleme algebraisch formuliert und mit Hilfe des Gruppenbegriffs Geometrie und Algebra unter analoge Fragestellungen strukturell subsummiert. In der Algebra selbst findet mit der Auflösungstheorie bereits wesentlich früher als in der Geometrie eine Hinwendung zum Gruppenbegriff in Form von Permutationsgruppen statt. Unter Permutation wird die Anordnung diskreter Objekte in einer bestimmten Reihenfolge verstanden. Ziel ist es, alle möglichen Anordnungsformationen durch Permutation (Vertauschung) zu erfassen.75 Der Grund für die Entwicklung der Permutationsgruppentheorie ist die Limitierung der Algebra. 1770/71 zeigt Joseph-Louis Lagrange, dass sich für Gleichungen höheren Grades (nichtlineare algebraische Gleichungen) keine Rechenverfahren angeben lassen und dass daher eine neue Behandlungsweise solcher Gleichungen nötig ist, die auf einer Art ›Kombinationsrechnung‹ beruht.76 Diese löst eine algebraische Gleichung höheren Grades in eine Gleichung niedrigeren Grades auf und untersucht ihr Lösungsverhalten durch das Studium der Radikale, indem alle möglichen Vertauschungen der Radikale berücksichtigt werden.77 Die Frage dabei ist: Bei welchen Vertauschungen bleiben die Eigenschaften der Lösung unverändert? Ohne einen Permutationskalkül muss Lagrange jedoch jede einzelne Vertauschung durchspielen. Kurze Zeit später gibt Gauß mit seiner Kreisteilungsgleichung ein »Musterbeispiel der Auflösung durch Radikale«, das zu Beginn des 19. Jahrhunderts Nils Henrik Abel beeindruckt und 75

Beispielsweise ist ein Anagramm eine Permutation der Buchstaben. Vgl. Joseph-Louis Lagrange: ›Réflexions sur la théorie algébrique des equations‹ (1770/71), in: Ders.: Oeuvres des Lagrange (hrsg. von Joseph Alfred Serret), 3. Bd., Paris: Gauthier-Villars 1869, 203–421. 77 Eine Gleichung n-ten Grades hat n Lösungen, wie Gauß bereits 1799 zeigte, die nicht immer reell sein müssen. Löst man die Gleichung vierten Grades x4 – 4x3 – 4x2 + 8x – 2 = 0 in endlich vielen Umformungsschritten durch Radikale auf, so erhält man die Lösungen x1, x3 = 1 + √2 ± √(3 + √2) und x2, x4 = 1 – √2 ± √(3 – √2). 1824 beweist Nils H. Abel, dass Gleichungen fünften Grades nicht durch Radikale aufgelöst werden können (Satz von Abel-Ruffini). Vgl. Nils H. Abel: ›Beweis der Unmöglichkeit algebraische Gleichungen von höheren Graden als dem vierten allgemein aufzulösen‹ (1824), in: Journal für die reine und angewandte Mathematik (Crelles Journal), 1, 1826, 65–84. Allerdings lassen sich Gleichungen beliebigen Grades durch numerische Näherungswerte iterativ immer genauer berechnen. 1858 gelingt es Charles Hermite auf anderem Wege als der Auflösung in Radikale Gleichung fünften Grades in Jacobischen Thetafunktionen zu lösen. Vgl. Charles Hermite: ›Sur la résolution de l’équation du cinquième degré‹ (1858), in: Ders.:Œuvres de Charles Hermite, 2. Bd., Paris: Gauthier-Villars, 1908, 5–21. 76

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

127



128

Kapitel 5  ·  Verlust der mathematischen Anschauung

ihn zu seinen mathematischen Studien dessen motiviert, was »algebraisch auflösbar« und »rational ausdrückbar« ist.78 Augustin-Louis Cauchy entwickelt die Permutationsgruppen dann systematisch weiter, aber den Schlussstein dieser Entwicklung, so Wußing, setzt Évariste Galois 1830 mit seiner gruppentheoretischen Formulierung des Auflösungsproblems.79 Der Grund hierfür liegt in Galois’ Hinwendung zu einer rein abstrakten, strukturellen Betrachtungsweise. Sein Ziel ist es, die verschiedenen (Auf-)Lösungsformeln (›Rechnen‹) durch die ›elegantere‹ Methode eines Kalküls abzulösen. Was Galois vorschwebt, ist eine metamathematische Analyse der Analyse. Damit markiert er den Auftakt des beginnenden Wandels der Algebra hin zu abstrakten Strukturen und deren Logisierung. Bezogen auf die algebraische Auflösungstheorie wird mit Galois die »Struktur der Lösung einer Gleichung […] ablesbar aus der Struktur einer der Gleichung eindeutig zugeordneten Permutationsgruppe […] wobei sich als entscheidende Entdeckung die Normalteilereigenschaften gewisser Untergruppen herausstellt«.80 Die Idee der Galoistheorie ist, die Lösungen einer polynominalen Gleichung höheren Grades auf – modern gesprochen – einem Körper zu betrachten, beispielsweise dem Körper Q der rationalen Zahlen. Dabei wird nicht jede Lösung in Q definiert sein. Die nicht definierten Lösungen sind in Q ununterscheidbar und ihre Vertauschungen (σ) werden die Eigenschaften der Lösung nicht verändern.81 Allerdings schließen sich manche Vertauschungen aus und für jede Gleichung lässt sich so eine charakteristische Galoisgruppe an Permutationen (σ n) inklusive Identität (1) {1, σ1, σ2, …, σ n} angeben. Da die Galoisgruppe abhängig vom zugrundeliegenden Körper ist, stellt sich die Frage, welche Erweiterung des Körpers mehr Lösungen definiert und damit die Galoisgruppe minimiert respektive auflöst. Dadurch wird ein systematisches Studium des Lösungsverhaltens polynominaler Gleichungen höheren 78 Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 69, 71. »Abel hat schon früh, seit seiner Ankunft in Berlin im Spätherbst 1825, die Aufstellung aller durch Radikale lösbaren Gleichungen eines bestimmten Grades als eine Aufgabe bezeichnet, die er in Angriff nehmen wollte. […] Abel beweist nun – und das ist das Kernstück –, daß es auf die Art der solcherart zu betrachtenden Vertauschungen [auf Basis der rationalen Abhängigkeiten der Wurzeln untereinander] ankommt. Wir sagen dafür heute: Wenn die so definierte Gruppe kommutativ ist – für die Kreisteilung ist sie sogar zyklisch –, dann läßt sich die Auflösung der Gleichung φ(x) = 0 […] auf die Auflösung von Hilfsgleichungen niederer Grade zurückführen, und jede dieser Hilfsgleichungen ist durch Radikale auflösbar. Freilich stellt Abel diese Permutationsgruppen nicht explizit auf.« Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 71, 72. 79 Vgl. Jules Tannery (Hrsg.): Manuscrits de Évariste Galois, Paris: Gauthier-Villars 1908. 80 Wußing, Die Genesis des abstrakten Gruppen Begriffes, 1969, S. 75, 76. 81 Dies deckt sich mit Leibniz’ Kriterium der Ununterscheidbarkeit.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Transformationsgruppen in Mannigfaltigkeiten

Grades möglich und zahlreiche klassische Probleme wie die Inkommensurabilität der Diagonale und Seite eines Quadrats (√2) als auch antike Konstruktionsprobleme werden strukturell fassbar.82 In den 1860er Jahren vollendet Camille Jordan dann die Permutationsgruppentheorie. Er prägt die Grundbegriffe der Gruppentheorie wie Ordnung und Grad einer Gruppe und bereitet damit den abstrakten Gruppenbegriff vor.83 Während sich in der Algebra im Kontext der Auflösungstheorie von Gleichungen höheren Grades der Begriff der Permutationsgruppe und seine Anwendungsregeln immer klarer herauskristallisieren, bildet sich in der Geometrie der Begriff der Transformationsgruppe heraus, wie er dann 1872 von Klein zur Vereinheitlichung der Geometrie genutzt wird. Insbesondere die Arbeiten von George Boole, Arthur Cayley und James J. Sylvester widmen sich der Theorie der Invarianten und Kovarianten linearer Transformationen algebraischer und geometrischer Formen.84 Cayleys Theory of Quantics, die er ab 1854 für n-dimensionale Mannigfaltigkeiten entwickelt, hat nichts Geringeres zum Ziel, als »to find all the derivates of any number of functions, which have the property of preserving their form unaltered after any linear transformations of the variables«.85 ›Quantic‹ bezeichnet dabei den als homogene Form (innere Struktur) präzisierten Funktionsbegriff, dessen Grad und dessen Unbestimmte von Cayley unterschieden werden.86 Durch die 82 Es lässt sich aufgrund eines Widerspruchsbeweises zeigen, dass die Lösungen von √2 mit der Galoisgruppe {1, σ1} für die Gleichung x2 – 2 = 0 über Q mit den Lösungen α1 = √2 und α2 = - α1 = - √2 identisch sind. Vgl. Mainzer, Symmetrien der Natur, 1988, S. 191 ff. »Mit dem alten geometrischen Symmetriebegriff konnte diese unbefriedigende Situation nicht erklärt werden, ja, es schienen sogar ›Brüche‹ dieses Theoriekonzepts vorzuliegen. Erst Galois’ gruppentheoretische Betrachtungsweise machte eine tief liegendere und allgemeinere Symmetriestruktur deutlich, in der sich diese scheinbaren ›Brüche‹ als notwendige Konsequenzen ergaben.« Mainzer, Symmetrien der Natur, 1988, S. 195. 83 Vgl. Camille Jordan: ›Sur les groupes de mouvements‹, in: Annali di Matematica pura et applicata, 2 (2), 1868, 167–215; Camille Jordan: ›Commentaire sur Galois‹, in: Mathematische Annalen, 1, 1869, 141–184; Camille Jordan: Traité des substitutions et des équations algébriques, Paris: Gauthier-Villars 1870. 84 George Boole, Arthur Cayley und James J. Sylvester entwickeln die Theorie der Form zur Invariantentheorie weiter, die sie auch als Mittel der Klassifizierung der Geometrie nutzen. Die Theorie der Form untersucht die innere Struktur von Zahlengleichungen und entwickelt über Leonard Eulers Theorie der Potenzreste von 1761, JosephLouis Lagranges Variablentransformationen von 1773 bis hin zur Gauß’schen Theorie der Komposition der Formen einen impliziten Gruppenbegriff. Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 38, S. 44 und S. 48. 85 Arthur Cayley: ›On Linear Transformations‹ (1846), in: Ders.: The Collected Mathematical Papers, 1. Bd., Cambridge: Cambridge University Press 1889, 95–112, S. 95. 86 »The term Quantics is used to denote the entire subject of rational and integral functions, and of the equations and loci to which these give rise; the word ›quantic‹ is an

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

129



130

Kapitel 5  ·  Verlust der mathematischen Anschauung

Anwendung auf die Geometrie ist es ihm möglich, das Verhältnis von projektiver und euklidischer (metrischer) Geometrie zu klären, indem er Quantics als Repräsentationen von Punktsystemen versteht und den Abstandsbegriff abstrakt als Beziehungsbegriff definiert. Ausgehend von einem Kreis, dessen Punkte (P') alle äquidistant zum Kreismittelpunkt (P) sind, lassen sich äquidistante Punktreihen erzeugen, indem jeder Kreispunkt zum Mittelpunkt (P') eines neuen Kreises mit entsprechenden Kreispunkten (P'') wird, so dass gilt: Abstand (P, P') + Abstand (P', P'') = Abstand (P, P'').87 Auf diese Weise erhält Cayley eine analytische Maßdarstellung des Abstandsbegriffes für eine Dimension, der über die Beziehung zweier Punkte als Kreis (Absolute), die unendlich nahe beieinander liegen können, bestimmt ist. Für zwei Dimensionen bestimmt Cayley den Kegel als Absolute, auf die der Abstandsbegriff bezogen ist. Aufgrund unterschiedlicher Absoluter kann Cayley eine Maßbestimmung geben, die die Transformation verschiedener (dreidimensionaler) Geometrien ineinander erlaubt.88 Neben Riemanns differential-geometrischer Abstandsbestimmung durch das Linienelement steht damit nun auch eine projektive Maßbestimmung in Form von Fundamentalgebilden (Absolute) zur Verfügung, die je nach Geometrie transformiert werden.89 Die nicht-euklidischen Geometrien mit konstanter Krümmung weradjective, meaning of such a degree, but may be used substantively, the noun understood being […] function«; Arthur Cayley: ›An Introductory Memoir on Quantics‹ (1854), in: Ders., The Collected Mathematical Papers, 2. Bd., 1889, 221–234, S. 221. 87 Vgl. Arthur Cayley: ›A Sixth Memoir upon Quantics‹ (1895), in: Ders., The Collected Mathematical Papers, 2. Bd., 1889, 561–592, S. 584. 88 »It appears that the Absolute in such a system [system of spherical geometry] is the (spherical) conic, which is the intersection of the sphere with the concentric cone […] The circumstances that the Absolute is a proper conic, and not a mere point-pair, is the real ground of the distinction between spherical geometry and ordinary plane geometry, and the cause of the complete duality of theorems in spherical geometry.« Cayley, ›A Sixth Memoir upon Quantics‹ (1895), 1889, S. 591. 89 Die Grundintuition dabei ist folgende: »Im Sinne der projektiven Geometrie wird man diese beiden Grundaufgaben [Messung der Entfernung zweier Punkte sowie der Neigung zweier sich schneidender Geraden] als das Problem der Maßbestimmung auf den Grundgebilden erster Stufe bezeichnen. Das Messen der Entfernung zweier Punkte entspricht der Maßbestimmung auf einer geraden Punktreihe; das Messen der Neigung zweier sich schneidender Geraden der Maßbestimmung im ebenen Strahlbüschel. […] Die Entfernung zweier Punkte ist eine algebraische, der Winkel zweier Geraden eine transzendente (zyklometrische) Funktion der Koordinaten.« Klein, ›Über die sogenannte Nicht-Euklidische Geometrie (erster Aufsatz)‹ (1872), 1921, S. 260. Beide Maßbestimmungen weisen die Eigenschaft der Addierbarkeit sowie der Unveränderbarkeit durch Bewegung im Raum auf, was – anschaulich – den äquidistanten Maßeinheiten realer Maßstäbe entspricht.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Transformationsgruppen in Mannigfaltigkeiten

den dabei zu Sonderfällen. In den Worten Kleins: »Zu der parabolischen (der gewöhnlichen) Geometrie wird man geführt, wenn man die Fundamentalgebilde der Cayleyschen Maßbestimmung in einen imaginären Kegelschnitt degenerieren läßt. Nimmt man für die Fundamentalfläche eine eigentliche Fläche zweiten Grades, die aber imaginär ist, so erhält man die elliptische Geometrie. Die hyperbolische Geometrie endlich erhält man, wenn man für die Fundamentalfläche eine reelle, aber nicht geradlinige Fläche zweiten Grades nimmt und auf die Punkte in deren Inneren achtet.«90 Indem Klein nun darauf hinweist, dass sich Cayleys Maßbestimmung für die nicht-euklidischen Geometrien im Dreidimensionalen mit der Bestimmung durch das konstante Krümmungsmaß im Sinne Gauß’ und Riemanns deckt, müsste sich Cayleys Maßbestimmung auch für beliebig viele Dimensionen verwenden lassen.91 Das Neue der projektiven Maßbestimmung ist, dass die Maßeigenschaften nicht mehr den räumlichen Gebilden anhaften und gemessen werden müssen, sondern durch die Relationen der räumlichen Gebilde zu den Fundamentalgebilden bestimmt sind – je nach Dimension und Art der Geometrie. Doch dies ist nur eine Methode, eben die der projektiv-analytischen Geometrie. Die Differentialgeometrie der Mannigfaltigkeiten geht einen anderen Weg, ebenso wie die verschiedenen weiteren Geometrien. Daher ist es das Ziel von Klein in seinem Erlanger Programm, die verschiedenen Methoden zusammenzufassen. Analog zur Zusammenfassung der nicht-euklidischen Geometrien unter projektiver Perspektive mit Hilfe Cayleys Maßbestimmung sucht Klein das verbindende Verhältnis zwischen den verschiedenen geometrischen Methoden. Er findet es im Begriff der Transformationsgruppe. Eine Transformationsgruppe ist wie folgt definiert: »Hat nun eine gegebene Reihe von Transformationen die Eigenschaft, dass jede Änderung, die aus den ihr angehörigen durch Zusammensetzung hervorgeht, ihr selbst wieder 90 Klein,

›Über die sogenannte Nicht-Euklidische Geometrie (erster Aufsatz)‹ (1872), 1921, S. 258. 91 Konkret bedeutet dies für Klein, Maßbestimmungen für verschiedene Dimensionen – angefangen bei den Grundgebilden erster Stufe – bezüglich der jeweiligen Fundamentalgebilde zu definieren. Versteht man die Verschiebungen der Punktreihe und die Drehung des Strahlenbüschels als lineare Transformationen, so werden die Grundgebilde ineinander überführbar. Ähnlich wie Riemann kann Klein eine allgemeine Maßbestimmung für die Grundgebilde erster Stufe als c log (z/z') geben, auf homogene Koordinaten beziehen und so einen analytischen Ausdruck für den Maßunterschied bestimmen. Würde man der Konstante c den Wert - (i/2) geben und statt des Logarithmus einen Arcus Cosinus verwenden, so Klein, würde man zu Cayleys Maßbestimmung der Fundamentalfläche gelangen. Vgl. Klein, ›Über die sogenannte Nicht-Euklidische Geometrie (erster Aufsatz)‹ (1872), 1921.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

131



132

Kapitel 5  ·  Verlust der mathematischen Anschauung

angehört, so soll die Reihe eine Transformationsgruppe genannt werden.«92 Die Idee dabei ist, jeder geometrischen Methode (und ihrer Geometrie) eine bestimmte Transformationsgruppe zuzuordnen.93 Diese Gruppen müssen allgemeiner sein als die ›Hauptgruppe‹, die die geometrischen Eigenschaften erfasst und unter welche alle Bewegungstransformationen des Raumes wie Ähnlichkeits- und Spiegeltransformationen fallen. So entspricht, laut Klein, die Gruppe der kollinearen (äquiformen) Transformationen der projektiven Geometrie, denn »sie faßt an den räumlichen Dingen nur das auf, was durch kollineare Umformungen nicht geändert wird«.94 Unter dieser Perspektive fallen die n-dimensionalen Mannigfaltigkeiten mit konstantem Krümmungsmaß in die Gruppe der kollinearen Transformationen der projektiven Geometrie. Insofern die geometrischen Eigenschaften (Hauptgruppe) nicht mehr als die allgemeinste Gruppe angesehen werden, erscheinen die übrigen Eigenschaften »nicht mehr als Eigenschaften der räumlichen Dinge an sich, sondern als Eigenschaften des Systems, welches hervorgeht, wenn man demselben [Mannigfaltigkeit] ein ausgezeichnetes Gebilde hinzufügt«.95Auf diese Weise kann Klein die Liniengeometrie, die projektive Geometrie, die Kugelgeometrie, die Differentialgeometrie und andere in ein Verhältnis bringen. Dabei entspricht der Übergang zu einer allgemeineren Gruppe einer ›ärmeren‹ Geometrie. Für die euklidische Geometrie bedeutet dies, dass die (geometrische) Hauptgruppe Größe, Orthogonalität, Parallelität und Inzidenzen erhält, während die äquiforme Gruppe Orthogonalität, Parallelität und Inzidenzen, die affine Gruppe Parallelität und Inzidenzen und schließlich die projektive Gruppe nur noch die Inzidenzen erhält. Hatte es Galois mit endlichen Zahlen diskreter Elemente zu tun, so untersucht Klein stetige Mannigfaltigkeiten mit einer unendlichen Zahl von Elementen. Die Transformationen, die Klein untersucht, sind diskrete. Im Unterschied dazu widmet sich Sophus Lie zur selben Zeit kontinuierlichen Transformationen und der Idee, die Transformationsgruppe (Berührungs92 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 65, 66. 93 »In der Einführung solcher allgemeinerer Gruppen an Stelle der Hauptgruppe besteht das Wesen der verschiedenen geometrischen Methoden, die sich in der Neuzeit entwickelt haben.« Felix Klein: ›Über die sogenannte Nicht-Euklidische Geometrie (zweiter Aufsatz)‹ (1873), in: Ders., Gesammelte mathematischen Abhandlungen, 1. Bd., 1921, 311– 343, S. 323. Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 140 ff. 94 Klein, ›Über die sogenannte Nicht-Euklidische Geometrie (zweiter Aufsatz)‹ (1873), 1921, S. 319. 95 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 69.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Transformationsgruppen in Mannigfaltigkeiten

transformationen) auf die Theorie der Differentialgleichungen anzuwenden.96 Die daraus resultierenden (endlichen) kontinuierlichen Transformationsgruppen werden später auf Anregung durch Hilberts fünftes Problem im Begriff der topologischen Gruppe weiterentwickelt.97 In seinen Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert ordnet Klein sein Erlanger Programm und die darauf folgenden Studien als Vorstufe der speziellen Relativitätstheorie ein.98 Weiter schätzt er seine und Lies Leistung wie folgt ein: »Als dann […] Lie und ich es unternahmen, die Bedeutung der Gruppentheorie für die verschiedensten Gebiete der Mathematik herauszuarbeiten, da sagten wir: ›Gruppe‹ ist der Inbegriff von eindeutigen Operationen A, B, C … derart, dass irgend zwei der Operationen A, B kombiniert wieder eine Operation C des Inbegriffs geben: A ∙ B = C. […] Bei den neueren Mathematikern [Klein bezieht sich hier auf Hilbert] tritt eine abgeblaßtere Definition auf, die aber präziser ist. Man spricht nicht mehr von einem System von Operationen, sondern von einem System von Dingen […] Diese abstraktere Formulierung ist für die Ausarbeitung der Beweise vortrefflich, sie eignet sich aber durchaus nicht zum Auffinden neuer Ideen und Methoden.«99 Tatsächlich bilden Kleins und Lies Programm den Abschluss einer Entwicklung, die in der Ausbildung des abstrakten Gruppenbegriffs und seiner vielfältigen innermathematischen Anwendung resultiert. Die spätere Axiomatisierung wird von Lie teilweise und von Klein gar nicht mitgetragen. Doch erst durch die Axiomatisierung wird der Gruppenbegriff Anfang des 96 Beginnend mit Sophus Lie: ›Über Gruppen von Transformationen‹ (1874), in: Ders.: Gesammelte Abhandlungen, 5. Bd., Leipzig: Teubner 1924, 1–8 bis zu Sophus Lie: Theorie der Transformationsgruppen, 3 Bde., Leipzig: Teubner 1888, 1890, 1893. »Die Theorie der endlichen kontinuierlichen Gruppen erfuhr eine Wiederbelebung in den [19]20er Jahren […], und zwar im Zusammenhang mit der durch die Entwicklung der Relativitätstheorie ausgelösten Fragestellung nach Differentialinvarianten.« Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 166. 97 Der Begriff der Topologie taucht in den zitierten Texten des 19. Jahrhunderts noch nicht auf. Vgl. David Hilbert: ›Mathematische Probleme‹ (1900), in: Ders.: Gesammelte Abhandlungen, 1. Bd., Berlin: Springer 1932, 290–329, S. 304 ff. 98 Vgl. Felix Klein: Vorlesungen über die Entwicklung der Mathematik im 19.  Jahrhundert, 2. Bd., Springer: Berlin 1927, S. 28. Hans Wußing sieht dies allerdings als Fehleinschätzung seitens Kleins, da dieser »den revolutionierenden physikalischen Inhalt wohl nicht […] zu würdigen vermochte. Er sah in ihr [Relativitätstheorie] tatsächlich nur eine physikalische Interpretation eigentlich mathematischer Theorien, die schon weit vorher entwickelt worden seien, durch Riemann, Cayley, Sylvester, durch ihn und Minkowski.« Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 143. 99 Felix Klein: Vorlesungen über die Entwicklung der Mathematik im 19.  Jahrhundert, 1. Bd., Springer: Berlin 1926, S. 335, 336. Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 166 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

133



134

Kapitel 5  ·  Verlust der mathematischen Anschauung

20. Jahrhunderts zu einer abstrakten Gruppentheorie und findet Eingang in die Physik. Das prominenteste Beispiel ist die Relativitätstheorie, aber auch in der Mechanik oder der Kristallographie findet er Verwendung. In den 1930er Jahren wird die Gruppentheorie mit der Verschmelzung der unendlichen und endlichen Gruppen zu einer allgemeinen Gruppentheorie. Schließlich führt die »durchgängige Anerkennung der axiomatischen Methode und die mengentheoretische Begründung der Mathematik […] zu einer mathematischen Strukturtheorie, in deren System die Gruppe heute als Spezialfall einer algebraischen Struktur mit binärer Verknüpfung definiert wird«.100

100 Wußing,

Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 191.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 6 Entgrenzung der wissenschaftlichen Anschauung Invarianz als neues Objektivitätskriterium

Die Anwendung der Gruppentheorie in der Wissenschaft wird durch den Symmetriebegriff fruchtbar, der den Kern der mathematischen Voraussagbarkeit der Gestaltsphäre bildet. Bereits in der griechischen Mathematik erhält der Symmetriebegriff seine zentrale Rolle.101 Wie eingangs dargestellt entwickelt sich dieser von einem quasi-empirischen Deckungsbegriff zu einem abstrakteren Ähnlichkeitsbegriff auf Basis der Proportionslehre und – folgt man der Interpretation von Zeuthen – sogar zu einem Äquivalenzbegriff, insofern als die Proportionslehre nicht nur als Verhältnislehre, sondern auch als Gleichheitslehre in der Antike Anwendung gefunden haben soll. Konkret zeigt sich diese Orientierung an der Symmetrie des euklidischen Raumes, am Kreis als Inbild einer vollkommenen Symmetrie, an der Konstruktion regulärer Vielecke, der Ableitung der fünf regulären Körper (Tetraeder, Oktaeder, Ikosaeder (alle 3-Ecke), Hexaeder (4-Ecke), Dodekaeder (5-Ecke)) und später der halbregulären Polygone, aber auch an den figuralen Dreiecks- und Qua­ dratzahlen und am Harmoniebegriff der Musiktheorie. Damit beschränkt sich die Anwendbarkeit der griechischen Mathematik auf räumlich-geometrische und kinematische Phänomene, nicht jedoch auf dynamische Phänomene, die erst durch die neuzeitliche Mathematik und Mechanik erfassbar werden.102 Es ist Leibniz, der 1693 in De analysi situs den antiken Symmetriebegriff kritisiert, indem er ihn als empirische Ableitung aus der ›sinnlichen Anschauung‹ der Figuren ablehnt. Stattdessen soll er als ein »aus den Symbolen abgeleiteter« Ununterscheidbarkeitsbegriff begründet werden.103 Dabei setzt Leibniz der intuitiven Erfassung der qualitativen Ähnlichkeit 101 Sprachlich leitet sich der Begriff Symmetrie von σύν (zusammen) und μέτρον (das Maß) ab. 102 Aus dem geometrischen Symmetrieverständnis leiten sich Deutungen wie ein zentralsymmetrischer Kosmos mit der Erde als Mittelpunkt ab und halten sich bis in die frühe Neuzeit. Die Isotropie und Homogenität des Raumes werden von der neuzeitlichen Mechanik übernommen, nicht jedoch die rein geometrischen Konstruktionen wie die Epizyklenkonstruktion, da zur Erklärung der ›wirklichen‹ Planetenbewegungen geometrische und kinematische Überlegungen nicht ausreichen. Vielmehr ist eine Theorie der Kräfte zur Erklärung dynamischer Verhältnisse nötig, wie sie die neuzeitliche Physik formuliert und dazu des Infinitesimalkalküls bedarf. 103 Vgl. Leibniz, ›De analysi situs‹ (1693), 1903, S. 76.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



136

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

den symbolischen Begriff der quantitativen Gleichheit entgegen, der sich mathematisch als Äquivalenzrelation fassen lässt.104 Eine solche Äquivalenzrelation basiert modern gesprochen auf Reflexivität (A ist sich selbst ähnlich), Symmetrie (ist A ähnlich A', so ist A' ähnlich A) und Transitivität (ist A ähnlich A' und A' ähnlich A'', so ist A ähnlich A''). Eine Ähnlichkeitstransformation ist unter dieser Perspektive ein Automorphismus, also eine »Abbildung einer Menge (z. B. Punkte, Zahlen, Funktionen) auf sich selber, welche die Struktur dieser Menge (z. B. Proportionsverhältnisse im euklidischen Raum, Rechengesetze für Zahlen) unverändert« lässt.105 So ist beispielsweise die Spiegelung eine zu sich selbst inverse Transformation. Die Bewegungstransformation starrer Körper im Raum – Grundlage jeglicher Messung – ist eine konforme (isometrische) Abbildung auf sich selbst, ebenso wie die Drehung einer Figur um einen festen Punkt. Symmetrie in diesem abstrakten Verständnis ergibt sich aus den Automorphismen, welche die Figur beziehungsweise den Raum invariant lassen.106 Die Automorphismen bilden eine Gruppe, wenn sie algebraisch die Axiome der Identität, der Inverse und der Hintereinanderausführbarkeit erfüllen.107 Ein anschauliches Beispiel geben die diskreten, symmetrieerhaltenden Bewegungsgruppen (Drehung, Spiegelung, Verschiebung) der ebenen euklidischen Geometrie.108 Durch diese Bewegungsgruppen sind zahlreiche Ornamente der Kunst mathematisch erfassbar. Indem einfache Elemente – Streifen, Flächen, Muster – gedreht, verschoben oder gespiegelt werden, entstehen komplexe iterative Formen. Insgesamt sind 10 Punktgruppen von Ornamentsymmetrien möglich, das bedeutet, durch das Festhalten eines Punktes einer 104 Leibniz’ Ähnlichkeitsaxiom beruht auf dem, »was in seinen Bestimmungsstücken – oder den gegebenen Elementen, die es zureichend definieren – ununterscheidbar ist, […] da aus den Bestimmungsstücken sich alles übrige ergibt«. Leibniz, ›De analysi situs‹ (1693),1903, S. 74. 105 Mainzer, Symmetrien der Natur, 1988, S. 143. 106 »Eine Transformation, welche die Raumstruktur erhält […] nennt der Mathematiker einen Automorphismus.« Hermann Weyl: Symmetrie, Basel: Birkhäuser 1955, S. 26. 107 Die Automorphismen bilden eine Gruppe basierend auf den Axiomen der Identität, der Inverse und der Hintereinanderausführbarkeit: »1) Die Identität I, die jedes Element einer Menge auf sich selber abbildet, ist ein Automorphismus. 2) Für jeden Automorphismus T läßt sich ein inverser Automorphismus T' angeben mit T ∙ T' = T' ∙ T = I. 3) Wenn S und T Automorphismen sind, dann auch die Hintereinanderausführung von S ∙ T.« Mainzer, Symmetrien der Natur, 1988, S. 143. 108 Bewegungsgruppen von Objekten sind in solche differenzierbar, welche alle Punkte verschieben (Translationen, die Form und Maß der Figur erhalten; projektive Transformationen, die die Form, aber nicht die Maßverhältnisse erhalten), und solche, die einen Punkt festhalten (Punktgruppen), wie beispielsweise bei der Drehung einer Geraden.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Invarianz als neues Objektivitätskriterium

Figur (Punktgruppen) und deren Drehung und/oder Spiegelung sind 10 verschiedene Bewegungskombinationen denkbar.109 Legt man den geometrischen Figuren Gitter zugrunde – üblicherweise ein orthogonales Punktgitter oder durch die Verschiebung der Gitterpunkte fünf mögliche parallelogrammatische Gitter –, so lassen sich die 10 Punktgruppen je Gitterform weiter unterscheiden und es entstehen »genau 13 unimodulare inäquivalente endliche Gruppen linearer Transformationen mit ganzzahligen Koeffizienten« (arithmetische Gruppen der Ebene) respektive 17 Ornamentgruppen.110 Für den dreidimensionalen euklidischen Raum sind es für invariante Gitter insgesamt 32 Gruppen; zudem lassen sich zusätzlich 14 verschiedene Gittertypen (Bravaisgitter) identifizieren und damit 73 arithmetische Gruppen des Raumes herleiten. Führt man diese Betrachtungen für den vierdimensionalen Raum weiter, so ergeben sich 271 Punktgruppen und 4895 Raumgruppen. Diese symmetrieerhaltenden Bewegungsgruppen der Figuren und Gitter spielen in der modernen Wissenschaft eine wichtige Rolle. Denkt man sich die Gitterpunkte mit Atomen besetzt, so beschreiben die 14 Bravaisgitter für die Kristallographie die 32 bekannten Kristallgruppen. Erweitert man diese um drei unabhängige Translationen, so erhält man 230 diskrete Bewegungsgruppen, welche die Grundlage der Stereochemie bilden. Die Bedeutung der theoretischen, anhand des geometrischen Studiums gewonnenen Symmetriegruppen zeigt sich erstmals 1912 experimentell, als Max von Laue aus den Mustern der Röntgenstrahluntersuchung an Zinksulfid (Zinkblende) den atomaren Aufbau des Zinksulfidkristalls als Kristallgitter sowie die Natur der Röntgenstrahlen als kurzwellige Lichtstrahlen erschließen kann.111 109 Die fünf Punktgruppen der Drehung ergeben sich aus dem Drehungswinkel von 360° (C1), 180° (C2), 120° (C3), 90° (C4) und 60° (C6). Kombiniert man diese 5 Punktgruppen der Drehung mit der Spiegelungssymmetrie, so erhält man die fünf Diedergruppen (D1, D2, D3, D4, D6), also insgesamt 10 Punktgruppen. Fügt man noch die Translation hinzu, erhält man die 17 ebenen Ornamentgruppen. 110 Weyl, Symmetrie, 1955, S. 110. Der Zusammenhang zwischen geometrischen Symmetrien und der algebraisch-arithmetischen Darstellung ergibt sich aus der Kombination »›Metrik plus Gitter‹«, die der »Theorie der quadratischen Formen zugrunde [liegt], welche, von Gauß ins Leben gerufen, durch das neunzehnte Jahrhundert hindurch eine zentrale Rolle in der Zahlentheorie gespielt hat. Dirichlet, Hermite, und in neuerer Zeit Minkowski und Siegel, haben zur Entwicklung dieses Forschungsgebietes beigetragen.« Weyl, Symmetrie, 1955, S. 121, 122. 111 »Dies entspricht der holoedrischen Symmetrie des regulären Systems, trotzdem die Zinkblende in eine hemiedrische Klasse gehört. Diese Tatsache, daß eine völlige Vierzahligkeit auf der Platte vorhanden ist, ist wohl einer der schönsten Beweise für den gitterartigen Aufbau der Kristalle, und ein Beweis dafür, daß keine andere Eigenschaft als allein das Raumgitter hier in Betracht kommt. Denn die einfachen Raumgitter zeigen stets eine höhere Symmetrie als der Kristall, für dessen Darstellung sie ein Element bilden; Trans-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

137



138

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

Diese Schlussform von der Wirkung auf die unbekannte Ursache auf Basis der zugrunde gelegten Symmetrie beschreibt Weyl wie folgt – und sie charakterisiert die Rolle, welche die Symmetrie in der modernen Wissenschaft spielt: »Wenn Verhältnisse, die ihre Auswirkung eindeutig determinieren, gewisse Symmetrien besitzen, dann wird diese Auswirkung dieselben Symmetrien aufweisen. […] Auf diese Weise ist es uns manchmal möglich, für Spezialfälle wegen der bei ihnen vorhandenen Symmetrie a priori Voraussagen zu machen, während der allgemeine Fall […] nur durch Erfahrung oder durch physikalische Prinzipien, die letzten Endes auf Erfahrung beruhen, erledigt werden kann. Soweit ich sehe, haben alle a-priori-Aussagen in der Physik ihren Ursprung in der Symmetrie.«112 Dies trifft den Kern der hypothetisch-deduktiven Forschungslogik bezüglich der Vorhersagbarkeit der Gestaltsphäre, die der direkten Mathematisierung zugänglich ist. Doch schon Johannes Kepler schloss von der Symmetrie der platonischen Körper auf die Gestalt des Kosmos,113 bevor er durch die Beobachtungsdaten von Tycho Brahe genötigt war, der »Ordnung und Gesetzlichkeit des Ungleichförmigen« den Vorzug zu geben.114 Die Frage ist also – mit Riemann gesprochen – was das »dem [physikalischen] Raume zu Grunde liegende Wirkliche« tatsächlich ausmacht beziehungsweise wie die Anwendbarkeit der Symmetrie erklärt werden kann.115 Versteht man das Wirkliche als das Objektive, so gibt Weyl eine interessante Antwort darauf: »Objektivität [bedeutet in der modernen Physik] Invarianz gegenüber der Gruppe der [symmetrieerhaltenden] Automorphismen.«116 Denn es zeigt sich, dass nur invariante Größen der Theorie sich beobachten und messen lassen. Insbesondere Albert Einstein erklärt das Invarianzprinzip zum Leitprinzip der modernen Wissenschaft, als er die Forderung aufstellt, »daß alle in einer Theorie auftretenden Bestimmungsstücke empirisch realisierbar sein müssen«.117 Dies führt dazu, dass sich die euklidische lationen von Raumgittern verschiedener Natur gegeneinander, wie sie zur Erklärung der Hemiedrien angenommen werden müßen, sind nach den Versuchen und unserer Theorie ohne Einfluß.« Walter Friedrich, Paul Knipping, Max von Laue: ›Interferenzerscheinungen bei Röntgenstrahlen‹, in: Annalen der Physik, 346 (10), 1913, 971–988, S. 984. 112 Weyl, Symmetrie, 1955, S. 124, 126. 113 Vgl. Johannes Kepler: Mysterium Cosmographicum. De stella nova (1596), in: Ders.: Gesammelte Werke (hrsg. von Max Caspar, Walther von Dyck), 1. Bd., München: Beck 1938; Kepler, Harmonice mundi (1619), 1940. 114 Cassirer, Erkenntnisproblem (1906), 1. Bd., 1911, S. 371. 115 Riemann, ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (1854), 1868, S. 149. 116 Weyl, Symmetrie, 1955, S. 132. 117 Peter Mittelstaedt: Philosophische Probleme der modernen Physik, Mannheim: B. I.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Invarianz als neues Objektivitätskriterium

Metrik und ihre Symmetrien in den modernen Versionen der Gravitationstheorie oder der Elektrodynamik als experimentell nicht haltbar erweisen. Oder anders gewendet: Die Automorphismen und damit Symmetrien hängen von der Geometrie des Inertialsystems ab. Analog zu Kleins Systematisierung der geometrischen Methoden lassen sich die verschiedenen ›objektiven Physiken‹ gruppentheoretisch klassifizieren. So liegen den Transformationen der newtonschen Physik rechtwinklige Koordinatensysteme (affine Geometrie) zugrunde und dies resultiert in gleichförmige Translationen (geradlinige Bewegung mit konstanter Geschwindigkeit), wenn keine Kräfteeinwirkung vorliegt. Die darauf basierenden Mechanikgesetze sind objektiv im Sinne der Invarianz gegen eine bestimmte Transformationsgruppe: die Galilei-Gruppe.118 Fügt man die Einwirkung von Kräften für Impulsänderungen hinzu, so werden diese Kräfte in Newtons Physik linear supponiert, das bedeutet als Einwirkungen auf die Partikel entsprechend der parallelogrammatischen Translation von Vektoren addiert. Das Superpositionsprinzip ist ein basales physikalisches Gestaltprinzip, das die Überlagerung gleicher physikalischer Größen (z. B. Kräfte) erfasst.119 Die Aufgabe der neuzeitlichen Mechanik Newtons besteht darin, »geeignete Kräfte zu finden, die das lineare Superpositionsprinzip erfüllen«.120 Dies sind nicht nur die Gravitationskraft, sondern auch die elektrischen und elektrostatischen Kräfte geladener Körper sowie die magnetostatische Kraft. Doch erst die mathematische Entwicklung der Feld- und Potentialtheorie zur Lösung von Differentialgleichungen im 18. Jahrhundert macht Newtons Programm des linearen Superpositionsprinzips für die verschiedenen Einsetzungen operabel.121 Denn mit dieser mathematischen Theorie lassen sich die verschiedenen Kräfte durch ihre Felder und deren Potential der Verteilung bestimmter Größen berechnen und vorhersagen. Physikalische Größen wie Masse, Ladung, Dichte oder Temperatur, die keine Richtung besitzen, werden dabei als Skalarfelder beschrieben, die anhand einer Funktion (Ortsfunktion) jedem Punkt im Raum eine einzige reelle Zahl (Skalar) zuordnen. Kräfte hinWissenschaftsverlag 1981, S. 80. 118 Durch Verschiebung und Drehung lässt sich die allgemeine Form einer GalileiTransformation gewinnen: »Die Galilei-Transformationen bilden bezüglich des Hintereinanderausführens von Transformationen eine kontinuierliche 10-parametrige Liesche Gruppe.« Mainzer, Symmetrien der Natur, 1988, S. 266. 119 Bei der linearen Superposition werden die Kräfte addiert, während in der Wellentheorie die Wellenfunktion die Überlagerung von Wellen beschreibt. 120 Mainzer, Symmetrien der Natur, 1988, S. 270. 121 Vgl. Joseph-Louis Lagrange: ›Sur la méthode des variations‹ (1766–1769), in: Ders., Oeuvres de Lagrange, 2. Bd., 1881, 36–63; Rudolf Clausius: Die Potentialfunction und das Potential, Leipzig: Barth 1859.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

139



140

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

gegen sind gerichtete Größen, die mit Vektoren beschrieben werden. Insofern es sich um ein konservatives Kraftfeld handelt – also um Kräfte, die entlang eines in sich geschlossenen Weges keinerlei Arbeit verrichten – lässt sich das Kraftfeld statt als Vektorfeld als skalares Feld beschreiben. Das skalare Feld artikuliert dann das Potential des Vektorfeldes, insofern es den Gradienten des Feldes an jedem Punkt (steilster Anstieg) darstellt (Gradientenfeld). Die Gravitation wird so durch das Gravitationsfeld und dessen Potential der Massenverteilung, die elektrostatische Kraft durch das elektrostatische Feld und dessen Potential der Ladungsverteilung und die magnetostatische Kraft durch das Magnetfeld und dessen Potential der Stromdichte darstellbar.122 Doch die Kräfte sind nur einzeln mathematisch darstellbar. Daher ist es das Ziel der modernen Physik, die einzelnen Kräfte in ein System zu bringen und mathematisch durch eine einheitliche Theorie zu erfassen. Doch dies erfordert einen Perspektivwechsel von Fern- zu Nahwirkungstheorien wie auch von der Linearität zur Nicht-Linearität.

Nah- statt Fernwirkung

Die Mathematisierung der verschiedenen Kräfte als Subsumierung unter das lineare Superpositionsprinzip basiert auf der Fernwirkungstheorie Newtons. Diese gilt es in eine Nahwirkungstheorie zu transformieren. Treffend wird dieser Perspektivwechsel von James C. Maxwell für die Entwicklung der 122 So sind elektrische Felder Gradientenfelder der elektrostatischen Potentiale ϕ(x, y, z). Maxwell beschreibt die Verwendung der Potentialtheorie für seine Elektrodynamik wie folgt: »Die Größe Ψ ist die scalare Funktion der Lage des Punktes P, also unabhängig von etwaigen Richtungen, und heisst das Potential in diesem Punkte. Ein Vector R hat ein Potential, wenn seine Componenten X, Y, Z Differentialquotienten ein und derselben Funktion sind […] Laplace ist der Erfinder dieser Methode, Vectorcomponenten als erste Derivate einer gewissen Function zu betrachten. Doch stammt der Name Potential von [George] Green her, der diese Function [1828] zur Grundlage seiner Electricitätstheorie gemacht hat. […] Viel Licht wird auf das Verhältnis der Kraft als Vector- zur Potentialfunction als Scalarengrösse durch die Hamiltonische Entdeckung der formalen Operation, mit Hilfe deren jene aus dieser abgeleitet wird, geworfen.« James C. Maxwell: Lehrbuch der Electricität und des Magnetismus (1873), 1. Bd., Berlin: Springer 1883, S. 16. Die Greensche Funktion drückt physikalisch das Superpositionsprinzip aus und tritt mit Differentialoperatoren u.a. in der Langevin- (θt(e)–γt), der Poisson- (-1/4πr) oder später in der stationären Schrödinger-Gleichung (-e-ikr/4πr) auf. In der Elektrodynamik repräsentiert die Greensche Funktion zusammen mit dem Differential einen ›Potentialstoß‹, der sich aus der Summe der einzelnen Stöße (Integral) ergibt. Vgl. George Green: An Essay on the Application of Mathematical Analysis to the Theories of Electricity and Magnetism, Nottingham: Wheelhous 1828.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Nah- statt Fernwirkung

Elektrodynamik beschrieben. »So sah, zum Beispiel, [Michael] Faraday in seinem geistigen Auge überall da Kraftlinien den Raum durchdringen, wo die Mathematiker in die Ferne wirkende Kraftcentren supponirten, und wo Diese nichts als die Abstände zwischen den Kraftcentren bemerkten, war für Jenen ein Zwischenmedium vorhanden. Faraday suchte die Ursache der Erscheinungen in Actionen, die im Zwischenmedium vor sich gehen sollten, die Mathematiker dagegen gaben sich damit zufrieden, dass sie sie in einer Fernwirkung auf die elektrischen Fluida entdeckten.«123 Dabei wird dieselbe mathematische Theorie unterschiedlich interpretiert.124 Dennoch geben beide Methoden »von dem Verlauf derselben Erscheinungen Rechenschaft und beide lieferten dieselben Wirkungsgesetze«.125 Mit dem Übergang zu Nahwirkungstheorien werden die Grundkräfte nicht mehr einzeln behandelt, sondern das Forschungsziel es ist, diese in einem System zu vereinheitlichen. Die erste Theorie auf Basis dieses neuen Forschungsprogramms ist Maxwells Elektrodynamik ruhender Körper.126 Anhand von vier Feldgleichungen kann Maxwell den Zusammenhang zwischen Licht, Elektrizität und Magnetismus herstellen.127 Mit diesen vier Glei123 Maxwell,

Lehrbuch der Electricität und des Magnetismus, 1883, S. VII. gehört die Potentialtheorie, wenn man das Potential als eine Grösse betrachtet, welche einer gewissen partiellen Differentialgleichung genügt, der Hauptsache nach der von mir nach Faraday benannten Untersuchungsmethode [Deduktion des Besonderen aus dem Allgemeinen] an. Sieht man dagegen das Potential als Summe von Electricitätsmengen, deren jede durch die Entfernung ihrer Lage von einem gegebenen Punkt dividiert wird, an, so resultirt die Potentialtheorie aus der zweiten Untersuchungsmethode [Methode des synthetischen Aufbaus des Allgemeinen aus dem Besonderen der Mathematiker].« Maxwell, Lehrbuch der Electricität und des Magnetismus, 1983, S. VIII. 125 Ebd., S. VII. 126 Vgl. Maxwell, ›A Dynamical Theory of the Electromagnetic Field‹, 1865; Maxwell, Lehrbuch der Electricität und des Magnetismus, 1. Bd., 1883; James C. Maxwell: Scientific Papers of James Clerk Maxwell (hrsg. von Walter D. Niven), 2 Bde., Cambridge: Cambridge University Press 1890. 127 »Er [Maxwell] erweiterte die elektrischen Formeln in der Weise, dass sie alle bekannten Erscheinungen, aber neben denselben auch eine unbekannte Klasse von Erscheinungen enthielten, elektrische Wellen. Diese Wellen wurden dann Transversalwellen, deren Wellenlänge jeden Wert haben konnte, welche sich aber im Raum stets mit gleicher Geschwindigkeit, der Lichtgeschwindigkeit, fortpflanzten. Und nun konnte Maxwell darauf hinweisen, dass es Wellen von eben solchen geometrischen Eigenschaften in der Natur ja wirklich gäbe, wenn wir auch nicht gewöhnt sind, sie als elektrische Erscheinungen zu betrachten, sondern sie mit einem besonderen Namen, als Licht, bezeichnen.« Heinrich Hertz: Ueber die Beziehung zwischen Licht und Electricität (1889), Bonn: Emil Strauß 1889, S. 11, 12. Hertz’ Leistung war es, den von Maxwell mathematisch postulierten ›Verschiebungsstrom‹ experimentell zu bestätigen und damit Maxwells Theorie zu validieren. 124 »Beispielsweise

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

141



142

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

chungen lässt sich das elektromagnetische Feld analog zur Gravitationstheorie wie auch zur Elektro- und Magnetostatik durch dessen Potentiale berechnen. Allerdings endet hier die Analogie zu den klassischen Theorien, denn zum einen ergibt sich die Schwierigkeit, dass die Potentiale nicht eindeutig bestimmt sind.128 In der Elektrodynamik sind die Lorentz-Kraft – Kraft, die ein elektrisches und magnetisches Feld auf eine Punktladung ausübt – und das elektromagnetische Feld messbar, aber nicht das Vektorpotential (A) und das elektrische Potentialfeld (ϕ), die jedoch erst die Berechnung des elektromagnetischen F­ eldes ermöglichen. Umgekehrt lassen sich aus dem elektromagnetischen Feld nicht die Potentiale berechnen, denn es sind rein mathematische Gründe der Vektoranalysis, die auf die Existenz eines Skalarenpotentials schließen lassen. Daher sind die varianten Potentiale ein Beispiel für Weyls Wirklichkeitsbegriff, dass nur invariante Eigenschaften eines Systems beobachtbar und daher ›objektiv‹ im wissenschaftlichen Sinne sind. Zum anderen führt Maxwells Theorie, wenn sie auf bewegte Körper wie Elektronen bezogen wird, zu Problemen bezüglich der Koordinatentransformationen. Es zeigt sich, dass die Gleichungen nicht Galilei-invariant sind. Denn die Annahme der Galilei-Invarianz führt zu »Asymmetrien […], welche den Phänomenen nicht anzuhaften scheinen«.129 Beispielsweise erzeugt die Relativbewegung eines Magneten und eines elektrischen Leiters unterschiedliche Phänomene: Bewegt sich nur der Magnet, entsteht ein elektrisches Feld um den Magneten und erzeugt im Leiter einen Stromfluss. Bewegt sich nur der elektrische Leiter, entsteht um den Magneten kein elektrisches Feld, aber im Leiter entwickelt sich eine elektromagnetische Kraft, die zu Stromfluss führt. Bereits Ende des 19. Jahrhunderts formuliert Hendrik Antoon Lorentz daher die Notwendigkeit der Orts- wie Zeittransformation in elektrodynamischen Systemen mit Bewegung (Lorentz-Transforma-

128 1894

bezeichnet Heinrich Hertz die Potentiale (Vektorpotentiale) der Faraday’schen und Maxwell’schen Theorie »als Gerüst, indem durch ihre Einführung die unstetig an einzelnen Punkten auftretenden Fernkräfte ersetzt werden durch Größen, welche in jedem Punkte des Raumes nur durch die Zustände der benachbarten Punkte bedingt sind. Nachdem wir aber gelernt haben, die Kräfte [der Feldstärken] selber als Größen der letzteren Art anzusehen, hat ihr Ersatz durch Potentiale nur dann einen Zweck, wenn damit ein mathematischer Vortheil erreicht wird. Und ein solcher scheint mir mit der Einführung des Vectorpotentials in die Grundgleichungen nicht verbunden, in welchen man ohnehin erwarten darf, Beziehungen zwischen Grössen der physikalischen Beobachtung, nicht zwischen Rechnungsgrössen zu finden.« Heinrich Hertz: Untersuchungen über die Ausbreitung der elektrischen Kraft, Leipzig: Barth 1894, S. 209. 129 Albert Einstein: ›Zur Elektrodynamik bewegter Körper‹, in: Annalen der Physik, 17, 1905, 891–921, S. 891.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Nah- statt Fernwirkung

tionen) und geht damit über die Ortstransformationen der Galilei-Invarianz hinaus.130 Eben mit diesem Problem der Asymmetrie beschäftigt sich auch Einstein in seiner Arbeit Zur Elektrodynamik bewegter Körper von 1905.131 Dabei bezieht er sich auf die Relativbewegung von Magneten und elektrischen Leitern sowie auf den misslungenen experimentellen Nachweises einer Bewegung der Erde relativ zu einem ›Lichtmedium‹ (Äther) und kommt zu dem Schluss, »daß dem Begriffe der absoluten Ruhe nicht nur in der Mechanik, sondern auch in der Elektrodynamik keine Eigenschaften der Erscheinungen entsprechen, sondern daß vielmehr für alle Koordinatensysteme, für welche die mechanischen Gleichungen gelten, auch die gleichen elektrodynamischen und optischen Gesetze gelten […]. Wir wollen diese Vermutung (deren Inhalt im folgenden ›Prinzip der Relativität‹ genannt werden wird) zur Voraussetzung erheben und außerdem die mit ihm nur scheinbar unverträgliche Voraussetzung einführen, daß sich Licht im leeren Raume stets mit einer bestimmten, vom Bewegungszustande des emittierenden Körpers unabhängigen Geschwindigkeit V fortpflanze. Diese beiden Voraussetzungen genügen, um zu einer einfachen und widerspruchsfreien Elektrodynamik bewegter Körper zu gelangen unter Zugrundelegung der Maxwellschen Theorie für ruhende Körper.«132 Auf Basis dieser beiden Axiome definiert Einstein nun, was unter Bewegung – bisher als Funktion der allgemein gültigen Zeit verstanden – zu verstehen ist, insofern Zeit als bislang undefinierter Begriff entlarvt wird. 130 Allerdings legt Lorentz seinen Überlegungen eine Äthertheorie zugrunde. Vgl. Hendrik Antoon Lorentz: Versuch einer Theorie der electrischen und optischen Erscheinungen in bewegten Körpern, Leiden: E. J. Brill 1895; Hendrik Antoon Lorentz: ›Elektromagnetische Erscheinungen in einem System, das sich mit beliebiger, die des Lichtes nicht erreichender Geschwindigkeit bewegt‹ (1904), in: Hendrik A. Lorentz, Albert Einstein, Herbert Minkowski: Das Relativitätsprinzip. Eine Sammlung von Abhandlungen, Berlin, Leipzig: Teubner 1913, 6–26. 131 Vgl. Giora Hon, Bernard R. Goldstein: ›How Einstein Made Asymmetry Disappear: Symmetry and Relativity in 1905‹, in: Archive of the History of the Exact Sciences, 59, 2005, 437–544. 132 Einstein, ›Zur Elektrodynamik bewegter Körper‹, 1905, S. 891, 892. Weiter heißt es da: »Die Einführung eines ›Lichtäthers‹ wird sich insofern als überflüssig erweisen, als nach der zu entwickelnden Auffassung weder ein mit besonderen Eigenschaften ausgestatteter ›absolut ruhender Raum‹ [– eine Voraussetzung, die schon Leibniz an Newtons Mechanik kritisierte –] eingeführt, noch einem Punkte des leeren Raumes, in welchem elektromagnetische Prozesse stattfinden, ein Geschwindigkeitsvektor zugeordnet wird. Die zu entwickelnde Theorie stützt sich – wie jede andere Elektrodynamik – auf die Kinematik des starren Körpers, da die Aussage einer jeden Theorie Beziehungen zwischen starren Körpern (Koordinatensystemen), Uhren und elektromagnetischen Prozessen betreffen.« Einstein, ›Zur Elektrodynamik bewegter Körper‹, 1905, S. 892.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

143



144

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

Zeit, wie von Physikern und auch im Alltag verwendet, sei immer Angabe von Gleichzeitigkeit eines Ereignisses und der Stellung des Zeigers auf dem Ziffernblatt. Doch dies, so Einstein, gelte allenfalls für Uhren und Ereignisse am selben Ort. Die Rede von der Gleichzeitigkeit von Ereignissen an unterschiedlichen Orten (A, B) hingegen stellt sich als schwieriger heraus. Denn um die B-Zeit einer Uhr vom Ort A aus ›abzulesen‹, muss die Ausbreitungsgeschwindigkeit des Lichts berücksichtigt werden. Wird das Licht gespiegelt und sind beide (Lauf-)Zeiten (t) identisch (tB – tA = t'A – t'B), so sind beide Uhren synchron – zumindest in einem ruhenden System, mithin Newtons ›absolut ruhendem Raum‹. Doch diese Gleichzeitigkeit lässt sich für Bewegung nicht mehr aufrechterhalten, insofern ein sich mit der Uhr bewegender Beobachter beide Uhren als nicht synchron erleben würde im Unterschied zum ruhenden Beobachter. Auf Basis der für bewegte Systeme entwickelten Koordinatenund Zeit-Transformationsgleichungen (Lorentz-Transformation) lässt sich berechnen, dass die Uhr vom ruhenden System aus betrachtet »pro Sekunde um (1 - √(1-(v/V)2)) Sek. oder – bis auf Größen vierter und höherer Ordnung um ½(v/V)2 Sek. zurückbleibt«.133 Dies gilt auch für stetig gekrümmte Kurven inklusive der Kreislinie. Daraus lässt sich schließen, dass eine am Äquator befindliche Uhr etwas langsamer läuft als eine Uhr an den Polen. Damit sind die Voraussetzungen geschaffen, eine Kinematik der Elektrodynamik bewegter Körper zu formulieren, indem die elektromagnetischen Prozesse auf das mit der Geschwindigkeit v bewegte Koordinatensystem mit Hilfe der entwickelten Transformationsgleichungen bezogen werden. Was sich nun zeigt, ist, »daß in der entwickelten Theorie die elektromotorische Kraft nur die Rolle eines Hilfsbegriffes spielt, welcher seine Einführung dem Umstand verdankt, daß die elektrischen und magnetischen Kräfte keine von dem Bewegungsumstande des Koordinatensystems unabhängige Existenz besitzen«.134 Dadurch verschwindet auch die skizzierte Asymmetrie der Bewegung von Magnet und elektrischem Leiter. »Auch werden die Fragen nach dem ›Sitz‹ der elektrodynamischen elektromotorischen Kräfte (Unipolarmaschinen) gegenstandslos.«135 Des Weiteren ergibt sich aus der entwickelten Theorie die Ableitung messbarer Beziehungen für das bewegte Elektron, denn die Geschwindigkeit des Elektrons lässt sich mit Hilfe der gegeben Theorie aus der elektrischen (Ae) und der magnetischen Ablenkbarkeit (Am) bestimmen und im Experiment prüfen.136 133

Einstein, ›Zur Elektrodynamik bewegter Körper‹, 1905, S. 904. Ebd., S. 910. 135 Ebd. 136 »Diese Beziehung [A /A = v/V] ist der Prüfung durch das Experiment zugängm e lich, da die Geschwindigkeit des Elektrons auch direkt, z. B. mittels rasch oszillierender 134

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Nah- statt Fernwirkung

Einsteins spezielle Relativitätstheorie markiert aus zwei Gründen einen Wandel in der Physik. Zum einen etabliert sie eine Forschungslogik, die Karl Popper – als Gegenkonzept zum empirischen Induktionismus – als hypothetisch-deduktiv bezeichnet.137 Die aus den Axiomen abgeleiteten Folgerungen bedürfen der nachgelagerten empirischen Verifikation. Daher müssen alle Größen der Theorie beobachtbar, das heißt experimentell bestimmbar und prüfbar sein. Zum zweiten erhält das Symmetrieprinzip durch die Forderung der Beobachtbarkeit eine Schlüsselrolle, wie dies Wigner deutlich macht: »The significance and general validity of these principles [of invariance] were recognized, however, only by Einstein.«138 Die spezielle Relativitätstheorie folgt dabei noch dem alten Konzept der globalen Symmetrieeigenschaften, deren »principles of invariance were derived from the laws of motion«.139 Diese äußeren Raum-Zeit-Symmetrien eines Systems – von Wigner ›geometrische‹ Symmetrieeigenschaften genannt – charakterisieren den Wechsel des Inertialsystems. Entsprechend dem Relativitätsprinzip müssen die Gleichungen unter Koordinatentransformationen invariant bleiben. Dies führt in der speziellen Relativitätstheorie zur Ersetzung der Galilei-Invarianz, die nur die Ortskoordinaten transformiert, durch die Lorentz-Transformationen, die Orts- und Zeitkoordinaten transformieren.140 Doch die spezielle Relativielektrischer und magnetischer Felder, gemessen werden kann.« Einstein, ›Zur Elektrodynamik bewegter Körper‹,1905, S. 920. Zudem lässt sich die Beziehung zwischen Potentialdifferenz und der Geschwindigkeit des Elektrons berechnen sowie der Krümmungsradius der Bahn des Elektrons, wenn eine senkrecht wirkende magnetische Kraft einwirkt. Durch diese drei Beziehungen sind die Gesetze, nach denen sich das Elektron bewegt, so Einstein, vollständig gegeben. 137 Vgl. Karl Popper: Logik der Forschung (1935), Tübingen: Mohr 1989. Diese erkenntnistheoretische Haltung entspricht der Einsteins, der 1935 an Popper schreibt: »Mir gefällt das ganze modische ›positivistische‹ Kleben am Beobachtbaren überhaupt nicht. Ich halte es für trivial, daß man auf atomistischem Gebiete nicht beliebig genau prognostizieren kann, und denke, daß Theorie nicht aus Beobachtungsresultaten fabriziert, sondern nur erfunden werden kann (wie Sie übrigens auch).« Albert Einstein: Brief an Karl Popper (1935), in: Popper, Logik der Forschung, 1989, 412–418, S. 413. 138 Eugene Wigner: Symmetries and Reflections. Scientific Essays of Eugene P. Wigner, Bloomington: Indiana University Press 1967, S. 5. 139 Wigner, Symmetries and Reflections, 1967, S. 5. 140 Felix Klein formuliert es wie folgt: »Was die modernen Physiker Relativitätstheorie nennen, ist die Invariantentheorie des vierdimensionalen Raum-Zeit-Gebietes, x, y, z, t (der Minkowskischen ›Welt‹) gegenüber einer bestimmten Gruppe von Kollineationen, eben der ›Lorentzgruppe‹; — oder allgemeiner, und nach der anderen Seite gewandt: Man könnte, wenn man Wert darauf legen will, den Namen ,Invariantentheorie relativ zu einer Gruppe von Transformationen‹ sehr wohl durch das Wort ,Relativitätstheorie bezüglich einer Gruppe‹ ersetzen.« Klein, ›Über die geometrischen Grundlagen der Lorentzgruppe‹, 1910, S. 539.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

145



146

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

tätstheorie berücksichtigt nicht die Gravitationskraft. Das wird erst die allgemeine Relativitätstheorie leisten, indem sie der erste Versuch ist, »to derive a law of nature by selecting the simplest invariant equation«.141 Damit wird das Symmetriekonzept in seiner modernen Version als Invarianzkonzept zum forschungsleitenden Prinzip der modernen Physik und das 20. Jahrhundert gestaltet sich zum »century of symmetry«.142 Das erkenntnistheoretische Diktum der Beobachtbarkeit führt im weiteren Verlauf der Entwicklung nicht nur zu einer Diskussion der Anschaulichkeit physikalischer Theorien, sondern entscheidet die von Riemann aufgeworfene Frage nach den Maßverhältnissen des ›wirklichen‹ Raumes. Letzteres ergibt sich aus der Verallgemeinerung der Lorentz-Transformationen durch Einstein in seiner allgemeinen Relativitätstheorie von 1916, die den Einfluss des Gravitationsfeldes auf die Lichtstrahlung berücksichtigt.143 Die Berücksichtigung der Gravitation hat, wie Peter Mittelstaedt hinweist, zwei entscheidende Konsequenzen für die Physik. Zum einen eine mathematische, denn es zeigt sich, dass »das Gravitationsfeld kein skalares Feld Φ sein kann, sondern ein Tensorfeld gμv sein muß«.144 Zum anderen führt die Lichtablenkung im Schwerefeld dazu, »daß man nicht mehr über die Möglichkeit verfügt, den euklidischen Darstellungsraum der Theorie empirisch zu realisieren, da alle in der Welt vorkommenden Gegenstände (Materie und Strahlung) von den Gravi141 Wigner,

Symmetries and Reflections, 1967, S. 6. Christopher A. Martin: ›On continuous symmetries and the foundations of modern physics‹, in: Kathrine Brading, Elena Castellani (Hrsg.): Symmetries in Physics: Philosophical Reflections, Cambridge: Cambridge University Press 2003, 29–60, S. 29. 143 Vgl. Albert Einstein: ›Die Grundlage der allgemeinen Relativitätstheorie‹, in: Annalen der Physik, 49, 1916, 769–822. Bezüglich der Anwendbarkeit der Mathematik erklärt Einstein dort: »Die für die allgemeine Relativitätstheorie nötigen mathematischen Hilfsmittel lagen bereits fertig bereit in dem ›absoluten Differentialkalkül‹, welcher auf den Forschungen von Gauß, Riemann und Christoffel über nichteuklidische Mannigfaltigkeiten ruht und von Ricci und Levi-Civita in ein System gebracht und bereits auf Probleme der theoretischen Physik angewendet wurde.« Einstein, ›Die Grundlage der allgemeinen Relativitätstheorie‹, 1916, S. 769. 144 Mittelstaedt, Philosophische Probleme der modernen Physik, 1981, S. 75. Obwohl Kräfte nicht mit Skalaren, sondern Vektoren mathematisch zu beschreiben sind, hat sich durch die Potentialtheorie für konservative Kraftfelder die skalare Darstellung ergeben. Doch diese Vereinfachung lässt sich nicht mehr aufrechterhalten. Die von Einstein verwendete Tensorrechnung geht auf Gregorio Ricci-Curbastro und Tullio Levi-Civita zurück, die 1890 die Tensorrechnung für Riemannsche Mannigfaltigkeiten entwickeln. Ein Tensor lässt sich als eine mehrdimensionale Matrix vorstellen. Eine Zahl ist ein Tensor 0-ter Stufe, Vektoren sind Tensoren 1-er Stufe und eine Matrix ist ein Tensor 2-ter Stufe. Beispielsweise ist der mechanische Spannungstensor ein Tensor 2-ter Stufe (Stärke der Spannung). Vgl. Adalbert Duschek: ›Der Tensorbegriff und seine Bedeutung für die Physik: Die geometrischen Grundlagen‹, in: Physikalische Blätter, 10 (9), 1954, 389–395. 142

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Nah- statt Fernwirkung

tationskräften beeinflußt werden. Verlangt man daher von der Theorie, daß alle in ihr auftretenden Bestimmungsstücke eine experimentell verifizierbare Bedeutung haben, so ist es sinnvoll, Aussagen der Theorie nicht auf die unbeobachtbaren euklidischen Koordinaten-Achsen zu beziehen, sondern auf die wirklichen Bahnen von Lichtstrahlen und Massenpunkten beziehungsweise auf Größen, die sie daraus bestimmen lassen.«145 Konkret bedeutet dies, dass die von Lorentz für seine Transformationen verwendete pseudoeuklidische Metrik (ημv), die allenfalls eine Gravitationstheorie im flachen Raum beschreibt (ημv gilt, wenn Tμv = 0, also wenn keine Materie vorhanden ist), durch eine geeignetere ersetzt werden muss. Eben dies tut Einstein, indem er – Hermann Minkowski folgend146 – den metrischen Tensor gμv seiner relativistischen Feldgleichungen auf Riemanns Differentialgeometrie bezieht, die sich aus dem Linienelement ds = √(gμv dxμ dxv) generiert und in der die Kongruenz frei beweglicher, starrer Maßkörper nur für infinitesimale Distanzen gilt.147 Riemanns Geometrie wird zu einer empirischen, wenn experimentell 145 Mittelstaedt,

Philosophische Probleme der modernen Physik, 1981, S. 75. Eine ausführliche Darstellung zur allgemeinen Relativitätstheorie und Frage der geometrischen Metrik findet sich bei Mittelstaedt, Philosophische Probleme der modernen Physik, 1981, S. 46–99. 146 1907 formuliert Hermann Minkowski die Idee einer vierdimensionalen Elektrodynamik, auf die Einstein 1916 zurückgreift. Vgl. Hermann Minkowski: ›Das Relativitätsprinzip‹ (1907), in: Annalen der Physik, 35 (15), 1915, 927–938; Hermann Minkowski: ›Raum und Zeit‹ (Vortrag 1908), in: Physikalische Zeitschrift, 10, 1909, 75–88. 147 Die Riemann’sche Differentialgeometrie versteht sich – von Gauß inspiriert und von Helmholtz an der Empirie orientiert – als ›physikalisch‹, solange man die Annahme existierender frei beweglicher, unverformbarer Maßkörper voraussetzt. Denn die Begründung der Geometrie als empirische durch von Helmholtz basiert auf der Herleitung des Linien-Elements anhand existierender, frei beweglicher starrer Körper. Helmholtz’ ›empirische Geometrie‹ lässt sich auf Riemanns Mannigfaltigkeiten beziehen, insofern durch Punktdrehung hinreichend kleine Raumgebiete isometrisch auf sich selbst abbildbar sind und damit der Raum als Riemann’scher Raum mit dem Linienelement ds = √(gμv dxμ dxv) beschreibbar ist, indem Kongruenz nur für infinitesimale Distanzen gilt. Nimmt man an, dass dies auch für endlich ausgedehnte Punktsysteme gilt, handelt es sich um einen Riemann’schen Kugelraum, der sich als euklidische Geometrie (Krümmung K = 0) oder als nicht-euklidische (K ≶ 0) formulieren lässt. Eben diesen Riemann’schen Kugelraum legt Einstein als Metrik seiner allgemeinen Relativitätstheorie zugrunde. Das Problem jedoch ist, dass der Wert der Krümmung allenfalls experimentell bestimmbar ist, falls man die Starrheit der Maßkörper prüfen kann. Doch dafür lässt sich keine Methode angeben, denn die Krümmung ist abhängig von den physikalischen Wechselwirkungen des Maßkörpers mit den Kraftfeldern des Raumes. In diesem Problem gründet der methodische Konstruktivismus von Hugo Dingler und Paul Lorenzen mit der Idee einer Protophysik, die die Maßstäbe durch Konstruktionsverfahren operativ herstellt. Vgl. Mittelstaedt, Philosophische Probleme der modernen Physik, 1981, S. 64 ff; Hugo Dingler: Über Geschichte und Wesen des Experiments, München: Eidos 1952; Joachim Pfarr: Protophysik und Relativitätstheorie, Mannheim: Bibliographisches Institut 1981.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

147



148

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

bestätigt werden kann, dass die trägheitsfreien Bahnen von Lichtstrahlen und Massenpunkten geodätischen Linien seiner vierdimensionalen Mannigfaltigkeiten entsprechen. Eben dies lässt sich für das Verhalten von Körpern und Lichtstrahlen im Gravitationsfeld messen. »Three ›crucial tests‹ are usually cited as experimental verifications of the [general] theory [of relativity]: the red shift of spectral lines emitted by atoms in a region of strong gravitational potential, the deflection of light rays that pass close to the sun, and the precession of the perihelion of the orbit of the planet Mars.«148 Damit bestätigt sich nicht nur Riemanns Differentialgeometrie als ›physikalisch-wirkliche Nahgeometrie‹,149 sondern der Anschauungscharakter der euklidischen Geometrie ist als platonischer ausgewiesen, der dem modernen Begriff der (apparativen) Anschauung als experimentell bestimmbar respektive messbar nicht entspricht. Mehr noch, die Geometrie ist nicht mehr die grundlegende Theorie, aus der die Physik ihre Gesetze ableitet. Treffend hat dies David Hilbert 1917 beschrieben: »Die neue Physik des Einsteinschen allgemeinen Relativitätsprinzip nimmt gegenüber der Geometrie eine völlig andere Stellung ein. Sie legt weder die euklidische noch irgend eine andere bestimmte Geometrie vorweg zu Grunde, um daraus die eigentlichen physikalischen Gesetze zu deduzieren, sondern die neue Theorie der Physik liefert […] mit einem Schlage durch ein und dasselbe Prinzip die geometrischen und die physikalischen Gesetze nämlich die Grundgleichungen […], welche lehren, wie die Maßbestimmung gμv – zugleich der mathematische Ausdruck der physikalischen Erscheinung der Gravitation – mit den Werten q2 der elektrodynamischen Potentiale verkettet ist. Die euklidische Geometrie ist ein der modernen Physik fremdartiges Ferngesetz: indem die Relativitätstheorie die euklidische Geometrie als allgemeine Voraussetzung für die Physik ablehnt, lehrt sie vielmehr, daß Geometrie und Physik gleichartigen Charakters sind 148 Leonard I. Schiff: ›On Experimental Tests of the General Theory of Relativity‹, in: American Journal of Physics, 28 (4), 1960, 340–343, S. 340. Die spezielle Relativitätstheorie wird durch das Michelson-Morley-Experiment von 1886, das Kennedy-Thorndike-Experiment von 1932 und das Ives-Stilwell-Experiment von 1938 experimentell bestätigt. »We shall find, in confirmation of conclusions drawn by Kennedy and by Ives, that these three second-order experiments do in fact enable us to replace the greater part of Einstein’s postulates with findings drawn inductively from the observations.« Howard P. Robertson: ›Postulate versus Observation in the Special Theory of Relativity‹, in: Reviews of Modern Physics, 21 (3), 1949, 378–382, S. 378. 149 Es ist kein Zufall, dass sich Riemanns Geometrie als geeignet für Nahwirkungstheorien und deren lokale Messbarkeit erweist. Allerdings beinhaltet Riemanns Geometrie noch ein ferngeometrisches Element, worauf Weyl 1919 in seiner Kritik an Einsteins allgemeiner Relativitätstheorie hinweist. Vgl. Hermann Weyl: ›Eine neue Erweiterung der Relativitätstheorie‹, in: Annalen der Physik, 59, 1919, 101–133.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative statt symbolischer Anschauung

und als eine Wissenschaft auf gemeinsamer Grundlage ruhen.«150 Allerdings führt die empirische Geometrie eine ›zyklische Struktur‹ in die moderne Physik ein, denn die Theorie, der die geometrische Struktur zugrunde gelegt wurde, beschreibt auch die Messgeräte für den experimentellen Nachweis. Dies erfordert jedoch den Beweis der Selbstkonsistenz der Theorie.151

Apparative statt symbolischer Anschauung

Die Forderung nach Beobachtbarkeit und damit Messbarkeit und Überprüfbarkeit zeigen sich noch deutlicher in der Ausgestaltung der Quantenmechanik.152 Es ist Werner Heisenberg, der analog zu Einstein fordert, dass nur beobachtbare Größen in die Quantentheorie eingehen dürfen.153 1925 formuliert Heisenberg, dass »die formalen Regeln, die allgemein in der Quantentheorie zur Berechnung beobachtbarer Größen (z. B. der Energie im Wasserstoffatom) benutzt werden […] Beziehungen enthalten zwischen Größen, die scheinbar prinzipiell nicht beobachtet werden können (wie z. B. Ort, Umlaufzeit des Elektrons), daß also jenen Regeln offenbar jedes anschauliche physikalische Fundament mangelt, wenn man nicht immer noch an der Hoffnung festhalten will, daß jene bis jetzt unbeobachtbaren Größen später vielleicht experimentell zugänglich gemacht [… und] als Abweichungen von der klassischen Mechanik« interpretiert werden können.154 Sein Vorschlag ist es daher, jede Hoffnung auf zukünftig mögliche Beobachtbarkeit der klassischen Größen fallen zu lassen und stattdessen eine quantentheoretische Mechanik so zu formulieren, dass nur tatsächlich beobachtbare Größen enthalten sind. 150 David Hilbert: ›Die Grundlagen der Physik (Zweite Mitteilung)‹, in: Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1917, Berlin: Weidmannsche Buchhandlung 1917, 53–76, S. 63, 64. 151 Vgl. Mittelstaedt, Philosophische Probleme der modernen Physik, 1981, S. 86 ff. »Wir müssen also verlangen, daß die empirische Geometrie mit ihren eigenen Voraussetzungen, d. h. derjenigen Geometrie, die der Formulierung der Gesetze der Meßgeräte zugrunde liegt, konsistent ist.« Mittelstaedt, Philosophische Probleme der modernen Physik, 1981, S. 88. 152 Zur historischen Darstellung der Entwicklung der Quantenmechanik vgl. Max Jammer: The Conceptual Development of Quantum Mechanics, New York u.a.: McGraw-Hill 1966. 153 Vgl. Werner Heisenberg: ›Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen‹ (1925), in: Max Born, Werner Heisenberg, Pascual Jordan: Zur Begründung der Matrizenrechnung (hrsg. von Armin Hermann), Stuttgart: Battenberg 1962, 31–45. 154 Heisenberg, ›Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen‹ (1925), 1962, S. 31.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

149



150

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

Dazu reformuliert er die klassische Darstellungsweise durch eine quantentheoretische, die dann von Max Born und Pascual Jordan mathematisch artikuliert wird.155 Die mathematische Formulierung besteht in der Ausgestaltung eines neuen Formalismus für die Physik, insofern Born und Jordan das von Heisenberg formulierte Multiplikationsgesetz quantentheoretischer Größen als »den Mathematikern wohlbekanntes Gesetz der Multiplikation von Matrizen« erkennen und die Matrize als »Repräsentant einer physikalischen Größe [interpretieren], die in der klassischen Theorie als Funktion der Zeit angegeben wird«.156 Denn genau dieser funktionelle Zusammenhang mit der Zeit lässt sich in der Quantentheorie nicht mehr beobachten. Die klassische Mathematik, die sich mit Newtons und Leibniz’ Infinitesimalkalkül und später mit Eulers Differentialrechnung zum Darstellungsinstrument physikalischer Prozesse veränderlicher Größen par excellence entwickelt hat, versagt angesichts der nicht gleichzeitigen Beobachtbarkeit von Ort und Bewegung in der Quantenphysik. Wie Heisenberg darlegt, ist dies keine Schwäche der wissenschaftlichen Realisierung im Experiment, sondern eine prinzipielle Grenze wissenschaftlicher Beobachtung. Mehr noch, der stetige Charakter klassischer physikalischer Prozesse, der sich anschaulich in Kurvenverläufen von zeitabhängigen Funktionen zeigt – und eben die mathematische Meisterung des stetig Krummlinigen als Bahn oder Trajektorie in der Zeit war der Verdienst des Infinitesimalkalküls von Newton und Leibniz –, wird durch die Quantensprünge ausgehebelt.157 Heisenbergs Verdienst ist es, »die Idee 155

Born und Jordan beschreiben Heisenbergs Ansatz wie folgt: »Sie bedeuten einen Versuch, den neuen Tatsachen – statt durch mehr oder weniger künstliche und gezwungene Anpassung an alte gewohnte Begriffe – durch die Schaffung eines neuen, wirklich angemessenen Begriffssystems gerecht zu werden. Heisenberg hat die physikalischen Gedanken, die ihn dabei geleitet haben, in so klarer Weise ausgesprochen, daß jede ergänzende Bemerkung überflüssig erscheint. Aber in formaler, mathematischer Hinsicht sind seine Betrachtungen, wie er selbst betont, erst im Anfangsstadium.« Max Born, Pascual Jordan: ›Zur Quantenmechanik‹ (1925), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 46–76, S. 46. 156 Born, Jordan, ›Zur Quantenmechanik‹ (1925), 1962, S. 47. 157 Nils Bohr zollt der Stetigkeit der klassischen Mechanik mit seinem Korrespondenzprinzip Rechnung, indem er für große Quantenzahlen und geringfügige Energieänderungen diese als kontinuierlich begreift, um damit die klassische Mechanik als Approximation beibehalten zu können. Da aber Schwingung neben der Frequenz auch Intensität hat, das heißt die stationären Zustände entsprechen einer charakteristischen Frequenz und aus dieser lässt sich die Intensität ›erraten‹, versagt hier, wie Einstein zeigte, Bohrs Korrespondenzprinzip und damit die Analogie zur klassischen Mechanik und ihrer Mathematik. Denn Einstein kann »durch eine neue Ableitung der Planckschen Strahlungsformel« zeigen, »dass man den klassischen Begriff der Intensität der Ausstrahlung durch den statistischen Begriff der Übergangswahrscheinlichkeit ersetzen muss: zu jedem Platz in unserem Schema [Energiestufen der stationären Zustände der

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative statt symbolischer Anschauung

von Elektronenbahnen mit bestimmten Radien und Umlaufperioden« zu verbannen, »weil diese Größen nicht beobachtbar« sind.158 Statt Bewegung als Zeitfunktion bedarf es der mathematischen Beschreibung eines durch die Multiplikationsregel gewonnenen quadratischen Schemas von Übergangsamplituden.159 Dies erfordert einen diskreten Formalismus, der die Wahrscheinlichkeit der Übergänge von einem Zustand in den nächsten darstellbar macht. Die mathematische Erfahrungsmöglichkeit der Quantenmechanik verlangt die »Benutzung einer Matrizenanalysis an Stelle der gewöhnlichen Zahlenanalysis«, wobei die »Quadrate der Beträge der Elemente der das elektrische Moment eines Atoms darstellenden Matrix das Maß […] für die Übergangswahrscheinlichkeit« sind.160 Eine zweidimensionale Matrize lässt sich wie folgt tabellarisch anschreiben: a(00) a(01) a(02) … a(10) a(11) a(12) … a(20) a(21) a(22) … … … … … Wie Born und Jordan im September 1925 beschreiben,161 lassen sich die Koordinate q und der Impuls p als Matrizen anschreiben – q = (q(n,m)e2πiv(n,m)t) und p = (p(n,m)e2πiv(n,m)t) mit v(n,m) als quantentheoretische Frequenz, die die Übergänge zwischen den Zuständen mit den Quantenzahlen n und m darstellt –, deren Funktion g(q, p) ebenfalls eine Matrize der Form g = (g(n,m) e2πiv(n,m)t) ist mit der zeitlichen Ableitung ġ = 2πi(v(n,m) g(n,m)). Dabei ist die Differentialgleichung ġ = a invariant gegenüber den Permutationen der ZeiElektronen] gehört (neben der Frequenz vmn = (Eu – Em)/h) eine bestimmte Wahrscheinlichkeit für den Übergang unter Ausstrahlung oder Einstrahlung.« Max Born: ›Die statistische Deutung der Quantenmechanik‹ (Nobelpreisvortrag gehalten am 11.12.1954), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 1–12, S. 3. 158 Born, ›Die statistische Deutung der Quantenmechanik‹ (1954), 1962, S. 4. 159 Damit greift Heisenberg Arthur Cayleys Produktregel für Matrizen von 1854 auf, ohne sich dessen bewusst zu sein. Doch es ist Born, der die Brücke zur Matrizenrechnung schlägt. »Heisenbergs Multiplikationsregel ließ mir keine Ruhe, und nach 8 Tagen intensiven Denkens und Probierens erinnerte ich mich plötzlich an eine algebraische Theorie, die ich von meinem Lehrer Professor Rosanes in Bresslau gelernt hatte. Den Mathematikern sind solche quadratischen Schemata wohl bekannt und werden in Verbindung mit einer bestimmten Multiplikationsregel Matrizen genannt. Ich wandte diese Regel auf Heisenbergs Quantenbedingungen an und fand, dass diese mit den in der Diagonale stehenden Grössen übereinstimmen.« Born, ›Die statistische Deutung der Quantenmechanik‹ (1954), 1962, S. 4. Vgl. Cayley, ›An Introductory Memoir on Quantics‹ (1854), 1889; Jammer, The Conceptual Development of Quantum Mechanics, 1966, S. 204 ff. 160 Born, Jordan, ›Zur Quantenmechanik‹ (1925), 1962, S. 47 und 48. 161 Vgl. Born, Jordan, ›Zur Quantenmechanik‹ (1925), 1962, S. 48 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

151



152

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

len und Kolonnen aller Matrizen. Basierend auf der Hamilton’schen Funktion lassen sich die Bewegungsgleichungen H(q, p) der Elektronen angeben. Damit »sind die Grundgesetze der neuen Mechanik vollständig gegeben. Alle sonstigen Gesetze der Quantenmechanik, denen Allgemeingültigkeit zugesprochen werden soll, müssen aus ihnen heraus zu beweisen sein.«162 So beispielsweise die Folgerung, dass die Diagonalglieder H(n,m) von H die Energien der verschiedenen Zustände repräsentieren und dass unter ›verschärften Quantenbedingungen‹ (p q – q p = (h/2πi)1) p und q vertauschbar sind, wenn die Planck’sche Konstante h durch –h ersetzt wird.163 Ist q eine kartesische Koordinate, dann stellen die Quadrate der Absolutwerte ǀq(n,m)ǀ2 der Elemente von q die Sprungwahrscheinlichkeiten dar. Der neue Formalismus ermöglicht nicht nur die Erklärung zahlreicher experimenteller Befunde, sondern ist auch allgemeiner als die bisherigen Ansätze. Eines der Resultate der ausformulierten Theorie ist, dass Verbote der alten Quantentheorie bezüglich einzelner stationärer Zustände des Wasserstoffs, damit Kern und Elektron nicht zusammenstoßen, nicht mehr nötig sind.164 Das Interessante an der frühen Phase der Quantenmechanik Mitte der 1920er Jahre ist, dass binnen eines Jahres drei konkurrierende mathematische Formalisierungen auftreten: 1925 die Matrizenrechnung von Heisenberg, Born und Jordan. Ebenfalls 1925 Paul Diracs Poisson-Klammern-Formalismus sowie 1926 Erwin Schrödingers Wellenfunktion, der damit den Anschluss an die klassische Mechanik versucht und zeigt, dass Matrizen- und Wellenmechanik äquivalent sind.165 Etwas später folgen Weyls gruppentheoretische 162 Born, Jordan, ›Zur Quantenmechanik‹ (1925), 1962, S. 58. Erwähnenswert ist hier, dass der Einfluss magnetischer Felder auf die Elektronenbewegung die Berücksichtigung der relativistischen Mechanik erfordert und dass dann »die Funktion H bei kartesischen Koordinaten nicht mehr dargestellt werden [kann] als Summe zweier Funktionen, deren eine nur von den Impulsen und deren andere nur von den Koordinaten abhängt«. Born, Jordan, ›Zur Quantenmechanik‹ (1925), 1962, S. 56. 163 Wäre die Planck’sche Konstante h = 0, würde die neue Mechanik in die klassische übergehen analog zu Einsteins Relativitätstheorie, wenn die Lichtgeschwindigkeit c = ∞ wäre. 164 Vgl. Max Born, Werner Heisenberg, Pascual Jordan: ›Zur Quantenmechanik II‹ (1925), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 77–135, S. 120. 165 Vgl. Paul Dirac: ›The Fundamental Equations of Quantum Mechanics‹, in: Proceedings of the Royal Society, 109, 1925, 642–653; Paul Dirac: The Principles of Quantum Mechanics (1930), Oxford: Claredon Press 1958; Erwin Schrödinger: ›Quantisierung als Eigenwertproblem‹ (I-IV), in: I. Annalen der Physik, 79, 1926, 361–376, II. Annalen der Physik, 79, 1926, 489–527, III. Annalen der Physik, 80, 1926, 734–756, IV. Annalen der Physik, 81, 1926, 109–139; Erwin Schrödinger: ›Über das Verhältnis der Heisenberg-Born-Jordanschen Quantenmechanik zu der meinen‹, in: Annalen der Physik, 79 (4), 1926, 734–756.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative statt symbolischer Anschauung

Darstellung von 1928 und John von Neumanns Operatorenansatz in HilbertRäumen von 1932.166 Insbesondere die frühen Formalismen von Heisenberg und Schrödinger entfalten einen Streit unter Physikern bezüglich ›anschaulicher‹ Theorien.167 Es liegt auf der Hand, dass hier zwei verschiedene Anschauungskonzepte aufeinanderprallen.168 Während es Heisenberg 1925 – wie auch Dirac169 – um die ›apparative Anschauung‹ geht und er dafür die vertraute ›symbolische Anschauung‹ des mathematischen Formalismus als stetige Elektronenbahnen zugunsten von diskreten Quantensprüngen opfert, ist Schrödinger 1926 der Meinung, dass es »kaum nötig [ist], hervorzuheben, um wie vieles sympathischer die Vorstellung sein würde, daß bei einem Quantenübergang die Energie aus einer Schwingungsform in eine andere übergeht, als die Vorstellung von den springenden Elektronen. Die Änderung der Schwingungsform kann sich stetig in Raum und Zeit vollziehen.«170 Schrödingers wellenmechanischer Ansatz, dessen Motivation in der ›symbolischen Anschauung‹ des klassischen Formalismus besteht, wird von Heisenberg 1927 zwar als »nicht hoch genug ein(zu)schätzen« gerühmt, aber sogleich dahingehend verworfen, dass in »den prinzipiellen, physikalischen Fragen […] die populäre Anschaulichkeit der Wellenmechanik vom geraden Weg abgeführt« 166 Vgl. Hermann Weyl: Gruppentheorie und Quantenmechanik (1928), Darmstadt: Wissenschaftliche Buchgesellschaft 1977; John von Neumann: Mathematische Grundlagen der Quantenmechanik, Berlin: Springer 1932. 167 Vgl. Werner Heisenberg: ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, in: Zeitschrift für Physik, 43, 1927, 172–198; Werner Heisenberg: ›Die ›beobachtbaren Größen‹ in der Theorie der Elementarteilchen‹, in: Zeitschrift für Physik, 120 (7–10), 1943, 513–538. Dieser Streit stellt auch ein Lehrstück der Mathematikphilosophie dar, insofern die verschiedenen Konzepte als Belege für teils diametrale Philosophien der Mathematik herhalten. 168 »Indeed, the notion of Anschaulichkeit played a crucial role in the genesis of quantum mechanics, a role which is somewhat neglected by historians and philosophers of science.« Henk de Regt: ›Erwin Schrödinger, Anschaulichkeit, and Quantum Theory‹, in: Studies in the History and Philosophy of Modern Physics, 28 (4), 1997, 461–481, S. 462. Vgl. Mara Beller: ›The Rhetoric of Antirealism and the Copenhagen Spirit‹, in: Philosophy of Science, 63, 1996, 183–204. Die Rolle der Anschaulichkeit nicht zu unterschätzen, ist für den Anwendungsbegriff, wie er hier zur Diskussion steht, wichtig. Henk de Regt beispielsweise differenziert nicht zwischen der Motivation der apparativen Anschauung bei Heisenberg und der Motivation der Anschauung bei Schrödinger durch die vertraute orts- und zeitorientierte Vorstellung. 169 Dirac teilt Heisenbergs Kritik der Anschaulichkeit, schlägt aber einen anderen Formalismus als Heisenberg vor: »We make the fundamental assumption that the difference between the Heisenberg products of two quantum quantities is equal to ih/2π times their Poisson bracket expression. In symbols, xy - yx = ih/2π. [x, y].« Dirac, ›The Fundamental Equations of Quantum Mechanics‹, 1925, S. 648. 170 Schrödinger, ›Quantisierung als Eigenwertproblem I‹, 1926, S. 375.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

153



154

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

hätte.171 Schrödingers Idee, Quantenübergänge als Schwingungsformen zu betrachten, lehnt Heisenberg rigoros ab, da dies vielleicht für den Spezialfall des harmonischen Oszillators möglich sei, da hier die Schwingung ein ganzzahliges Vielfache einer Grundfrequenz ist, aber nicht für die beobachteten Quantenübergänge. Denn, wie bereits dargelegt, ist für Heisenberg eine »physikalische Theorie [… dann als] anschaulich zu verstehen, wenn wir uns in allen einfachen Fällen die experimentellen Konsequenzen dieser Theorie qualitativ denken können, und wenn wir gleichzeitig erkannt haben, daß die Anwendung der Theorie niemals innere Widersprüche enthält«.172 Diese inneren Widersprüche sind nicht logisch motiviert, sondern experimentell. Analog zur Relativitätstheorie definiert Heisenberg seine Haltung – die eben deshalb treffend als apparative Anschauung bezeichnet werden kann – wie folgt: »Nach der Relativitätstheorie läßt sich das Wort ,gleichzeitig‹ nicht anders definieren, als durch Experimente, in welche die Ausbreitungsgeschwindigkeit des Lichts wesentlich eingeht. Gäbe es eine ,schärfere‹ Definition der Gleichzeitigkeit, also z. B. Signale, die sich unendlich schnell fortpflanzen, so wäre die Relativitätstheorie unmöglich. […] Ähnlich steht es mit der Definition der Begriffe: ›Elektronenort, Geschwindigkeit‹ in der Quantentheorie. Alle Experimente, die wir zur Definition dieser Worte verwenden können, enthalten notwendig die durch Gleichung (1) angegebene Ungenauigkeit, wenn sie auch den einzelnen Begriff p [Impuls], q [Koordinate] exakt zu definieren gestatten.«173 Das Experiment – und das, was dadurch beobachtbar ist – definiert den theoretischen Begriff, indem es die ›imaginative Distinktion‹ der theoretischen Definition mit der experimentellen koppelt.174 Dabei erhält die apparative Anschauung das Primat über die symbolische Anschauung der mathematischen Formalismen. Grundsätzlich sind beide Anschauungsform aber immer miteinander verknüpft. Konkret bedeutet dies, dass sich der mathematische Formalismus der Realität des Experiments und seiner Unschärfe anpassen muss. Deutlich hat Dirac auf diesen Aspekt hingewiesen. »Heisenberg puts forward a new the171 Heisenberg, ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, 1927, S. 196, Fn 1. 172 Ebd., S. 172. »Man kann aber, wenn man will, mit Dirac auch sagen, daß die Statistik durch unsere Experimente hereingebracht sei. […] Der Unterschied zwischen klassischer und Quantenmechanik besteht vielmehr darin: Klassisch können wir uns durch vorausgehende Experimente immer die Phase bestimmt denken. In Wirklichkeit ist dies aber unmöglich, weil jedes Experiment zur Bestimmung der Phase das Atom zerstört bzw. verändert.« Heisenberg, ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, 1927, S. 177. 173 Ebd., S. 179. 174 Hier ist Leibniz’ Version der Definition als ›imaginative Distinktion‹ gemeint.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative statt symbolischer Anschauung

ory, which suggests that it is not the equations of classical mechanics that are in any way at fault, but that the mathematical operations by which physical results are deduced from them require modification.«175 Für die Relativitätstheorie bedeutete dies, die experimentelle Vorgabe einer endlichen Lichtgeschwindigkeit im mathematischen Formalismus zu berücksichtigen und eine empirische Geometrie zugrunde zu legen. Für die Quantenmechanik bedeutet dies, dass der Formalismus dem Umstand Rechnung tragen muss, dass »jedes Experiment zur Bestimmung der Phase das Atom zerstört beziehungsweise verändert«.176 Daraus folgt die Unschärfe des einzelnen Experiments, indem es nur eine physikalische Größe in den Fokus nehmen kann: Ort oder Impuls ; beide stellen konjungierte Operatoren dar, die zur gleichen Zeit nicht eindeutig bestimmbar sind.177 Das Experiment unterteilt die physikalischen Größen damit in bekannte und unbekannte Größen und lediglich Experimente, die dieselbe Unterscheidung treffen, lassen sich vergleichen. Mathematisch bedeutet dies, dass »die Tensoren in einem mehrfach zur Veranschaulichung gebrachten mehrdimensionalen Raum in beiden Experimenten von der gleichen Richtung aus ›angesehen‹ werden« müssen.178 Der Vergleich zwischen Experimenten mit unterschiedlichen Unterscheidungen (Blickrichtungen) ist zwar möglich, aber nur statistisch.179

175

Dirac, ›The Fundamental Equations of Quantum Mechanics‹, 1925, S. 642. Heisenberg, ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, 1927, S. 177. 177 Hier bekommt das ›Entscheidungsproblem‹ eine interessante physikalische Wendung, wie Schrödinger in seinem Katzen-Gedankenexperiment von 1935 zeigt. Würden sich in einer Box eine Katze und ein Fläschchen Gift befinden, das durch Atomzerfall freigesetzt würde, so wäre die Katze im Falle eines einzigen Atomzerfalls tot. Da dies jedoch wegen der Indefinitheit der Quantenzustände nicht vorhersagbar ist, ist die Katze quantenmechanisch betrachtet sowohl tot als auch lebendig. »Die φ-Funktion des ganzen Systems würde das so zum Ausdruck bringen, daß in ihr die lebende und die tote Katze zu gleichen Teilen gemischt oder verschmiert sind. Das Typische an diesen Fällen ist, daß eine ursprünglich auf den Atombereich beschränkte Unbestimmtheit sich in grobsinnliche Unbestimmtheit umsetzt, die sich dann durch direkte Beobachtung entscheiden läßt.« Erwin Schrödinger: ›Die gegenwärtige Situation in der Quantenmechanik (Teil 1)‹, in: Naturwissenschaften, 23 (48), 1935, 807–812, S. 812. 178 Heisenberg, ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, 1927, S. 182. 179 Andererseits lassen sich aus einem realisierten Experiment die möglichen Resultate eines anderen ableiten, denn die Quantenmechanik ist durch Linearität charakterisiert und das Superpositionsprinzip der klassischen Mechanik bleibt gültig. Überlagern sich zwei definite Quantenzustände, ergibt dies wieder einen Quantenzustand (Gesamtzustand, allerdings mit indefiniten Werten). 176

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

155



156

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

Die Wahrscheinlichkeit der Quantensprünge, die Heisenberg mathematisch durch die Multiplikationsregel als quadratisches Schema von Übergangsamplituden gewinnt und die Schrödinger als zu abstrakt ablehnt, zeigen sich in Borns Matrizenschreibweise in den Größen entlang der Diagonale der Matrize. Schrödingers Vorwurf der »abschreckenden, ja abstoßenden Unanschaulichkeit und Abstraktheit« der Matrizenmechanik kontert Heisenberg damit, dass er fragt, ob die »Aussage, daß etwa die Geschwindigkeit in der X-Richtung ›in Wirklichkeit‹ keine Zahl, sondern Diagonalglied einer Matrix sei, […] vielleicht nicht abstrakter und unanschaulicher [ist], als die Feststellung, daß die elektrische Feldstärke ›in Wirklichkeit‹ der Zeitanteil eines antisymmetrischen Tensors der Raumzeitwelt sei. Das Wort ›in Wirklichkeit‹ wird hier ebenso sehr und ebenso wenig berechtigt sein, wie bei irgendeiner mathematischen Beschreibung natürlicher Vorgänge. Sobald man zugibt, daß alle quantentheoretischen Größen ›in Wirklichkeit‹ Matrizen seien, folgen die quantitativen Gesetze ohne Schwierigkeiten.«180 Der Vorteil von Schrödingers Wellenmechanik liegt in der ›Wirklichkeit‹ der symbolischen Anschauung der Vertrautheit der Differentialgleichungen, die sich jedoch bereits im Wandel befindet. Wie Born in seiner Nobelpreisrede von 1954 feststellt, operiert sie »mit der Wellenfunktion φ, die wenigstens im Falle eines Teilchens im Raume anschaulich vorgestellt werden kann, und sie verwendet die mathematischen Methoden der partiellen Differentialgleichungen, die jedem Physiker geläufig sind«.181 Letztendlich, so Born, ist es Heisenbergs statistische Deutung – Kopenhagen-Göttingen-Deutung, die Heisenbergs Unschärfenrelation enthält – von Schrödingers Wellenfunktion von 1927, die der neuen Quantenmechanik zum Durchbruch verhilft, aber von Schrödinger zeit­lebens abgelehnt wird.182 Dirac wird 1930 die Matrizen- und Wellenmechanik zusammen­führen.183 180 Heisenberg, ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, 1927, S. 196. Diese Diskussion trifft den Kern der Frage nach der Anwendbarkeit der Mathematik und der Realität der mathematischen Operationen. Die Situation verschärft sich noch weiter, insofern Dirac 1930 die umstrittene Deltafunktion (Distribution) einführt, die mathematisch inkonsistent und eigentlich keine Funktion ist. Sie ist «[a] function of the real variable x which vanishes everywhere except inside a small domain, of length ε say, surrounding the origin x = 0, and which is so large inside this domain that its integral over this domain is unity. […] Then in the limit ε → 0 this function will go over into δ(x).« Dirac, The Principles of Quantum Mechanics (1930), 1958, S. 58. Vgl. Otávio Bueno: ›Dirac and the dispensability of mathematics‹, in: Studies in the History and Philosophy of Modern Physics, 36, 2005, 465–490. Die Deltafunktion beschreibt ähnlich wie die Greensche Funktion einen Stoß- oder Impulsvorgang. 181 Born, ›Die statistische Deutung der Quantenmechanik‹ (1954), 1962, S. 6. 182 Vgl. ebd., S. 5 ff. 183 Dirac, The Principles of Quantum Mechanics (1930), 1958.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative statt symbolischer Anschauung

Zwar wird sich in der modernen Elementarteilchenphysik nicht der Formalismus von Heisenberg durchsetzen, aber dessen Abstraktheit im Dienste der apparativen Anschauung als erster Versuch, die halbklassische Bestimmung von Quantenbahnen mit kontinuierlichen Übergängen zu überwinden. Als »wahre Diskontinuumstheorie« stellt die Matrizenmechanik, die von der durch »den physikalischen Vorgang definierten Reihenfolge der Quantenzustände« absieht und für welche »die Quantenzahlen wirklich nichts sind als unterscheidende Indizes, die man nach irgendwelchen praktischen Gesichtspunkten (z. B. nach wachsender Energie Wn) ordnen und normieren kann«184 – ganz im Sinne der Galois- und Gruppentheorie –, einen epistemischen Bruch dar.185 Dieser Bruch mit der Gewohnheitserfahrung der Physiker wird durch die Verallgemeinerung der Matrizenrechnung auf Basis von Operatoren durch Max Born und Norbert Wiener verstärkt.186 Insbesondere John von Neumann wird diesen Bruch 1932 weiterführen, indem er Hilberts Theorie linearer Integralgleichungen als Theorie der Hilbert-Räume expliziert.187 Hilbert hatte Anfang des 20. Jahrhunderts das aufkommende Interesse an Integralgleichungen aufgegriffen und sie geometrisch interpretiert zur Spektraltheorie der Operatoren der Funktionsanalyse weiterentwickelt. In diesem Kontext definiert Hilbert 1904 den Begriff ›Eigen‹ für charakteristische Größen,188 der als ›Eigenwert‹ in der Quantenmechanik von Beginn an eine 184

Born, Jordan, ›Zur Quantenmechanik‹ (1925), 1962, S. 67. Hier liegt ein epistemischer Bruch mit der Gewohnheitserfahrung vor, wie er treffend von Gaston Bachelard charakterisiert wurde. Vgl. Bachelard, Die Bildung des wissenschaftlichen Geistes (1938), 1987. 186 Born versucht gleich nach der Fertigstellung der ›Drei-Männer-Arbeit‹ von 1925 die Matrizenmethode mit Hilfe von Norbert Wiener als einen operationalen Kalkül zu verallgemeinern. Ein Operator ist dabei nichts anderes als eine Transformationsvorschrift einer Funktion in eine andere. Vgl. Max Born, Norbert Wiener: ›A new formulation of the laws of quantization of periodic and aperiodic phenomena‹, in: Journal of Mathematics and Physics, 5, 1925–26, 84–98; Norbert Wiener: ›The Operational Calculus‹, in: Mathematische Annalen, 95, 1926, 557–584; Jammer, The Conceptual Development of Quantum Mechanics, 1966, S. 221 ff. 187 Hilbert entwickelt die Theorie linearer Integralgleichungen, welche die Grundlage der Spektraltheorie der Operatoren der Funktionsanalyse stellt, in sechs Mitteilungen zusammengefasst in David Hilbert: Grundzüge einer allgemeinen Theorie der Linearen Integralgleichungen, Leipzig: Teubner 1912; von Neumann, Mathematische Grundlagen der Quantenmechanik, 1932. Für einen historischen Überblick vgl. Jean Dieudonné: History of Functional Analysis, Amsterdam u.a.: North-Holland Publishing Company 1981, S. 97 ff. 188 Vgl. David Hilbert: ›Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen (Erste Mitteilung)‹, in: Nachrichten der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse, 1904, 49–91. Hilbert untersucht lineare Integralgleichungen unter Voraussetzung, »daß der Kern K(s, t) der Integralgleichung eine symmetrische Funktion der veränderlichen s, t ist. Insbesondere […] gelange 185

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

157



158

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

wichtige Rolle spielt.189 Von Neumann greift Hilberts Theorie auf, um einen »Neubau unserer ›Analysis der unendlich vielen Variablen‹«, den die Quantenmechanik nahelegt, zu vermeiden.190 Statt einer mathematischen Präzisierung und Explizierung der Methode von Dirac, die Matrizen- und Wellenmechanik in der Transformationstheorie zusammenführt, orientiert sich von Neumann an Hilberts Spektraltheorie der Operatoren. Denn deren Vorteil besteht darin, dass »mit den Operatoren selbst (die physikalische Größen repräsentieren) gerechnet werden [kann], und nicht mit den Matrizen, welche erst nach Einführung eines (speziellen und willkürlichen) Koordinatensystems im Hilbertschen Raume aus ihnen entstehen. Diese ›koordinatenfreie‹, d. h. invariante, und stark geometrisch orientierte Behandlungsweise ist mit beträchtlichen Vorteilen verbunden.«191 Von Neumanns Ansatz ist nicht nur deshalb interessant, weil hier die Denkbewegung der projektiven Geometrie des 19.  Jahrhunderts in moderner Version durchschlägt, sondern weil es Borns abschließendes Resümee über seine Erfahrung des epistemischen Bruchs mit der klassischen Mechanik und ihrer mathematischen Darstelich zu Formeln, die die Entwicklung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich Eigenfunktionen nenne, liefern. […] Die Methode, die ich in dieser ersten Mitteilung anwende, besteht darin, daß ich von einem algebraischen Problem, nämlich dem Problem der orthogonalen Transformation einer quadratischen Form von n Variablen in eine Quadratsumme ausgehe und dann durch strenge Ausführung des Grenzübergangs für n = ∞ zur Lösung des zu behandelnden transcendenten Problems gelange.« Hilbert: ›Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen (Erste Mitteilung)‹, 1904, S. 51, 52. 189 Als Eigenwert einer Abbildung wird der Streckungsfaktor eines Vektors bezeichnet, der durch die Abbildung gestreckt wird, dessen Richtung sich jedoch nicht ändert (Eigenvektor). In der Quantenmechanik repräsentieren die Eigenwerte der Operatoren die messbaren Größen. Heisenbergs Unschärferelation lässt sich auch so verstehen, dass für die Operatoren gewisser Größen (Ort und Impuls) kein gemeinsames System von Eigenvektoren existiert. Eine entscheidende Rolle spielt in der Quantenmechanik der Hamilton-Operator H, der die Energie eines quantenmechanischen Systems repräsentiert. Das Problem der Quantenmechanik besteht darin, die Lösung des Eigenwertproblems für H als spektrale Darstellung durch ›Diagonalisierung‹ von H abzuleiten. 190 von Neumann, Mathematische Grundlagen der Quantenmechanik, 1932, S. 2. 191 Ebd., S. 1. Hilbert-Räume sind n-dimensionalen Vektorräume über reelle oder komplexe Zahlen mit einem Skalarprodukt (Verknüpfung zweier Vektoren), das im Falle der Orthogonalität 0 ist. Eine Menge von Vektoren, die zueinander orthogonal sind, bilden ein Orthogonalsystem; sind sie zudem auf die Länge eins normiert, bilden sie ein Orthonormalsystem. Orthogonalbasen respektive Orthonormalbasen sind maximal in dem Sinne, dass keine Vektoren mehr hinzugefügt werden können. Auf Basis dieser Grundlagen lassen sich Operatoren (lineare Abbildungen) formulieren, die Elemente von Hilbert-Räumen transformieren – beispielsweise mit adjungierten und selbstadjungierten (Hermite’schen) Operatoren, die aufeinander oder sich selbst wirken, isometrischen (maßerhaltenden) oder Entwicklungsoperatoren.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Was ging verloren?

lungsmittel als Frage bezüglich zukünftiger Anwendbarkeit der Mathematik in den Raum stellt. Born gewinnt die Einsicht für die neu entstehende Elementarteilchenphysik, »dass vermutlich Verfeinerung der mathematischen Methoden nicht ausreichen wird, […] sondern dass irgendwo in unserer Lehre ein durch keine Erfahrung gerechtfertigter Begriff steckt, den wir eliminieren müssen, um freie Bahn zu gewinnen«.192 Die Frage ist nun, ob von Neumanns Hilbert-Raum-Formalismus, der bis heute in der Elementarteilchenphysik Verwendung findet, lediglich eine Verfeinerung der mathematischen Methoden darstellt oder ob damit ein durch keine Erfahrung gerechtfertigter Begriff eliminiert wurde. Oder, in anderen Worten: ob ein durch die apparative Anschauung nicht gerechtfertigter Begriff neu, also mathematisch-operativ formuliert wird, wie dies Einstein und Heisenberg taten. Die aktuellen Probleme der Elementarteilchenphysik lassen jedoch vermuten, dass es sich allenfalls um Verfeinerungen der mathematischen Methode handelt.

Was ging verloren?

Was, so ist zu fragen, ist der Wissenschaft eigentlich an Anschauung verlorengegangen? Sowohl die mathematikhistorische als auch die wissenschaftshistorische Rekapitulation der Entwicklungen macht deutlich, dass sich das Forschungsprogramm der Moderne aus der Systematisierung ihrer Forschungsfelder generiert. Die sinnliche wie konstruierbare Anschaulichkeit der euklidischen Geometrie wird durch die Tendenzen der Verallgemeinerung und Vervollständigung der Systematisierung überwunden. Die idealen Elemente wie der unendlich ferne Punkt U der Kreis- und Kugelgeometrie oder die Ferngerade der Zentralprojektion, aber auch die Klassifizierung der n-dimensionalen Mannigfaltigkeiten durch Gauß’ Krümmungsmaß, Riemanns Linienelement, Cayleys Absolute oder Kleins Transformationsgruppen folgen der Logik der Vervollständigung durch Systematisierung. Bereits Kant hatte darauf hingewiesen, dass Erkenntnisfortschritt in der Mathematik durch Begriffspräzisierung erfolgt respektive in der Ansehung der Präzision fehlgehen kann, beispielsweise, indem der Begriff der Kreislinie ohne Hinweis auf die krumme Linie präziser sei.193 Präzision in diesem begrifflichen Sinne geht mit höheren Graden der Allgemeinheit und Abstraktheit einher und dabei bleibt die sinnliche wie konstruierende Anschaulichkeit, wie Klein treffend bemerkte, auf der Strecke, da nicht mehr die räumlichen Eigenschaf192 193

Born, ›Die statistische Deutung der Quantenmechanik‹ (1954), 1962, S. 12. Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 759.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

159



160

Kapitel 6  ·  Entgrenzung der wissenschaftlichen Anschauung

ten, sondern die »Eigenschaften des Systems« von Bedeutung werden.194 Aus dieser Systematisierung resultiert die Entwicklung der modernen Mathematik in die abstrakte Gruppentheorie und schließlich in die Strukturtheorien des 20. Jahrhunderts. Diese Entwicklung ist jedoch nur durch den medialen Wechsel von der synthetisch-konstruierenden Methode in die analytische Methode und deren operativen Symbolismus möglich. Dabei verliert nicht nur das Räumliche im euklidischen Sinne seine Bedeutung, sondern ganz nebenbei wird auch die Zeit formlos. Zeitlichkeit wurde in die Mathematik der Neuzeit über den Begriff der Stetigkeit inkludiert und als gleichförmige Reihenbildung mathematisch darstellbar. Anschaulicher Inbegriff eines stetigen, gleichförmigen Zeitflusses ist die gerade, differenzierbare und integrierbare Linie ohne Unterbrechungen, Sprünge und Richtungswechsel. Die Kreislinie ohne Unterbrechungen und Sprünge hingegen stellt den anschaulichen Inbegriff der geschlossenen, wiederholbaren Zeitlichkeit dar (Konservativität eines Systems). Beide Zeitlichkeitsformen konstituieren den Bereich der beherrschbaren mathematischen Operationsformen, deren sich die newtonsche Mechanik bediente und aus welchen sie die Legitimation ihres Superpositionsprinzips bezog. Doch diese Gestalten der Zeitlichkeit und der damit verbundene Automatismus der Gleichförmigkeit, Stetigkeit, Symmetrie, Reversibilität, Kommutativität und Konvergenz werden sowohl durch die moderne Mathematik als auch die Physik aufgelöst: durch die Mathematik, indem mit der Permutation Sprünge durch Vertauschungen möglich und mit dem neuen Erkenntnismittel der Matrizenrechnung handhabbar werden; durch die Physik, indem komplexere Formen des Zugleichseins (Wechselwirkungen) zu Nicht-Linearität, Nicht-Kommutativität und Nicht-Stetigkeit führen. Betrifft die Diskussion um den Verlust der Anschauung bezüglich der nicht-euklidischen Geometrien den Verlust der räumlichen Anschauung durch n-dimensionale Mannigfaltigkeiten, so thematisiert die Diskussion um die unanschaulichen Theorien der Quantenmechanik (aber auch Relativitätstheorie) den Verlust der zeitlichen Anschauung durch Diskontinuitäten (und Nicht-Kommutativität). Etwas überspitzt lässt sich behaupten, dass der Verlust der räumlichen Anschauung kein großes Problem darstellt, da Räumlichkeit bestens vom Punkt aus gedacht auf äquidistante Abständlichkeit (projektiv oder differentialgeometrisch) reduzierbar ist. Dabei geht das Nebeneinander der Mannigfaltigkeiten als grundlegender anthropozentrischer Vergegenwärtigungsmodus von Erfahrung nicht verloren, es wird nur komplexer geordnet. Hingegen 194 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 69.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Was ging verloren?

stellt der Verlust der zeitlichen Anschauung die eigentliche Herausforderung der modernen Mathematik und Physik dar. Sowohl die Permutation als neue mathematische Operation als auch die Relativitätstheorie und Quantenmechanik sind wesentlich durch die Pluralisierung der klassischen Zeitlichkeitsform charakterisiert. Die Rede von der rein logischen Ausrichtung der strukturorientierten Mathematik auf beliebige (Zu-)Ordnungen, indem formal-operativ fassbare Permutationen und Transformationen ins Zentrum rücken, überdeckt das eigentlich epistemologische Problem, dass hier Zeitlichkeit neu verhandelt und operationalisiert wird; und zwar insofern das Nacheinander der Mannigfaltigkeiten als grundlegender anthropozentrischer Vergegenwärtigungsmodus von räumlicher Erfahrung in seiner Gleichförmigkeit zur Disposition steht. Eine komplexere Ordnung des Nacheinanders (Zeitlichen) ist jedoch wesentlich weniger intuitiv vorstellbar als eine komplexere Ordnung des Nebeneinanders (Räumlichen). Denn die Auflösung des funktionalen Zusammenhangs mit der Zeit in der Quantenmechanik (artikuliert durch die Quantensprünge des Matrizenformalismus) wie der Relativitätstheorie (artikuliert durch die Nicht-Kommutativität des Paralleltransports und dem daraus resultierenden Krümmungstensor) führt in die von Schrödinger beklagte abschreckende, ja abstoßende Unanschaulichkeit und Abstraktheit. Das ›Abschreckende‹ daran ist, dass Zeitlichkeit nun nicht mehr anschaulich verräumlicht werden kann – beispielsweise in Elektronenbahnen und generell im Geradlinigen wie regulärem Krummlinigen –, sondern sich nur noch direkt in der Operativität der Kalküle zeigt. Zeit wird dadurch performativ. Es ist die Zeitlichkeit in ihrer verräumlichten Darstellung, die der modernen Mathematik und Physik entschwindet und Letztere zwingend abhängig von den operativ ausführbaren Kalkülen der Mathematik macht, um zu (apparativ vermittelten) Entdeckungen zu gelangen. Nicht zufällig transformieren sich die Symmetrien der Physik von geometrischen in dynamische und damit rein zeitlich verfasste Symmetrien. Wenn also über einen Wandel der Objektivität gesprochen werden soll, dann tangiert dies in erster Linie die Zeitlichkeit der mathematischen wie physikalischen Objekte und weniger ihre Räumlichkeit. Und dieser Wandel der Objektivität geht mit einer neuen Medialität der Mathematik einher.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

161

Kapitel 7 Orientieren im Nicht-direkt-Erfahrbaren Pythagoreische Analogien

Der Verlust der Anschauung zwingt die Physik, sich einerseits im Nichtdirekt-Erfahrbaren einzurichten, andererseits auf ihre Erkenntnisse vermittels der »symbolischen Konstruktion[en]« zu vertrauen.195 Doch was bedeutet dies für die physikalische Wirklichkeit? In seiner Studie zur Applicability of Mathematics as a Philosophical Problem, die eine der wenigen Studien zum Anwendungsproblem in der Philosophie ist, widmet sich Mark Steiner eben dieser Frage, nämlich welche Rolle die Mathematik im Forschungsprozess der modernen Physik spielt.196 Der entscheidende Unterschied zwischen der neuzeitlichen und der modernen Physik ist für ihn, dass die moderne Physik es mit Forschungsbereichen zu tun hat, die prinzipiell nicht mehr direkt erfahrbar sind. Die Frage, die sich dann jedoch stellt, ist, wie die moderne Physik Entdeckungen macht. »How, then, did scientists arrive at the atomic and subatomic laws of nature?« und Steiners Antwort darauf lautet: »By mathematical analogy.«197 Schon Newton und Maxwell hätten mathematische Analogien genutzt, doch seien diese, so Steiner, physikalisch fundiert gewesen. Als Beispiel dafür nennt er das mathematische Konzept der Linearität, das sich aus der mathematischen Operation der Addition ergibt. Auf dieser Operation beruht das lineare Superpositionsprinzip der klassischen Mechanik wie auch der Quantenmechanik, wenn man von den Interaktionen zwischen den Entitäten oder Feldern abstrahiert, denn nur dann addieren sich die Komponenten zu einer Summe auf (Geraden addieren sich). Entsprechend wird Nicht-Linearität mit Interaktion identifiziert, doch die daraus resultierenden Kurven werden in der Regel durch ihre Tangenten (Geraden) im Infinitesimalkalkül approximiert. Dem läge jedoch, so Steiner, die nicht-mathematische Interpretation zugrunde, dass die Welt als ›smooth‹ (glatt) und damit differenzierbar aufzufassen sei. »From this it follows that were nature does not operate 195 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 745. Die Anwendungsfrage wird in der Philosophie auffällig marginalisiert. Vgl. Torsten Wilholt: ›Lost on the Way from Frege zu Carnap: How the Philosophy of Science Forgot the Applicability Problem‹, in: Grazer philosophische Studien, 73, 2006, 69–82. 197 Mark Steiner: The Applicability of Mathematics as a Philosophical Problem, Cambridge: Harvard University Press 1998, S. 3. 196

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Pythagoreische Analogien

smoothly, linearity loses application.«198 Warum aber Glattheit eine physikalische Analogie und keine mathematische Annahme ist, wird nicht klar. Im Unterschied dazu bleibe der modernen Physik in Ermangelung physikalisch-orientierter Analogien aufgrund der Nicht-Erfahrbarkeit ihres Forschungsgegenstandes nur die Modifikation der bestehenden mathematisierten Theorien. Der maßgebliche Forschungsprozess der Physiker bestehe daher mehr im Studium »[of] their own representational systems […] than nature«.199 Diese Forschungsstrategie nennt Steiner ›pythagoreisch‹, da sie – anthropozentrisch-epistemologisch, nicht naturalistisch-ontologisch verstanden – darauf basiert, »that the ultimate ›natural kinds‹ in science are those of pure mathematics«.200 Mehr, dieser neue Forschungsprozess lasse sich in eine Hierarchie zunehmend abstrakter werdender Analogien differenzieren: von ›pythagoreischen‹ zu ›formalistischen‹ Analogien. »By a ›Pythagorean‹ analogy or taxonomy at time t, I mean a mathematical analogy between physical laws (or other descriptions) not paraphrasable at t into nonmathematical language. […] By a ›formalist‹ analogy or taxonomy, I mean one based on the syntax or even orthography of the language or notion of physical theories, rather than what (if anything) it expresses. Because any notion has, itself, a mathematical structure, formalist analogies are also Pythagorean.«201 Pythagoreische Analogien, die auf bereits mathematisch artikulierten Gesetzen basieren, sind in dieser Hierarchie ›first-order analogies‹. Formalistische Analogien, die mathematische Eigenschaften dieser Theorien nutzen, sind ›second-order analogies‹ und dieses Spiel lässt sich beliebig hochschrauben, insofern »the physicist may resort even to a third-order mathematical analogy, based upon the properties of properties of descriptions«.202 Als historische Beispiele solcher (›physically disanalogous‹) pythagoreischer Analogien nennt Steiner Maxwells mathematische Herleitung des 198 Steiner, The Applicability of Mathematics, 1998, S. 31. Eine ›unglatte‹ (rough) Geometrie ist beispielsweise Benoit Mandelbrots fraktale Geometrie. »If fractal, rather than smooth, geometry is what describes nature, the physical implications are immediate: gone are the prospects for understanding phenomena by breaking them up into their component parts. The mathematical device for doing this is the Taylor series, and the method works only if the functions approximated are smooth.« Ebd., S. 32. Vgl. Benoît Mandelbrot: Fractals: Form, Chance and Dimension (1975), San Francisco: Freeman & Co 1977. 199 Ebd., 1998, S. 7. 200 Ebd., S. 60. 201 Ebd., S. 54. Bereits Oskar Becker hat auf die Wiederkehr des pythagoreischen Gedankens in den Symmetrie- und Invarianzeigenschaften der modernen Physik hingewiesen. Vgl. Oskar Becker: ›Der pythagoreische Gedanke‹, in: Ders.: Größe und Grenze der mathematischen Denkweise, Freiburg, München: Karl Alber 1959, 1–16. 202 Steiner, The Applicability of Mathematics, 1998, S. 62.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

163



164

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

Wechselstroms von 1873, der erst 1886 durch Hertz’ Experimente bestätigt wird;203 Schrödingers Wellenmechanik von 1926 als Abstraktion der Sinuswellen der Optik zu einer Wellengleichung, die keinerlei wellenähnliche Eigenschaften mehr besitzt;204 oder auch Diracs Konzept der negativen Energie von 1930, das sich 1933 in der experimentellen Entdeckung der Positronen bestätigt.205 Es handelt sich also um jene Entitäten, die die hypothetisch-deduktive Forschungslogik hervorbringt und die zum Zeitpunkt ihrer ›Entdeckung‹ nur als mathematische Postulate existieren und erst im Nachhinein, im Erfolgsfalle, experimentell bestätigt werden. Die Frage, die sich dann jedoch sofort stellt, ist die, warum rein mathematische Entitäten physikalisch realisierbar (genauer: beobachtbar) sind. Und analog zu Weyl liegt die Antwort für Steiner in den Symmetrien (Invarianz), insofern sich die Möglichkeitsbedingung der pythagoreischen Analogien aus dem Zusammenhang der mathematischen Symmetrien mit den Erhaltungssätzen der Physik ergibt. »Each symmetry of a physical system implies a law of conservation – rotational symmetry, for example, implies the conversation of angular momentum.«206 Dieser Zusammenhang wurde bereits 1918 von Emmy Noether in der Form formuliert (Noether-Theorem), dass es zu jeder Transformation, die ein mechanisches System invariant lässt, eine physikalische Erhaltungsgröße gibt. Noether schließt aus den Invarianzeigenschaften des Lagrange’schen Variationsproblems des Wirkungsintegrals auf die Erhaltungsgrößen der Mechanik.207 Das Wirkungsin203 »This historical background, however, does not change the Pythagorean nature of the 1873 reasoning and the prediction of electromagnetic radiation.« Steiner, The Applicability of Mathematics, 1998, S. 78. 204 »In sum, Schroedinger began with a sine wave of fixed frequency, based on an analogy to an optical wave, where the frequency is given by a fixed energy field. In writing down the ›wave‹ equation by taking derivatives, Schroedinger completely abstracted away from this intuition, ending with an equation having no direct physical meaning; one with superposed solutions; one with solutions having no ›wavelike‹ qualities at all.« Steiner, The Applicability of Mathematics, 1998, S. 81. 205 »Today, scientists have a complete different conception of positrons and anti-matter in general. This is, therefore, a different conception of the negative energy solutions. None of this takes away from the spectacular success of Dirac’s Pythagorean prediction of the positron.« Steiner, The Applicability of Mathematics, 1998, S. 83. 206 Ebd., S. 84. Ähnlich postuliert es Weyl: »Die geometrischen und physikalischen Größen sind Skalare, Vektoren und Tensoren: darin spricht sich die mathematische Beschaffenheit des Raumes aus, in welchem diese Größen existieren. Die dadurch bedingte mathematische Symmetrie ist keineswegs auf die Geometrie beschränkt, sondern kommt im Gegenteil erst in der Physik recht zur Geltung.« Weyl, Raum. Zeit. Materie, 1919, S. 28. 207 »Geht man zum Variationsproblem über; d. h. setzt man ψ = 0, so geht (13) über in i die Gleichungen: DivB (1) = 0, …, DivB (ρ) = 0, die vielfach als ›Erhaltungssätze‹ bezeichnet werden.« Emmy Noether: ›Invariante Variationsprobleme‹, in: Abhandlungen der König-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Pythagoreische Analogien

tegral geht auf das Prinzip der kleinsten Wirkung zurück, das Lagrange als Variationskalkül der Extremale einer Funktion (Maxima und Minima) verallgemeinert. Dabei »geht es formal nur noch darum, ein Integral zu finden, dessen Variation gleich Null gesetzt, die Bewegungsgleichungen der Mechanik ergeben«.208 In den 1830er Jahren wendet William Hamilton das Extremalprinzip auf alle klassischen physikalischen Theorien an.209 Auch in Einsteins relativistischer Gravitationstheorie findet sich das Extremalprinzip als allgemeines Charakteristikum wieder,210 insofern das Noether-Theorem über die klassische Mechanik hinausführt, da »Satz I alle in [der klassischen] Mechanik u.s.w. bekannten Sätze über Integrale [enthält], während Satz II als größtmögliche gruppentheoretische Verallgemeinerung der ›allgemeinen Relativitätstheorie‹ bezeichnet werden kann« sowie mit Modifikationen auch für die Quantenmechanik anwendbar ist.211 Dies bedeutet, dass in geschlossenen Systemen Energie, Impuls, Drehimpuls, elektrische Ladung oder bestimmte Quantenzahlen erhaltende Größen sind, insofern Translationsinvarianz mit Impulserhaltung einhergeht, Rotationsinvarianz mit Drehimpulserhaltung und Zeitinvarianz mit Energieerhaltung. lichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1918, Berlin: Weidmannsche Buchhandlung 1918, 235–257, S. 245. Vgl. Emmy Noether: ›Invarianten beliebiger Differentialausdrücke‹, in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1918, Berlin: Weidmannsche Buchhandlung 1918, 37–44. Die zehn klassischen Erhaltungsgrößen (Integrale der Bewegung), die aus der Invarianz gegenüber der Translation und Rotation des Raumes, der Translation der Zeit sowie der Translationsgeschwindigkeit folgen, sind die 6 Schwerpunktintegrale, die 3 Drehimpulsintegrale sowie das Energieintegral. 208 Mainzer, Symmetrien der Natur, 1988, S. 339. »Immer gibt es in den Dingen ein Prinzip der Bestimmung, welches vom Maximum oder Minimum hergenommen ist, daß nämlich die größte Wirkung hervorgebracht werde mit dem kleinsten Aufwand sozusagen.« Leibniz, Gottfried Wilhelm: ›De rerum originale radicali‹ (1697), in: Leibniz, Die philosophischen Schriften von Gottfried Wilhelm Leibniz, 7. Bd., 1890, 306–307, übersetzt in Mainzer, Symmetrien der Natur, 1988, S. 326. 209 Vgl. William Rowan Hamilton: ›On a general method in dynamics‹, in: Philosophical Transactions of the Royal Society, 124, 1834, 247–308; William Rowan Hamilton: ›Second Essay on a General Method in Dynamics‹, in: Philosophical Transactions of the Royal Society of London, 125, 1835, 95–144. 210 Vgl. David Hilbert: ›Die Grundlagen der Physik (Erste Mitteilung)‹, in: Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1917, Berlin: Weidmannsche Buchhandlung 1917, 395–408; Felix Klein: ›Über die Differentialgesetze für Erhaltung von Impuls und Energie in der Einsteinschen Gravitationstheorie‹, in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1918, Berlin: Weidmannsche Buchhandlung 1918, 171– 189; Adolf Kneser: ›Kleinste Wirkung und Galileische Relativität‹, in: Mathematische Zeitschrift, 2, 1918, 326–349. 211 Noether, ›Invariante Variationsprobleme‹, 1918, S. 240.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

165



166

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

Doch, und dies ist entscheidend, auch das Konzept der Symmetrie durchläuft in der modernen Physik eine Transformation. Die Vorherrschaft des Symmetriedenkens im 20. Jahrhundert generiert sich weniger aus den globalen Raum-Zeit-Symmetrien (Galilei-, Lorentz-Transformationen) als aus der Entdeckung der lokalen Symmetrien der Feldtheorien. Symmetrien lassen sich unterschiedlich klassifizieren. Eine Klassifikation ist die Unterscheidung zwischen externen und internen Symmetrien – erstere sind Raum-Zeit-Symmetrien, letztere beziehen sich auf interne Permutationen oder Transformationen – als auch zwischen globalen und lokalen Symmetrien. Eine weitere Unterscheidung zwischen geometrischen und dynamischen Symmetrieeigenschaften geht auf Wigner zurück.212 Symmetrien

extern

intern

global

lokal

Newtonsche Physik (Galileiinvariant, euklidischer Raum) Spezielle Relativitätstheorie (Lorentz-invariant, Minkowski-Raum)

Allgemeine Relativitätstheorie (Differentialgeometrische Metrik)

z. B. Elektrostatik, HadronenIsospin (SU(2)-invariant)

z. B. Quantenelektrodynamik (U(1)-invariant), Quantenchromodynamik (SU(3)-invariant)

Globale Symmetrien gelten überall und an allen Orten, sind also unabhängig von Raum und Zeit wie die Galilei-Transformation oder die LorentzTransformationen der speziellen Relativitätstheorie, wenn alle Raum-ZeitPunkte eines Bezugsystems konstante Geschwindigkeit erfahren und sich zwei Bezugssysteme in ihrer Geschwindigkeit unterscheiden. Globale, aber interne Symmetrien finden sich in der Elektrostatik, insofern die elektrostatischen Phänomene nicht vom Wert der elektrischen Potentiale abhängig sind (Erhaltung der elektrischen Ladung), wie auch in der Quantenmechanik, beispielsweise als Isospin-Symmetrie, denn die Permutation von Neutronen und Protonen hat global gesehen keinen Effekt auf die Physik. Lokale Symmetrien hingegen beziehen sich auf spezifische Orte und Zeiten. Die Lorentz-Transformation der speziellen Relativitätstheorie ist extern und global. Anders verhält es sich im Falle der allgemeinen Relativitätstheorie. Sie beschreibt externe, aber lokale Symmetrien. Das bedeutet, dass physikalische Gesetze gegenüber Transformationen (Beschleunigung, Rotation), die in ihrer loka212

Vgl. Wigner, Symmetries and Reflections, 1967, S. 17 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Pythagoreische Analogien

len Ausprägung von Ort zu Ort und von Zeitpunkt zu Zeitpunkt variieren, invariant sein müssen. Die Invarianz ergibt sich in der allgemeinen Relativitätstheorie durch den Ausgleich der Gravitationskraft. In anderen Worten: Die allgemeine Relativitätstheorie lokalisiert die Raum-Zeit-Transformationen der speziellen Relativitätstheorie. Schließlich gibt es noch interne, lokale Symmetrien (Eich-Invarianzen). Die internen, lokalen (oder in Wigners Terminologie: dynamischen) Symmetrieeigenschaften wurden zuerst von Weyl 1918 im Kontext der Vereinheitlichung von relativistischer Gravitationstheorie und Elektrodynamik beschrieben und ›Eichinvarianz‹ genannt.213 Indem Weyl Riemanns Differentialgeometrie verallgemeinert, da diese in ihrem Anspruch der Aufsummierung der infinitesimalen Linienelemente noch ferngeometrische Elemente enthält, gelangt er zu einem erweiterten Konzept von Bezugssystem als ›Koordinatensystem plus (lokale) Eichung‹.214 Eine Größe oder Transformationsparameter wird ›geeicht‹, wenn dieser lokal frei wählbar, also an jedem Ort unabhängig festlegbar ist. Wenn eine solche Größe beziehungsweise ein solcher Transformationsparameter die theoretisch vorhergesagten Wechselwirkungen nicht ändert, ist die physikalische Theorie invariant unter Eichtransformationen. Alle fundamentalen Wechselwirkungen (Gravitation, elektromagnetische, schwache und starke Wechselwirkung) werden mittlerweile durch Eichtheorien beschrieben. Die internen, lokalen Symmetrien der verschiedenen Kräfte legen diejenigen Transformationen der Felder fest, für die die Dynamik der Teilchen invariant bleibt (Eichfreiheit). So beruht die Vereinheitlichung von spezieller Relativitätstheorie und Quantenmechanik in der Quantenelektrodynamik auf der Eichvarianz der U(1)-Symmetrie, die die Rotation einer komplexen Ebene um den Ursprung beschreibt. Die starke Wechselwirkung, die die Quantenchromodynamik untersucht, beruht auf der Eichvarianz der SU(3)-Symmetrie, die die komplexe Drehung für drei Frei213

Vgl. Hermann Weyl: ›Gravitation und Elektrizität‹, in: Sitzungsberichte der Preussischen Akademie der Wissenschaften, Berlin: Deutsche Akademie der Wissenschaften zu Berlin 1918, 465–480; Weyl, ›Eine neue Erweiterung der Relativitätstheorie‹,1919. 214 Das von Riemann benutzte Prinzip der Übertragung des Linienelements durch Zwischenpunkte und deren Aufsummieren geht davon aus, dass die Längenübertragung wie auch die Richtungsübertragung integrabel sind. Integrabilität gilt jedoch nur für lineare Räume. Beseitigt man diese Inkonsequenz, so Weyl, dann gelangt man zu einer Geometrie, die Gravitation und Elektrizität erklärt. Daraus leitet Weyl seine Eichtheorie ab, »die neben der Forderung der Invarianz der physikalischen Gesetze gegenüber beliebigen Koordinatentransformationen [… gleichberechtigt] auch die Invarianz gegenüber den Ersetzungen [(Umeichungen) fordert] und nennt dies das Prinzip der Masstab-Invarianz oder Eichinvarianz«. Norbert Straumann: ›Zum Ursprung der Eichtheorien bei Hermann Weyl‹, in: Physikalische Blätter, 43 (11), 1987, 414–421, S. 416.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

167



168

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

heitsgrade erfasst. Und die Vereinigung von elektromagnetischer und schwacher Wechselwirkung wird durch die lokale Eichvarianz der SU(2) × U(1)-Symmetrie erklärt.215 Letztendlich besteht das Ziel der modernen Physik darin, alle fundamentalen Wechselwirkungen in einer einzigen Supersymmetrie zu vereinigen, in der alle Wechselwirkungen ununterscheidbar werden (›theory of everything‹).216 Steiner beschreibt nun das Forschungsprogramm der Postulierung als auch der Vereinheitlichung interner Symmetrien als formalistisch und das damit verbundene Konzept der Vorhersage als pythagoreisch.217 Beispielsweise, wenn Heisenberg 1932 auf Basis der lokalen SU(2)-Rotationssymmetrie (2 × 2 Matrize) die Existenz von Protonen und Neutronen als Realisierungen desselben Teilchens mit unterschiedlichem Isospin postuliert.218 »Heisenberg’s theory is that the neutron is obtained from a proton by a continuous abstract ›rotation of 180 degrees,‹ and also that to return a neutron or a proton to its initial isospin state, one must ›rotate‹ the particle a full 720 degrees in the fictitious isospin space. It seems clear that the mathematics is doing all the work in this analogy, and that Heisenberg’s analogy was highly Pythagorean.«219 Mehr noch, der Formalismus selbst entwickelt eine Eigendynamik. Denn, so Steiner, warum sollte die Analogie der 2 × 2 Matrize, die die zwei Zustände Spin/Isospin (Proton/Neutron) repräsentiert, nicht für n Zustände extrapo215 Die SU(5)-Symmetrie beschreibt die komplexe Drehung für fünf Freiheitsgrade, die SU(2) × U(1)-Symmetrie vereint beide Symmetriegruppen. 216 »Supersymmetry [SM] as a theoretical construction is known since early 1970s. Attempts at developing supersymmetry-based phenomenology started shortly after theoretical discovery of supersymmetry. […Grand unification:] If we let three gauge coupling, as they are known at our energies, run, assuming low-energy supersymmetry and nothing else at higher energies, all three become equal to each other to a reasonable degree of accuracy at the energy scale ∼ 1016 GeV. This scenario, which is also known as a Great Desert scenario, culminating in a beautiful unified O(10) gauge group at the ›right‹ end of the desert, instead of SU(3)×SU(2)×U(1) at our, ›left‹ end, became deeply routed in the minds during three decades of its existence. The presence of a noncompact U(1) is indeed an unpleasant theoretical feature of SM, for a number of reasons.« Mikhail Shifman: ›Reflections and Impressionistic Portrait at the Conference Frontiers Beyond the Standard Model, FTPI, Oct. 2012‹, in: arXiv.org, 2012, S. 4, und S. 8. 217 »There is nothing deductively inevitable about such predictions, which are based on the inchoate assumption that mathematical possibilities are realized.« Steiner, The Applicability of Mathematics, 1998, S. 162. 218 Die Unterscheidung von Proton und Neutron aufgrund der SU(2)-Symmetrie durch Heisenberg 1932 wird 1937 von Wigner ›isotopic spin‹ genannt. Vgl. Werner Heisenberg: ›Über den Bau der Atomkerne‹, in: Zeitschrift für Physik, 77, 1932, 1–11; Eugene Wigner: ›On the consequences of the symmetry of the nuclear Hamiltonian on the spectroscopy of nuclei‹, in: Physical Review, 51, 1937, 1–24. 219 Steiner, he Applicability of Mathematics as a Philosophical Problem, 1998, S. 87.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Pythagoreische Analogien

liert werden? Und tatsächlich ist genau dies die Strategie der Elementarteilchenphysiker, die auf diese Weise 1936 drei Pionen (π0-, π+-, π--Meson) postulieren und 1947 experimentell ›entdecken‹, sowie 1964 die Delta-Baryonen (Δ++, Δ+, Δ-, Δ0-Baryonen) aus gruppentheoretischen Überlegungen herleiten. Doch es lassen sich nicht nur Teilchen auf diese Weise postulieren, sondern auch Experimente, die die Teilchen ineinander transformieren analog den Transformationen der Matrizen. »Again, we have an interesting fact of pure mathematics. But now comes the Pythagoreanism. Given the (SU(2)-preserving) isomorphism between the product space and the sum space, the physicist assumes that there is also a physical equivalence. Thus, there must be an experiment which transforms a pion-nucleon pair into a superposition of a delta and a nucleon.«220 Diese Entwicklung lässt sich weitertreiben, wie das Beispiel der 1991 von Frank Wilczek postulierten Anyonen dokumentiert.221 Anyonen sind Quasiteilchen, die aus mathematischen Gründen nur in zwei Dimensionen existieren. Der Grund hierfür liegt in der statistischen Natur der Quantenmechanik beziehungsweise im Welle-Teilchen-Dualismus, der mit der Eigenschaft der Ununterscheidbarkeit klassischer quantenmechanischer Teilchen einhergeht. Dies bedeutet, dass Vertauschungen von Elementarteilchen im Experiment zu keinen messbaren Zustandsänderungen führen. Mathematisch zeigt sich dies in der Wellengleichung, die invariant gegenüber der Austauschphase φ ist, insofern sie für zweimal vertauschte Elementarteilchen im Raum aus topologischen Gründen wieder ihre ursprüngliche Form annimmt: Die Bahnen der Teilchen sind ›unverknotet‹. Dies ändert sich jedoch im Zweidimensionalen, da hier die Bahnen nicht invariant gegenüber dem Vertauschungsvorgang sind und sich ›verknoten‹, das heißt φ kann jede komplexe Zahl einnehmen. Da aus Symmetriegründen jedoch jeder unterscheidbare Zustand von φ einen anderen Teilchentyp beschreibt, wie dies die Beispiele des Isospin sowie der Pionen und Delta-Baryonen zeigen, sind überabzählbar unendlich viele Teilchenarten (Anyonen) mit postulierten Eigenschaften möglich.222 Hier zeigt 220 Ebd.,

S. 89. Vgl. ebd., S. 117–135; Frank Wilczek: ›Anyons‹, in: Scientific American, 264, 1991, 58–65. Eine gut nachvollziehbare Darstellung findet sich in Frank Wilczek: ›From electronics to anyonics‹, in: Physics World, 2006, 22–23. Vgl. auch Frank Wilczek: Fractional Statistics and Anyon Superconductivity, Singapur: World Scientific Publishing Company 1990, S. 60–62. Der Name Anyonen, so Wilczek, leitet sich von ›anything goes‹ ab. 222 Mittlerweile gibt es Hinweise, dass sich Anyonen experimentell beobachten lassen. »Until very recently, however, the subject of anyons had still been almost entirely theoretical. Suddenly, over the last few months, that has changed with the appearance of serious – though not entirely uncontroversial – claims that anyons have been observed directly. Meanwhile, several groups have proposed a new generation of experiments that 221

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

169



170

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

sich die Eigendynamik des mathematischen Formalismus im Einrichten im Nicht-direkt-Erfahrbaren par excellence.

Objektivität symbolischer Wirklichkeit

»It is the formalism itself (and not what it means)«, so lautet Steiners Fazit, »that is the fundamental subject of physics today. […] discoveries made this way relied on symbolic manipulations that border on the magical. I say ›magical‹ because the object of study of physics became more and more the formalism of physics itself, as though the symbols were reality.«223 Damit beschreibt Steiner die seit Descartes beschrittene Entwicklung des operativen Symbolismus, der die schöpferische Kraft der Mathematik begründet. Dies wirft natürlich sofort die Frage auf, ob hier tatsächlich von ›Magie‹ die Rede sein kann oder ob sich die Objektivität der symbolischen Wirklichkeit des entfesselten Formalismus in der Physik nicht doch aufweisen lässt? In anderen Worten: Begnügt sich die Physik mit rein spekulativen (oder magischen) Absichten, insofern die postulierten Entitäten nicht aufweisbar sein müssen? Doch dann wird die Anwendungsfrage überhaupt obsolet. Oder hält sie nach wie vor an Einsteins und Heisenbergs erkenntnistheoretischem Diktum ›beobachtbarer Größen‹ – von Popper als Kriterium der Verifizierbarkeit respektive Falsifizierbarkeit abgeleiteter Prognosen zur Forschungslogik der modernen Physik erklärt224 – als Leitprinzip der physikalischen Forschung fest? Doch Letzteres würde bedeuten, dass Anschauung für die Legitimation wissenschaftlicher Theorien nach wie vor die entscheidende Rolle spielt, auch wenn es sich um eine in apparative und symbolische Anschauung zweigeteilte handelt. Interessanterweise lässt sich die erste Alternative in der aktuellen Kosmologie als Kritik an einem ›overzealous Popperism‹ finden, denn es ist die will be more decisive in proving that anyons exist.« Wilczek, ›From electronics to anyonics‹, 2006, S. 22. Anyonen könnten in Zukunft für das Quantencomputing eine wichtige Rolle spielen. »Unfortunately, this knot-dependent information is difficult to maintain, measure and manipulate. […] The vastness of Hilbert space offers enormous potential for increased storage space and bandwidth, and taming it is an inspiring goal for 21stcentury physics. Anyonics might just provide the means to get us there.« Wilczek, ›From electronics to anyonics‹, 2006, S. 23. 223 Steiner, The Applicability of Mathematics, 1998, S. 176 und S. 136. 224 Die Interpretation der geforderten Beobachtbarkeit als generelle Falsifizierbarkeit von Theorien ist nicht unkritisiert geblieben. Vgl. beispielsweise Imre Lakatos: ›Falsification and the Methodology of Scientific Research Programmes‹, in: Imre Lakatos, Alan Musgrave (Hrsg.): Criticism and the Growth of Knowledge, Cambridge: Cambridge University Press 1970, 91–196.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Objektivität symbolischer Wirklichkeit

prinzipielle empirische Unüberprüfbarkeit, die aktuelle Theorien wie die Multiversen-Theorie kennzeichnet.225 Ähnlich verhält es sich in der Elementarteilchenphysik. Der Versuch, das selbstkonsistente und experimentell vielfach bestätigte Standardmodell zu überwinden, hat entweder zu Theorien geführt, die falsifizierbar sind und falsifiziert wurden, oder zu Theorien, die nicht überprüfbar sind. »Either because they make no clean predictions or because the predictions they do make are not testable with current technology.«226 Doch dies ist nicht das Hauptproblem der aktuellen Theorieentwicklung in der Physik, wie das Beispiel der ›string theory‹ als Versuch der Grundlegung einer ›theory of everything‹ lehrt.227 »Part of the reason string theory makes no new predictions is that it appears to come in an infinite number of versions. […] So we face a paradox. Those string theories we know how to study are known to be wrong. Those we cannot study are thought to exist in such vast numbers that no conceivable experiment could disagree with all of them.«228 Was zur Evaluation übrigbliebe, wäre lediglich die mathematische Konsistenz all dieser Versionen sowie der Glaube an das bloß mögliche Prädikat der Ununterscheidbarkeit als Garant empirischer 225 Vgl. Helge Kragh: ›‹The most philosophically of all the sciences:‹ Karl Popper and physical cosmology‹, in: PhilSci Archive, Preprint, 2012, S. 41. 226 Lee Smolin: The Trouble with Physics. The Rise of String Theory, the Fall of a Science, and What Comes Next, Boston/New York: Mariner Book 2007, S. xiii. Vgl. Reiner Hedrich: Von der Physik zur Metaphysik: Physikalische Vereinheitlichung und Stringansatz, Heusenstamm: Ontos 2007. 227 »String theory appeared as an extension of the dual resonance model of hadrons in the early 1970, and by mid-1980 it raised expectations for the advent of ›the theory of everything‹ to Olympic heights. Now we see that these heights are unsustainable. Perhaps, this was the greatest mistake of the string-theory practitioners. They cornered themselves by promising to give answers to each and every question that arises in the realm of fundamental physics, including the hierarchy problem, the incredible smallness of the cosmological constant, and the diversity of the mixing angles.« Shifman, ›Reflections and Impressionistic Portrait at the Conference Frontiers Beyond the Standard Model, FTPI, Oct. 2012‹, 2012, S. 9. 228 Smolin, The Trouble with Physics, 2007, S. xiii, xiv. »What we have, in fact, is not a theory at all but a large collection of approximate calculations, together with a web of conjectures that, if true, point to the existence of a theory.« Smolin, The Trouble with Physics, 2007, S. xiv. Die Situation scheint aktuell dramatisch. »Assuming that on average an active theorist publishes 3–4 papers per year, we get 2500 to 3000 theorists. The majority of them are young theorists in their thirties or early forties. During their careers many of them never worked on any issues beyond supersymmetry-based phenomenology or string theory. Given the crises (or, at least, huge question marks) in these two areas we currently face, there seems to be a serious problem in the community.« Shifman, ›Reflections and Impressionistic Portrait at the Conference Frontiers Beyond the Standard Model, FTPI, Oct. 2012‹, 2012, S. 12.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

171



172

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

Realität.229 Auf diesem Weg, so scheint es, entwickelt sich die (neue) Physik tatsächlich zur bloßen Spekulation, zur Magie oder zur Ideologie. Denn die Physik hat mit der Ununterscheidbarkeit (Invarianz) die paradoxe Situation geschaffen, ihre wissenschaftliche Objektivität auf ein Prinzip zu gründen, das selbst nicht direkt überprüfbar ist. Wenn sich aber die Physik in ein bloß mögliches Prädikat gründet, dann steht und fällt sie mit dessen erfolgreicher Explizierung in der symbolischen wie apparativen Anschauung. In diesem Sinne entpuppt sich das bloß mögliche Prädikat der Ununterscheidbarkeit als apriorisch-synthetisches Prädikat der symbolisch-apparativen Anschauung und macht die Interdependenz beider Anschauungsformen deutlich. War es Kants Leistung, die Objektivität der ›eigentlichen Wissenschaft‹ – also der neuzeitlichen Wissenschaft, die Mathematik zur Anwendung bringt – durch den ersten und zweiten Grundsatz und damit durch Anschauung a priori zu garantieren, so stellt sich nun die Frage, wie sich Invarianz als Objektivitätsgarant der modernen Physik philosophisch begründen lässt. Für Kant begründet (A) der Satz des Widerspruchs nur (logische) Möglichkeit; (B) erst die Axiome der Anschauung (1. Grundsatz) konstituieren objektive Gültigkeit und damit mathematische Wirklichkeit; (C) d ie Antizipation der Wahrnehmung schließlich (2. Grundsatz) stellt den Bezug zum Physischen und damit zur empirischen Realität her. In der modernen Version, bezogen auf physikalisches Wissen, lässt sich diese Unterscheidung beibehalten, wenn man (A̍) logische Möglichkeit mit dem Satz des Widerspruchs als Bedingung der Konsistenz einer axiomatisierten Theorie einfordert; (B̍ ) m athematische Wirklichkeit mit Weyls Objektivitätsbegriff etabliert. Objektiv gültig bedeutet dann Invarianz gegenüber der Gruppe der symmetrieerhaltenden Automorphismen, auf der laut Weyl alle Apriori-Aussagen der modernen Physik beruhen. Und wenn man (C̍ ) empirische Realität durch Einsteins und Heisenbergs Forderung beobachtbarer Größen garantiert. Da Beobachtbarkeit Invarianz voraussetzt, stellt die apparative Anschauung mehr als eine an Messapparate delegierte Anschauung dar, da die Bedingung ihrer Möglichkeit in der In­varianz (B̍ ) liegt. 229 Im Kontext der newtonschen Physik hat Kant die Ununterscheidbarkeit der Bewegung ein alternatives Urteil eines bloß möglichen Prädikats genannt. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 141 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Objektivität symbolischer Wirklichkeit

Setzt man (A̍) mathematische Konsistenz der axiomatisierten Theorien voraus und akzeptiert vorerst (B̍ ) den von Weyl formulierten Objektivitätsbegriff der Invarianz, dann ist zu klären, wie es um (C̍ ) den Realitätsgehalt steht. Das grundlegende Problem ist jedoch, wie skizziert, dass sich Invarianz, verstanden als Ununterscheidbarkeit, selbst nicht beobachten lässt. Die Frage, die sich daher stellt, ist: Welchen empirischen Status haben Symmetrien? Bereits die Möglichkeit wie objektive Gegebenheit der geometrischen Rotationssymmetrie eines Schneeflockenkristalls ist zwar an der Form leicht erkennbar, die Ausführung der Rotation um sechzig Grad zeigt jedoch keinen Unterschied in Form und Ausrichtung. Insofern die Transformation der Rotation selbst nicht beobachtet wird, gibt es keinen Hinweis darauf, dass Rotation stattgefunden hat. Daraus folgt, dass sich Symmetrie als Indiz von Invarianz nur durch Asymmetrie im Vergleich zweier Systeme, wovon eines als Referenzrahmen dient, beobachten lässt.230 Doch auch im Vergleich mit einem Referenzsystem wäre im Falle des Schneeflockenkristalls nicht entscheidbar, ob eine Rotation um sechzig Grad stattgefunden hat, wenn die Rotation selbst nicht beobachtet wurde. Denn wie soll der Unterschied zwischen nicht-rotierter und rotierter Schneeflocke festgestellt werden? Das bedeutet, dass Symmetrie nur in ihrer Dynamik beziehungsweise den für die Dynamik verantwortlichen Kräften beobachtbar ist.231 Doch das Problem ist, dass für lokale Symmetrien diese Kräfte kompensierende Kräfte sind, und ihr ontischer Status ist alles andere als klar. Für die Deklination der verschiedenen Symmetrien unter die apparative Anschauung, wie dies Peter Kosso in seiner Studie zum Empirical Status of Symmetries in Physics geleistet hat, ist die Unterscheidung der apparativen Anschauung in eine direkte und eine indirekte erforderlich: »Direct observation [of symmetries], as it is used here, can allow machine-aided observation and theory-laden observation. […] Indirect evidence of symmetry, by contrast, amounts to the observation of some consequences of the symmetry, but not of the transformation and invariance itself.«232 Unter dieser Perspek230 »Therefore, a reference frame must be asymmetric under the changes for which it is a reference.« Joe Rosen: ›Fundamental Manifestation of Symmetry in Physics‹, in: Foundations of Physics, 20 (3), 1990, 283–307, S. 294. 231 Peter Kosso ist der Meinung, dass nur beobachtungsunvollständige Symmetrien beobachtbar sind. Dazu muss sichergestellt sein, dass sich die invarianten Eigenschaften nicht durch unrelevante experimentelle Bedingungen ändern. Die Frage ist jedoch, wie sich relevante von unrelevanten im Vorhinein unterscheiden lassen sollen. Vgl. Peter Kosso: ›The Empirical Status of Symmetries in Physics‹, in: The British Journal of Philosophy of Science, 51, 2000, 81–98 S. 88 f. 232 Kosso, ›The Empirical Status of Symmetries in Physics‹, 2000, S. 85. Die von Emmy Noether beschriebenen Symmetrien der Erhaltungssätze lassen sich im Grunde nur indi-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

173



174

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

tive zeigt sich, dass sich nur externe globale Symmetrien – die geometrischen Symmetrien der Galilei-Transformation der newtonschen Physik sowie der Lorentz-Transformationen der speziellen Relativitätstheorie – direkt mit Apparaten beobachten lassen. Im Unterschied dazu sind interne globale Symmetrien (Elektrostatik oder SU(2)-Symmetrie des Hadronen-Isospin) nur indirekt beobachtbar. So ist die SU(2)-Rotationssymmetrie des Hadronen-Isospins als Permutation von Neutronen und Protonen zwar nicht direkt beobachtbar, aber es lassen sich indirekt die involvierten Kräfte messen. Der Preis dafür ist jedoch: »Many of these observations are very indirect in the sense of being influenced by background theory and the use of machines to produce the image one can actually see.«233 Allerdings hängt die Beobachtbarkeit eher von den Hintergrundtheorien ab denn vom Symmetriepostulat.234 Anders verhält es sich für lokale Symmetrien. Hier hängt die indirekte Beobachtbarkeit, falls sie denn möglich ist, von den Symmetriepostulaten ab. Lokalisierung durch Eichfeldtheorien, die als Generalisierung globaler Symmetrien verstanden wird und das Forschungsprogramm der modernen Physik darstellt,235 basiert auf der Kopplung zwischen den Transformationen eines Materiefeldes (dessen Bewegungsgleichungen) mit den Transformationen eines Wechselwirkungsfeldes (dessen jeweiligen Feldgleichungen). Dabei ist die Annahme nötig, dass die in der Bewegungsgleichung und den Feldgleichungen gekoppelten Entitäten identisch sind. Für die elektrodynamischen Wechselwirkungen sind dies die Ladungen.236 Da sich durch diese Kopplung rekt beobachten, da nicht die Symmetrien selbst (z. B. Zeittranslationssymmetrie), sondern nur die postulierten Erhaltungsgrößen in geschlossenen Systemen (z. B. Energie­ erhaltung) nachweisbar sind. 233 Ebd., S. 92. 234 »The observation of neutrons, protons, and quantum-mechanical phase differences are influenced by theory, but not by the particular theoretical claim about the symmetry itself. In other words, the observation of the transformation is independent of the theoretical belief in the symmetry. This was not the case for the local external symmetry, a case in which the dynamical principle was adjusted under the influence of the belief that the symmetry was true.« Kosso, ›The Empirical Status of Symmetries in Physics‹, 2000, S. 92. 235 »The special case of a network of local reference frames that do not vary in space and time essentially defines and is equivalent to a global reference frame.« Rosen, ›Fundamental Manifestation of Symmetry in Physics‹, 1990, S. 298. Lokalisierung geht mit einem grundlegenden epistemischen Wechsel einher. »The geometrical principles of invariance, though they give a structure of the laws of nature, are formulated in terms of the events themselves. […] On the other hand, the new, dynamical principles of invariance are formulated in terms of the laws of nature. They apply to specific types of interaction, rather than to any correlation between events. […] the dynamical types of invariance are based on the existence of specific types of interactions.« Wigner, Symmetries and Reflections, 1967, S. 17, 18. 236 »The equivalence principle implies the existence of non-flat connections and

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Objektivität symbolischer Wirklichkeit

die Physik nicht ändern darf, bedarf es der Kompensation der lokalen Transformationen durch dynamische Transformationsprinzipien (Eich-Symmetrien), die in der Einführung von Kräften resultieren. Denn die durch die Eichung eingeführte Dynamik geht mathematisch mit der Konsequenz der Nicht-Linearität einher und physikalisch mit der Konsequenz nicht-trägheitsfreier Referenzsysteme, in welchen Kräfte auftauchen. Im Falle der externen lokalen Symmetrien der allgemeinen Relativitätstheorie, die in einem gewissen Sinne als älteste nicht-abelsche (nicht-kommutative) Eichtheorie gilt,237 übernehmen diese Aufgabe das empirische Äquivalenzprinzip (Gleichsetzung von träger mit schwerer Masse) sowie die Gravitationskraft zur Kompensation lokaler Varianzen. Denn, »the force of gravity can exactly mimic the effects of an accelerating system and account for the spontaneous acceleration of objects and the bending of lights«.238 Für interne lokale Symmetrien ist die Lage jedoch nicht so eindeutig. Hier ist der ontische Status der kompensierenden Wechselwirkungskräfte nicht geklärt. »Indeed, gauge recalibration can be said to introduce fictions interactions or forces.«239 In der Elementarteilchenphysik übernehmen unterschiedliche intermediäre Wechselwirkungskräfte, sogenannte ›gauge particles‹ oder ›gauge bosons‹, diese Aufgabe. Im Standardmodell ist dies für die elektromagnetischen Wechselwirkungen das Photon, für die schwache Wechselwirkung das Z-Boson (91.2 Gev/c2) sowie das W-Boson (80,4 Gev/c2) und für die starke Wechselwirkung das Gluon.240 Deren Beobachtbarkeit ist allenfalls therefore non-vanishing interaction-fields. It is a synthetic statement of the empirical basis of gauge field theories [Eichfeldtheorie].« Holger Lyre: ›The Principles of Gauging‹, in: arXiv:quant-ph/0101047, 2001, S. 5. Vgl. Lochlainn O’Raifeartaigh: The Dawning of Gauge Theory, Princeton: Princeton University Press 1995. 237 Da Raum und Zeit in der Relativitätstheorie nicht-kommutativ sind, bedeutet das, dass die Raumverschiebung und Zeitverschiebung des Paralleltransports nicht austauschbar sind und zu unterschiedlichen Resultaten führen. Der Krümmungstensor bestimmt das Maß der Abweichung bei Vertauschung. 238 Kosso, ›The Empirical Status of Symmetries in Physics‹, 2000, S. 90. 239 Rosen, ›Fundamental Manifestation of Symmetry in Physics‹, 1990, S. 300. 240 Die Darstellung der virtuellen Partikel erfolgt durch Feynman-Diagramme. Für die quantifizierte Eichfeldtheorie des Standardmodells sind es mehr Eich-Teilchen. In der Quantenelektrodynamik (U(1)-Symmetrie) ist es ein Photon, in der Quantenchromodynamik (SU(3)-Symmetrie) sind es acht Gluonen und in der Theorie elektroschwacher Wechselwirkungen (SU(2)-Symmetrie) sind es drei W- und drei Z-Bosonen. Eich-Teilchen werden durch Feldgleichungen für masselose Teilchen mit langer Reichweite beschrieben. Im Falle der schwachen Wechselwirkung führt dies jedoch zu Problemen, daher erhalten W- und Z-Bosonen durch den Higgs-Mechanismus Masse (Symmetriebruch). Dies gilt auch für die elektroschwache Wechselwirkung, wobei das Photon weiterhin ein masseloses Teilchen bleibt. Die Vorhersage des Higgs-Bosons durch die quantifizierte Eichfeldtheorie des Standardmodells wurde 2012 am CERN experimentell bestätigt.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

175



176

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

indirekt über die Dynamik möglich und war bislang nur teilweise erfolgreich. Das bedeutet, dass sich im Unterschied zu den globalen Symmetrien der empirische Status für die lokalen externen wie internen (dynamischen) Symmetrien gravierend ändert. Die Kompensation lässt einen gewissen Spielraum zu und führt einen noch höheren Grad der Theorielastigkeit ein. Dennoch haben sich Eichfeldtheorien bisher als nützlich erwiesen und als Forschungsprogramm auf breiter Front durchgesetzt. In erster Linie stellen die internen lokalen Symmetrien die größte Herausforderung an die Beobachtbarkeit dar. Nicht nur ist ihr empirischer Status schwierig zu beurteilen, sondern die jeweilige Eich-Symmetrie ist von spezifischen Wechselwirkungen abhängig, um die lokalen Varianzen zu kompensieren.241 Der Aufweis (C̍ ) des Realitätsgehalts ist zwar schwierig und gestaltet sich mittlerweile als technisches Großprojekt, ist aber im Rahmen des Standardmodells der Physik prinzipiell möglich. Wie weit die Eichfeldtheorien aber in dem Bestreben der Vereinheitlichung der Wechselwirkungskräfte tragen und welcher Status ihnen dabei zukommt, ist noch nicht entscheidbar.242 Eventuell hat die Physik hier die Grenze des Auflösungsgrades der apparativen Anschauung erreicht und damit den Realisierungsraum der vermittelten Anschauung ausgeschöpft. Eventuell ist aber Supersymmetrie, in der alles ununterscheidbar wird, schlicht ein unbeobachtbares Konzept. Solange die Physik jedoch auf der Forderung beobachtbarer Größen besteht, wird der operative Symbolismus der mathematischen Verfahren nicht in einen magischen Formalismus oder einen ontischen Strukturenrealismus umschlagen, der den Realgehalt wissenschaftlicher Theorien einzig in deren mathematisch-logischer Struktur fundiert sieht.243 Ein ontisch verstandener Strukturenrealismus würde den Kategorienfehler begehen, aus dem logischen Möglichkeitskriterium der Widerspruchsfreiheit (logische Konsistenz) die physikalische Existenz abzuleiten. Dies zeigt, dass Kants Unterscheidung von (A) Möglichkeit (logisch bedingt) und (B) Wirklichkeit (mathematisch und dadurch syn241 Kossos Fazit lautet daher: »Observing the transformation and the allegedly invariant property does not directly show the symmetry. An additional theoretical step is necessary. The physics is changed by adding a dynamical principle which is then tested. […] Local symmetries are significantly less close to direct experience and observation than are global symmetries.« Kosso, ›The Empirical Status of Symmetries in Physics‹, 2000, S. 97. 242 Die Vereinheitlichungstheorie sagt weitere Eich-Teilchen zwischen Quarks und Leptonen (X- und Y-Bosonen) vorher, die massereicher sein sollen als die W- und Z-Bosonen. Eben diese Teilchen konnten bislang nicht in den Experimenten nachgewiesen werden. Vgl. Shifman, ›Reflections and Impressionistic Portrait at the Conference Frontiers Beyond the Standard Model, FTPI, Oct. 2012‹, 2012. 243 Vgl. Holger Lyre: Lokale Symmetrien und Wirklichkeit. Eine naturphilosophische Studie über Eichtheorien und Strukturenrealismus, Paderborn: Mentis 2004.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Formal-apperzeptive Bedingung der Invarianz

thetisch a priori bedingt) nach wie vor im Kontext der Anwendungsfrage entscheidend ist, damit sich die Wissenschaft nicht in ›Hirngespinste‹ verliert. Allerdings ist die Konstitution des Synthetischen Apriori der Kant’schen Anschauung unter den Bedingungen der Invarianz eine andere.

Formal-apperzeptive Bedingung der Invarianz

Die Frage nach den Bedingungen der Invarianz führt in ein Begründungsproblem. Hatte Weyl behautet, dass Objektivität in der modernen Physik »Invarianz gegenüber der Gruppe der [symmetrieerhaltenden] Automorphismen« bedeutet,244 und lässt sich das Prinzip selbst nicht direkt beobachten, sondern nur indirekt – ist also ein bloß mögliches Prädikat, das der direkten Explizierung durch die symbolische und der indirekten Explizierung durch die apparative Anschauung bedarf –, dann stellt sich als entscheidende Frage: Ist das objektivitätsgarantierende Konzept der Invarianz der modernen Physik nur ein rein logisches Konzept oder fällt es doch unter die Axiome der Wahrnehmung (1. Grundsatz) im Sinne Kants? Geht man wie Steiner davon aus, dass die moderne Physik es nicht mehr mit raum-zeitlich erfahrbaren Objekten zu tun hat und dadurch Kants transzendentale Konzeption obsolet sei,245 – und darin ist sich die aktuelle Mathematikphilosophie einig –, dann kann die Mathematik nur noch via Analogiebildung zur Konstitution physikalischer Objekte wie Elementar- und Eich-Teilchen dienen. Aus der schöpferischen Kraft des operativen Symbolismus und dem Umstand, dass es kein objektives Kriterium gibt, um zu bestimmen, was eine mathematische Struktur ist, leitet Steiner seine anthropozentrische Position ab.246 Steiner behauptet nicht, mathematische Konzepte wie das Gruppenkonzept seien anthropozentrisch. »What is anthropocentric is the concept of mathematics. My major claim is that relying on mathematics in guessing the laws of nature is relying on human standards of beauty and convenience. So this is an anthropocentric policy; nevertheless, physicists pursued it with great success.«247 Diese Position ist nicht unumstritten und sie führt in die mathematikphilosophische Grundsatzdebatte über den Status 244

Weyl, Symmetrie, 1955, S. 132. Vgl. Steiner, The Applicability of Mathematics, 1998, S., S. 9. 246 Steiner führt hier das bekannte Beispiel an, dass es kein objektives Unterscheidungskriterium gibt, um zwischen einem Schachspiel und einer mathematischen Struktur zu unterscheiden. Dennoch würde niemand Schach für eine mathematische Theorie halten. 247 Steiner, The Applicability of Mathematics, 1998, S. 7. 245

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

177



178

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

mathematischer Objekte, ob diese real, fiktiv, nominalistisch oder platonisch sind, und den entsprechenden Erklärungsansätzen bezüglich ihrer Anwendbarkeit.248 Steiners anthropozentrische Position liefert jedoch gerade für die Anwendbarkeit der Mathematik keine zufriedenstellende Antwort. Denn Mathematik wird aus dieser Perspektive mehr als Kunst denn als deduktive Wissenschaft gesehen. Nicht deduktive Erkenntnissicherheit oder gewisse Anforderungen an mathematische Theorien und ihre Anwendbarkeit, sondern ›human standards of beauty and convenience‹ rücken argumentativ in den Mittelpunkt.249 Es ist keine Neuheit, dass sich Mathematiker zu ästhetischen Kategorien wie Schönheit, Einfachheit, Eleganz oder Harmonie bekennen und damit ihre Forschung motivieren. »The mathematician’s patterns, like the painter’s or the poet’s, must be beautiful«, schreibt Godfrey H. Hardy, »the ideas […] must fit together in a harmonious way. Beauty is the first test.«250 Doch scheint Schönheit eher ein innermathematisches Kriterium zu sein als ein physikalisches, wie die Debatte zur ›abstoßenden Unanschaulichkeit‹ der Matrizenmechanik oder die aktuelle Diskussion zum Scheitern der mathematisch eleganten Supersymmetrie-Theorie an der ›ugliness of nature‹ verdeutlicht.251 Steiner folgt hier Wigner, der in seinem viel zitie248 Zur Kritik vgl. Sorin Bangu: ›Steiner on Applicability of Mathematics and Naturalism‹, in: The British Journal for the Philosophy of Science, 14 (1), 2006, 26–43. 249 »Besides aesthetic considerations for mathematical concepts, there is another– convenience.« Steiner, The Applicability of Mathematics, 1998, S. 66. 250 Godfrey H. Hardy: A Mathematicians’s Apology, Cambridge: Cambridge University Press 1967, S. 85. 251 Es scheint so, dass die Physik ähnlich Keplers Mysterium Cosmographicum, wie Cassirer meinte, aktuell an der ›Ordnung und Gesetzlichkeit des Ungleichförmigen‹ der Phänomene scheitert. »Although theoretically supersymmetry is a beautiful concept [it introduces a new scale that of supersymmetry breaking MS], the corresponding phenomenology was and still is less than elegant. Supersymmetry [MSSM framework], if it exists, is definitely broken in nature. This breaking is parametrized by many free parameters. If in the standard model the number of free parameters is close to 20, in supersymmetric model it exceeds 100. […] Now the discovery of the 125 GeV Higgs boson, and nothing else at LHC [Large Hadron Collider des CERN in Genf], caught MSSM phenomenologists by surprise dramatically changing the overall picture and the state of minds in the community. A simple and elegant idea of a single scale MS close to the electroweak scale turned out to be in contradiction with data!« Shifman, ›Reflections and Impressionistic Portrait at the Conference Frontiers Beyond the Standard Model, FTPI, Oct. 2012‹, 2012, S. 4, 5. »But some theorists are forging ahead, arguing that, in contrast to the beauty of the original theory, nature could just be an ugly combination of superpartner particles with a soupçon of fine-tuning.« Natalie Wolchover: ›Supersymmetry Fails Test, Forcing Physics to Seek New Ideas‹, in: Scientific American, 29.11.2012. Damit erweist sich die Symmetrieannahme in Steiners Definition als ebenso nicht rein mathematische Analogie wie Newtons und Maxwells Annahme der Linearität auf Basis einer ›glatten‹ (smooth) Natur.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Formal-apperzeptive Bedingung der Invarianz

ren Essay The Unreasonable Effectiveness of Mathematics in the Natural Sciences von 1960 den ästhetischen Ursprung mathematischer Konzepte betont.252 Vielleicht, so Wigner, sind die elementaren Konzepte der Geometrie und der Arithmetik realistisch inspiriert, aber »the same does not seem to be true of the more advanced concepts, in particular the concepts which play such an important role in physics. […] Most more advanced mathematical concepts, such as complex numbers, algebras, linear operators, Borel sets – and this list could be continued almost indefinitely – were so devised that they are apt subjects on which the mathematician can demonstrate his ingenuity and sense of formal beauty.«253 Das Problem dabei ist jedoch, dass Ästhetik oder Praktikabilität nicht die effektive Anwendbarkeit der Mathematik erklären können, weswegen Wigner schließen muss, dass die Anwendbarkeit an sich ein Mysterium sei. »There is no rational explanation for it. […] The miracle of the appropriateness of the language of mathematics for the formulation of the laws of physics is a wonderful gift which we neither understand nor deserve.«254 Dies kann aus philosophischer Perspektive kaum befriedigend sein. Statt von Mysterium sprechen zu müssen, entzieht sich Steiner einer Antwort auf die Anwendungsfrage. Zum einen hätte Frege die Frage nach der Anwendbarkeit der Mathematik als semantisches Problem gelöst;255 zum 252 Vgl. Wigner, ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹ (1960), 1967. Wigners Essay hat viel Diskussion ausgelöst. Vgl. Steven French: ›The Reasonable Effectiveness of Mathematics: Partial Structures and the Application of Group Theory to Physics‹, in: Synthese, 125, 2000, 103–120; Vicki Kirby: ›Enumerating Language: ›The Unreasonable Effectiveness of Mathematics‹, in: Configurations, 11, 2003, 417–439; Bangu, ›Wigner’s Puzzle for Mathematical Naturalism‹, 2009; Axel Gelfert: ›Applicability, Indispensability, and Underdetermination: Puzzling Over Wigner’s ›Unreasonable Effectiveness of Mathematics‹, in: Science & Education, Juni 2013. 253 Wigner, ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹, 1967, S. 224. Die Unterscheidung zwischen einfachen und fortgeschrittenen mathematischen Konzepten ist wichtig, denn zahlreiche Mathematikphilosophien beziehen sich auf einfache mathematische Konzepte. Dies hat aber mit dem tatsächlichen Alltag der Mathematiker und Physiker wenig zu tun. Vor allem das Faible der Mathematikphilosophen für den Logizismus und die Überschätzung seines Einflusses auf die Mathematik bleibt von Mathematikhistorikern nicht unkritisiert. Vgl. Herbert Mehrtens: Moderne Sprache Mathematik: Eine Geschichte des Streits um die Grundlagen der Disziplin und des Subjekts formaler Systeme, Frankfurt: Suhrkamp 1990; Ivor Grattan-Guinness: ›Notes on the fate of Logicism from Principia Mathematica to Gödels Incompletability Theorem‹, in: History and Philosophy of Logic, 5, 1984, 67–78. 254 Wigner, ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹, 1967, S. 223 und S. 237. 255 Grundsätzlich unterscheidet Steiner semantische und deskriptive Anwendbarkeit. Das Problem der semantischen Anwendbarkeit hätte Frege gelöst. Dies gilt es jedoch zu hinterfragen. Daher bezieht sich Steiner in seiner Studie auf die ›deskriptive

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

179



180

Kapitel 7  ·  Orientieren im Nicht-direkt-Erfahrbaren

anderen weist er darauf hin, dass Naturalisten, die er als konträr zu seinem anthropozentrischen Ansatz versteht, die Anwendbarkeit der Mathematik und den Umstand, dass »nature looks ›user friedly‹ to human inquiry«, auch nicht erklären könnten;256 ergo bliebe nur Anthropozentrismus. Da er aber seine anthropozentrisch-epistemologische Position nicht im Sinne der Transzendentalphilosophie Kants verstanden wissen will, weil es die moderne Physik nicht mehr mit raum-zeitlich erfahrbaren Objekten zu tun habe, ist es auch für Steiner schwierig, aus der Perspektive des Anthropozentrismus die Benutzerfreundlichkeit der Natur und den experimentell bestätigten Erfolg der hypothetisch-deduktiven Forschungslogik zu erklären. Will man jedoch nicht von der Benutzerfreundlichkeit der Natur oder von der Magie des Symbolischen sprechen, dann lohnt es sich, doch noch einmal Kants formales Konzept der Ästhetik näher zu befragen. Da Kant, wie bereits ausgeführt und von Peter Strawson kritisiert,257 seine intentionale Gegenstandstheorie durch die Operation der sukzessiven Synthesis mathematisch fundiert, ohne an diesem Punkt der raum-zeitlichen Anschauung zu bedürfen – die sukzessive Synthesis ist die Bedingung der Möglichkeit von Anschauung a priori und damit das den Axiomen der Anschauung vorausgehende Axiom –, könnte man Steiners pythagoreische Analogien als Verlagerung der Objektivität in eben diese numerische Verfasstheit der Apperzeption interpretieren. Der Status der Objektivität der klassischen wie der modernen Physik hätte sich demnach als transzendentaler nicht geändert, sondern in seiner Begründung nur vorverlagert – und es ist ja kein Zufall, dass Steiners Antwort auf die Anwendungsfrage ein anthropozentrisch-epistemischer Pythagoreismus und kein ontologischer ist. Parallel dazu hat sich die Rolle der raum-zeitlichen Erfahrbarkeit an die apparative Anschauung delegiert, also nachgelagert. Die Bedingung der Möglichkeit der apparativen Anschauung, nämlich die Invarianz der beobachtbaren Größen der mathematisierten TheAnwendbarkeit‹: »I will attend to descriptive applicability – the appropriateness of (specific) mathematical concepts in describing and lawfully predicting physical phenomena. Whereas, for Frege, applying meant ›deducing by means of,‹ for me it will be ›describing by means of.‹« Steiner, The Applicability of Mathematics, 1998, S. 25. 256 Ebd., S. 72. Ob sich dabei im Umkehrschluss die anthropozentrische Verfassung der Mathematik ergibt, lässt er offen. Aber selbst, wenn es so wäre, könnte nicht erklärt werden, warum manche mathematischen Konzepte anwendbar sind und andere nicht. 257 Strawson kritisiert den Anschauungscharakter von Raum und Zeit als von Kants Mathematikauffassung abhängig und nicht als deren Vorbedingung. Doch dies trifft nur zu, wenn Strawson die sukzessive Synthesis als Zeitlichkeit bestimmt. Doch eben die dadurch eingeführte Zirkularität hat Kant selbst erkannt und daher die sukzessive Synthesis vor jeder Zeitlichkeit als Einheit definiert. Vgl. Strawson, The Bounds of Sense, 1966; Wunsch, Einbildungskraft und Erfahrung bei Kant, 2007, S. 43 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Formal-apperzeptive Bedingung der Invarianz

orie, gründet jedoch nach wie vor in der Apperzeption, in deren numerischer Verfasstheit und in der Zahl als reinem Schema der Größe.258 Zahl in diesem Sinne hat jedoch nichts mit dem Zählen der Arithmetik zu tun, das unter die Zeitlichkeit fällt. Sondern Zahl als reines Schema der Größe ist die Einheit der Synthesis des Mannigfaltigen in Form einer gleichartigen Anschauung und daher vor aller Zeitlichkeit. Sie konstituiert das Erzeugungsverfahren der Zeit und damit des Raumes.259 In anderen Worten: Kants Axiomatik der Wahrnehmung ist eine dreistellige und hierarchisch geordnete von Zahl (als Einheit und Gleichartigkeit), Zeit und Raum. Worin könnte Ununterscheidbarkeit also besser gründen als in der Zahl als Einheit und Gleichartigkeit? Damit erklärt sich auch die Notwendigkeit der Explizierung der Ununterscheidbarkeit in symbolische und apparative Anschauung, also in Raum und Zeit, soll sie als bloß mögliche Behauptung konkret entschieden werden. Allerdings darf diese bloß mögliche Behauptung als alternatives, nicht-entscheidbares Urteil nicht mit logischer Möglichkeit und damit analytischen Begriffen verwechselt werden, die sich durch das Prinzip des Widerspruchs als entscheidbarer Alternative bestimmen.260 Die Ununterscheidbarkeit stellt daher ein unabhängiges Prinzip respektive Axiom dar, das die neuzeitliche wie moderne Physik als prinzipiell synthetisch apriorische Wissenschaften begründet. Denn erst mit der Verquickung von symbolischer und apparativer Anschauung in ein und demselben wissenschaftlichen Begriff – wie von Einstein und Heisenberg treffend charakterisiert – etabliert sich eine apriorisch-synthetische Operabilisierung von Ununterscheidbarkeit als Bedingung der Möglichkeit, Physik als Wissenschaft zu betreiben.

258 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, A 143 und B 182. Vgl. ebd., A 143 und B 182. Die Zahl ist »die Einheit der Synthesis des Mannigfaltigen einer gleichartigen Anschauung überhaupt, dadurch, daß ich die Zeit selbst in der Apprehension der Anschauung erzeuge«. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, A 143 und B 182. 260 Kant hatte nur an einer Stelle, nämlich in den Metaphysischen Anfangsgründen, das alternative (nicht-entscheidbare) Urteil eingeführt. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A 141 ff. 259

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

181

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

TEIL III MATHEMATISCHE SPR ACHPR AGMATIK

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 8 Medialität der Mathematik

D  

er Verlust der geometrischen Anschauung des direkt Wahrnehmbaren hat zum einen zur Differenzierung von symbolischer und apparativer Anschauung geführt und zum anderen die vertrauten Anschauungsformen des mathematischen Formalismus von Bahnen und Kurven in gänzlich unanschauliche Intuitionen aufgelöst. Anstelle von Anschauung übernimmt nun Invarianz die Aufgabe der Orientierung im formal-symbolischen Operieren mit Mannigfaltigkeiten. Doch ob deshalb grundsätzlich vom Verlust der Anschauung für die Mathematik gesprochen werden kann, ist damit noch nicht entschieden. Versteht man unter Anschauung direkt erfahrbare Anschaulichkeit, dann ist die Rede vom Verlust der Anschauung nachvollziehbar. Versteht man unter Anschauung die operative Bestimmung der Möglichkeit der mathematischen Erfahrbarkeit von Gegenständlichkeit und damit Wirklichkeit, dann ist zu überlegen, ob nicht vielmehr ein Wandel der Anschauung stattgefunden hat. Die Frage ist dann, worin dieser Wandel der Anschauung besteht und was das Anschauungsparadigma einer rein formalsprachlichen Mathematik sein könnte. Weiter ist zu fragen, ob ein Wandel der mathematischen Anschauung einen Wandel ihrer operativen Erkenntniskraft zur Folge hat und dies wiederum neue mathematische Objekte und damit eine erweiterte Anwendbarkeit (Formkraft) ermöglicht. Indem die mathematische Anschauung an den Anfang gestellt wird, wird davon ausgegangen, dass Mathematik eine durch und durch menschliche Rationalitätsform und Tätigkeit ist, die »vermittels einer symbolischen Konstruktion« dahin gelangt, »wohin die diskursive Erkenntnis vermittels bloßer Begriffe niemals gelangen könnte«.1 Wenn das Symbolische also nicht nur Beiwerk, sondern notwendiges Erkenntnismittel mathematischer Rationali1 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 745. Der anthropozentrische Charakter der Mathematik dokumentiert sich gerade in ihrer symbolischen Verfassung als Sprache oder Schrift. Die Leistung der mathematischen Symbolisierungen ist, dass diese »wie alle durch menschliche Arbeitsleistung entspringende Kulturerwerbe […] objektiv erkennbar und verfügbar [bleiben], auch ohne daß ihre Sinnbildung stets wieder explizit erneuert werden müßte; sie werden aufgrund sinnlicher Verkörperung, z. B. durch Sprache und Schrift, schlicht apperzeptiv erfaßt und operativ behandelt«. Husserl, Die Krisis der europäischen Wissenschaften (1935), 1996, S. 25. Vgl. Edmund Husserl: ›Beilage III zu § 9a‹ (1936), in: Ders.: Husserliana, 6. Bd. (hrsg. von Walter Biemel), Den Haag: Martinus Nijhoff 1976, 365–386; Jacques Derrida: Husserls Weg in die Geschichte am Leitfaden der Geometrie: ein Kommentar zur Beilage III der ›Krisis‹ (1962), München: Fink 1987.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



186

Kapitel 8  ·  Medialität der Mathematik

tät ist, dann bedeutet ein medialer Wechsel der symbolischen Verfassung einen Wandel der mathematischen Anschauung und damit der Erkenntnisund Formkraft. Dieser Wandel dokumentiert sich in erster Linie in neuen Möglichkeiten der mathematischen Operativität – wie am operativen Modus der Transformation und Permutation gezeigt – und damit in neuen Ordnungen des Neben- und Nacheinanders des Mannigfaltigen als neue mathematische Organisationsbegriffe von Erfahrung. Indem Operativität – verstanden als das sich aus Einheiten regelhaft Zusammensetzende und aus der Regelhaftigkeit Objektivität Generierende – als formales Wechselverhältnis von Erkenntnisform und Erkenntnismittel analysiert wird, wird dem Symbolischen eine größere Akteurialität zugesprochen, als dies in der Mathematikphilosophie üblich ist. Doch nur unter dieser Perspektive wird deutlich, dass die »operative Bestimmung einiger und schließlich aller idealen Gestalten aus Grundgestalten«,2 wie sie die synthetisch-konstruierende Geometrie leistet, nicht der Logik der Operativität des Formal-Symbolischen entspricht. Deren operative Möglichkeiten leiten sich aus dem Operieren mit Operationen ab. Dieser mediale Umstand ist kein marginaler, denn er markiert die symbolische Bedingung der Möglichkeit von Selbstbezüglichkeit einer rein formal-operativ agierenden Mathematik und legt damit den Kern der mathematischen Rationalität der Moderne offen. Zudem erlaubt er Rückschlüsse auf das Anschauungsparadigma der Mathematik als formale (Zeichen-)Sprache.

Symbolische Anschauung

Wie die Entwicklung von Mathematik und Wissenschaft deutlich machte, hat sich der gemeinhin als Verlust der Anschauung betitelte Wandel nicht aus der Skalierung ins Infinitesimale analog der Skalierung der Wissenschaft ins Atomare vollzogen, sondern aus dem medialen Wechsel von der geometrischen Figur zur algebraischen (Zeichen-)Sprache. Über die Gründe, warum die Geometrie so lange benötigt, bis sie den bereits von Descartes 1637 eingeschlagenen Weg der analytischen Geometrie umsetzt, lassen sich nur Vermutungen anstellen. Nach Einschätzung von Felix Klein in seinen Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert hat die analytische Methode zwar den Vorteil des »bequemen Algorithmus für sich, der die höchsten Verallgemeinerungen ermöglicht, der aber leicht dazu verführt, das eigentliche Objekt der Geometrie: die Figur und ihre Konstruktion, aus dem Auge zu verlieren. Bei der synthetischen Geometrie wiederum droht die Gefahr, daß der 2 Husserl,

Die Krisis der europäischen Wissenschaften (1935), S. 26.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Symbolische Anschauung

Geist am einzelnen angeschauten Fall oder doch nur einer beschränkten Zahl von Möglichkeiten verhaftet bleibt.«3 Es ist diese Beschränkung im Besonderen konstruierbarer Objekte, die zwar letztendlich zum Primat der analytischen Methode führt, aber der Wechsel des Erkenntnismittels orientiert sich bis Mitte des 19. Jahrhunderts streng an Descartes’ Übersetzungsfunktion von Konstruktion in analytische Formel. Dieses Übersetzungsverhältnis wird von Monge – neben Poncelet Mitbegründer der projektiven Geometrie Ende des 18. Jahrhunderts – als ›Diktum der geometrischen Figur‹ festgeschrieben. Noch in Plückers System der analytischen Geometrie von 1835 »wird die bloße Kombination von Gleichungen in geometrische Auffassung übersetzt und rückwärts durch letztere die analytische Operation geleitet«.4 Letztendlich ist es nicht nur der Anspruch der Allgemeinheit, sondern auch der Vollständigkeit der Geometrie als System, der das Diktum der geometrischen Figur überwindet. Insbesondere Möbius’ Integration des Imaginären durch Vorzeichen befreit die analytische Methode von ihrer Begrenzung durch die Bedingungen der geometrischen Konstruktion. Ein weiterer Grund für die Verzögerung ist, dass die Ausbildung der analytischen Methode als Erkenntnismittel für die Geometrie des 19. Jahrhunderts – im Unterschied zu Descartes’ analytischer Geometrie des 17. Jahrhunderts – den Bewegungsbegriff zu inkludieren hat. Die Entwicklung, die die Geometrie im 18. und 19. Jahrhundert von der darstellenden über die projektive Geometrie bis zur Gruppentheorie vollzieht, besteht gerade in der Erweiterung um den Bewegungsbegriff als Transformationsbegriff und diese Entwicklung verläuft erstaunlich langsam. Erst Mitte des 19. Jahrhunderts dynamisiert sich diese Integrationsleistung, die ab einem bestimmten Zeitpunkt mit synthetisch-konstruierenden Mitteln alleine nicht mehr zu bewältigen ist. Denn die dazu nötige ›Verflüssigung‹ starrer Begriffe – Koordinatenbegriff, Dimensionsbegriff etc. – sprengt die Erkenntnismittel der synthetisch-konstruierenden Methode. Weniger, indem das Dreidimensionale überschritten wird – der eigentliche Clou von Bernhard Riemanns Differentialgeometrie ist, dass sie eine n-dimensionale Flächengeometrie ist –, 3 Klein, Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert, 1. Bd., 1927, S. 115. 4 Ebd., S. 122. »Rechnung wird nach Möglichkeit vermieden, dabei wird aber eine bis zur Virtuosität gesteigerte Beweglichkeit der inneren Anschauung, der geometrischen Ausdeutung vorliegender analytischer Gleichungen ausgebildet und in reichem Maße verwendet.« Ibid., S. 122. Felix Klein lehnt die völlige Aufgabe des Diktums der geometrischen Gestalt der modernen Geometrie ab, da dadurch Fragen der Realität nicht mehr entscheidbar wären. Vgl. ibid., S. 125 ff. Vgl. Plücker, System der analytischen Geometrie, 1835.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

187



188

Kapitel 8  ·  Medialität der Mathematik

sondern weil die Überschreitung durch das Bewegungskonzept der Transformation der Überschreitungsfunktion des am Diktum der Figur festhaltenden Symbolischen bedarf. Deutlich wird die Limitierung durch fehlende analytische Erkenntnismittel in den Arbeiten von Möbius. Dieser nimmt mit seinem Barycentrischen Calcül von 1827 das spätere Erlanger Programm vorweg.5 Doch stockt die Entwicklung immer wieder, da Möbius zwar die traditionelle Koordinatengeometrie der Parallelkoordinaten als Spezialfall der schon ›schmiegsameren‹ Dreieckskoordinaten zu überwinden sucht,6 ihm jedoch die gruppentheoretischen Mittel konzeptuell wie analytisch-rechnend fehlen.7 Letztendlich setzt sich der barycentrische Calcül nicht durch und wird zu einer ›toten Sprache‹. Ein ähnliches Schicksal erleidet Arthur Cayleys Formalisierung der Quantics, die zwar den Weg für die Entwicklung der Gruppentheorie vorbereitet,8 aber bereits Ende des 19. Jahrhunderts keine Beachtung mehr findet. Allenfalls Mathematikhistoriker interessieren sich noch dafür. Dies macht zweierlei deutlich: Zum einen, dass Erkenntnisfortschritt in der Mathematik weniger stringent ist als gemeinhin angenommen. Zum anderen hängt Erkenntnisfortschritt in der Mathematik maßgeblich von adäquaten Erkenntnismitteln ab, analog der Abhängigkeit der empirischen Wissenschaft von adäquaten Mess- und Experimentiermitteln. Eine historische Analyse würde Unmengen toter Sprachen und Kalküle entdecken und allein aus der Frage, warum sie sich nicht durchsetzen konnten, ließe sich viel über das Wechselverhältnis von Erkenntnisform und Erkenntnismittel in Hinblick auf den Erkenntnisfortschritt in der Mathematik erfahren: Erkenntnisformen gestalten sich aus, finden aber durch »besonders geartete termini« als Erkenntnismittel keine bereite Verwendung.9 Oder sie sind ihrer Zeit vor5 Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969, S. 25 ff. Neben Gleichheit, Ähnlichkeit und Affinität (später die affine und äquiforme Hauptgruppe von Klein genannt) ist es das Verwandtschaftsverhältnis der Kollineation, das Möbius untersucht und in eine hierarchische Klassifikation bringt. Vgl. August Möbius: Der barycentrische Calcül, Leipzig: Barth 1827. 6 Vgl. Klein, Vorlesungen über die Entwicklung der Mathematik im 19.  Jahrhundert, 1. Bd., 1927, S. 118 f. Möbius‹ Dreieckskoordinaten haben sechs Konstanten, daher sind sie ›schmiegsamer‹ als Parallelkoordinaten mit vier Konstanten. Plückers Koordinatensystem seiner analytischen Geometrie basiert auf acht Konstanten. 7 Was das völlige Fehlen eines geeigneten Erkenntnismittels bedeutet, hat Hieronymus Zeuthen bereits für die griechische Mathematik deutlich gemacht, der es an einer künstlichen Zeichensprache mangelte. Vgl. Zeuthen, Die Lehre von den Kegelschnitten im Altertum, 1886. 8 Vgl. Cayley, ›An Introductory Memoir on Quantics‹ (1854), 1889. 9 Klein, Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert, 1. Bd., 1927, S. 118.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Symbolische Anschauung

aus, werden vergessen und, wenn es die Umstände erfordern, neu ›entdeckt‹. So entdeckt 1925 Heisenberg mit der Multiplikationsregel für quantenmechanische Zustände – für die Born und Jordan die Matrizenrechnung von Jacob Rosanes wiederentdecken – Cayleys Produktregel für Matrizen von 1855 neu.10 Aus philosophischer Perspektive ist entscheidend, dass der Blick auf das Wechselverhältnis von Erkenntnisform und Erkenntnismittel den Erkenntnismitteln eine aktivere Rolle zuspricht, als dies üblicherweise in Repräsentationstheorien der Fall ist. Diese Akteurialität des Symbolischen als Erkenntnismittel hat vor allem Cassirer in seiner Philosophie der symbolischen Formen beschrieben.11 Erkenntnismittel bezeichnen oder benennen nicht nur, sondern »der Akt der bloßen Benennung schließt immer zugleich eine Formveränderung, eine geistige Umsetzung in sich«.12 Der Grund liegt darin, dass das »Zeichen keine bloß zufällige Hülle des Gedanken [ist], sondern sein notwendiges und wesentliches Organ«.13 Diese Doppelnatur des Symbolischen konstituiert das Wechselverhältnis von Erkenntnismittel und Erkenntnisform in der Mathematik, die jeden Gedanken entweder figurativ oder formal symbolisch zu explizieren hat. Das Symbolische ist das einzige Werkzeug, das der Mathematik zur Verfügung steht. Verfeinerungen oder Modifikationen, aber insbesondere ein medialer Wandel der Erkenntnismittel bedingen Veränderungen, Erweiterungen, aber auch Desavouierungen von Erkenntnisformen und Erkenntnissen.14 Auch wenn ein medialer Wandel der Erkenntnismittel nur selten stattfindet – Descartes’ analytische Geometrie ist hier zu erwähnen sowie als modernes Pendant die Realisierung der Mathematik als Sprache in der elektrischen Schaltung15 –, so zeigt sich anhand der Mathematikgeschichte eine permanente Weiterentwicklung der Erkenntnismittel und mit ihnen der Erkenntnisformen. 10 Vgl. Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962; Arthur Cayley: ›Recherches sur les matrices dont les termes sont des fonctions linèaires d‹une seule indéterminée‹ (1855), in: Ders., The Collected Mathematical Papers, 2. Bd., 1889, 217– 220. 11 Für die Wissenschaft als Sprache vgl. Cassirer, Philosophie der symbolischen Formen (1929), 3. Bd., 1990. 12 Ebd., S. 483. 13 Cassirer, Philosophie der symbolischen Formen (1923), 1. Bd., 1988, S. 18. 14 Wie Max Born deutlich macht, reichen Verfeinerungen manchmal nicht aus, sondern es bedarf neuer (oder wiederentdeckter) Erkenntnismittel, um neue Erkenntnisformen zu artikulieren. Vgl. Born, ›Die statistische Deutung der Quantenmechanik‹ (1954), 1962. 15 Bislang lassen sich folgende Medienwechsel identifizieren: von der (geometrischen) Figur zur formalen (Zeichen-)Sprache und von dieser zur Realisierung formaler (Zeichen-)Sprache in der elektrischen Schaltung.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

189



190

Kapitel 8  ·  Medialität der Mathematik

Diese Verfeinerungen und Modifikationen lassen sich als Kalibrierung von Erkenntnismittel und Erkenntnisform verstehen.16 Die Kalibrierung vollzieht sich so lange, bis ein adäquates Verhältnis gefunden wurde, das dann Eingang in den Gebrauch wie in die Lehrbücher in Form standardisierter Symbole und Methoden findet. Bestes Beispiel dafür sind Newtons und Leibniz’ Notationen des Infinitesimalkalküls. Die Erkenntnisform des Infinitesimalen bereitete sich bereits in Galileis Dynamik, Pierre de Fermats Theorie der Minima oder dem Tangentenproblem vor, doch erst die Notationen von Newton (›ẋ‹) und Leibniz (›dy/dx‹) fixieren die Erkenntnisform durch ein geeignetes Erkenntnismittel und fokussieren die weitere Entwicklung.17 Cassirer nennt diesen Vorgang der adäquaten Symbolisierung die ›Kraft der Verdichtung‹. Dabei kumuliert im Symbol der zugrundeliegende Algorithmus respektive Kalkül.18 Es ist diese konstruktive Kraft des Symbolischen, die der Mathematik ihre schöpferische Kraft verleiht. Diesen Prozesscharakter der Erkenntniskonstitution im Wechselverhältnis von Erkenntnisform und Erkenntnismittel besser zu verstehen, ist daher das Thema der operativen Epistemologie.19 Weiter ist entscheidend, dass sich im historischen Gesamtkontext betrachtet, die Akteurialität der Erkenntnismittel verändert. Dies lässt sich als Umgestaltung der Logik des Wechselverhältnisses von Erkenntnisform und Erkenntnismittel verstehen. Hinweise finden sich auch hier bei Cassirer, der bekanntermaßen verschiedene symbolische Formen der Sprache durch ihren jeweiligen Bezug zur Welt unterscheidet. Im Laufe dieser Entwicklung 16 Man könnte dieses Verhältnis auch mit Hans-Jörg Rheinberger als Wechselverhältnis von technischen (Erkenntnismittel) und epistemischen (Erkenntnisform) Objekten, wie in Wissenschaftslaboren anzutreffen, bezeichnen. Vgl. Rheinberger, Experimentalsysteme und epistemische Dinge, 2002. 17 Vgl. Cassirer, Philosophie der symbolischen Formen (1929), 3. Bd., 1990, S. 469 f. »In dem Augenblick, als dieser Richtpunkt einmal bestimmt und in einem Symbol festgehalten war, erfolgte gleichsam eine Kristallisation der Probleme: von allen Seiten her schießen sie jetzt zu einer logisch-mathematischen Form zusammen. Abermals erweist das Symbol hier jene Kraft […] die Kraft der Verdichtung. Es ist, als würde durch die Schöpfung des neuen Symbols eine gewaltige Energie des Denkens aus einer relativ-diffusen Form in eine konzentrierte Form übergeführt. […] Sie brauchte nur das, was in den neu geschaffenen Symbolen aufgewiesen und implizit gesetzt war, zur vollständigen expliziten Erkenntnis zu erheben.« Cassirer, Philosophie der symbolischen Formen (1929), 3. Bd., 1990, S. 469. 18 Interessanterweise gestalten sich verschiedene Erkenntnismittel in jener Zeit aus: Algorithmus bei Descartes, geometrischer Beweis bei Newton als Verallgemeinerung der Exhaustionsmethode und Kalkül bei Leibniz. 19 Cassirer weißt darauf hin, dass der »dogmatische Empirismus wie der dogmatische Rationalismus […] diesem reinen Prozeß-Charakter der Erkenntnis nicht gerecht werden können«. Cassirer, Philosophie der symbolischen Formen (1929), 3. Bd., 1990, S. 483, 484.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Symbolische Anschauung

kommt die Sprache ›zu sich selbst‹, indem der »Halt am Gegebenen und die ›Ähnlichkeit‹ mit ihm […] mehr und mehr verloren [gehen]: aus der Phase des ›mimischen‹ und des ›analogischen‹ Ausdrucks schreitet die Sprache zur rein-symbolischen Formung fort.«20 Dieser rein symbolische Formungscharakter der Sprache, so Cassirer, zeige sich am deutlichsten in der Mathematik und der mathematisierten Wissenschaft in der Verfeinerung ihrer Zeichensysteme. Wenn figurative Ähnlichkeit im Sinne einer Abbildung gegebener Formen jedoch mit der Desavouierung der euklidischen Geometrie und der synthetisch-konstruierenden Methode verloren geht, dann stellt sich die Frage: Worin gründet die Mathematik ihre Zeichensysteme und Objekte?21 So wie sich in der Neuzeit die Wissenschaft von der Ontologie abwendet und in der Mathematik neugründet, so hat der ›Verlust der Anschauung‹ ein Neugründungsverhältnis der Mathematik in der Moderne zur Folge. Wie spätestens mit der Entwicklung der projektiven Geometrie deutlich wird, überwindet die Geometrie das Diktum der geometrischen Figur im Ähnlichkeitsbegriff, der zum reinen Äquivalenzbegriff wird. Dadurch verliert sie ihre charakteristische Gestalt, insofern sie sich nicht mehr in der Figur und ihren Elementen gründet. Interessanterweise ist es der Bewegungsbegriff, der als Transformationsbegriff am Ende des 19. Jahrhunderts nur noch das von der Geometrie übriglässt, was unter den verschiedenen Transformationen invariant ist. Die Figur ist dabei das erste, was der Invarianz zum Opfer fällt, ebenso ihre Metrik, Orthogonalität und Parallelität. Was bleibt, sind die Inzidenzen (Lagen) einer abstrakten Geometrie, die sich in den Invarianzeigenschaften von Automorphismen – Abbildungen von Mengen (Punkte), welche die Struktur dieser Mengen (Punkte) unverändert lässt – gründet. Dies bedeutet, dass die rein symbolische Formung nur in sich selbst gründen kann und eben diese Selbstgründungsversuche kennzeichnen den weiteren Fortgang der modernen Mathematik. Im Unterschied zu der sehr ›offensichtlichen‹ Neugründung der Geometrie in sich selbst und der eigenen Unanschaulichkeit (Invarianzen) vollzieht sich die Neugründung der Mathematik in sich selbst insgesamt weniger offensichtlich. Denn es geht nicht um einen medialen Wandel von der Figur zum Symbol, sondern um einen Wechsel in der Verwendung des Symbolischen. Konkret gesprochen, geht es um den Wechsel von der analytisch-rechnenden Methode zur formallogischen Sprache axiomatisierter Systeme (Kalküle).22 Der wesentliche Kern dieses Wechsels besteht dabei nicht im unterschied20 Cassirer,

Philosophie der symbolischen Formen (1929), 3. Bd., 1990, S. 483. Sybille Krämer nennt dies den Verlust des extrasymbolischen Gehaltes der Zeichen. Vgl. Krämer, Berechenbare Vernunft, 1991. 22 Das bedeutet, mit David Hilbert gesprochen, dass eine weitere Tieferlegung der 21

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

191



192

Kapitel 8  ·  Medialität der Mathematik

lichen Symbolgebrauch, sondern die Genese der Mathematik als rein formale Sprache hat ihren Ursprung ein weiteres Mal im Bewegungsbegriff. Allerdings nicht in den bereits thematisierten Invarianzeigenschaften der Automorphismen, die mit der algebraisch-topologischen Permutation respektive Transformation den Wechsel von der Figur zum Symbol begründen, sondern in den realweltlichen Wurzeln des (physikalischen) Bewegungsbegriffs als Abstraktionsbegriff. Wieder ist es Klein, der diesen Umstand aus mathematischer Perspektive in seinem Vortrag Über die Arithmetisierung der Mathematik von 1895 treffend zur Sprache bringt: »Gemeinhin verbindet man mit dem Begriffe der Mathematik schlichtweg die Idee eines streng logisch gegliederten auf sich selbst ruhenden Systems, wie uns ein solches etwa in der Geometrie des Euklid entgegentritt. Indes ist der Geist, aus dem die moderne Mathematik geboren wurde, ein ganz anderer. Von der Naturbeobachtung ausgehend, auf Naturerklärung gerichtet, hat er ein philosophisches Prinzip, das Prinzip der Stetigkeit an die Spitze gestellt. So ist es bei den großen Bahnbrechern bei Newton und Leibniz, so ist es das ganze 18. Jahrhundert hindurch, welches für die Entwicklung der Mathematik recht eigentlich ein Jahrhundert der Entdeckungen gewesen ist. Allmählich erst erwacht wieder eine strenge Kritik, welche nach der logischen Berechtigung der kühnen Entwicklungen fragt.«23 Mit dem Programm der Arithmetisierung bereitet die Mathematik des 19. Jahrhunderts die Neukonstitution der Mathematik als Sprache vor, indem sie der Raum- und Zeitanschauung (Kontinuum) und deren Begriff der Stetigkeit eine arithmetisch-logische Interpretation zugrunde legt. Statt Figuren als Beweismittel treten nun »wiederholte Betrachtungen über Größen, die kleiner werden«.24 Dies setzt eine Begriffskonstitution und -diskussion an den Anfang mathematischer Überlegungen, die – als ›Weierstraßscher Habitus‹ bezeichnet25 – Mathematik näher an die Logik heranrückt und schließlich in das Programm der Grundlagenforschung der Mathematik mündet. Ihr Resultat sind die abstrakten, mathematischen Formalismen, die jeglicher Anschaulichkeit entbehren. Dabei darf die Bezeichnung ›Arithmetisierung der Mathematik‹ nicht so verstanden werden, dass hier ein rechnender Denkstil zum Systematisierung der modernen Mathematik stattfindet. Vgl. David Hilbert: ›Axiomatisches Denken‹, in: Mathematische Annalen, 78, 1917, 405–415. 23 Felix Klein: ›Über die Arithmetisierung der Mathematik‹ (1895), in: Ders.: Gesammelte mathematische Abhandlungen, 2. Bd., Berlin: Springer 1922, 232–240, S. 232. 24 Klein, ›Über die Arithmetisierung der Mathematik‹ (1895), 1922, S. 233. 25 Karl Weierstraß bemühte sich als Erster um die logische Fundierung der Analysis. Vgl. Karl Weierstraß: Abhandlungen aus der Functionenlehre (1876–1881), Berlin: Springer 1886.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematik als Sprache

Tragen käme, sondern dass sich das Programm der Arithmetisierung an der Form der Begründung der Analysis in der Zahl orientiert. Damit gewinnt die Erkenntnisform der Deduktion an Einfluss und ihr Erkenntnismittel ist die an der Logik orientierte Sprache, die die analytisch-rechnende Methode kritisch hinterfragt und ihr eine logische Fundierung gibt. Wenn Geometrie zur analytischen Geometrie wird und die analytische Methode zur arithmetischlogisch fundierten Sprache, dann wird Mathematik insgesamt zur Sprache.

Mathematik als Sprache

Es ist Richard Dedekind, der 1858 für seine Vorlesung über die Elemente der Differentialrechnung den Mangel einer wissenschaftlichen Begründung der Arithmetik beklagt.26 Um die Annäherung veränderlicher Größen an einen Grenzwert epistemisch zu fassen, erweise sich die ›Zuflucht zu geometrischen Evidenzen‹ zwar als hilfreich, aber diese hätten keinerlei wissenschaftlichen Anspruch. Daher ist es Dedekinds Ziel, eine rein arithmetisch-logische Begründung der Arithmetik, insbesondere des Infinitesimalprinzips stetiger Größen, zu entwickeln, um sich von der geometrischen Anschauung zu befreien. 1872 publiziert er seine Überlegungen in der Studie zu Stetigkeit und irrationale Zahlen, die eine Neugründung der Arithmetik in sich selbst skizziert. Ausgehend vom Zählkalkül der ganzen positiven Zahlen, in welchem »jedes Individuum durch das unmittelbar vorhergehende definiert wird«,27 bildet diese ›Kette‹ an Individuen die Grundlage der Arithmetik. Während jedoch die Operationen der Addition und Multiplikation problemlos innerhalb des durch das Zählkalkül aufgespannten Bereichs zu bewerkstelligen sind, sind die Subtraktion und Division nur beschränkt zulässig und führen zur Zuhilfenahme der Anschauung.28 Nichtsdestotrotz ist der gesamte ratio26 Vgl.

Richard Dedekind: Stetigkeit und irrationale Zahlen (1872), Braunschweig: Vieweg & Sohn 1912, S. 1. Eine Parallele zu seinem Axiom der Stetigkeit sieht Dedekind in Georg Cantors Beitrag von 1872. Vgl. Georg Cantor: ›Über die Ausdehnung eines Satzes aus der Theorie der trigonometrischen Reihen‹, in: Mathematische Annalen, 5, 1872, 123– 132. 27 Dedekind, Stetigkeit und irrationale Zahlen (1872), 1921, S. 5. 28 »Gerade diese Beschränktheit in der Ausführbarkeit der indirecten Operationen ist jedesmal die eigentliche Ursache eines neuen Schöpfungsactes geworden; so sind die negativen und gebrochenen Zahlen durch den menschlichen Geist erschaffen, und es ist dem System aller rationalen Zahlen ein Instrument von unendlich viel größerer Vollkommenheit, welche ich an einem anderen Orte als Merkmal eines Zahlkörpers bezeichnet habe, und welche darin besteht, daß die vier Grundoperationen mit je zwei Individuen in R stets wieder ein bestimmtes Individuum in R ist, wenn man den einzigen Fall

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

193



194

Kapitel 8  ·  Medialität der Mathematik

nale Zahlbereich – von Dedekind Zahlkörper R genannt – der vier Grundrechenarten ›wohlgeordnet‹. Es lässt sich entscheiden, ob die rationale Zahl a kleiner oder größer der rationalen Zahl b ist. Die geometrische Veranschaulichung dafür, so Dedekind, ist die gerade Linie L (gerichteter Zahlenstrahl), auf der links und rechts eines Punktes (Nullpunkt) die Zahleigenschaften kleiner und größer repräsentieren. Jeder rationalen Zahl entspricht dann eine bestimmte Länge auf der Geraden (Intervall). Doch es gibt unendlich viele weitere Zahlen auf L, welche nicht wie die rationalen Zahlen als Bruch zweier ganzer Zahlen darstellbar sind, also kein gemeinsames Maßverhältnis haben und daher inkommensurabel sind – beispielsweise der Abtrag der Diagonalen des Quadrats (√2) auf den Zahlenstrahl.29 Was also von Nöten ist, um die Zahlen der gesamten Gerade L zu erfassen, ist das »Instrument R, welches durch die Schöpfung der rationalen Zahlen construirt war, wesentlich zu verfeinern durch eine Schöpfung von neuen Zahlen der Art, daß das Gebiet der Zahlen dieselbe Stetigkeit gewinnt, wie die gerade Linie«.30 Bisherige Definitionsversuche, so Dedekind, knüpfen an den Begriff der extensiven Größen an, um Zahlen als Resultate von Maßstabsvergleichen (Messungen) zu konstruieren; doch die Arithmetik muss sich aus sich selbst begründen. »Nur das Wie? bleibt die Frage.«31 Dedekinds Lösung des ›Wie‹ ist bekannt. Seine ›Schnitte‹ füllen die Löchrigkeit der rationalen Zahlen auf der stetigen Geraden. Ausgehend vom Vorgang der Zerstückelung der Zahlengerade durch die rationalen Zahlen leitet sich das Wesen der Stetigkeit aus der Umkehrung dieses Prinzips ab. »Zerfallen alle Puncte der Geraden in zwei Classen von der Art, daß jeder Punct der ersten Classe links von jedem Puncte der zweiten Classe liegt, so existirt ein und nur ein Punct, welcher diese Eintheilung aller Puncte in zwei Classen, die Zerschneidung der Geraden in zwei Stücke hervorbringt.«32 Dedekind entschuldigt sich für die Trivialität dieser Einsicht, doch die Einteilung in zwei Klassen (A1, A2 mit jeder rationalen Zahl a1 in A1 kleiner als a2 in A2), die ›Schnitt‹ heißen soll, weist jeder rationalen Zahl die Eigenschaft, ›Schnitt zu sein‹, zu. Zudem gibt es unendlich viele nicht-

der Division durch die Zahl Null ausnimmt.« Dedekind, Stetigkeit und irrationale Zahlen (1872), 1921, S. 6. 29 Rationale Zahlen ℚ lassen sich als endliche oder periodische Dezimalzahlen darstellen, während irrationale Zahlen wie √2 oder π als Dezimalzahlen nicht abbrechen oder periodisch sind. Zusammen bilden sie den Zahlenkörper ℝ der reellen Zahlen. 30 Dedekind, Stetigkeit und irrationale Zahlen (1872), 1921, S. 9. 31 Ebd., S. 10. 32 Ebd., S. 11.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematik als Sprache

rationale Zahlen, die Schnitte hervorbringen. Beispielsweise für die positiv rationalen Zahlen D und λ, für die gilt:33 λ2 < D < (λ + 1)2 Der Schnitt D für die Quadratzahlen λ2 und (λ + 1)2 wird dabei nicht durch eine rationale Zahl hervorgebracht, insofern sich durch einen Widerspruchsbeweis zeigen lässt, dass es keine rationale Zahl gibt, deren Quadrat gleich D ist. Das bedeutet, dass durch D eine irrationale Zahl α hervorgebracht wird, die durch den Schnitt (A1, A2) vollständig definiert ist. Als Grundlage für die Anordnung der Gesamtheit der reellen Zahlen (rationale und irrationale) vergleicht Dedekind die Schnitte zweier Zahlen (A1, A2 und B1, B2) miteinander und unterscheidet identische, ähnliche und verschiedene Schnitte voneinander. Zwei Zahlen sind »nur dann als verschieden oder ungleich [anzusehen], wenn sie wesentlich verschiedenen Schnitten entsprechen«.34 Erst durch diesen Vergleich lassen sich Zahlen als geordnete Verhältnisse beschreiben, und zwar als Verhältnisse von offenen, nach unten unbeschränkten und nach oben beschränkten Intervallen zueinander. Dabei gilt für rationale Zahlen, dass jede nicht-leere und nach oben beschränkte Menge reeller Zahlen eine kleinste obere Schranke (Supremum) besitzt. Dies gilt aber nicht für irrationale Zahlen. Doch Dedekind definiert, dass »jedesmal wenn nun ein Schnitt (A1, A2) vorliegt, welcher durch keine rationale Zahl hervorgebracht ist, so erschaffen wir eine neue, eine irrationale Zahl α«.35 Dies bedeutet, dass irrationale Zahlen als Suprema von Teilmengen der rationalen Zahlen definiert sind und dass die Menge der reellen Zahlen ℝ die Menge aller Schnitte im Bereich der rationalen Zahlen ℚ ist.36 Für diese neue Zahlendarstellung lassen sich nun Rechenregeln angeben; auch für die 33

Vgl. ebd., S. 13 f. S. 14, 15. Es lassen sich folgende Schnitte unterscheiden: Erstens, A1 ist mit B1 identisch (α = β, respektive eine Zahl a1 = b1). Zweitens, A1 ist mit B1 nicht identisch, das heißt es gibt eine Zahl a 1̍ = b 2̍ in A1 und beide Schnitte sind nicht wesentlich voneinander unterschieden; sie werden durch die rationale Zahl β = b 2̍ = a 1̍ = α hervorgebracht. Drittens, gibt es wenigstens zwei Zahlen a 1̍ = b 2̍ ; a̎ 1 = b 2̎ in A1, die nicht in B1 enthalten sind, dann gibt es auch unendlich viele Zahlen, die nicht in B1 enthalten sind, da zwischen a 1̍ und a̎ 1 unendlich viele Zahlen liegen. In diesem Fall sind beide Schnitte A1, A2 und B1, B 2 wesentlich voneinander unterschieden, ebenso α und β (α > β, β < α). Viertens, gibt es nur eine Zahl b 1̍ = a 2̍ , die nicht in B1, und die nicht in A1 enthalten ist, so sind beide Schnitte nicht wesentlich voneinander unterschieden und werden durch dieselbe rationale Zahl α = a 2̍ = b 1̍ = β hervorgebracht. Und schließlich gibt es, fünftens, wenigstens zwei Zahlen in B1, die nicht in A1 enthalten sind, so sind beide Schnitte wesentlich voneinander unterschieden, ebenso α und β (β > α, α < β). 35 Ebd., S. 14. 36 Frege kritisiert diese Art der Zahlenerschaffung durch Definition. Vgl. Pirmin Ste34 Ebd.,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

195



196

Kapitel 8  ·  Medialität der Mathematik

Differentialrechnung mit veränderlichen Größen, die sich einem Grenzwert kontinuierlich annähern. Dedekinds Ansatz ist deshalb von Bedeutung, weil die Darstellung von Zahlen durch Schnitte ein vergleichendes Merkmal der Stetigkeit geben, in welchem jegliche Deduktion ihren Anfang nehmen kann. Diese argumentative Transformation von der Anschauung zur Begriffsanalyse verwandelt den Begriff der ›Stetigkeit‹ von einem evidenten Axiom in eine Anordnungseigenschaft – ganz im Sinne von Leibniz’ ›Calculum der Axiome‹. Voraussetzung dafür ist, das an der Anschauung orientierte Erkenntnismittel des Messens durch ein neues Erkenntnismittel zu ersetzen. Dieses neue Erkenntnismittel gründet in einer arithmetisch-logischen Operation und verbegrifflicht dadurch Stetigkeit. Da diese Verbegrifflichung nicht von etwas Gegebenem seinen Ausgang nehmen kann, kann sie nur ein aus sich selbst heraus erzeugendes Verfahren sein – auch wenn Dedekind die Gerade zur Veranschaulichung des Zahlenstrahls nimmt. Dieses Vorgehen entspricht aus philosophischer Perspektive der begriffsanalytischen Exposition, die in der mathematischen Literatur ein ›logisches‹ Verfahren aus ›reinen Denkgesetzen‹ genannt wird. Es transformiert die analytisch-rechnende Methode, die eher ein Übersetzungsinstrument für geometrische/algebraische Sachverhalte darstellt, begriffsanalytisch in ein autonom agierendes zeichensprachliches System. Dass dabei das Übersetzungsverhältnis überwunden wird, zeigt sich an Dedekinds Vorgehen, insofern er die geometrische Intuition nicht übersetzt, sondern eine neue Begriffsunterscheidung durch eine neue (mengentheoretische) Sprechweise erschafft. Erst diese neue Sprechweise erlaubt es, mathematische Objekte aus einer systematisierenden Perspektive begrifflich zu erfassen.37 Dies stellt den Beginn der Mathematik als Sprache dar und dieser Wandel des Erkenntnismittels geht mit einer Neukonstitution mathematischer Objekte und Verfahren einher, die sich als doppeldeutiges Verhältnis von Zahl und Logik im Laufe der weiteren Entwicklung kalibriert. Die Transformation der Mathematik in eine formale (Zeichen-)Sprache wird in Dedekinds Schrift Was sind und was sollen die Zahlen von 1888 noch deutlicher, wenn er ähnlich wie Frege die Arithmetik »einen Teil der Logik« nennt und »den Zahlbegriff für gänzlich unabhängig von den Vorstellungen oder Anschauungen des Raumes und der Zeit […] für einen unmittelbaren Ausfluß der reinen Denkgesetze« hält.38 Zahlen werden dabei zu Elemenkeler-Weithofer: Grundprobleme der Logik: Elemente einer Kritik der formalen Vernunft, Berlin, New York: de Gruyter 1986, S. 195 f. 37 Aus dieser zusammenfassenden Objektivation resultieren später die Inkonsistenzen einer solchen Redeweise. 38 Dedekind, ›Was sind und was sollen die Zahlen‹ (1888), 1930, S. 335. Im Vorwort

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationslogik des mathematischen Sprechens

ten eines (vollständigen) zeichensprachlichen Systems, das sich axiomatisieren und in einen Kalkül verwandeln lässt. Setzte Dedekind im Kontext der Stetigkeitsfrage Zahlen noch als durch den natürlichen Zählkalkül erzeugt voraus, so versucht er nun den Zählvorgang selbst begrifflich zu fassen. Er definiert ihn als einen Vorgang, »Dinge auf Dinge zu beziehen, einem Ding ein Ding entsprechen zu lassen, oder ein Ding durch ein Ding abzubilden«.39 Zählen ist damit nicht länger eine Operation des Aufzählens, sondern des Zuordnens, dessen Erzeugungsprinzip ein Abbildungsvorgang ist, »nach welchem zu jedem bestimmten Element s von S ein bestimmtes Ding gehört, welches das Bild von s heißt und mit φ(s) bezeichnet wird«.40 Dieses Zuordnen lässt sich in identische Abbildungen (jedes Element geht in sich selbst über), in Abbildungen, die in sich selbst übergehen (φ(s) ɜ S) und ›Ketten‹ genannt werden, sowie Abbildungen von Ketten (φ(φ 0(s)) unterscheiden und ermöglicht damit die Axiomatisierung des Schlusses von n auf n+1 (Induktion natürlicher ­Zahlen).41

Operationslogik des mathematischen Sprechens

Diese Neuausrichtung der Erkenntnismittel der Mathematik an den zeichensprachlich artikulierbaren Denkgesetzen rückt die Frage nach dem Zusammenhang von Mathematik und Logik ins Zentrum. Während Descartes zwar den Anspruch seiner ›mathesis universalis‹ auf Algebra, Geometrie wie auch Logik erhob, tatsächlich aber aufgrund der Ablehnung der Syllogistik seizur zweiten Auflage schreibt Dedekind: »Wie verschieden die in diesem Werke [Freges Grundlagen der Arithmetik] niedergelegte Ansicht über das Wesen der Zahl auch sein mag, so enthält es, namentlich von § 79 an, doch auch sehr nahe Berührungspunkte mit meiner Schrift, insbesondere mit meiner Erklärung (44).« Dedekind, ›Was sind und was sollen die Zahlen‹ (1888), 1930, S. 342. Vgl. Frege, Grundlagen der Arithmetik (1884), 1988, § 79 ff. 39 Dedekind, ›Was sind und was sollen die Zahlen‹ (1888), 1930, S. 335. 40 Ebd., S. 338. Insofern a, b, c … verschieden sind, aber unter einen gemeinsamen Gesichtspunkt zusammengefasst werden können, bilden die ›Dinge‹ a, b, c … (von Dedekind bezeichnet als ›Elemente‹) ein ›System‹ S (von Dedekind bezeichnet als ›Mannigfaltigkeit‹, ›Inbegriff‹ oder ›Gesamtheit‹). S ist ebenfalls ein Gegenstand des Denkens, ein Ding. Zwei Systeme S und T sind dasselbe (S = T), wenn ihre Elemente übereinstimmen. Ein System mit einem Element ist denkbar, ein leeres System wird ausgeschlossen. Ein System kann Teil eines anderen sein (S ɜ T). Vgl. Dedekind, ›Was sind und was sollen die Zahlen‹ (1888), 1930, S. 345 ff; Cantor, ›Beiträge zur Begründung der transfiniten Mengenlehre‹ (1895, 1897), 1990. 41 Die Axiome sind: N‹ ɜ N; N = 1 ; 1 ist nicht in N‹ enthalten; Abbildung φ ist ähnlich. 0 Vgl. Dedekind, ›Was sind und was sollen die Zahlen‹ (1888), 1930, S. 359.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

197



198

Kapitel 8  ·  Medialität der Mathematik

ner Zeit allenfalls eine analytische Geometrie schuf,42 versucht die moderne Mathematik den Anspruch einer tatsächlichen ›mathesis universalis‹ einzulösen. Dies geschieht ganz im Sinne von Leibniz’ Idee einer allgemeinen Charakteristik als Entwicklung einer universellen (Zeichen-)Sprache der deduktiven Wissenschaften (Geometrie, Arithmetik, Logik).43 Da die meisten Werke von Leibniz, insbesondere die logischen und mathematischen, erst spät publiziert werden,44 wiederholt sich hier die Denkbewegung seiner breit angelegten Konzeption der ›mathesis universalis‹ als allgemeine Charakteristik auf ein Neues. Das Neue zeigt sich in der skizzierten Arithmetisierung der Mathematik als Selbstgründungsprogramm; es zeigt sich aber auch in der Entwicklung einer geeigneten formalen Sprache. Eine solche Sprache bildet sich im 19. Jahrhundert mit der symbolischen Algebra heraus, die sich von der aristotelischen Syllogistik in eine Operationslogik des Geistes transformiert.45 Dabei durchläuft die Entwicklung drei Phasen der Abstraktion und Systematisierung. In einem ersten Schritt löst Duncan F. Gregory 1838 in seiner Abhandlung On the real nature of symbolical algebra die algebraischen Operationen von jeglichem Größenbegriff, um arithmetische und geometrische Operationen unter eine gemeinsame Perspektive zu bringen.46 Diese gemeinsame Betrach42 Noch Kant schreibt, dass sich seit Aristoteles nichts Neues in der Logik getan hätte. Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B VIII. 43 Vgl. Peckhaus, Logik, Mathesis universalis und allgemeine Wissenschaft, 1997; Krämer, Symbolische Maschinen, 1988. 44 1778 erfolgt eine deutsche Übersetzung von Eric Raspes 1765 herausgegebenen Œuvres philosophiques latines et françaises de feu Mr de Leibnitz, 1768 gibt Ludovici Dutens die Opera omnia heraus, 1839 veröffentlicht Johann Eduard Erdmann die Opera Philosophica, ab 1849 gibt Carl Immanuel Gerhardt die Mathematischen Schriften und ab 1875 Die philosophischen Schriften heraus, 1903 editiert Louis Couturat die Opuscules et Fragments Inédits de Leibniz. Eine genaue Darstellung findet sich bei Peckhaus, Logik, Mathesis universalis und allgemeine Wissenschaft, 1997, S. 164 ff. Nach Peckhaus geht von Adolf Trendelenburgs Vortrag ›Über Leibnizens Entwurf einer allgemeinen Charakteristik‹ von 1857 die größte Wirkung bezüglich der Diskussion des Leibniz-Programms als ›Begriffsschrift‹ aus, wie Trendelenburg es nennt und wie es später von Frege als Titel aufgegriffen wird. Vgl. Peckhaus, Logik, Mathesis universalis und allgemeine Wissenschaft, 1997; Adolf Trendelenburg: ›Über Leibnizens Entwurf einer allgemeinen Charakteristik‹, in: Ders.: Historische Beiträge zur Philosophie, 3. Bd., Berlin: Bethge 1867, 48–62. 45 Beide Entwicklungen konvergieren in Freges Grundlagen der Arithmetik basierend auf seiner Begriffsschrift. Vgl. Frege, Grundlagen der Arithmetik (1884), 1988; Gottlob Frege: Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle: Luis Nebert 1879. 46 Vgl. Duncan F. Gregory: ›On the real nature of symbolical algebra‹ (1838), in: Transaction of the Royal Society of Edinburgh, 14, 1840, 208–216. Der Ertrag seiner allgemeinen Analyse mathematischer Operationen ist, »that, leaving out of view the nature of the

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationslogik des mathematischen Sprechens

tungsweise basiert auf algebraischen (Meta-)Theoremen, die jedoch noch am Übersetzungsparadigma der Geometrie in Algebra orientiert sind. Mit diesen Theoremen soll überprüfbar werden, ob arithmetische und geometrische Verfahren, die intuitiv als analog gelten, denselben Kombinationsgesetzen unterliegen oder nicht.47 In einem zweiten und entscheidenden Schritt macht sich George Boole in seiner Mathematical Analysis of Logic von 1847 Gregorys Idee algebraischer Theoreme über Zeichenoperationen zu eigen und verallgemeinert sie weiter zu einer Kalkülisierung der Logik als ›Algebra of Symbols‹.48 Dabei werden die Kombinationsgesetze logischer Aussagen durch die geistigen Akte verschiedener Auswahloperationen der Klassenbildung begründet:49 durch Distributivität (x(u + v) = xu + xv),50 Kommutativität (xy = yx) sowie das Indexgesetz (xn = x).51 Dadurch kann Boole die traditionelle Syllogistik in Form logischer Gleichungen rekonstruieren. So wird aus ›alle X sind Y‹ xy = y, aus ›kein X ist Y‹ xy = 0, aus ›einige X sind Y‹ v = xy und aus ›einige X sind keine Y‹ v = x(1-y).52 Gleichzeitig löst Boole damit die Logik aus operations which the symbols we use represent, we suppose the existence of classes of unknown operations subject to the same laws. We are thus able to prove certain relations between the different classes of operations, which, when expressed between the symbols, are called algebraical theorems.« Gregory: ›On the real nature of symbolical algebra‹ (1838), 1840, S. 208, 209. 47 Oder umgekehrt, es lässt sich zeigen, ob ein geometrischer Ausdruck wie ›cos x + (−)½ sin x‹, der durch die implizierte Richtung der (−)½-Operation keine arithmetische Interpretation hat, aufgrund der Kombinationsgesetze, denen er unterliegt, algebraisch interpretiert werden kann. Gregory zeigt, dass sich für ein polares Koordinatensystem die gerichtete Strecke, die durch obige Operation generierbar ist, als Länge, die um den Winkel x gedreht ist, verstehen und als (+)1/n beschreiben lässt. Da beide Operationen unter dasselbe Kombinationsgesetz fallen, ist folgende Aussage möglich: »Hence, instead of the theorem that every equation must have a root, I would say every equation must have a root of the form (+)p/q a, p and q being numbers, and a a distributive and communicative function.« Gregory, ›On the real nature of symbolical algebra‹ (1838), 1840, S. 216. Der geometrische Ausdruck ›cos x + (−)½ sin x‹ ist Teil des Satzes von de Moivre, der es erlaubt, komplexe Zahlen trigonometrisch darzustellen. 48 Vgl. George Boole: The Mathematical Analysis of Logic: Being an Essay towards a Calculus of Deductive Reasoning, Cambridge: Macmillan 1847, S. 4; George Boole: An Investigation of The Laws of Thought, London: Walton & Maberly 1854. 49 Vgl. Peckhaus, Logik, Mathesis universalis und allgemeine Wissenschaft, 1997, S. 201 f. 50 Distributivität der Auswahl besagt, dass es keinen Unterschied macht, ob Individuen aus einer ungeteilten Klasse oder aus Teilen der Klasse ausgewählt werden (x(u + v) = xu + xv). 51 Das Indexgesetz besagt, dass wiederholte Auswahlakte an dem Ergebnis der Auswahl nichts verändern. Später wird es von Boole in der Form xx = x geschrieben ›Law of Duality‹ genannt. 52 Booles Kalkül lässt sich aussagen- wie klassenlogisch interpretieren, insofern eine binäre Darstellung als wahr/falsch respektive Nullklasse/Allklasse angegeben wird oder

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

199



200

Kapitel 8  ·  Medialität der Mathematik

der abstrahierenden Orientierung der aristotelischen Metaphysik, verstanden als Wissenschaft der realen Existenzen, und verortet sie als kalkülisierte Zeichensprache in der Mathematik.53 Mit dieser Neuorientierung stellt sich auch die Frage nach dem Verhältnis von Mathematik (Algebra) und Logik. Es ist William Jevons, der 1864 einen wesentlichen Unterschied zwischen beiden aufzeigt. Indem er Booles Schluss von der Aussage ›Caesar is the conqueror of the Gauls or the first emperor of Rome‹ zu ›Caesar, provided he is not the first emperor of Rome, he is the conqueror of the Gauls‹ analysiert, zeigt er, dass die Verwendung des exklusiven ODER mathematisch Sinn macht, insofern konträre Individuen ausgewählt werden, aber eben nicht für die Logik.54 Ähnlich argumentiert Ernst Schröder, der 1877 das erste formale Axiomensystem einer booleschen Algebra entwickelt,55 wenn er Booles Reduktion der Klassen auf Null- und Allklasse als entgegengesetzte Extreme kritisiert. Stattdessen schlägt er die Unterscheidung zweier sich überlappender Klassen als durchdringender (a ∙ b) und ergänzender Bereiche (a + b) vor, die jeweils durch logische Multiplikation und logische Addition entstehen. Interessant ist an seiner Erklärung, die er durch Kreisdarstellungen sich überlappender Klassen illustriert, dass die »logische Multiplikation [dazu dient], aus der Mannigfaltigkeit des die numerischen Werte 0 und 1 annehmen kann. Booles ›Algebra of Symbols‹ spielt in der Weiterentwicklung durch John Venn, William S. Jevons, Charles Peirce, Ernst Schröder und Giuseppe Peano als boolesche Algebra mit den Operatoren UND, ODER, NICHT eine wichtige Rolle für die moderne Mathematik und besonders für die Informatik. 53 »The theory of Logic«, schreibt Boole in der Einleitung zu Mathematical Analysis of Logic, »is thus intimately connected with that of Language. A successful attempt to express logical propositions by symbols, the laws of whose combinations should be founded upon the laws of the mental processes which they represent, would, so far, be a step towards a philosophical language.« Boole, The Mathematical Analysis of Logic, 1847, S. 5. 54 Daher erweitert Jevons Booles Logik um das inklusive ODER für die logische Addition, die bei Boole als ausschließendes ODER interpretiert ist. »There are no such operations as addition and subtraction in pure logic. The operations of logic are the combination and separation of terms.« William S. Jevons: Pure Logic: Or, The Logic of Quality Apart from Quantity, London: E. Stanford 1864, S. 79. Sowohl George Peacock in seinen Treaties on Algebra von 1830 als auch Augustus de Morgan in seiner Formal Logic von 1847 weisen auf die Mehrdeutigkeit formaler Operationen hin, je nach Interpretation des Kalküls als arithmetisch oder symbolisch-logisch. Vgl. William Kneale, Martha Kneale: The Development of Logic, Oxford: Clarendon 1962; George Peacock: Treaties on Algebra, Cambridge: Deighton 1830; Augustus de Morgan: Formal Logic: or The Calculus of Inference, Necessary and Probable, London: Taylor 1847; Augustus de Morgan: The Elements of Arithmetic, London: Taylor 1830. 55 Vgl. Ernst Schröder: Über die formalen Elemente der absoluten Algebra, Stuttgart: Schweizerbartsche Buchdruckerei 1874; Ernst Schröder: Der Operationskreis des Logikkalküls, Leipzig: Teubner 1877.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationslogik des mathematischen Sprechens

Denkbaren solche Dinge hervorzuheben, welche durch die Gemeinsamkeit ihrer Merkmale charakterisiert sind; sie läuft wesentlich auf eine Aussonderung oder Selektion hinaus. Die Philosophen nennen sie Determination, weil, wenn man aus der Klasse a diejenigen Individuen hervorhebt, welche zugleich zur Klasse b gehören, der Begriff a eine nähere ›Bestimmung‹ erfährt.«56 Dies kommt jener Art der Determination nahe, die Leibniz in seiner geometrischen Charakteristik anwendet. Die Addition hingegen artikuliert die Kollektion von Individuen mit verschiedenartigen Merkmalen und das Gesetz der Dualität wird als Multiplikation einer Klasse mit sich selbst interpretiert. Gemeinsam mit den inversen Operationen der Subtraktion (Exzeption) und der Division (Abstraktion) bilden diese Operationen, so Schröder, den Operationskreis der Logik. Diese Erschließung geistiger Operationen in Form logischer Kalkülsysteme wird 1870 von Charles Sanders Peirce zu einer mehrstelligen Prädikatenlogik erweitert. Seine Logic of Relatives basiert dabei im Unterschied zu den drei Kategorien der klassischen Syllogistik wie auch der booleschen Logik (alle, einige, keine) auf fünf Kategorien; und zwar auf der Kategorie der Identität, des Zugleichseins, der Negation, der Konversion (wenn a Ursache von b, dann ist b Wirkung von a) und der Relation (als Präposition ›von‹).57 Dies reicht aus, so Schröder, »um alle für die Logik und Arithmetik wesentlichen Begriffe einzukleiden«.58 Ein solch universelles Erkenntnismittel – als Pasigraphie von Schröder bezeichnet – bedürfe lediglich eines Axioms, nämlich dem der Inhärenz der Zeichen. Dieses »gibt uns die Gewissheit, dass bei all unseren Entwicklungen und Schlussfolgerungen die Zeichen in unserer Erinnerung – noch fester aber am Papier – haften. […] Ohne diesen Grundsatz […] würde in der That jede Deduction illusorisch sein, denn die Deduction beginnt eben dann, wenn – nachdem die Grundeigenschaften der Dinge hinlänglich in 56 Schröder, Operationskreis des Logikkalküls, 1877, S. 6. Bereits in seinem Lehrbuch der Arithmetik und Algebra führt Schröder eine Definition der Menge ein sowie die natürlichen Zahlen als Maßstab von Häufigkeiten. Vgl. Ernst Schröder: Lehrbuch der Arithmetik und Algebra für Lehrende und Studierende, Leipzig: Teubner 1873, S. 8 ff. 57 Vgl. Charles Sanders Peirce: ›Description of a Notation for the Logic of Relatives, Resulting from an Amplification of the Conceptions of Boole’s Calculus of Logic‹, in: Memoirs of the American Academy of Sciences, 9, 1870, 317–378; Charles Sanders Peirce: ›On the Algebra of Logic‹, in: American Journal of Mathematics, 7 (2),1885, 180–196; Charles Sanders Peirce: Collected Papers of Charles Sanders Peirce, I-VI (hrsg. von Charles Hartshorne und Paul Weiss), VII-VIII (hrsg. von Arthur W. Burke), Cambridge: Harvard University Press 1931–1958. 58 Ernst Schröder: ›Über Pasigraphie, ihren gegenwärtigen Stand und die pasigraphische Bewegung in Italien‹, in: Verhandlungen des ersten internationalen Mathematiker-Kongresses in Zürich 1897, Leipzig: Teubner 1898, 147–162, S. 151.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

201



202

Kapitel 8  ·  Medialität der Mathematik

Zeichen eingekleidet sind – das Studium dieser Dinge Platz macht dem ihrer Zeichen.«59 Dieses, von Leonard Nelson als »Metaphysik der Kreide«60 verspottete Axiom bekommt jedoch eine unerwartete Aktualität in der weiteren Arbeit von Peirce, der mit der NAND Operation (NOT, AND) alle sechzehn Möglichkeiten der Verknüpfungen der binär interpretierten booleschen Algebra darstellen kann und 1886 vorschlägt, diese auf elektrische Schaltungen zu transferieren.61 Schließlich formuliert Frege 1897 mit seiner Begriffsschrift eine solche Pasigraphie als vollständige Axiomatisierung des Aussagekalküls auf Basis des Funktionsbegriffs, den er damit als analytischen Grundbegriff der Logik etabliert.62 Analog zur Entwicklung des Funktionsbegriffs in der Mathematik – seine Erweiterung in den willkürlichen Funktionen und dessen, was als Argumentations- und Funktionswert gelten kann – führt Frege die Erweiterung im Bereich des Logischen fort, indem er neue Zeichen hinzunimmt sowie Wahrheitswerte als Funktionswerte zulässt. Auch unterscheidet er Sinn und Bedeutung von Termini.63 Indem nun Aussagen über den Werteverlauf einer Funktion getroffen werden können – beispielsweise x2 = 1 ist wahr für die Argumente –1 und +1, falsch für alle anderen Argumente – lässt sich der Begriffsumfang einer Funktion, die auch als Behauptungssatz verstanden werden kann, als Werteverlauf definieren, der für jedes Argument einen Wahrheitswert ergibt. Auf dieser Basis kann Frege Behauptungssätze wie Gleichungen behandeln und sie einer rein logischen Analyse unterziehen. 59 Schröder,

Lehrbuch der Arithmetik und Algebra, 1873, S. 16, 17. ›Kritische Philosophie und mathematische Axiomatik‹ (1927), 1959, S. 119. Vgl. Peckhaus, Logik, Mathesis universalis und allgemeine Wissenschaft, 1997, S. 286 f. 61 Vgl. Charles Sanders Peirce: Letter, Peirce to A. Marquand (1886), in: Ders.: Writings of Charles S. Peirce, 5. Bd., Indianapolis: Indiana University Press 1993, 421–423. 1938 greift Claude Shannon für seine Schaltalgebra digitaler Schaltungen darauf zurück, indem er die propositionalen Formulierungen der symbolischen Algebra auf Schaltungen projiziert: »The proposition is false« wird nun zu »The circuit is closed.« Claude Shannon: ›A Symbolic Analysis of Relay and Switching Circuits‹, in: Transactions of the American Institute of Electrical Engineers, 57, 1938, 38–80, S. 475. Damit erfüllt sich nicht nur die Aufgabe von Schröders absoluter Algebra, insofern diese letztendlich darin besteht, zu sehen, »welche geometrische, physikalische oder überhaupt vernünftige Bedeutung diesen Zahlen und Operationen zukommen, welches reale Substrat ihnen unterlegt werden kann«. Schröder, Lehrbuch der Arithmetik und Algebra, 1873, S. 294. Sondern das Erkenntnismittel der Schaltalgebra findet über das Symbolische hinaus im materiellen Substrat der elektrischen Schaltung eine neue Realisierung. 62 Vgl. Frege, Begriffsschrift, 1879. 63 24 und 4 ∙ 4 können zwar dieselbe Bedeutung haben, »d. h. sie sind Eigennamen derselben Zahl; aber sie haben nicht denselben Sinn, […] sie enthalten nicht denselben Gedanken«. Frege, ›Funktion und Begriff‹ (1891), 1994, S. 27. 60 Nelson,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationslogik des mathematischen Sprechens

Logik wird dadurch zu einem axiomatisch-deduktiven System, das sich einer künstlichen Zeichensprache bedient. Damit soll sie, so der Plan Freges, der Fundierung der Mathematik dienen, indem sie hilft, die Lückenlosigkeit der mathematischen Schlussketten zu sichern.64 Mathematik würde sich dadurch von einer Wissenschaft der konkreten wie abstrakten Größen zu einer Wissenschaft des rein Formalen entwickeln. Einzig der Geltungsanspruch sicherer Erkenntnis als deduktive Wissenschaft bliebe erhalten, dessen Anforderungen sich durch die Einführung von Kalkülsystemen an die Schluss- und Folgerungsweisen jedoch verschärfen. Mit dem Aussagekalkül, so die Hoffnung Freges, ist ein Kalkülsystem geschaffen, in welchem der Folgebegriff sich durch den Beweisbarkeitsbegriff ersetzen lässt, das also in den Worten Kurt Gödels: vollständig, da entscheidungsdefinit ist.65 Darüber hinaus fordert Frege wie Dedekind die Verbegrifflichung der Zahl, indem Zahlen im Zusammenhang einer Satzgleichung zu betrachten seien, in die sie als etwas Selbständiges substantivisch eingehen. Mit Frege erfährt die Logik eine doppelte Verwendungsweise in der Mathematik. Zum einen dient sie der lückenlosen Beweisführung (Deduktion), zum anderen fügt sie die Zahl als logische Entität in den Satzzusammenhang ein (geltungskonstitutionelle Objektbegründung). Deutlich wird letztere Verwendungsweise in Freges logischer Rekonstruktion des Schlusses von n auf n+1. Zwar ist sowohl für Dedekind als auch für Frege der Zählvorgang ein Vorgang des Zuordnens: für Dedekind jedoch – in Vorwegnahme des Rekursionsbegriffs – als Ketten identischer und selbstähnlicher Abbildungen, für Frege durch logischen Widerspruch. Denn für die Definition des Begriffs »n folgt in der natürlichen Zahlenreihe unmittelbar auf m« gibt Frege den »gleichbedeutenden« Satz: »es giebt einen Begriff F und einen unter ihn fallenden Gegenstand x der Art, dass die Anzahl, welche dem Begriff F zukommt, n ist, und dass die Anzahl, welche dem Begriffe ››unter F fallend aber nicht gleich x‹‹ zukommt, m ist.«66 Auf dieser Basis lässt sich zeigen, dass unter den Begriff ›gleich 0‹ der Gegenstand 0 fällt, also ein Gegenstand, der die Anzahl 1 hat. Im Unterschied dazu fällt unter den widersprüchlichen Begriff ›gleich 0 aber 64 »Durch die Lückenlosigkeit der Schlussketten wird erreicht, dass jedes Axiom, jede Voraussetzung, Hypothese, oder wie man es sonst nennen will, auf denen ein Beweis beruht, ans Licht gezogen wird; und so gewinnt man eine Grundlage für die Beurtheilung der erkenntnistheoretischen Natur des bewiesenen Gesetzes.« Frege, Grundgesetze der Arithmetik (1893, 1903), 1966, S. VII. 65 Vgl. Kurt Gödel: ›Die Vollständigkeit der Axiome des Funktionskalküls‹ (1930), in: Ders.: Collected Works (hrsg. von Solomon Feferman), 1. Bd., New York, Oxford: Oxford University Press 1986, 102–123. 66 Frege, Grundlagen der Arithmetik (1884), 1988, § 76.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

203



204

Kapitel 8  ·  Medialität der Mathematik

nicht gleich 0‹ kein Gegenstand und daher ist die Anzahl, die dem Begriff ›gleich 0 aber nicht gleich 0‹ entspricht, 0. Begriff ›gleich 0‹  unter diesen Begriff fällt die 0 als ein Gegenstand  1 Gegenstand = Anzahl 1 (Widersprüchlicher) Begriff ›gleich 0 aber nicht gleich 0‹  unter diesen Begriff fällt kein Gegenstand  0 Gegenstände = Anzahl 0 »[D]ie Anzahl, welche dem Begriffe ›gleich 0‹ zukommt, ist gleich der Anzahl, welche dem Begriffe ›gleich 0‹ zukommt; die Anzahl, welche dem Begriffe ›gleich 0 aber nicht gleich 0‹ zukommt, ist die 0.«67 Ergo, so Frege, folgt 1 in der Zahlenreihe auf 0. Der entscheidende Unterschied zwischen mathematischer und logischer Operativität, der hier zum Tragen kommt, ist der, dass Logik semantisch mit widersprüchlichen Begriffen geltungskonstitutionell operieren kann im Unterschied zur Mathematik, die widersprüchlichen Begriffen nur in der indirekten Beweisführung (Widerspruchsbeweise) eine Aufgabe zuspricht. Dieser Unterschied wird in den Prädikatbeweisen über Fragen der Berechenbarkeit Mitte des 20. Jahrhunderts noch deutlicher zu Tage treten. An diesem Unterschied in der Operativität, so die Vermutung, lassen sich die Begründungsprobleme der modernen Mathematik festmachen. Die Transformation der aristotelischen Syllogistik in eine Operationslogik des Geistes bereitet zwar das Feld, um Leibniz’ Vision einer allgemeinen Charakteristik als maßgebendes Erkenntnismittel der Mathematik zu realisieren. Doch mit der Desavouierung der aristotelischen Abstraktion wie auch Leibniz’ Metaphysik und Intensionalität gestaltet sich Mathematik allenfalls zum bloßen ›Formeln‹ beliebiger Zeichenkombinationen. Will sie jedoch Sprache sein, läuft sie in verschiedene Selbstbegründungsprobleme, die sich an den Inkonsistenzen des mathematischen Sprechens zeigen. Denn Sprache als rein formales Zeichensystem – unabhängig davon, ob man wie Frege Arithmetik als »weiter entwickelte Logik«68 versteht oder wie Jevons operationale Unterschiede zwischen Mathematik und Logik feststellt – fordert eine adäquate Redeweise. Zwar besteht der Vorgang der Formalisierung in der Loslösung von jeglicher extrasymbolischen Bedeutung, doch wie die weitere Entwicklung in der Mathematik zeigt, stößt das neue Erkenntnismittel schnell an seine immanenten Grenzen. Diese immanenten Grenzen treten in Form von Antinomien verschiedener Art zu 67

Ebd., § 77. Grundgesetze der Arithmetik (1893, 1903), 1966, S. VII.

68 Frege,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationslogik des mathematischen Sprechens

Tage und lösen eine Krise in der Mathematik aus, deren unterschiedliche Lösungsversuche sich in den Positionen des Logizismus, Formalismus und Intuitionismus verhärten.69 Es sind diese Grenzen, die deutlich machen, dass eine adäquate Redeweise (Pragmatik) in und über Kalküle formal als Widerspruchsfreiheit, Entscheidbarkeit und Berechenbarkeit gefordert ist.

69 Zum

sogenannten Grundlagenstreit vgl. Paul Benacerraf, Hilary Putnam (Hrsg.): Philosophy of Mathematics, Englewood Cliffs: Prentice-Hall 1964; Christian Thiel: Grund­ lagenkrise und Grundlagenstreit. Studie über das normative Fundament der Wissenschaften am Beispiel von Mathematik und Sozialwissenschaft, Meisenheim am Glan: Hain 1972; Mehrtens, Moderne Sprache Mathematik, 1990.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

205

Kapitel 9 Sprachlogik der modernen Mathematik Inkonsistenzen des mathematischen Sprechens

Seinen Ursprung hat die Grundlagenkrise in der Antinomie, die Bertrand Russell in Freges mengentheoretischem Axiomensystem der Arithmetik findet, das Frege im ersten Teil seiner Grundgesetze der Arithmetik 1893 formuliert hatte.70 Im Nachwort des zweiten Teils der Grundgesetze der Arithmetik von 1903 schreibt Frege, dass diese Antinomie nicht nur seine Begründungsweise betreffe, sondern dass es sich »um die Möglichkeit einer logischen Begründung der Arithmetik überhaupt« handle, die davon betroffen sei.71 Denn die Antinomie Russells handelt von der Menge aller Mengen, die sich als Elemente selbst enthalten. Doch, so Frege, »von der Klasse der Menschen wird niemand behaupten wollen, dass sie ein Mensch sei«.72 Russell findet diese Möglichkeit zur Erzeugung einer solchen Menge in Freges Grundgesetz der Werteverläufe.73 Dieses Gesetz besagt, dass die Werteverläufe (Extensionen) zweier Funktionen (Begriffe) identisch sind, wenn beide jedes Objekt auf denselben Wert abbilden (materielle Äquivalenz der Begriffe). Weiter lässt das Gesetz zu, dass es für jedes Prädikat mit einer freien Variablen eine korrespondierende Menge (Begriff) gibt, die alle Objekte einschließt, die unter das Prädikat fallen (Substitutionsprinzip). Dadurch ist es Russell möglich, seine paradoxe Menge zu erzeugen. Frege reagiert darauf mit einer Einschränkung der Bestimmung des Umfangs eines Begriffs, insofern man »die Möglichkeit in Betracht ziehen [muss], dass es Begriffe gebe, die – im gewöhnlichen Wortsinne wenigstens – keinen Umfang haben«.74 70

Vgl. Bertrand Russell: Brief an Frege vom 16. Juni 1902, in: Frege, Gottlob Freges Briefwechsel, 1980, 59–60. 71 Frege, Grundgesetze der Arithmetik (1893, 1903), 1966, S. 253. 72 Ebd. 73 »Sei w das Prädikat, ein Prädikat zu sein welches von sich selbst nicht prädicirt werden kann. Kann man w von sich selbst prädiciren? Aus jeder Antwort folgt das Gegentheil. Deshalb muss man schliessen dass w kein Prädikat ist. Ebenso giebt es keine Klasse (als Ganzes) derjenigen Klassen die als Ganzes sich selber nicht angehören. Daraus schliesse ich dass unter gewissen Umständen eine definierbare Menge kein Ganzes ist.« Russell, Brief an Frege vom 16. Juni 1902, 1980, S. 59. 74 Frege, Grundgesetze der Arithmetik (1893, 1903), 1966, S. 257. »Ihre Entdeckung des Widerspruchs hat mich auf’s Höchste […] bestürzt […] Es scheint danach, dass die Umwandlung der Allgemeinheit einer Gleichheit in eine Werthverlaufsgleichheit (§ 9

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Inkonsistenzen des mathematischen Sprechens

In ähnlicher Weise stellt sich Georg Cantors Mannigfaltigkeitslehre als widersprüchlich heraus. Cantor, der von der Zahlentheorie kommend sich mit dem »Inbegriff von Zahlengrößen, welcher mit (ω) bezeichnet werde«, und mit dem »Inbegriff (Ω) aller derjenigen Zahlen Ω, welche sich als rationale Funktionen mit ganzzahligen Koeffizienten aus den gegebenen Zahlen ω darstellen lassen«, beschäftigt, zeigte bereits 1874, dass die reellen Zahlen nicht unter den Begriff der abzählbaren Mengen (in Cantors Worten: Inbegriffe) fallen.75 Diese Einsicht arbeitet er in mehreren Beiträgen zu seiner Theorie des Vergleichs der Mächtigkeit von Mengen aus, die schließlich 1883 zu den Grundlagen einer allgemeinen Mannigfaltigkeitslehre als Betrachtungen über das mathematisch Unendliche und dessen begriffliche Erfassung in Zahlenklassen führen und ab 1895 zur Begründung der transfiniten Mengenlehre.76 Damit widmet er sich dem seit Aristoteles ausgeblendeten Aktualunendlichen als dem ›Eigentlich-Unendlichen‹ im Unterschied zum ›Uneigentlich-Unendlichen‹ (potentiell Unendlichen) des veränderlich Endlichen der Analysis, das so oft in der Geschichte der Mathematik und Naturwissenschaft »gewaltsam zu einem eigentlich Unendlichkleinen« gemacht wurde.77 Diese Ausblendung des Aktualunendlichen, so Cantor, die auch in der Mathematik in der Debatte über die Bedeutung der irrationalen Zahlen als bloß formale zum Tragen käme, sei jedoch ein echtes Erkenntnishindernis für den Fortschritt der Mathematik. Seine Überlegungen nun zur Mächtigkeit respektive Kardinalzahl von Zahlenklassen gibt ihm ein begriffliches Instrumentarium an die Hand, über das Aktualunendliche als Quantum in differenzierter Weise zu sprechen. Allerdings zeigt sich die Tücke einer solchen Redeweise an Aussagen meiner Grundgesetze) nicht immer erlaubt ist, dass mein Gesetz V (§ 20. S. 36) falsch ist und dass meine Ausführungen im § 31 nicht genügen, in allen Fällen meinen Zeichenverbindungen Bedeutungen zu sichern.« Gottlob Frege: Brief an Bertrand Russell am 22. Juni 1902, in: Frege, Gottlob Freges Briefwechsel, 1980, 60–63, S. 61. Vgl. Charles Parsons: ›Some Remarks on Frege’s Concept of Extension‹, in: Schirn, Studien zu Frege I, 1976, 265–278; Terell Ward Bynum: ›The Evolution of Frege’s Logicism‹, in: Schirn, Studien zu Frege I, 1976, 279–286. 75 Georg Cantor: ›Über eine Eigenschaft des Inbegriffs aller reellen algebraischen Zahlen‹ (1874), in: Ders., Gesammelte Abhandlungen, 1990, 115–118, S. 115. 76 Georg Cantor: ›Grundlagen einer allgemeinen Mannigfaltigkeitslehre‹ (1883), in: Ders., Gesammelte Abhandlungen, 1990, 165–246; Cantor, ›Beiträge zur Begründung der transfiniten Mengenlehre‹ (1895, 1897), 1990. 77 Cantor, ›Grundlagen einer allgemeinen Mannigfaltigkeitslehre‹ (1883), 1990, S. 172. Eine weitere Tücke zeigt sich in der Art des Beweises (Diagonalisierung) der NichtAbzählbarkeit der reellen Zahlen und damit der Konstitution von Mengen höherer Mächtigkeiten. Denn die so konstruierten Zahlen lassen sich immer wieder in die Grundmenge einordnen und das Konstruktionsverfahren lässt sich deshalb endlos fortsetzen.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

207



208

Kapitel 9  ·  Sprachlogik der modernen Mathematik

über das Gesamtsystem wie, »daß die transfiniten Kardinalzahlen sich nach ihrer Größe ordnen lassen und in dieser Ordnung wie die endlichen, jedoch in einem erweiterten Sinne eine ›wohlgeordnete Menge‹ bilden«.78 Denn dadurch sind Antinomien auf der Basis der Menge aller Kardinalzahlen oder auch Ordnungszahlen möglich,79 denen Cantor zu entgehen versucht, indem er das System Ω aller Zahlen als eine inkonsistente Vielheit ableitet. Als solche sei es nicht möglich, ihre »Vielheit als eine Einheit, als ein ›fertiges Ding‹ aufzufassen« und somit wie eine ›wirkliche‹ Mengen zu behandeln.80 Inkonsistente Vielheiten sind Klassen und keine Mengen. Als Klasse kann es keinen Nachfolger wie Ω +1 geben, der als Element der Totalität angehören würde und auch wieder nicht. Das grundlegende Problem, das sich hier wie auch bei Frege zeigt, ist das der ›imprädikativen‹ (rückbezüglichen) Allgemeinbegriffe im Kontext der extensionalen Bestimmung durch Begriffsumfänge als Gesamtheit.81 Oder anders gewendet: Es geht um die Rückbezüglichkeiten n+1-ter (operativer) Ordnungen, die in einem geltungskonstitutionellen Verwendungszusammenhang unweigerlich zur Frage führen, ob diese zur Gesamtheit von n oder von n+1 gehören.82 Zur Umgehung imprädikativer Begriffe sind verschiedene Lösungsmöglichkeiten denkbar, die eine adäquate Pragmatik im Umgang mit formalen Systemen fordern. Die einfachste Lösung ist, solche Begriffe 78 Cantor, ›Beiträge zur Begründung der transfiniten Mengenlehre‹ (1895, 1897), 1990, S. 295. 79 Vgl. Cesare Burali-Forti: ›A question on transfinite numbers‹ (1897), in: Jean van Heijenoort (Hrsg.): From Frege to Gödel. A Source Book in Mathematical Logic, Cambridge: Harvard University Press 1967, 104–112. 80 Georg Cantor: Brief an Dedekind vom 28. Juli 1899, in: Ders., Gesammelte Abhandlungen, 1990, 443–447, S. 443. 81 Hier wiederholt sich der Universalienstreit der Scholastik in moderner Version. »In diesen gebundenen Variablen [Variable ›x‹ gebunden durch den Existenzquantor ›es gibt‹ (Ex) oder den Allquantor ›alle‹ (x)] und nur in diesen kommt explizit die Ontologie zum Ausdruck, die der Benützer einer Sprache voraussetzt. Der Grund dafür liegt darin, daß man für jede in der Sprache verwendete Variable einen Wertbereich zugrunde legen muß. Sofern lediglich solche Variablen verwendet werden, zu deren Wertebereich ausschließlich konkrete Objekte gehören, also sog. Individuenvariablen, haben wir es mit einer nominalistischen Position zu tun. Finden jedoch auch solche Variablen in die Sprache Eingang, zu deren Werten abstrakte Objekte gehören wie z. B.im Fall von Klassen-, Eigenschafts-, Relations-, Zahl-, Funktions-, Propositionsvariablen, dann ist damit bereits der Standpunkt des Benützers dieser Sprache als platonistisch gekennzeichnet.« Wolfgang Stegmüller: Glauben, Wissen und Erkennen. Das Universalienproblem Einst und Jetzt, Darmstadt: Wissenschaftliche Buchgesellschaft 1965, S. 51. 82 Diese Art von Kritik wird von Hao Wang zum Anlass genommen, ein konstruktivistisches System zu formulieren. Vgl. Hao Wang: ›The Formalization of Mathematics‹, in: Journal of Symbolic Logic, 19, 1954, 241–266.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Inkonsistenzen des mathematischen Sprechens

nicht zuzulassen. Doch schon Frege weist bereits vor der Konfrontation mit Russells Antinomie in seiner Entgegnung bezüglich Schröders Kritik der booleschen Null- und Allklasse darauf hin,83 dass eine nachträgliche Einschränkung alles andere als ›schön‹ ist. »Während sonst die Logik Anspruch erheben darf, daß ihre Gesetze unumschränkte Geltung haben, wird uns hier zugemutet, eine Mannigfaltigkeit sorgsam prüfend vorher abzugrenzen, innerhalb derer wir uns dann nur bewegen dürfen.«84 Frege zeigt auf, dass eine unklare Rede- und Bestimmungsweise, die Name und Begriff verwechselt, gerade in formalen Sprachen aufgrund falscher Analogien gefährlich sein kann und dass man daher »durch eine Definition […] nicht einen Gegenstand mit beliebigen Eigenschaften schaffen, noch einem leeren Namen oder Symbole beliebige Eigenschaften anzaubern [kann]. Die Frage, ob ein Eigenname etwas bedeute und ob ein Begriff etwas unter sich befasse, sind auseinanderzuhalten. Bedeutungslose Eigennamen haben in der Wissenschaft keine Berechtigung; leere Begriffe können nicht ausgeschlossen werden.«85 Aus der Perspektive der Logik scheint daher eine noch genauere Redeweise in und über Kalküle der angemessenere Weg zu sein, insbesondere für unendliche Mengen, deren Begriffsumfänge einerseits nicht definierbar sind, insofern die Ordnungsstruktur ihrer Elemente nicht angebbar ist; deren Charakterisierung als Gesamtheit andererseits auf eine (Russell’sche) logische Antinomie führt. Eine solche genauere Redeweise versuchen im Anschluss an Frege Alfred North Whitehead und Bertrand Russell mit ihrer logisch aufgebauten Typentheorie zu geben, die sie in den Principia Mathematica entwickeln.86 Whitehead und Russell eliminieren wie Frege und Cantor das Problem von 83 Schröder kritisiert in seinen Vorlesungen über die Algebra der Logik (1890) Booles Unterscheidung zwischen einer Null- und einer Allklasse (Klasse der Klassen), da erstere in letzterer enthalten sei und damit 0 = 1 gelte, was unmöglich sei. Schröder schlägt nun eine an Russells spätere Typentheorie (zur Lösung der Probleme in Freges Logik) erinnernde Einschränkung vor, dass die Allklasse keine Elemente enthalten dürfe, die wiederum Elemente derselben Mannigfaltigkeit enthalten. Frege löst diese unnötige Einschränkung durch genauere Unterscheidung auf, indem die Nullklasse zwar allen anderen Klassen untergeordnet sein kann, aber nicht als Element diesen Klassen angehört. Vgl. Günther Patzig: ›Einleitung‹, in: Gottlob Frege: Logische Untersuchungen (hrsg. von Günther Patzig 1966), Göttingen: Vandenhoek & Ruprecht 1993, 5–29, S. 12 ff; Ernst Schröder: Vorlesungen über die Algebra der Logik, Leipzig: Teubner 1890. 84 Gottlob Frege: ›Kritische Beleuchtung einiger Punkte in E. Schröders Vorlesungen über die Algebra der Logik‹ (1895), in: Frege, Logische Untersuchungen, 1993, 92–112, S. 97. 85 Frege, ›Kritische Beleuchtung einiger Punkte in E. Schröders Vorlesungen über die Algebra der Logik‹ (1895), 1993, S. 112. 86 Vgl. Bertrand Russell: ›Mathematical logic as based on the theory of types‹, in: American Journal of Mathematics, 30, 1908, 222–262; Whitehead, Russell, Principia Mathematica, 1910.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

209



210

Kapitel 9  ·  Sprachlogik der modernen Mathematik

Antinomien aufgrund rückbezüglicher Begriffe durch Restriktion (›vicious circle principle‹).87 Dadurch entsteht eine komplizierte Theorie, die zwar logische Paradoxien vermeiden kann, aber zu einer Stratifikation des Mengenbegriffs führt. Aus der Perspektive der Mathematik eröffnen sich jedoch andere Wege, imprädikative Begriffe zu vermeiden.88 Beispielsweise versucht Ernst Zermelo statt von Gesamtheiten von Elementen, von Operationen zur Vergrößerung von Mengen (Potenzmenge) zu reden.89

Hilberts sprachpragmatische Wende

Grundsätzlich stellt sich jedoch die Frage, ob nicht nur eine genauere, sondern eine noch abstraktere Redeweise über mathematische Objekte (Elemente) von Nöten ist. Denn wie die skizzierte Entwicklung der Geometrie des 19. Jahrhunderts deutlich machte, werden die mathematischen Objekte selbst kontextabhängig. Geraden der euklidischen Geometrie werden auf der Pseudosphäre zu geodätischen Linien, im Halbebenenmodell zu Halbkreisen und im Klein’schen Modell zu Strecken zwischen zwei Punkten einer festen Kurve 2. Ordnung. Sie haben also nichts mehr miteinander gemein, außer einige Eigenschaften wie kürzeste Verbindungslinie zu sein, die jedoch kontextuell durch die jeweilige Geometrie zu interpretieren sind. Dies bedeutet einen radikalen Umbruch in der Auffassung der ›Elemente‹ der Mathematik, den 87 »The vicious circles in question arise from supposing that a collection of objects may contain members which can only be defined by means of the collection as a whole. […] The principle [vicious circle principle] which enables us to avoid illegitimate totalities may be stated as follows. ›Whatever involves all of a collection must not be one of the collection‹.« Whitehead, Russell, Principia Mathematica, 1910, S. 39, 40. 88 Inwieweit die logischen Begründungsversuche der Mathematik von Frege und Russell in der mathematischen Debatte überhaupt eine Rolle spielen, wird diskutiert. Ivor Grattan-Guinness, aber auch Herbert Merthens bestreiten einen Einfluss der Logizisten auf die Mathematik selbst. Sie weisen darauf hin, dass der Versuch von Hilbert, die Mathematik zu fundieren, innerhalb der Mathematik wesentlich einflussreicher ist. Sein Programm der strengen Axiomatisierung der Geometrie von 1899 und später seine Beweistheorie legen den Grundstein für die Arbeitsweise der modernen Mathematik. Volker Peckhaus hat jedoch gezeigt, dass der Einfluss von Frege auf Hilbert sich spätestens in Hilberts logischem und philosophischem Programm zeigt. Vgl. Grattan-Guinness, ›Notes on the fate of Logicism from Principia Mathematica to Gödels Incompletability Theorem‹, 1984; Mehrtens, Moderne Sprache Mathematik, 1990, 288 ff; Volker Peckhaus: Hilbertprogramm und Kritische Philosophie, Göttingen: Vandenhoeck und Ruprecht 1990, S. 34 ff. 89 Vgl. Ernst Zermelo: ›Über Grenzzahlen und Mengenbereiche‹, in: Fundamenta Mathematicae, 16, 1930, 29–47.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Hilberts sprachpragmatische Wende

als Erster David Hilbert – mit Vorarbeiten durch Moritz Pasch90 – erfasst: Da die Grundelemente je nach Geometrie variieren, macht es keinen Sinn mehr, sie aus der Anschauung abzuleiten oder anhand reiner Denkgesetze definieren zu wollen. Sie werden zu einem (beliebigen) System von Dingen. Wichtig hingegen werden die Relationen zwischen ihnen, die Hilbert ›Axiome‹ nennt. Je nach Konzeption lassen sich beliebige Interpretationen der Grundelemente, aber auch der Relationen denken. Daher besteht Hilberts Vorschlag der Formalisierung des mathematischen Sprechens in der Idee, »ein vollständiges und möglichst einfaches System von [unabhängigen] Axiomen aufzustellen«, aus welchen alles Weitere eindeutig und klar ableitbar ist.91 Axiome werden dabei zu ›impliziten Definitionen‹ der Relationen zwischen Dingen in Form von ›liegt zwischen‹, ›koinzidiert mit‹ oder ›ist kongruent mit‹.92 Transformierte Dedekind das Übersetzungsverhältnis der analytischen Methode in das Selbstbegründungverhältnis des mathematischen Sprechens in Form denkgesetzlich abgeleiteter, objektkonstitutioneller Unterscheidungen, die sich mit formalen Zeichenoperationen darstellen lassen, so führt Hilbert ein folgenreiches Umkehrverhältnis ein: Die formalen Zeichenoperationen werden derart allgemein gefasst, dass sich die objektkonstitutionellen Unterscheidungen nicht aus einem Ableitungsverhältnis, sondern erst im Folgeverhältnis ergeben. Die mathematischen Objekte werden zu Variablen, die einer nachträglichen Interpretation (Modell) bedürfen. Der Preis für dieses Umkehrverhältnis ist die zwingende Voraussetzung der Widerspruchsfreiheit des abstrakten Axiomensystems, denn nur »wenn sich die willkürlich gesetzten Axiome [Relationen] nicht einander widersprechen mit sämtlichen Folgen, so sind sie wahr, so existieren die durch die Axiome definierten Dinge«.93 Widerspruchsfreiheit wird in einem solchermaßen relationalen System zum Existenzkriterium und die Frage nach der Wahrheit der Axiome oder ihrer Evidenz wird obsolet. Dadurch verlagert sich der »Schwerpunkt in der 90

Vgl. Moritz Pasch: Vorlesungen über neuere Geometrie, Leipzig: Teubner 1882. Grundlagen der Geometrie (1899), 1903, S. 1. 92 »Meine Meinung ist eben die, dass ein Begriff nur durch seine Beziehungen zu anderen Begriffen logisch festgelegt werden kann. Diese Beziehungen, in bestimmte Aussagen formuliert, nenne ich Axiome und komme so dazu, dass die Axiome […] die Definitionen der Begriffe sind.« David Hilbert: Brief an Gottlob Frege vom 22. September 1900, in: Frege, Gottlob Freges Briefwechsel, 1980, 23, S. 23. Diese ›impliziten Definitionen‹ als Axiome »sind keine Aussagen, sondern Aussageformen, und die darin auftretenden Prädikatoren sind Variablen für einstellige und mehrstellige Prädikatoren. Axiomensysteme im Hilbertschen Sinne bestimmen damit Prädikatoren zweiter Stufe, also Strukturen«. Peckhaus, Hilbertprogramm und Kritische Philosophie, 1990, S. 45. 93 David Hilbert: Brief an Gottlob Frege vom 29. Dezember 1899, in: Frege, Gottlob Freges Briefwechsel, 1980, 11–13, S. 12. 91 Hilbert,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

211



212

Kapitel 9  ·  Sprachlogik der modernen Mathematik

Mathematik von Wahrheitsfragen auf Fragen deduktiver Beziehungen« und auf Axiome, »die keine bekannte ›Wirklichkeit‹« mehr beschreiben müssen.94 Das eröffnet die Möglichkeit, neue mathematische Theorien auf Basis beliebiger Axiome bilden zu können. Entsprechend wird Hilberts ›Formalismus‹ von Frege abgelehnt, in dessen logikorientiertem Verständnis Axiome wahr, da aufgrund reiner Denkgesetze evident sind, und für den sich die Widerspruchsfreiheit daher von selbst ergibt.95 Eine derart abstrakte und formalisierte Redeweise führt einerseits zu neuen Fragen über die grundlegenden Eigenschaften der abstrakten Axiomensysteme wie die Unabhängigkeit der Axiome untereinander, die Kategorizität (Monomorphie) und Widerspruchsfreiheit der Systeme; andererseits verschiebt sich die Beantwortung dieser Fragen auf den Konkretisierungsbereich der Axiomensysteme (Modelle).96 Hilbert nutzt nun die Eigenschaft der Kategorizität, um die (relative) Widerspruchsfreiheit seines abstrakten Axiomensystems der Geometrie und damit die Verträglichkeit seiner Axiome sicherzustellen. Das bedeutet, es gilt für seine axiomatische Theorie der Geometrie ein Modell zu finden, beispielsweise die Arithmetik, so dass jeder »Widerspruch in den Folgerungen aus den Axiomen […] in der Arithmetik des Systems der reellen Zahlen erkennbar sein« müsste.97 Dies setzt einerseits die Widerspruchsfreiheit der Arithmetik voraus, ermöglicht es aber andererseits, die Existenzsicherung der Geometrie nicht auf die Anschauung zurückführen zu müssen.98 Das Problem dabei ist jedoch, dass der Aufweis der Widerspruchsfreiheit nur verschoben ist, eben auf die Arithmetik. 1899 in seinem Vortrag Über den Zahlbegriff schlägt Hilbert daher die Axiomatisierung der Arithmetik in analoger Weise zur Geometrie vor, indem er von einem System der Dinge spricht, die wir Zahlen nennen und deren gegenseitige Beziehungen durch die Axiomengruppen der Verknüpfung, der Rechnung, der Anord-

94 Michael

D. Resnik: ›Die Frege-Hilbert Kontroverse‹, in: Schirn, Studien zu Frege I, 1976, 193–214 S. 196. 95 Vgl. Gottlob Frege: Brief an David Hilbert vom 27. Dezember 1899, in: Frege, Gottlob Freges Briefwechsel, 1980, 6–10. 96 Ein Axiomensystem ist monomorph, wenn sämtliche Modelle prinzipiell übereinstimmen, sich das Axiomensystem also nur in den Konkretisierungsbereichen unterscheidet. Modelle stimmen überein – sind isomorph – wenn alle Beziehungen bijektiv aufeinander abbildbar sind. Sind alle Modelle eines Axiomensystems isomorph zueinander, handelt es sich um ein monomorphes oder kategorisches Axiomensystem. Dies gilt auch für die Koordinatisierung eines Axiomensystems (Koordinatenmodell). 97 Hilbert, Grundlagen der Geometrie (1998), 1903, S. 19. 98 Vgl. Michael-Markus Toepell: Über die Entstehung von David Hilberts ›Grundlagen der Geometrie‹, Göttingen: Vandenhoek & Ruprecht 1986, S. 226 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Hilberts sprachpragmatische Wende

nung und der Stetigkeit definiert werden.99 Am Ende des Vortrages diskutiert Hilbert die arithmetische Axiomatisierung von Cantors Mengenlehre.100 Damit deutet sich die Ausweitung seines Axiomatisierungsprogramms für alle Teildisziplinen der Mathematik wie auch – formuliert im sechsten seiner 23 mathematischen Probleme101 – für die mathematisierte Physik an. Allerdings liefert er keinen Aufweis der Widerspruchsfreiheit der Arithmetik, sondern erklärt diesen ein Jahr später zum mathematischen Problem. Der Grund für die Aufschiebung des Beweises ist, dass ein solcher Aufweis der Widerspruchsfreiheit einer streng formalen Sprache als Erkenntnismittel eindeutige Ableitungsregeln für die Beweisführung erfordert und dass dazu die Hinwendung zu logischen und philosophischen Forschungen notwendig ist.102 Diese Wende zeigt sich in Hilberts Neuausrichtung seines Forschungsprogramms hin zum ›Logikkalkül als Werkzeug‹ und damit zur Beweistheorie.103 Die Beweistheorie gilt der logischen Analyse des mathe99 In der Axiomengruppe der Stetigkeit ist auch das Axiom der Vollständigkeit enthalten. Vgl. David Hilbert: ›Über den Zahlbegriff‹, in: Jahresbericht der Deutschen Mathematiker-Vereinigung, 8, 1900, 180–184. 100 »Die Anwendung des arithmetischen Axiomensystems auf die Mengenlehre, die ja in erster Linie der Vermeidung des Begriffs der ›unendlichen Menge‹ dienen soll, kann als Wurzel des ›finiten Standpunktes‹, des ›Finitismus‹ der Hilbertschen Beweistheorie, angesehen werden.« Peckhaus, Hilbertprogramm und Kritische Philosophie, 1990, S. 33. 101 Es sei »zunächst durch eine geringe Anzahl von Axiomen eine möglichst allgemeine Klasse physikalischer Vorgänge zu umfassen und dann durch Adjunktion neuer Axiome der Reihe nach zu den spezielleren Theorien zu gelangen«. Hilbert, ›Mathematische Probleme‹ (1900), 1932, S. 307. 102 Vgl. Peckhaus, Hilbertprogramm und Kritische Philosophie, 1990. Diese Neuorientierung zeigt sich nicht nur in verschiedenen Vorträgen und der Einladung von Frege nach Göttingen, um die Axiomatisierung der Logik zu diskutieren, sondern in der Formulierung der philosophischen Teilaufgabe in Hilberts Programm als »Klärung der verwendeten Begriffe, z. B. des Beweisbegriffes«. Peckhaus, Hilbertprogramm und Kritische Philosophie, 1990, S. 227. Vor allem von Leonard Nelson, der in Göttingen die kritische Philosophie des Kantianers Jakob Friedrich Fries etablieren will, erhofft sich Hilbert Unterstützung. Vgl. Fries, Die mathematische Naturphilosophie nach philosophischer Methode bearbeitet (1822), 1979; Nelson, ›Kritische Philosophie und mathematische Axiomatik‹ (1927), 1959. 103 Dass Hilbert letztendlich doch nicht auf die Arithmetik zur Sicherung der Widerspruchsfreiheit, sondern auf die Strategie der finiten Beweistheorie zurückgreift, hat folgenden Grund. Ein Widerspruch in der euklidischen Geometrie würde aufgrund der Kategorizität des Axiomensystems notwendigerweise einen Widerspruch im Bereich der reellen Zahlen bedingen und dieser wäre mittels der bekannten Schlussweisen auf die natürlichen Zahlen zurückführbar. Damit gelangt man letztendlich zur Zahl, die im Anzahlbegriff als evident vorausgesetzt wird oder weiter axiomatisiert werden muss, wie dies den Mengentheoretikern vorschwebt (z. B. Peano-Axiome der allgemeinen Mengenlehre). Doch spätestens mit dem Grundbegriff der Menge gerät man an das Ende der

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

213



214

Kapitel 9  ·  Sprachlogik der modernen Mathematik

matischen Schließens und verfolgt damit dasselbe Ziel, wie es sich Frege als Programm 1893 für die Arithmetik erhofft hatte – bei aller Unterschiedlichkeit der Konzeptionen.104 »Meine Untersuchungen zur Neubegründung der Mathematik«, erklärt Hilbert in seinem Vortrag über Die logischen Grundlagen der Mathematik von 1922, »bezwecken nichts Geringeres, als die allgemeinen Zweifel an der Sicherheit des mathematischen Schließens definitiv aus der Welt zu schaffen.«105 Diese Neubegründung der Mathematik zeigt sich an der Differenzierung der Erkenntnisform in Mathematik und Metamathematik. Mathematik selbst wird dabei streng formalisiert zum ›Bestande an Formeln‹ mit den Zeichen für die gewöhnlichen mathematischen Operationen plus den logischen Zeichen für ›folgt‹ und ›nicht‹. »Gewisse Formeln, die als Bausteine des formalen Gebäudes der Mathematik dienen, werden Axiome genannt. Ein Beweis ist eine Figur, die uns als solche anschaulich vorliegen muß; er besteht aus Schlüssen vermöge des Schlussschemas« mit der Prämisse G und der Endformeln T; eine »Formel soll beweisbar heißen, wenn sie entweder ein Axiom ist bzw. durch Einsetzen aus einem Axiom entsteht oder die Endformel eines Beweises ist«.106 G GT T Hilbert formuliert für die Mathematik vier finite Axiomengruppen (Axiome der Folge, der Negation, der Gleichheit und der Zahl), aus welchen sich die ganzen positiven Zahlen sowie die entsprechenden Zahlengleichungen erzeugen lassen.107 Weiter lässt sich die elementare Zahlentheorie mit Hilfe ›finiter Logik‹ – Rekursion und Induktion – gewinnen, ohne »bedenkliche oder probNachweiskette. Um diesem zu entkommen, greift Hilbert auf die Strategie der finiten Beweistheorie zurück. 104 Vgl. Frege, Grundgesetze der Arithmetik (1893, 1903), 1966. Allerdings ist Hilbert nicht wie Frege der Meinung, dass die Logik der Arithmetik vorausgehe, da formallogische Sätze arithmetisch-kombinatorische Aspekte aufweisen, und das gilt insbesondere für Freges Begriffsschrift. Vgl. Oskar Becker: Mathematische Existenz. Untersuchungen zur Logik und Ontologie mathematischer Phänomene (1927), Tübingen: Max Niemeyer Verlag 1973, S. 23. 105 David Hilbert: ›Die logischen Grundlagen der Mathematik‹ (1922), in: Mathematische Annalen, 88, 1923, 151–165, S. 151. 106 Hilbert, ›Die logischen Grundlagen der Mathematik‹ (1922), 1923, S. 179. 107 I. Axiome der Folge (Zufügen einer Voraussetzung, Weglassen einer Voraussetzung, Vertauschen einer Voraussetzung, Elimination einer Aussage); II. Axiome der Negation (Satz vom Widerspruch, Prinzip des Tertium non datur); III. Axiome der Gleichheit (a = a, a = b  (A(a)  A(b))); IV. Axiome der Zahl (a + 1 ≠ 0, δ(a + 1) = a). Vgl. Hilbert, ›Die logischen Grundlagen der Mathematik‹ (1922), 1923, S. 180.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Hilberts sprachpragmatische Wende

lematische Schlussweisen zur Anwendung« zu bringen.108 Hinzu kommt nun jedoch die Metamathematik, die im Unterschied zum rein formalen Schlussschema der eigentlichen Mathematik das inhaltliche Schließen zur Aufgabe hat und lediglich dem Nachweis der Widerspruchsfreiheit der Axiome dient. Inhaltlicher Gegenstand der Metamathematik sind dabei die Schlussschemata der eigentlichen Mathematik. Die Motivation für all diese Mühen ist die beweistheoretisch zu untersuchende Fragestellung, welche Verfahren, die zur Analyse des Finiten zulässig sind, auf das Transfinite übertragbar sind und welche nicht. So sind im Finiten ›es gibt‹ und ›es liegt vor‹ gleichbedeutend, während für das Transfinite nur letzterer Begriff deutlich vorliegt. Basierend auf Zermelos Auswahlprinzip formuliert Hilbert schließlich das fünfte, ›transfinite Axiom‹ A(τA)  A(a) für die Mathematik, das auf der Zuordnungsfunktion τ basiert, die jeder Aussage A(a) mit der Variablen a einen bestimmten Gegenstand τ(A) zuordnet.109 »Um uns seinen [transfinites Axiom] Inhalt zu veranschaulichen, nehmen wir etwa für A das Prädikat ›bestechlich sein‹; dann hätten wir unter τA einen bestimmten Mann von so unverbrüchlichem Gerechtigkeitssinn zu verstehen, daß, wenn er sich als bestechlich herausstellen sollte, tatsächlich alle Menschen überhaupt bestechlich sind.«110 Bezogen auf mathematische Prädikate könnten diese lauten: ›teilbar sein‹, ›einer bestimmten algebraischen Gleichung genügen‹ etc. Durch Hinzufügung der Definitionsaxiome des All- und des Seins-Zeichen ergeben sich alle transfiniten Prinzipien als beweisbare Formeln. Indem sich nun die Widerspruchsfreiheit der Axiome I. bis V. nachweisen lässt, lassen sich, so Hilbert, die transfiniten Schlussweisen in der Mathematik rechtfertigen, die durch die Antinomien von Cantors Mengenlehre in die Kritik geraten waren.111 Hilberts Ziel ist klar. Er versucht einerseits im Rekurs auf die Zahlentheorie den imprädikativen Begriff der unendlichen Menge zu vermeiden und andererseits durch den Bezug auf das Finite die Kritik der Intuitionis108

Hilbert, ›Die logischen Grundlagen der Mathematik‹, 1923, S. 181. Ernst Zermelo: ›Beweis, daß jede Menge wohlgeordnet werden kann‹, in: Mathematische Annalen, 59, 1904, 514–516; Ernst Zermelo: ›Neuer Beweis für die Möglichkeit einer Wohlordnung‹, in: Mathematische Annalen, 65, 1908, 107–128. 110 Hilbert, ›Die logischen Grundlagen der Mathematik‹ (1922), 1923, S. 183. 111 Vgl. Luitzen E. J. Brouwer: ›Intuitionism and Formalism‹ (1908), in: Bulletin of the American Mathematical Society, 20, 1913–14, 81–96; Hermann Weyl: Das Kontinuum. Kritische Untersuchungen über die Grundlagen der Analysis, Leipzig: Veit & Co 1918; Weyl, ›Über die neue Grundlagenkrise der Mathematik‹, 1921; Rudolf Carnap: ›Die logizistische Grundlegung der Mathematik‹, in: Erkenntnis, 2, 1931, 91–105; Arend Heyting: ›Die intuitionistische Grundlegung der Mathematik‹, in: Erkenntnis, 2, 1931, 106–115; John von Neumann: ›Die formalistische Grundlegung der Mathematik‹, in: Erkenntnis, 2, 1931, 116–121. 109 Vgl.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

215



216

Kapitel 9  ·  Sprachlogik der modernen Mathematik

ten zu entkräften, für die das Unendliche nur in Gestalt der gesetzmäßig werdenden Folge als potentiell Unendliches zugänglich ist. Über frei werdende Wahlfolgen hingegen lassen sich nur Aussagen über Eigenschaften der Folgen machen, die bereits realisiert sind, alles andere wären Prophezeiungen. Insbesondere der Satz des ausgeschlossenen Dritten, von dem Hilberts Beweis des transfiniten Axioms V im Sinne einer eigenartig konstruierten, doppelten Negation Gebrauch macht, ergibt aus intuitionistischer Perspektive für frei werdende Wahlfolgen keinen Sinn. Denn es lässt sich nicht sicher vorhersagen, welche Zahlen auftreten und welchen Eigenschaften sie unterliegen werden. Dieses ›Entscheidbarkeitsproblem‹ veranlasst Intuitionisten, den Satz vom ausgeschlossenen Dritten für indirekte Beweise im Kontext frei werdender Wahlfolgen auszuschließen.112 Gegen diese Einschränkungen, die ein Reden über die Gesamtheit aller möglichen Zahlenfolgen oder über willkürliche reelle Funktionen verbieten würde, setzt sich Hilbert mit seiner Beweistheorie und seinem abgewandelten Satz des ausgeschlossenen Dritten zur Wehr. Damit führt er jedoch, so Oskar Becker, neben dem ›effektiven‹ einen ›fiktiven‹ Logikkalkül ein, wobei der (mathematische) Wirklichkeitsgehalt des letzteren fraglich ist.113 Doch solange das System, ob effektiv oder fiktiv, widerspruchsfrei ist, kommt den Resultaten aus Hilberts Sicht (mathematische) Wirklichkeit zu. Das von Hilbert eingeführte Umkehrverhältnis, dessen Formalismus zu viel Technizität unterstellt wird, begeistert nicht alle Mathematiker, wie Kleins Kritik zeigte, dass diese abstraktere Formulierungsweise »für die Ausarbeitung der Beweise vortrefflich« sei, »sich aber durchaus nicht zum Auffinden neuer Ideen und Methoden« eigne.114 Denn die erkenntnistheoretischen Konsequenzen von Hilberts Formalismus sind für die Mathematik tiefgreifend. Wie Wolfgang Stegmüller bemerkt, »beweist [der Mathematiker] nicht mehr kategorische Aussagen, sondern generelle Wenn-Dann-Sätze«.115 Damit generiert sich Erkenntnisfortschritt in der Mathematik neu. Entwicklung in der mathematischen Gesamtwissenschaft, so Hilberts Antwort auf Kleins wie auch Freges Kritik, entsteht durch Gewinnung neuer Formeln aus 112

Vgl. Becker, Mathematische Existenz (1927), 1973, S. 6 ff. ist nach Hilbert praktisch eine fiktive mathematische Betrachtung, insofern sie zu bestimmten numerischen Resultaten führt, in der theoretischen Physik und anderen Wissenschaften ebenso gut verwendbar wie eine effektive, wenn nur die Widerspruchsfreiheit gesichert ist.« Becker, Größe und Grenze der Mathematischen Denkweise, 1959, S. 128. 114 Klein, Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert, 1. Bd., 1926, S. 336. 115 Stegmüller, Theorie und Erfahrung, Teil D, 2. Bd., 1985, S. 37. 113 »So

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Hilberts sprachpragmatische Wende

den Axiomen durch das formale Schließen und indem neue Axiome hinzugefügt werden, deren Nachweis der Widerspruchsfreiheit durch das inhaltliche Schließen gewährleistet wird. Nicht die Axiome sind für Hilbert die Abbilder der Gedanken, sondern die im Wechselspiel zwischen Axiomen und beweisbaren Sätzen entstehenden Formeln. Aber nicht im Sinne absoluter Wahrheiten; absolute Wahrheiten ergeben sich erst durch die Einsichten der Beweistheorie »hinsichtlich der Beweisbarkeit und der Widerspruchsfreiheit jener Formelsysteme«.116 Dieser epistemische Wandel basiert jedoch auf der Voraussetzung, dass entscheidbar ist, ob sich die Gültigkeit oder Ungültigkeit mathematischer Behauptungen nachweisen lässt.117 Die für Hilberts Ansatz so ›entscheidende‹ Frage, ob jedes formale System vollständig, also entscheidungsdefinit ist, ob »entweder p oder non-p in endlich vielen Schritten nach Schlussregeln des [Kalküls] aus den Axiomen ableitbar ist«,118 wird jedoch von Kurt Gödel verneint werden. Dies bedeutet, es lassen sich in hinreichend ausdrucksstarken, formalen Systemen Sätze darstellen, für die nicht entscheidbar ist, ob sie wahr oder falsch sind. »Und was darüber noch hinausgeht und von der größten prinzipiellen Bedeutung für die Beweistheorie ist: Zu den im klassischen System [der Principia Mathematica] unentscheidbaren, d. h. weder beweisbaren noch unbeweisbaren Sätzen gehört auch die Aussage, das System sei widerspruchsfrei!«119 Für Widerspruchsbeweise formal-axiomatischer Systeme von bestimmtem zahlentheoretischem Umfang bedarf es also voraussetzungsreicherer Mittel als die des Systems. Den Beweis der Unentscheidbarkeit formaler Systeme, die die Arithmetik der natürlichen Zahlen enthalten, gibt Gödel 1931 und benutzt dazu ein Verfahren, das auf der strukturerhaltenden Abbildbarkeit metama116 Hilbert, ›Die logischen Grundlagen der Mathematik‹ (1922), 1923, S. 180. Bezüglich der Kontroverse über die durch Zeichen ausgedrückten Gedankengänge versus eines bloßen Formelmechanismus vgl. Frege, Brief an David Hilbert vom 1. Oktober 1895, 1980, 5. 117 Vor allem die Frage nach der Entscheidbarkeit gerät dabei in den Mittelpunkt der Überlegungen. Bereits 1900 auf dem Zweiten Internationalen Mathematiker-Kongress in Paris von Hilbert als zehntes mathematisches Problem formuliert, regt es in Folge weitreichende Forschungen an, die schließlich zur Theorie der rekursiven Funktionen führen. »10. Entscheidung der Lösbarkeit einer diophantischen Gleichung. Eine diophantische Gleichung mit irgendwelchen Unbekannten und mit ganzen rationalen Zahlenkoeffizienten sei vorgelegt: man soll ein Verfahren angeben, nach welchem sich mittels einer endlichen Anzahl von Operationen entscheiden läßt, ob die Gleichung in ganzen rationalen Zahlen lösbar ist.« Hilbert, ›Mathematische Probleme‹ (1900), 1932, S. 310. 118 Kurt Gödel: ›Über unentscheidbare Sätze‹ (1931), in: Ders., Collected Works, 3. Bd., 1995, 30–34, S. 30. Vgl. Kurt Gödel: ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), in: Ders., Collected Works, 1. Bd., 1986, 144–194. 119 Becker, Größe und Grenze der Mathematischen Denkweise, 1959, S. 129.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

217



218

Kapitel 9  ·  Sprachlogik der modernen Mathematik

thematischer Sätze über einen Kalkül in den Kalkül basiert.120 Damit ist es ihm möglich, im formalen System einen unentscheidbaren Satz darzustellen, der seine eigene Unbeweisbarkeit behauptet. Da sich dieser Satz jedoch metamathematisch entscheiden lässt, hat er eine Beweismethode für unentscheidbare Sätze gefunden, die »sich offenbar auf jedes formale System anwenden [lässt, das] inhaltlich gedeutet über genügend Ausdrucksmittel verfügt«.121 Durch Gödels Beweismethode für unentscheidbare Sätze wird nicht nur Hilberts Axiomatisierungsprogramm erschüttert wie auch die Finitheit seiner Beweistheorie herausgefordert,122 sondern die Idee desavouiert, dass alle mathematischen Probleme formal entscheidbar und damit effektiv berechenbar sind.123 Das großangelegte Programm der Etablierung einer universellen Sprache als universelles Erkenntnismedium der Mathematik verkürzt sich damit auf die Fragestellung nach der Berechenbarkeit als Präzisierung des mathematischen Sprechens.

Berechenbarkeit als sprachpragmatische Präzisierung

Berechenbarkeit als Präzisierung des mathematischen Sprechens lässt sich anhand unterschiedlicher Konzepte verdeutlichen. Hilberts Formalismus bildet dabei den Grundstein, insofern effektive Berechenbarkeit formal bedeutet, dass entscheidbar ist, ob eine Formel (Aussage) aus anderen ableitbar ist oder nicht. Der Zusammenhang von Formalisierbarkeit und Berechenbarkeit mit Mechanisierbarkeit springt dabei sofort ins Auge.124 Dabei ist es das repetitive Moment der n+1-Operation, das an grundlegender Bedeutung gewinnt. Veranschaulicht an Registriermaschinen wie Leibniz’ 4-Spezies-Maschine zeigt 120 Dies geschieht durch die Arithmetisierung der Metamathematik basierend auf ›Gödelzahlen‹. 121 Gödel, ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), 1986, S. 150. 122 1936 gibt Gerhard Gentzen einen Beweis für die Widerspruchsfreiheit der reinen Zahlentheorie, der über Hilberts Finitismus hinausgeht, indem transfinite Ordnungszahlen benutzt werden. Vgl. Gerhard Gentzen: ›Die Widerspruchsfreiheit der reinen Zahlentheorie‹, in: Mathematische Annalen, 112, 493–565. 123 Vgl. Wolfgang Stegmüller: Unvollständigkeit und Unentscheidbarkeit: Die metamathematischen Resultate von Gödel, Church, Kleene, Rosser und ihre erkenntnistheoretische Bedeutung, Wien, New York: Springer 1973; Hans Hermes: Aufzählbarkeit, Entscheidbarkeit, Berechenbarkeit. Einführung in die Theorie der rekursiven Funktion, Berlin u.a.: Springer 1978. 124 Es zeigt sich, »dass Kalkülisierbarkeit und Mechanisierbarkeit zwei Seiten jener Münze sind, die wir Formalisierbarkeit nennen«. Krämer, Symbolische Maschinen, 1988, S. 129.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als sprachpragmatische Präzisierung

sich die Repetition des Zählens als Kurbeldrehung, die mit jeder Umdrehung den Wert eines Registers um 1 erhöht oder vermindert.125 Bezogen auf die symbolische Darstellung des Zählvorgangs in Form von Funktionen bildet das theoretische Modell einer Registriermaschine (RM-Berechenbarkeit) die Elementaroperationen (Addition, Subtraktion) des mechanischen Rechnens mit natürlichen Zahlen nach und es lässt sich formal zeigen, dass jede n-stellige Funktion f für beliebige Argumente x1, …, xn (Register: 1, .., n und 0) berechenbar ist.126 Dabei entspricht die Anzahl der Argumente der Anzahl der Elementaroperationen, die von der Registriermaschine durchlaufen werden, bevor sie stoppt und im n+1-ten Register der Funktionswert f(x1, …, xn) steht.127 Die Registriermaschine wiederholt dieselbe Operation, beispielsweise Verminderung des Wertes um 1, so oft, bis im Register der zu berechnende Wert steht. Dass diese Analogie von Rechnen mit Symbolen und Rechnen mit Maschinen möglich ist, liegt an der Ordnungsstruktur der natürlichen Zahlen nach Größe und in der operativ-repetitiven Darstellbarkeit dieser Ordnungsstruktur begründet, die durch eine Registriermaschine und deren Elementaroperationen realisierbar ist. Die Frage bezüglich der Berechenbarkeit als Präzisierung des mathematischen Sprechens besteht also darin zu ergründen, welche Ordnungsstrukturen durch repetitive Operationen darstellbar und mechanisch realisierbar sind. Oder anders gefragt: Welche Ordnungsstrukturen lassen sich auf elementare Operationen rückführen? Dies bedeutet nicht, dass sich jegliche Ordnungsstruktur operativ-repetitiv realisieren lässt und damit berechenbar wird. Mit eben dieser Rekonstruktion komplexer Ordnungsstrukturen durch zahlentheoretisch elementare, maschinell umsetzbare Operationen befasst sich die Theorie der Rekursivität. Ausgehend von der Nullfunktion, der Nachfolgerfunktion (n+1) sowie der Identitätsfunktion berechnet die Rekursion die Funktionswerte für gegebene Argumente durch Rückgriff auf die vorhergehenden Funktionswerte. Als ›rekurrierende Denkweise‹ stellt die Rekursion eine neue und finite Erkenntnisform dar.128 Diese Erkenntnis125 Vgl. Gottfried Wilhelm Leibniz: ›Machina arithmetica in qua non additio tantum et subtractio sed et multiplicatio nullo, divisio vero paene nullo animi labore peragantur‹ (1685), übersetzt in: David Eugene Smith (Hrsg.): A Source Book in Mathematics, 3. Bd, Mineola: Courier Dover Publications 1959, 173–181. 126 Vgl. Marvin Minsky: ›Recursive unsolvability of Post’s problem of ›tag‹ and other topics in the theory of Turing machines‹, in: Annals of Mathematics, 74, 1961, 437–454. 127 Vgl. Klaus Mainzer: Computer – Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin, New York: de Gruyter 1995, S. 70 ff. 128 Die rekurrierende Denkweise hat den Vorteil, dass sie, »in einer einzigen Formel zusammengedrängt, eine unendliche Anzahl von Syllogismen enthält«. Poincaré, Wissenschaft und Hypothese (1902), 1904, S. 10.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

219



220

Kapitel 9  ·  Sprachlogik der modernen Mathematik

form nutzt 1923 Thoralf Skolem zum Aufbau seiner finiten Arithmetik für die Ersetzung von Whiteheads und Russells logischer Fundierung der Arithmetik durch die Begriffe ›always‹ und ›sometimes‹.129 Das Rekursionsschma, das Skolem dabei verwendet, wird später von Rózsa Péter als ›primitiv-rekursiv‹ bezeichnet und ist »dadurch charakterisiert, daß der Funktionswert an der Stelle n+1 von der Stelle und vom Funktionswert an der vorangehenden Stelle n, bei unveränderten Parametern, abhängt«.130 Als Schema angeschrieben ergibt eine primitiv-rekursive Funktion wieder eine primitiv-rekursive Funktion und lässt sich mit Registriermaschinen berechnen (RM-Berechenbarkeit): f(x1, …, xn, 0) = g(x1, …, xn) f(x1, …, xn, y+1) = h(x1, …, xn, y, f(x1, …, xn, y)) 131 129

»Faßt man die allgemeinen Sätze der Arithmetik als Funktionalbehauptungen auf, und basiert man sie auf der rekurrierenden Denkweise, so läßt sich diese Wissenschaft in folgerichtiger Weise ohne Anwendung der Russell-Whitehead’schen Begriffe ›always‹ und ›sometimes‹ begründen.« Thoralf Skolem: ›Begründung der elementaren Arithmetik durch die rekurrierende Denkweise ohne Anwendung scheinbarer Veränder-licher mit unendlichem Ausdehnungsbereich‹, in: Skrifter utgit. av Videnskapsselskapet i Kristiania, 1. Mat.-nat. kl, 6, 1923, 1–38, S. 3. Skolem entwickelt – nach eigenem Bekunden in diesem Artikel – nach dem Studium der Principia Mathematica von Russell und Whitehead 1919 seine finite Arithmetik, der lediglich die »Begriffe ›natürliche Zahl‹ und ›die auf die Zahl n folgende Zahl n+1‹ (also die deskriptive Funktion n+1) und die rekurrierende Denkweise« zugrunde gelegt sind. Ebd., S. 4. Mit der deskriptiven Funktion bezieht sich Skolem auf funktionale Eigennamen, deren Bedeutung von der Wahl mehrerer Variablen abhängig ist. 130 Rózsa Péter: ›Über den Zusammenhang der verschiedenen Begriffe der rekursiven Funktionen‹, in: Mathematische Annalen, 110, 1934, 612–632, S. 613. 1934 formuliert Péter eine Klassifikation der Rekursionsschemata. Von der primitiven Rekursion unterscheidet sie ›eingeschachtelte Rekursionen‹ mit veränderlichen Parametern, die Hilbert 1926 für seine Zahlenklassen verwendet; ›Werteverlaufsrekursionen‹, deren Verlauf von mehreren vorangehenden Werten abhängig sind; ›mehrfache Rekursionen x-ter Stufe‹ sowie rekursive Funktionen, »die aus gewissen einfachen Ausgangsfunktionen durch eine endliche Kette von Substitutionen und Rekursionen entstehen.« Péter, ›Über den Zusammenhang der verschiedenen Begriffe der rekursiven Funktionen‹, 1934, S. 614. Vgl. Jacques Herbrand: ›On the consistency of arithmetic‹ (1931), in: Jacques Herbrand, Jean van Heijenoort, Warren D. Goldfarb (Hrsg.): Logical Writings, Cambridge: Harvard University Press 1971, 282–298; Stephen C. Kleene: ›General recursive functions of natural numbers‹, in: Mathematische Annalen, 112, 1936, 727–742; Stephen C. Kleene: ›A theory of positive integers in formal logic‹, in: American Journal of Mathematics, 57, 1935, 153–173 und 219–244; Alonzo Church: ›An unsolvable Problem of Elementary Number Theory‹, in: American Journal of Mathematics, 58 (2), 1936, 345–363; Alonzo Church: ›A note on the Entscheidungsproblem‹, in: The Journal of Symbolic Logic, 1 (1), 1936, 40–41; Alan Turing: ›On Computable Numbers, with an Application to the Entscheidungsproblem‹, in: Proceedings of the London Mathematical Society, 42 (2), 1936/37, 230–265 und 544–546; Emil L. Post: ›Finite combinatory processes, formulation I‹, in: The Journal of Symbolic Logic, 1 (1), 1936, 103–105. 131 Vgl. Mainzer, Computer - Neue Flügel des Geistes?, 1995, S. 74.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als sprachpragmatische Präzisierung

Dieses Verfahren der ›Einschachtelung‹ nutzt 1926 Hilbert in seiner Untersuchung Über das Unendliche für die Konstruktion zunehmend höherer Zahlenklassen, ohne von unendlichen Mengen sprechen zu müssen.132 Dabei unterscheidet er die Definitionsmethode der »Rekursion (nach dem Schema der Ableitung des Funktionswertes für n+1 aus demjenigen für n)« von der Definitionsmethode durch Zuordnung respektive »Einsetzung (d. h. Ersetzung eines Arguments durch eine neue Variable oder Funktion)« und formuliert ein allgemeines Rekursionsschema mit Variablentypen, Parametern und rekursiven Ausdrücken.133 Durch verschiedene Variablentypen, so Hilbert, lassen sich unterschiedliche Zahlenklassen generieren: Funktionen erster Stufe sind Funktionen von Zahlenvariablen, Funktionen zweiter Stufe sind Funktionen von Funktionsvariablen und solche dritter Stufe sind Funktionen von Funktionsfunktionsvariablen, usf. – wobei die Werte der Variablen immer Zahlen sind.134 Die Rekursion kann darüber hinaus nach mehreren Variablen simultan laufen (k-rekursive Funktionen erster bis x-ter Stufe).135 Hilbert verweist bezüglich der Feststellung, dass sich nicht alle Rekursionen in ›gewöhnliche sukzessive Rekursionen‹ (primitiv-rekursive Funktionen) auflösen lassen, auf die Untersuchungen von Wilhelm Ackermann zu rekursiven Funktionen zweiter Stufe. Die 1926 von Ackermann untersuchte Funktion wächst wesentlich schneller als die primitv-rekursiven Funktionen Skolems, denn Ackermann führt weitere Konstruktionsregeln in die Funktion ein, die heute als μ-Operator bezeichnet werden.136 Als Schema angeschrieben setzt sich eine μ-rekursive Funktion aus primitiv-rekursiven Funktionen und dem μ-Operator zusammen: f(x1, …, xn) = g(μyh(x1, …, xn, y) = 0)137 μ-rekursive Funktionen sind mit Registriermaschinen berechenbar, solange für den μ-Operator der ›Normalfall‹ vorliegt, das heißt solange »μyA(y) die kleinste natürliche Zahl y0 darstellt, für die A(y0) gilt, vorausgesetzt es gibt ein 132

Vgl. Hilbert, ›Über das Unendliche‹, 1926. Ebd., S. 184. 134 Vgl. ebd., S. 185 f. 135 Vgl. Rózsa Péter: ›Probleme der Hilbertschen Theorie der höheren Stufen von rekursiven Funktionen‹, in: Acta Mathematica Academiae Scientiarum Hungarica, 2 (3–4), 1951, 247–274, S. 247 f. 136 Vgl. Wilhelm Ackermann: ›Zum Hilbertschen Aufbau der reellen Zahlen‹, in: Mathematische Annalen, 99, 1928, 118–133. 137 Rekursionsschema allgemein-rekursiver Funktionen (primitiv- plus μ-rekursiv) in Form von Stephen Kleenes Normalformtheorem. Vgl. Kleene, ›General recursive functions of natural numbers‹, 1936; Mainzer, Computer - Neue Flügel des Geistes?, 1995, S. 75. 133

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

221



222

Kapitel 9  ·  Sprachlogik der modernen Mathematik

y0«.138 Gibt es kein kleinstes y0, so ist der μ-Operator nicht definiert und die Funktion ist nur partiell rekursiv und als solche allenfalls partiell berechenbar. Denn fragt man nach der Funktion des μ-Operators, so stellt sich diese als Suchoperation heraus. Wie Stephen Kleene 1936 beschreibt, besteht der Unterschied zwischen primitiv-rekursiven und allgemein-rekursiven Funktionen in der »operation of seeking indefinitely through the series of natural numbers for one satisfying a primitive recursive relation [is added]«.139 Damit ist klar, dass eine Rechenmaschine, eine rekursive Funktion, deren μ-Operator nicht definiert ist, nicht berechnen kann, beziehungsweise dass die Maschine zu keinem Ende kommt. Ebenfalls 1936 kann Alonzo Church zeigen, dass die Klasse der allgemein-rekursiven (primitiv- plus μ-rekursiv) Funktionen der Klasse der RM-berechenbaren Funktionen entspricht.140 Interessanterweise bietet das Jahr 1936 noch eine andere Herangehensweise an den Begriff der Berechenbarkeit. Sowohl Emil Post als auch Alan Turing gehen vom Prozess des Rechnens als Schreibprozess aus.141 Dieser ist für Post ein Prozess des »performing the following primitive acts [by a worker]: (a) Marking the box he is in (assumed empty), (b) Erasing the mark in the box he is in (assumed marked), (c) Moving to the box on his right, (d) Moving to the box on his left, (e) Determining whether the box he is in, is or is not marked. […] (A) Perform operation Oi [Oi =(a), (b), (c), or (d) ] and then follow direction ji, (B) Perform operation (e) and according as the answer is yes or no correspondingly follow direction ji ˈ or ji ,̎ (C) stop.«142 Post nennt nun jene Anweisungen ein Set-up eines ›finite 1-process‹, wenn sich die Anweisungen auf ein allgemeines Problem anwenden lassen und der Prozess, den das allgemeine Problem determiniert, für jedes spezifische Problem zu einem Ende kommt. Diese Unterscheidung in allgemeine und spezifische Probleme entspricht dem Verständnis eines Algorithmus als allgemeinem Problemlösungsverfahren, das für eine ganze Klasse spezifischer 138

Ebd., S. 74. Kleene, ›General recursive functions of natural numbers‹, 1936, S. 736. 140 Vgl. Church, ›An unsolvable Problem of Elementary Number Theory‹, 1936. 141 Vgl. Post, ›Finite combinatory processes, formulation I‹, 1936; Turing, ›On Computable Numbers‹, 1936/37. 142 Post, ›Finite combinatory processes, formulation I‹, 1936, S. 103, 104. 139

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als sprachpragmatische Präzisierung

Probleme anwendbar ist. Post geht davon aus, dass ›finite 1-processes‹ mit allgemein-rekursiv berechenbaren Funktionen äquivalent sind. Ähnlich argumentiert Turing für seine ›berechenbare Zahlen‹. War es Hilberts Ziel, mit Hilfe der Rekursion zu belegen, dass das »Operieren mit dem Unendlichen […] nur durch das Endliche gesichert werden« kann,143 so ist es die Motivation von Turing zu zeigen, dass sich die durch finite Zeichenmanipulationsverfahren erzeugten ›berechenbaren Zahlen‹ auch an Maschinen delegieren lassen: »The ›computable‹ numbers may be described briefly as the real numbers whose expressions as a decimal are calculable by finite means.«144 Dazu muss Turing wie Post den Schreibprozess als Abstraktionsbegriff aus den Bedingungen der Möglichkeit des Schreibvorganges rekonstruieren und als maschinell ausführbaren Mechanismus formal operationalisieren. In Turings Worten: »According to my definition, a number is computable if its decimal can be written down by a machine. […] In particular, I show that certain large classes of numbers are computable. They include, for instance, the real parts of the number π, e, etc.«145 Stellt man sich den Mechanismus des Schreibens konkret vor – allerdings in einem abstrahierten Sinne ›konkret‹ –, so erhält man das theoretische Modell einer Turing-Maschine (in Turings eigenen Worten: eine ›a-machine‹). Eine Turing-Maschine beschreibt die regelgesteuerte Abarbeitung von Zeichenmanipulationen in klar umgrenzten Feldern eines endlosen Bandes. Die Operationen, die die Maschine dabei ausführt, sind die formalen Schreiboperationen. Das heißt, die Maschine kann ein Feld mit einem eindeutigen Symbol beschriften oder löschen (überschreiben), dann nach rechts oder nach links gehen oder stoppen.146 Die Anweisungen für diese Operationen lassen sich durch eine indizierte Liste darstellen (Turingtafel) und geben damit einen Formalismus als konkreten Begriff der Berechenbarkeit.147 Jede Zahl, die sich durch eine solche Operationsliste angeben lässt, ist berechenbar, falls sich die verwendeten Operationen wie die Addition und Multiplikation maschinell umsetzen lassen. Dabei muss die Maschine nicht immer zu einem Ende kommen, wie beispielsweise für die Berechnung der Zahl π. Als weitere Frage ergibt sich dann, welche Zahlen 143

Hilbert, ›Über das Unendliche‹, 1926, S. 190. Turing, ›On Computable Numbers‹, 1936/37, S. 230. 145 Ebd. 146 Zur Diskussion der Turing-Maschine sowie berechenbarer Funktionen vgl. beispielsweise Konrad Jacobs (Hrsg.): Selecta Mathematica II, Berlin u.a.: Springer 1970; Turing, ›On computable numbers‹, 1936/37. 147 »Eine Funktion ist berechenbar, wenn es einen abbrechenden Algorithmus gibt, der durch die Turingtafel beschrieben werden kann.« Krämer, Symbolische Maschinen, 1988, S. 174. 144

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

223



224

Kapitel 9  ·  Sprachlogik der modernen Mathematik

auf diese Weise berechenbar sind. Da die Anzahl der Turingtafeln anzählbar unendlich groß ist, die reellen Zahlen jedoch, wie Cantor zeigte, überabzählbar unendlich groß sind, lässt sich zeigen, dass es definierbare Zahlen gibt, die mit einer Turing-Maschine nicht berechenbar sind.148 Die Klasse der Turing-berechenbaren Funktionen, die der Klasse der allgemein-rekursiven Funktionen149 und λ-definierbarer Funktionen150 entspricht, definiert damit die Grenzen der Berechenbarkeit und weist gleichzeitig auf die Beschaffenheit des Unberechenbaren hin. Aus der Perspektive von Turing und Post wird »Rechnen ein Rechnen mit Symbolen« in Form von Wortfunktionen auf Basis endlicher Alphabete.151 Die wechselseitige Interpretation von Zahlen als Worte und Worte als Zahlen (Gödelisierung) spielt in der weiteren Entwicklung eine wichtige Rolle. Sie hebt die semiotischen Aspekte prägnanter hervor, als es die Formalisierung der Mathematik bisher tat. Wortkalküle basieren auf endlichen, nicht-leeren Mengen (Alphabete) von Zeichen (Buchstaben) zur Bildung von Worten (endliche lineare Folgen von Buchstaben; leeres Wort □) und Verkettung von Worten. Zwei Worte W sind gleich, wenn an derselben Stelle dieselben Buchstaben stehen (W1 ≡ W2). Aus einem Buchstabenalphabet und einem Variablenalphabet lassen sich nun nach endlichen Regeln (Konklusion α1, …, α n mit oder ohne Prämisse β) und Ersetzungsregeln Worte ableiten. Bereits 1914 formuliert Axel Thue ein solches Wortkalkül (Semi-Thue-System), das aus der Umformung eines Wortes in einem Variablensystem (A, B) besteht:152 148

»The computable numbers do not, however, include all definable numbers.« Turing, ›On Computable Numbers‹, 1936/37, S. 230. Turing greift zum Beweis nicht-berechenbarer, aber dennoch definierbarer Zahlen auf Cantors Diagonalisierungsverfahren zurück. 149 Vgl. Kleene, ›General recursive functions of natural numbers‹, 1936. 150 Alonzo Church zeigt mit seinem λ-Kalkül, dass Sätze der Quantorenlogik erster Stufe nicht effektiv entscheidbar sind. Vgl. Church, ›A note on the Entscheidungsproblem‹, 1936. 151 Bernd Mahr: ›Womit können wir rechnen?‹, in: Spektrum der Wissenschaft (Spezial: Ist das Universum ein Computer?), 2007, 27–35, S. 32 »Die Church’sche These befestigt die Lösung des von David Hilbert formulierten Entscheidungsproblems, indem sie erklärt, dass die negative Antwort nicht durch eine andere mathematische Definition der Berechenbarkeit revidiert werden kann. Da das Entscheidungsproblem im Kontext logischer Theorien und Beweissysteme gestellt war, liegt es nahe, dass auch die Lösungen von Church und Turing auf dieser symbolischen Ebene liegen, der Ebene des BuchstabenRechnens. Sieht man nun aber in der Church’schen These eine Grundsatzerklärung zur Berechenbarkeit allgemein, dann anerkennt man zugleich, dass Rechnen ein Rechnen mit Symbolen ist.« Mahr, ›Womit können wir rechnen?‹, 2007, S. 31, 32. Vgl. Church, ›A note on the Entscheidungsproblem‹, 1936. 152 Vgl. Axel Thue: ›Problem über Veränderungen von Zeichenreihen nach gegebenen Regeln‹, in: Skrifter utgit. av Videnskapsselskapet i Kristiania, 1. Mat.-nat. kl, 10, 1914, 1–34; Mainzer, Computer - Neue Flügel des Geistes?, 1995, S. 76 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als sprachpragmatische Präzisierung

A W1 B → A W2 B Die von Post formulierten ›finite 1-processes‹ hingegen stellen komplexere Wortkalküle dar, die an jeder Stelle Umformungen vornehmen.153 Aus metamathematischer Perspektive lassen sich formale Systeme als Wortkalküle auffassen und zahlentheoretisch interpretieren (Gödelisierung). Damit wird es möglich, Metaaussagen über formale Systeme formal zu analysieren (Prädikatbeweise). Dieses von Gödel 1931 entwickelte Verfahren, um die Fragen nach der Entscheidbarkeit für das logisch-arithmetische System der Principia Mathematica (System P) zu untersuchen, »ordnet nun den Grundzeichen des Systems P in folgender Weise eindeutig natürliche Zahlen zu:



»0« … 1   »f« … 3 »~« … 5 »V« … 7   »Π« … 9 »(» … 11 »)« … 13,

ferner den Variablen n-ten Typs die Zahl der Form pn (wo p eine Primzahl > 13 ist). Dadurch entspricht jeder endlichen Reihe von Grundzeichen (also auch jeder Formel) in eineindeutiger Weise eine endliche Reihe natürlicher Zahlen. Die endlichen Reihen natürlicher Zahlen bilden wir nun (wieder eineindeutig) auf natürliche Zahlen ab, indem wir der Reihe n1, n2, …, nk die Zahl 2n1 ∙ 3n2 ∙ … pknk entsprechen lassen, wo pk die k-te Primzahl (der Größe) nach bedeutet. Dadurch ist nicht nur jedem Grundzeichen, sondern auch jeder endlichen Reihe von solchen in eindeutiger Weise eine natürliche Zahl zugeordnet. Die dem Grundzeichen (bzw. der Grundzeichenreihe) a zugeordnete Zahl bezeichnen wir mit Φ(a).«154 Basierend auf a lässt sich nun von Gödel 153 Vgl. Mainzer, Computer – Neue Flugel des Geistes ?, 1995. Wortkalküle sind für die Algebra nicht neu. Mit der Theorie der Permutationsgruppen treten Vertauschungen unter dem Aspekt der Invarianz in den Fokus der Mathematik des späten 18. und gesamten 19. Jahrhunderts. 154 Gödel, ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), 1986, S. 156. Die Grundidee ist, dass die »Formeln eines formalen Systems […] äußerlich betrachtet endliche Reihen der Grundzeichen [sind] (Variable, logische Konstante und Klammern bzw. Trennungspunkte) und man kann leicht genau präzisieren, welche Reihe von Grundzeichen sinnvolle Formeln sind und welche nicht. Analog sind Beweise vom formalen Standpunkt nicht anderes als endliche Reihen von Formeln (mit bestimmten angebbaren Eigenschaften). Für metamathematische Betrachtungen ist es natürlich gleichgültig, welche Gegenstände man als Grundzeichen nimmt, und wir entscheiden uns dazu, natürliche Zahlen als solche zu verwenden. Dementsprechend ist dann eine Formel eine endliche Folge natürlicher Zahlen und eine Beweisfigur eine endliche Folge von endlichen Folgen natürlicher Zahlen. […] Insbesondere kann man zeigen, dass die Begriffe ›Formel‹, ›Beweisfigur‹, ›beweisbare Formel‹ innerhalb des

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

225



226

Kapitel 9  ·  Sprachlogik der modernen Mathematik

die Behauptung aufstellen, dass es »SATZFORMELN a [gibt], so daß weder a noch die NEGATION von a BEWEISBARE FORMELN sind«.155 Für den Beweis seiner Behauptung nutzt Gödel das Konzept der Rekursivität. Basierend auf (primitiv) rekursiven Funktionen und Rechenregeln, die sich den Umstand zu Nutze machen, dass die logischen Begriffe der Negation, der Identität sowie der Konjunktion rekursiv sind, identifiziert Gödel weitere rekursive Objekte: die Funktionen x + y, x ∙ y und xy sowie die Relationen x < y, x = y wie auch die daraus resultierenden Kombinationen. Die Eigenschaft der Rekursivität überträgt Gödel nun auf Prädikate wie ›x ist Primzahl‹, ›x ist Elementarformel‹, ›x Gen y ist die Generalisation von y mittels der Variable x‹ oder ›x ist eine Beweisfigur‹ respektive operative Prädikate wie »x  y entspricht der Operation des ›Aneinanderfügens‹ zweier endlichen Zahlenreihen«.156 Mit Hilfe dieser Formalisierung kann er seinen Unentscheidbarkeitsbeweis führen, indem er zeigt, dass es zu jeder ω-widerspruchsfreien, rekursiven Klasse von Formeln ein rekursives Klassenzeichen r gibt, so dass weder ›v Gen r‹ noch ›Neg(v Gen r)‹ zur Folgerungsmenge des Systems gehören. Das bedeutet, dass die Generalisierung rekursiver Klassenzeichen (›Gen r‹) innerhalb des Systems nicht beweisbar ist; dasselbe gilt für deren Negation, obwohl jede Relation r rekursiv ist. Damit ist ›Gen r‹ unentscheidbar.157 Es ist der Weg über die Rekursion, der formal entscheidend für Gödels Beweis ist, da er die Abbildbarkeit in sich selbst ermöglicht. Semantisch interpretiert sind die Satzformeln a derart, dass sie ihre eigene Unbeweisbarkeit behaupten und durch ihre Negation beweisbar wären, was unmöglich ist. Da sie aber ihre eigene Unbeweisbarkeit behaupten, sind sie metamathematisch dennoch entscheidbar und damit beweisbar. Wie Gödel mit Hinweis auf das LügnerParadox und die Richard-Antinomie bemerkt, lässt sich jede ›epistemologische Antinomie‹ für einen solchen Unentscheidbarkeitsbeweis verwenden.158 Durch die zahlentheoretische Kodierung von Wortkalkülen (Gödelisierung) werden Eigenschaften formaler Systeme als Prädikate formal analysierbar. Da sich nach Frege alle aussagenlogischen Verknüpfungen auf die Systems PM definierbar sind.« Gödel, ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), 1986, S. 146. 155 Gödel, ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), 1986, S. 156. (Hervorhebungen wie im Originaltext.) 156 Ebd., S. 164. 157 Entsprechend lässt sich definieren, dass ein Relationszeichen r entscheidungsdefinit ist, wenn es einer entscheidungsdefiniten Relation zugeordnet werden kann. 158 Vgl. Jules Richard: ›Les Principes des mathématiques et le problème des ensembles‹, in: Revue générale des sciences pures et appliquées, 12 (16), 1905, 541–543; Lucio Lombardo-Radice: ›Eine Bemerkung über die Antinomie von Richard‹, in: Archiv der Mathematik, 13 (1), 1962, 166–168.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als sprachpragmatische Präzisierung

Negation, die Konjunktion und die Identität zurückführen lassen und diese rekursiv sind, ist die Aussagenlogik insgesamt (primitiv) rekursiv und daher berechenbar, da entscheidungsdefinit. Alle Formeln eines solchen Systems sind rekursiv-entscheidbar.159 Fragt man weiter, ob auch Generalisierungen wie die universelle Funktion U, die jede rekursive Funktion darstellen kann, rekursiv, also berechenbar ist, so lässt sich mit Gödels Verfahren zeigen, dass dies nicht der Fall ist. Obwohl U partiell rekursiv ist (partiell berechenbar ohne zu einem Ende zu kommen), ist U selbst nicht rekursiv (berechenbar re­spektive entscheidbar). U lässt sich auch als Aufzählung aller rekursiven Funktionen verstehen. Aus diesen Überlegungen ergibt sich die Differenzierung zwischen ›rekursiv-entscheidbar‹ und ›rekursiv-aufzählbar‹. Die Feststellung, dass ein Prädikat in einem formalen System in endlicher Zeit ableitbar ist, wird als rekursiv-entscheidbar verstanden; das Durchlaufen des Werte­bereichs einer Funktion wird intuitiv als ›Aufzählung‹ verstanden (rekursiv-aufzählbar). Das Interessante nun ist, dass rekursiv-entscheidbare Prädikate immer rekursiv-aufzählbar sind, aber dass dies nicht umgekehrt gilt. Der Grund liegt darin, dass rekursive Entscheidbarkeit Negation mit einbezieht und damit als logisches Verfahren über die rekursive Aufzählbarkeit hinausgeht. Ein Beispiel dafür ist das Stopp-Problem, also die Frage, ob eine Maschine immer nach endlich vielen Schritten zum Ende kommt oder nicht. Das Stopp-Prädikat ist rekursiv-aufzählbar, aber nicht rekursiv-entscheidbar. Die Negation des Stopp-Prädikats hingegen ist nicht rekursiv-aufzählbar. Wäre sie rekursiv-aufzählbar, so wäre das Stopp-Problem insgesamt rekursiv-entscheidbar. Diese Eigenschaft eines Problems, rekursiv-aufzählbar, aber nicht rekursiventscheidbar zu sein, charakterisiert auch das diophantische Prädikat, das Hilbert 1900 als zehntes Problem formulierte und das als ›Entscheidungsproblem‹ den Beginn der Untersuchungen über Berechenbarkeit markierte. Die Antwort dazu wurde 1936 gegeben, insofern sich Rekursivität als prinzipielle Grenze der Berechenbarkeit herausstellte.160

159

Dies gilt auch für lineare Gleichungen. Beweis, dass das diophantische Problem nicht rekursiv-entscheidbar, aber rekursiv-aufzählbar ist, wird 1970 durch Juri W. Matijassewitsch formuliert. Vgl. Juri W. Matijassewitsch: ›Diophantine representation of the set of prime numbers‹, in: Soviet Mathematics Doklady, 12 (4), 1971, 249–254. 160 Der

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

227

Kapitel 10 Berechenbarkeit und Anschauung

A 

us philosophischer Perspektive stellt sich die Frage, ob Berechenbarkeit das neue Anschauungsparadigma der modernen Mathematik als (Zeichen-)Sprache darstellt. Warum sich die argumentative Mühe überhaupt lohnt, das bereits für obsolet erklärte Konzept der Anschauung für die moderne Mathematik zu rehabilitieren, liegt in der Ausgangsfrage nach der Anwendbarkeit der Mathematik. Denn wenn es gelingt, Anschauung für die Mathematik als Ermöglichungsbedingung zu re-instanziieren, dann lässt sich – sozusagen als Nebeneffekt – die dreistellige, ontologische Differenzierung Kants von logischer Möglichkeit (Satz des Widerspruchs; reine Begriffe), mathematischer Wirklichkeit (Synthese von Begriff und Anschauung) und empirischer Realität (Empfindungsgehalt der Anschauungen) auch für die moderne Mathematik als Sprache wieder nutzbar machen. Dies ist in Hinblick auf die Anwendungsfrage von entscheidender Bedeutung, denn zu ihrer Untersuchung liefert Kants Differenzierung von Möglichkeit, Wirklichkeit und Realität im Begriff der mathematischen Wirklichkeit die gesuchte Subsumtion von ontologisch Ungleichartigem. Nur eine solche Subsumtion kann die ontologische Dichotomie abstrakt-mathematischer und konkret-empirischer Objekten überwinden.161 Zudem ist zu hoffen, dass sich die Unterscheidung zwischen Berechenbarkeit, partieller Berechenbarkeit und prinzipieller Unberechenbarkeit im Kontext von Kants operativem Konzept des Schematismus konstruktiv nutzen lässt, um eine genauere Begriffsabgrenzung von Anschauung und Anschaulichkeit zu erhalten.

Berechenbarkeit als neues Anschauungsparadigma

Wie bereits dargestellt liegt der eigentliche Vorteil von Kants Schematismus darin, Vermittlungsinstanz zwischen Begriff und Anschauung zu sein und so eine Verbindung zwischen logischer Möglichkeit, mathematischer Wirklich161 Dass eine solche dreistellige ontologische Relation für die Anwendungsfrage von großem Nutzen ist, um die Dichotomie von abstrakten/konkreten Objekten zu überwinden, liegt auf der Hand. Auf die Formkraft der Mathematik angewandt, wäre dann nur das empirisch realisierbar/anwendbar, was nicht nur logisch möglich, sondern auch mathematisch wirklich ist, wobei die Menge der empirisch realisierbaren Objekte eine Teilmenge der mathematisch wirklichen und diese eine Teilmenge der logisch möglichen wären.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als neues Anschauungsparadigma

keit und empirischer Realität herzustellen. Diese Vermittlungsinstanz zeigt sich in der Subsumtion von Ungleichartigem durch die »vermittelnde Vorstellung« des Schemas, die »rein (ohne alles Empirische) und dennoch einerseits intellektuell, andererseits sinnlich« ist.162 Dieses Schema ist als transzendentales kein Bild – das reine Schema der Größe ist die Zahl –, sondern das Verfahren der transzendentalen Zeitbestimmung, das einmal den reinen Verstandesbegriffen als rein synthetische Einheit des Mannigfaltigen und andermal der sinnlichen Anschauung als formale Bedingung des Mannigfaltigen angehört. Die Differentialität der Kategorien beispielsweise bestimmt sich bei Kant durch die verschiedenen Modi der transzendentalen Zeitbestimmung (Beharrlichkeit, Sukzession, Zugleichsein, Nacheinandersein, temporäres und permanentes Dasein). Dies bedeutet, dass der Schematismus nichts anderes ist als eine formale Operationsform des Verstandes (Regeln), verschieden geordnete Einheit in die Mannigfaltigkeit der Anschauung zu bringen. Er ist eine »Funktion, welche dem inneren Sinn […] korrespondiert«.163 Ein Resultat dieser Subsumierung von (ontologisch) Ungleichartigem durch Vermittlung unter Gleichartigkeitsbedingungen ist die Neuausrichtung der Logik und der ihr zugrundeliegenden Abstraktionstheorie der Urteilsinhalte. Begriffe generieren sich nicht mehr als Abstraktionsbegriffe aus dem Vergleich gegebener Erfahrungen, sondern durch Bildungsregeln und Regelfolgen.164 Kennzeichen solchermaßen gewonnener, formaler Organisationsbegriffe von Erfahrung ist ihre distributive Allgemeinheit und nicht die »abbildhafte Transposition einzelner Merkmale in eine begriffliche Sphäre« durch Abstraktion aus der Erfahrung.165 War Leibniz’ distinkte Imagination ein erster Schritt in Richtung der Überwindung der Abbildtheorie der Begriffskonstitution, so führt Kant diesen Weg weiter. Möglich wird ihm dies durch den Rekurs auf das Operative, das eben nicht abbildend, sondern erzeugend ist. Dadurch liefert 162 Kant,

Kritik der reinen Vernunft (1781, 1787), 1993, B 177. Ebd., B 185. 164 Formalsprachliches und transzendental-formales Regelfolgen, wie es hier thematisiert wird, darf nicht mit der Diskussion zum Regelfolgen im Normalsprachlichen verwechselt werden, wie von Ludwig Wittgenstein in den Philosophischen Untersuchungen thematisiert, insofern es das Grundproblem im Normalsprachlichen ist, dass eine vage Regel des Begriffsgebrauchs an endlich vielen Beispielen gelernt, aber auf unendlich viele Fälle angewendet wird. »Unser Paradox war dies: eine Regel könnte keine Handlungsweise bestimmen, da jede Handlungsweise mit der Regel in Übereinstimmung zu bringen sei. […] Daher ist ›der Regel folgen‹ eine Praxis.« Ludwig Wittgenstein: Philosophische Untersuchungen (1929–1933), in: Ders.: Werkausgabe, 1. Bd., Frankfurt: Suhrkamp 1984, 225– 580, PU 201 und PU 202. Für einen Überblick der Debatte vgl. Michael Esfeld: ›Regelfolgen 20 Jahre nach Kripkes Wittgenstein‹, in: Zeitschrift für philosophische Forschung, 57, 2003, 128–138; Saul Kripke: Wittgenstein on Rules and Private Language, Oxford: Blackwell 1982. 165 Obergfell, Begriff und Gegenstand bei Kant, 1985, S. 61. 163

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

229



230

Kapitel 10  ·  Berechenbarkeit und Anschauung

Kants intentionale Gegenstandstheorie die eigenen Bedingungen der Objektivität mit. Der Vorteil einer solch operativen Theorie besteht darin, durch Bildungsregeln und Regelfolgen die Objektivitätsbedingungen zu inkludieren. Die Frage, ob die Bildungsregeln und das Regelfolgen per se, sozusagen ›automatisch‹, die Objektivitätsbedingungen garantieren, führte in Folge von Hilberts Formalismus negativ zum Aufweis der Unentscheidbarkeit für hinreichend ausdrucksstarke formale Systeme und positiv zur Definition des Begriffs der Berechenbarkeit.166 Die Frage, die sich jedoch ergibt, ist die nach dem Aufweis der Existenzansprüche der durch Bildungsregeln konstituierten (abstrakten) Dinge allgemein. Becker hat diese Frage an der Unterscheidung zwischen ›effektivem‹ und ›fiktivem‹ Kalkül in Hilberts Neubegründung der Mathematik festgemacht, wobei der mathematische Wirklichkeitsgehalt von Hilbert als Existenzanspruch allein an die Widerspruchsfreiheit der Axiomensysteme geknüpft wurde.167 Im System Kants kommt Widerspruchsfreiheit jedoch nur logische Möglichkeit zu, aber keine mathematische Wirklichkeit. Die Frage spaltete sich daher aus Kants Perspektive anders auf, nämlich ob die fiktiven Kalküle Hilberts überhaupt logisch-konsistent und damit logisch-möglich sind und ob die effektiven Kalküle Hilberts nicht nur logisch-möglich, sondern auch mathematisch-wirklich sind, da sie unter das Diktat der Anschauung fallen. Die Frage nach der logischen Konsistenz der fiktiven, da transfiniten Kalküle ist bis heute eine Streitfrage.168 Die Frage nach der mathematischen Wirklichkeit beantwortet der Berechenbarkeitsbegriff und seine Unterscheidung von Unberechenbarkeit, Berechenbarkeit (rekursiv-aufzählbar und rekursiv-entscheidbar) und partieller Berechenbarkeit (partiell rekursiv-aufzählbar). Letztere Antwort zum mathematisch Wirklichen weist darauf hin, dass 166 Berechenbarkeit ist dabei nicht nur eine positive Antwort, sondern auch eine ›positivistische‹, insofern sie via Anschauung auf Gegebenheit referiert. 167 Vgl. Becker, Größe und Grenze der Mathematischen Denkweise, 1959, S. 128 f. 168 Ob mit dem Axiomensystem der Zermelo-Fraenkel-Mengenlehre eine konsistente formal-symbolische Fundierung gefunden ist, wird bis heute diskutiert, ist aber nicht Thema der vorliegenden Studie. Vgl. Chris Mortensen: Inconsistent Mathematics, Dordrecht: Kluwer Academic Publishers 1995; Oliver Deiser: Einführung in die Mengenlehre: Die Mengenlehre Georg Cantors und ihre Axiomatisierung durch Ernst Zermelo, Berlin, Heidelberg: Springer 2004; Mary Tiles: The Philosophy of Set Theory: An Historical Introduction to Cantor‹s Paradise, Oxford. Blackwell 1989; Michael Potter: Set Theory and its Philosophy, Oxford: Oxford University Press 2004; Manuel Bremer: Universality in Set Theories: A Study in Formal Ontology, Heusenstamm: Ontos 2010; Penelope Maddy: Defending the Axioms: On the Philosophical Foundations of Set Theory, Oxford: Oxford University Press 2011.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als neues Anschauungsparadigma

Widerspruchsfreiheit nur dann mathematische Wirklichkeit im Sinne Kants beanspruchen kann, wenn sie über pure Logik hinausreicht.169 Die Erweiterung des logischen Prinzips der Widerspruchsfreiheit ins Mathematische im Sinne Kants bedarf der reinen Anschauung. Denn nur diese liefert die Erfüllungsbedingungen für die Konstruktion mathematischer Begriffe und damit deren Wirklichkeitsanspruch, ohne dass ihr etwas in der gegebenen Anschauung (Anschaulichkeit), also der Realität korrespondieren muss.170 Genau in dieser Erweiterungsfunktion liegt die Aufgabe der synthetischen Urteile a priori. Die Erweiterung des Prinzips des Widerspruchs muss daher den Konstruktionsbereich mathematischer Begriffe einschließen und ihre Funktion ist es, all jene Begriffe auszuschließen, die ›widersprüchlich‹ sind. ›Widersprüchlichkeit‹ gewinnt dabei jedoch eine andere Bedeutung als im rein Logischen. Wie Kant schreibt, bedeutet einen Begriff zu konstruieren, die ihm korrespondierende Anschauung a priori darzustellen. Für das Anschauungsparadigma der euklidischen Geometrie ist daher Folgendes zu fragen: Ist ein Hendekaeder eine widerspruchsbehaftete Figur, insofern sie sich zwar definieren, aber nicht konstruieren lässt?171 Nun bedeutet dies nicht, dass Konstruktion hier auf Realität (Dasein) verweist, sondern es genügt zu beweisen, dass ein Hendekaeder per se nicht konstruierbar ist; dass ihm zwar logische Möglichkeit, aber keine mathematische Wirklichkeit zukommt, da beweisbar ist, dass er sich mit den Mitteln der euklidischen Geometrie nicht zur Anschauung bringen lässt (Anschauungslosigkeit). Damit erübrigt sich auch jeglicher Konstruktionsversuch mit dem Zirkel in der Realität. Offensichtlich widersprechen sich Definition und Beweis, aber nicht im Sinne des logischen Prinzips des Widerspruchs, sondern als Widersprüchlichkeit von Erkenntnisform und Erkenntnismittel. Diese Widersprüchlichkeit von Erkenntnisform und Erkenntnismittel lässt sich als Differenz von Operativität und Operabilität beschreiben. In diesem Sinne entspricht ein Hendekaeder zwar logisch der euklidischen Operativität, ist aber dennoch nicht operabel. Anders gewendet: Operabilität bringt Ungleichartiges (Erkenntnisform mit Erkenntnismittel) in Verbindung und weist damit über das rein Logische hin169 Dass sich der Existenzanspruch nicht auf die empirische Realität ausweiten lässt, zeigt sich an der Funktion der produktiven Einbildungskraft, die die Grundlage des Schematismus als Synthesisfähigkeit durch Regelfolgen unterschiedlicher Vergegenwärtigungsmodi ist. Sie ist zwar eine wirklichkeiterzeugende, aber keine existenzschaffende Kraft im Sinne empirischen Daseins. 170 Allein die Erfüllungsbedingungen der reinen Anschauung machen mathematische Begriffe zu synthetischen Erkenntnissen a priori und die »Mathematik gibt das glänzendste Beispiel, einer sich, ohne Beihilfe der Erfahrung, von selbst glücklich erweiternden reinen Vernunft«. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 740. 171 Vgl. von Fritz, Grundprobleme der Geschichte der antiken Wissenschaft, 1971, S. 85.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

231



232

Kapitel 10  ·  Berechenbarkeit und Anschauung

aus, insofern die Erkenntnismittel Zeitlichkeit integrieren und somit ihrer Konstitution nach unter die reine Anschauung fallen. In Bezug auf das Beispiel des Hendekaeders könnte dies jedoch auch so gedeutet werden, dass die euklidische Geometrie nicht konsistent ist, insofern Erkenntnisform (Definition) und Erkenntnismittel (Konstruktionsmöglichkeiten) nicht identisch sind, und dass dies für die streng formalen Systeme der modernen Mathematik nicht der Fall sei. Doch wie die Frage nach der Entscheidbarkeit respektive der Berechenbarkeit zeigt, können Form und Mittel auch hier durchaus auseinanderfallen. Zwar in anderer Weise als in der euklidischen Geometrie, da die Erkenntnismittel der modernen Mathematik rein symbolische sind, aber mit derselben Konsequenz der operablen Widersprüchlichkeit. Zur Untersuchung der Frage, ob sich dies auch in der modernen Mathematik zeigt, bietet sich die Analyse der wohl charakteristischsten Operation der Moderne an, und zwar des Diagonalisierungsverfahrens. Diagonalisierung lässt sich als ein Verfahren der Anordnung von Elementen in einer Matrize beschreiben. Das Verfahren ist so gestaltet, dass die Auswahl von Elementen einen Selektionsmechanismus darstellt, der die Grundlage neuer Operationen bildet. Von Cantor in den 1870er Jahren zur Beweisführung der Mächtigkeit der Menge der reellen Zahlen entwickelt, lässt sich Diagonalisierung zur Generierung von Diagonalelementen (aν,ν, also: a1,1, a2,2, …) wie folgt anschreiben:172 »E1 = (a1,1, a1,2, …, a1,ν , …), E2 = (a2,1, a2,2, …, a2,ν , …). ...................... E μ = (aμ,1, aμ,2, …, aμ,ν , …). . . . . . . . . . . . . . . . . . . . . .« 173

172 Für die Matrizenrechnung ist die Methode der Diagonalisierung bereits seit Arthur Cayleys Theory of Quantics bekannt. Vgl. Cayley, ›An Introductory Memoir on Quantics‹ (1854), 1889. 173 Georg Cantor: ›Über eine elementare Frage der Mannigfaltigkeitslehre‹ (1890/91), in: Ders., Gesammelte Abhandlungen, 1990, 278–281, S. 279. (Die Hervorhebung durch Unterstreichung wurde hinzugefügt.) Vgl. Cantor, ›Über eine Eigenschaft des Inbegriffs aller reeller algebraischer Zahlen ‹ (1874), 1990. Ludwig Wittgenstein versucht Cantors Beweis der Überabzählbarkeit der reellen Zahlen dahingehend zu entkräften, dass er versucht aufzuzeigen, dass die Diagonalzahl E ο keine reelle Zahl ist. Vgl. Ludwig Wittgenstein: Bemerkungen über die Grundlagen der Mathematik, Werkausgabe, 6. Bd., Frankfurt: Suhrkamp 1984, S. 125 ff. Eine umfassende Diskussion dieser Thematik findet sich bei Christine Redecker: Wittgensteins Philosophie der Mathematik. Eine Neubewertung im Ausgang von der Kritik an Cantors Beweis der Überabzählbarkeit der reellen Zahlen, Heusenstamm: Ontos 2006, S. 31 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Berechenbarkeit als neues Anschauungsparadigma

Cantor verwendet die Diagonalisierung für sein Beweisverfahren, um die Frage zu klären, ob die reellen Zahlen auf die natürlichen Zahlen abbildbar sind, sich also durch diese (unendlich) abzählen lassen.174 Bereits 1874 kann er zeigen, dass dies nicht der Fall ist, indem er einen »Anordnungsmodus« beschreibt, der einen neuen Beweis »des zuerst von Liouville bewiesenen Satzes [… ermöglicht], daß es in jedem vorgegeben Intervall (α …β) unendlich viele transzendente, d. h. nicht algebraisch reelle Zahlen gibt«.175 Dieser Beweis wird von Cantor 1890/91 in vereinfachter Form publiziert, indem er aus dem Anordnungsmodus die Diagonalelemente (aν,ν, also: a1,1, a2,2, …) gewinnt und damit neue Zahlen konstruiert (Diagonalzahlen wie Eο = (b1, b2, b3, …)), die so definiert sind, dass sie sich durch aν,ν ergeben und dennoch von aν,ν verschieden sind: »Ist also aν,ν = m, dann ist bν = w, und ist aν,ν = w, dann ist bν = m. […] Aus diesem Satze folgt unmittelbar, daß die Gesamtheit aller Elemente von M sich nicht in die Reihenform: E1, E2, … E ν,… bringen läßt, da wir sonst vor dem Widerspruch stehen würden, daß ein Ding Eο sowohl Element von M als auch nicht Element von M wäre.«176 Folglich sind die reellen Zahlen überabzählbar und der Menge der reellen Zahlen entspricht eine höhere Mächtigkeit als die der natürlichen Zahlen. Die Eigenschaft der Überabzählbarkeit lässt sich auch für reelle Zahlenfolgen zwischen 0 und 1 zeigen. Die Frage, die sich stellt, ist die, ob Diagonalzahlen (E ο) aus operabler Sicht widerspruchsbehaftet sind. Das Verfahren definiert Diagonalzahlen einwandfrei und Eο läuft dem logischen Prinzip der Widerspruchsfreiheit nicht zuwider, wie Cantors Beweis zeigt. Doch fragt man, ob E ο zur Anschauung gebracht werden kann, so muss dies verneint werden. Deutlich wird dies an Turings ›computable numbers‹. Um zu zeigen, dass es definierbare Zahlen gibt, die mit einer Turing-Maschine nicht berechenbar sind, greift Turing auf Cantors Diagonalisierungsverfahren zurück.177 Damit kann er zeigen, dass die Anzahl der Turing-Tafeln anzählbar unendlich groß ist, während die reellen Zahlen überabzählbar unendlich groß sind. Letzteres gilt auch für Eο. Dies bedeutet noch nicht, dass hier ›reale‹ Berechenbarkeit auf dem Papier oder 174 In einer anderen Version der Diagonalisierung kann Cantor zeigen, dass die Menge der positiv rationalen Zahlen (unendlich) abzählbar ist, also gleichmächtig zur Menge der natürlichen Zahlen, indem jede positiv rationale Zahlen bijektiv einer natürlichen Zahl zuordenbar ist. Voraussetzung ist jedoch, dass äquivalente Zahlen wie 2/2, 3/3 oder 2/4 aussortiert werden, da sich die bijektive Zuordnung, die jeden positiven Bruch genau durch einen Repräsentanten abzählt (natürliche Zahl), sonst nicht realisieren lässt. 175 Cantor, ›Über eine Eigenschaft des Inbegriffs aller reeller algebraischer Zahlen ‹ (1874), 1990, S. 116. 176 Cantor, ›Über eine elementare Frage der Mannigfaltigkeitslehre ‹ (1890/91), S. 279. 177 »The computable numbers do not, however, include all definable numbers.« Turing, ›On Computable Numbers‹, 1936/37, S. 230.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

233



234

Kapitel 10  ·  Berechenbarkeit und Anschauung

mit Computern gefordert wäre, sondern dass es Verfahren gibt, um abstrakte Objekte zu definieren, von welchen beweisbar ist, dass sie nie zur Anschauung gebracht werden können (rekursiv berechenbar sind). Das bedeutet, E ο kommt zwar logische Möglichkeit zu, aber keine mathematische Wirklichkeit im Sinne Kants. Für andere Objekte der modernen Mathematik hingegen lässt sich beweisen, dass sie berechenbar und daher mathematisch-wirklich sind, analog all jenen Figuren, deren Konstruierbarkeit sich im Rahmen der euklidischen Geometrie beweisen lässt wie für Dreiecke oder Kreise. Auch die symbolischen Manipulationen der kommutativen Permutationen der Symmetrien gehören zu den rekursiv-berechenbaren Objekten, ebenso wie lineare Gleichungen und aussagenlogische Verknüpfungen.

Anschauung, Anschauungslosigkeit, Anschaulichkeit

Eο hingegen gehört zu den nicht-berechenbaren und in diesem Sinne anschauungslosen Objekten, insofern die Turing-Tafeln nicht ausreichen würden, um Eο je zu berechnen. Etwas anderer Art sind die partiell berechenbaren Probleme. Für sie lässt sich zeigen, dass sie zwar nicht rekursiv-entscheidbar sind, aber rekursiv-aufzählbar. Fragt man nun, wie mit diesen Objekten aus der Perspektive Turings umgegangen wird, so stößt man auf einen entscheidenden Umstand der Mathematik als Sprache. Berechenbarkeit im skizzierten Sinne weist eine erstaunliche Parallele zu den Konstruktionsbeweisen der antiken Geometrie auf, und zwar in doppelter Weise. Um zu zeigen, dass Churchs λ-definierbare Funktionen äquivalent mit Turing-berechenbaren Funktionen sind, schlägt Turing folgendes Verfahren vor: »To show that every λ-definable sequence γ is computable, we have to show how to construct a machine to compute γ.«178 Ähnlich verfährt er, um das Entscheidungsproblem als konkretes partiell zu lösen. Denn auch wenn generell nicht immer entscheidbar ist, ob eine bestimmte Formel in endlich vielen Schritten ableitbar ist oder nicht,179 so ist es doch prinzipiell möglich, eine Maschine K zu konstruieren, die konkret entscheidet, ob eine bestimmte Formel beweisbar ist oder nicht.180 Denn, »sooner or later K will reach either [p or non-p]. If it reaches 178

Ebd., S. 263. »There can be no general process for determining whether a given formula U of the functional calculus K is provable, i.e. that there can be no machine which, supplied with any one U of these formulae, will eventually say whether U is provable.« Turing, ›On Computable Numbers‹, 1936/37, S. 263. 180 Turing zielt mit dieser Konkretisierungsidee auf Gödels Unentscheidbarkeitsbeweis ab. 179

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Anschauungslosigkeit, Anschaulichkeit

[p], then we know that [p] is provable. If it reaches [non-p], then, since [the functional calculus] K is consistent […], we know that [p] is not provable.«181 Diese Argumentationsweise Turings macht deutlich, dass die Mathematik bezüglich der intuitiven Äquivalenz der verschiedenen Berechenbarkeitsbegriffe auf (formale) Konstruktionsbeweise angewiesen ist und bezüglich des Nachweises für die Ableitung von Aussagen oder deren Negation für partiellberechenbare Probleme auf die konkrete Ausführung. Ob die Berechnungen tatsächlich je stoppen werden und wenn ja, wann, ist jedoch nicht vorhersagbar. Dies macht deutlich, dass Hilberts Sprachpragmatik Vorhersagbarkeit ins Zentrum der Mathematik rückt und damit für die moderne Mathematik als formale (Zeichen-)Sprache Operabilität fordert. Bedeutet es, ein Objekt mit den streng reglementierten Erkenntnismitteln der euklidischen Geometrie ›zur-Anschauung-zu-bringen‹, indem formal beweisbar ist, dass es konstruierbar ist, so zeigt sich die Grenze nicht nur in einer prinzipiellen Nicht-Konstruierbarkeit, also in der operablen Widersprüchlichkeit eines Objekts wie des Hendekaeders. Die Grenze der Anschauung zeigt sich auch an der Überschreitungsfunktion durch die Anschaulichkeit. Diese Überschreitungsfunktion resultiert aus Erkenntnismitteln, die jenseits der streng reglementierten, da axiomatisierbaren Erkenntnismittel der euklidischen Geometrie zum Einsatz kommen (Zirkel). Solche Erkenntnismittel sind in der Antike konstruktive Zusatzannahmen für Translationen und komplexere mechanische Mittel als das erlaubte Erkenntnismittel des Zirkels. Die antike Theorie der Kegelschnitte, die neue mathematische Objekte einführt, ist eine solche Überschreitung durch Anschaulichkeit, aber auch Archimedes’ ›mechanische Spirale‹. Der Mathematik eröffnet sich dadurch ein empirischer Bereich des konstruktiven Ausprobierens, der jedoch dem antiken Exaktheitsanspruch zuwiderläuft. In der Geometrie ist dies die stetig wachsende Sphäre der ›anschaulich-mathematischen Objekte der Hand‹ und es hat die spätere Mathematik viele Jahrhunderte gekostet, bis sie diese anschaulich-mathematischen Objekte logisch-arithmetisch operationalisieren konnte. Dies war nur durch die Operationalisierung des Bewegungsbegriffs (Infinitesimalkalkül) und die Einführung der analytisch-rechnenden Methode als neuem Erkenntnismittel der Geometrie möglich. Für die moderne Mathematik als Sprache konstituiert sich mit der Berechenbarkeit ein adäquates Anschauungsparadigma, indem formal beweisbar ist, dass ein mathematisches, formalsprachliches Objekt berechenbar ist. Die Grenze des neuen Anschauungsparadigmas zeigt sich jedoch auch hier nicht nur in der prinzipiellen Nicht-Berechenbarkeit, also in der operablen 181

Turing, ›On Computable Numbers‹, 1936/37, S. 263.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

235



236

Kapitel 10  ·  Berechenbarkeit und Anschauung

Widersprüchlichkeit eines Objekts wie Eο, sondern analog zur Antike in der Überschreitungsfunktion durch Anschaulichkeit. Im Unterschied zur Antike resultiert diese Überschreitungsfunktion jedoch nicht aus der Einführung unerlaubter Erkenntnismittel, sondern aus der konkreten Realisierung des Anschauungsparadigmas als maschinelle Berechenbarkeit. Es ist der mediale Wechsel vom Symbolischen zur elektrischen Schaltung, welcher der Mathematik den Zugang zu den partiell-berechenbaren Objekten als von Turings Maschine K ›sooner or later‹ getroffener Entscheidung erschließt. Mit diesen ›anschaulich-mathematischen Objekten der Rechenmaschine‹ – anschaulich bezieht sich hier auf den Umstand, dass ein konkreter Mechanismus für eine Maschine K konstruiert und konkret durchgespielt werden muss – hantiert die moderne Mathematik, analog zur antiken, ›empirisch‹ oder besser gesagt: konstruktiv. Dies bedeutet, dass Anschaulichkeit nicht nur das Anschauungsparadigma der strengen Berechenbarkeit (rekursiv-aufzählbar und rekursiventscheidbar) überschreitet, sondern dass sich dadurch die Kalibrierung von Erkenntnisform und Erkenntnismittel der Mathematik als Sprache erweitert. Dies eröffnet neue Möglichkeiten der Erkenntnisgenerierung für die Mathematik. Ein mittlerweile klassisches Beispiel eines solchen konkreten Beweises mit Hilfe einer (Rechen-)Maschine ist das Vier-Farb-Problem, ein Spezialfall des Graphenfärbungsproblems. Dieses geht auf die Vermutung von Francis Guthrie von 1852 zurück, dass vier Farben ausreichen, um auf einer Landkarte zwei angrenzende Länder so einzufärben, dass sie nicht die gleiche Farbe erhalten.182 Während das Graphenfärbungsproblem ein praktisch nicht-lösbares (NP)-Problem ist, lässt sich das Vier-Farb-Problem, wenn auch nicht formal, so doch konstruktiv beweisen. Dieser konstruktive Beweis ist historisch von Interesse, da es sich um den ersten Computerbeweis handelt. Nach einer Formulierung in den 1960er Jahren durch Heinrich Heesch reduzieren Kenneth Appel und Wolfgang Haken 1976 die problematischen Fälle der Einfärbung von Unendlich auf 1.936.183 Damit ist der Computerbeweis von Guthries Vermutung möglich, indem die problematischen Fälle ›durchgespielt‹ und so entschieden werden. Dabei zeigt sich schnell, dass die konzeptuell geforderte ›Endlichkeit‹ der Abarbeitungsschritte für die konstruktive Umsetzung am abstrakten Verständnis einer finiten Mathematik und dessen n+1-Endlichkeitsbegriff orientiert ist. n+1 lässt sich konstruktiv nur im Rahmen praktikabler Grenzen realisieren und diese Grenzen hängen 182 Vgl. Frederick Guthrie: ›Note on the Colouring of Maps‹, in: Proceedings of the Royal Society of Edinburgh, 10, 1878–1880, 727–728. 183 Vgl. Kenneth Appel, Wolfgang Haken: ›Every map is four colourable‹, in: Bulletin of the American Mathematical Society, 82, 1976, 711–712.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Anschauungslosigkeit, Anschaulichkeit

zum einen von der Effektivität eines Algorithmus ab, der ein Lösungsverfahren mit der kleinstmöglichen Anzahl an Abarbeitungsschritten formulieren soll, zum anderen von der Leistungsfähigkeit der Rechenmaschine, wie viele Operationen sie pro Sekunde durchführen kann.184 ›Konstruktiv‹ bedeutet aber auch, dass die Operationen der Operationslisten (Turing-Tafeln) sich maschinell realisieren lassen müssen. Hier kommt die von Nelson verspottete »Metaphysik der Kreide« zum Tragen,185 die sich durch Booles Algebraisierung der Aussagenlogik (boolesche Algebra); Peirces Reduktion der sechzehn Möglichkeiten der Verknüpfungen der binär interpretierten booleschen Algebra auf die NAND Operation (NOT, AND); Freges analogem Nachweis, dass sich die aussagelogischen Verknüpfungen auf die Negation und Konjunktion zurückführen lassen; Skolems Verständnis der Nachfolger-, Null- und Identitätsfunktion wie auch Gödels Verständnis der Negation, Konjunktion und Identität als rekursive Operationen und schließlich Claude Shannons Schaltalgebra materialisiert. Shannon projiziert, wie schon vor ihm Pierce, die propositionalen Formulierungen der Aussagenlogik auf elektrische Schaltungen: »The proposition is false« wird dabei zu »The circuit is closed«.186 Mit dieser zwischen 1847 und 1938 entwickelten Realisierung der Berechenbarkeit überschreitet die Mathematik das rein Symbolische der Sprache und gründet sich im materiellen Substrat der elektrischen Schaltung. Damit kann sie ihr Anschauungsparadigma konkret manifestieren (RM-Berechenbarkeit). Frei programmierbare, elektronische Computer (von-Neumann-Architektur),187 wie sie ab den 1940er Jahren als Realisierungen der universelle Funk184 Solange man im allgemein Mathematischen verbleibt, hat man es mit idealisierten Verfahren zu tun und kann von einem »Mangel an Raum, Zeit oder Materie für die Durchführung eines allgemeinen Verfahrens« abstrahieren. Hermes, Aufzählbarkeit, Entscheidbarkeit, Berechenbarkeit, 1978, S. 6. Die Frage nach der effektiven Berechenbarkeit hat in der informatischen Komplexitätstheorie zur Klassifikation von effektiv berechenbaren Problemen geführt. Dabei wird zwischen praktisch in polynominellem Zeitaufwand lösbaren (P) und praktisch vermutlich nicht lösbaren (NP) Problemen unterschieden. Praktisch lösbar bedeutet in diesem Zusammenhang, dass es einen Algorithmus gibt, der das Problem auf einem deterministischen Rechner mit polynominellem Zeitaufwand löst. Vgl. Juris Hartmanis, Richard Edwin Stearns: ›On the computational complexity of algorithms‹, in: Transactions of the American Mathematical Society, 117, 1965, 285–306. 185 Nelson, ›Kritische Philosophie und mathematische Axiomatik‹ (1927), 1959, S. 119. 186 Shannon, ›A Symbolic Analysis of Relay and Switching Circuits‹, 1938, S. 475. 187 Die Von-Neumann-Architektur macht keinen Unterschied in der Speicherablage von Programmbefehlen und Daten. Ein solcher Computer besteht aus Rechenwerk (Ausführung der Maschinenbefehle eines Computerprogramms), Steuerwerk, Speicherwerk und Eingabe-/Ausgabewerk. Vgl. John von Neumann: ›First Draft of a Report on the EDVAC‹ (1945), in: IEEE Annals of the History of Computing archive, 15 (4), 1993, 27–75; Arthur W. Burks, Herman H. Goldstine, John von Neumann: ›Preliminary Discussions

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

237



238

Kapitel 10  ·  Berechenbarkeit und Anschauung

tion U gebaut werden, setzen diese mit relais- und später transistorengesteuerten Mechanismen zur Abarbeitung grundlegender Maschinenbefehle um (arithmetische, logische und Bit-orientierte Operationen, Speicher- und Vergleichsoperationen sowie Steuerungsoperationen und Datenkonvertierungen).188 Hinzukommen die Mechanismen zur Speicherung binärer Daten und zur Festlegung der Abarbeitungsreihenfolge analog einer Turing-Maschine. Programme entsprechen dann den Anweisungen der Turing-Tafeln. Angewandt auf die ›computable numbers‹ ergibt sich die tatsächliche Berechnungsmächtigkeit des Computers jedoch erst durch die Realisierung von Sprüngen und Schleifen in den Programmen.189 Konkret zeigt sich dies in den LOOP- und WHILE-Operationen: Während LOOP-Programme nur Additionen, Wertzuweisungen und endlich oft durchlaufene Schleifen erlauben – sie terminieren immer, weswegen sich mit ihnen keine Endlosschleifen realisieren lassen – und damit nur primitiv-rekursive Funktionen berechnen können, lassen sich mit WHILE-Schleifen, die nach oben zählen, μ-rekursive Funktionen berechnen. Die 1928 von Ackermann publizierte Funktion beispielsweise ist als μ-rekursive Funktion mit WHILE-Schleifen berechenbar, aber nicht mit LOOP-Schleifen.190 Allgemein gesprochen bedeutet dies, dass Turing-Maschinen WHILE-Programme simulieren. Sprünge und Schleifen machen die Befehlsabfolge in einem Programm jedoch zu einer komplexen Choreographie und stellen Mathematiker vor die neue Herausforderung, Berechnungen in abarbeitbare Einzelschritte, eindeutige Sprünge und of the Logical Design of an Electronic Computing Instrument‹, in: Datamation (28.6.1946), Institute for Advanced Study: Princeton 1946. Zur Entwicklung der ersten Computer vgl. Paul E. Ceruzzi: A History of Modern Computing, Cambridge: MIT Press 2003. 188 Die Maschinenbefehle umfassen Berechnungen (ADD, ADC, SUB, SBB, DIV, MUL, INC, DEC); logische Verknüpfungen von Bitfeldern (AND, OR, XOR, NOT) sowie Operationen wie Ansprechen und Auslesen (BSF, BSR), Verschieben (SHL, SHR, RCL, RCR, ROL, ROR) und Manipulieren (BT, BTC, BTR) einzelner Bits in einem Bitfeld wie auch Datenübertrag zwischen Prozessorregistern (MOV, MOVSX, MOVZX, XCHG) und innerhalb eines Registers (BSWAP) sowie Vergleiche von Werten mittels ›‹ und ›=‹ (CMP, TEST). Hinzukommen kombinierte Befehle aus Vergleichsoperationen, arithmetischen Operationen und Datenaustausch (XADD, CMPXCHG); Steueroperationen (Verzweigungen des Programmablaufs) sowie Datenkonvertierungen (CBW, CVTLB, CVTSD2SI). Der Maschinenbefehl DEC beispielsweise vermindert den Wert des Zielspeichers um den Wert 1. 189 Dabei wird zwischen bedingten und unbedingten Sprüngen unterschieden. Bedingte Sprünge werden immer ausgeführt, während unbedingte Sprünge nur ausgeführt werden, wenn eine Bedingung erfüllt ist. Jedes GOTO-Sprungprogramm kann durch ein WHILE-Programm simuliert werden. Vgl. Edsger W. Dijkstra: ›Letters to the editor: Go To Statement Considered Harmful‹, in: Communications of the ACM, 11 (3), 1968, 147–148. 190 Vgl. Ackermann, ›Zum Hilbertschen Aufbau der reellen Zahlen‹, 1928.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Anschauungslosigkeit, Anschaulichkeit

endende Loops zu zerlegen und sie damit einem maschinenbedingten ›modus operandi‹ zu unterwerfen. Eben diese neue Anforderung an die Mathematik beschreiben Herman Goldstine und John von Neumann 1947 als ›coding‹.191 Zur konzeptuellen Darstellung der rekurrierenden Denkweise nutzen sie ›flow diagrams‹, mit welchen sich Schleifen, geschachtelte Schleifen, Entscheidungspfade und Operationsboxen visualisieren lassen. »Coding begins with the drawing of the flow diagrams. This is the dynamic or macroscopic stage of coding. […] The next stage consists of the individual coding of every operation box, alternative box and variable remote connection. This is the static or microscopic stage of coding. […] The last stage of coding consists of assigning all storage positions and all orders their final numbers.«192 Letztendlich muss sich jedoch jede noch so verschachtelte Choreographie wieder als eine lineare Abfolge von Befehlen anschreiben lassen, inklusive Sprung- und Terminierungsbedingungen, die eine serielle Rechenmaschine abarbeiten kann.193 Dabei durchläuft die Maschine nicht alle Befehle, denn die Entscheidungspfade und Sprünge stellen Alternativen dar, die üblicherweise als ›if-then/else’-Befehle die Berechnung strukturieren und Hilberts Wenn-dann-Sätze erweitern. Der tatsächliche Durchlauf eines Programms, der sich je nach Startbedingungen ändern kann, wird von Goldstine und von Neumann als berechnungsbedingter ›modus procedendi‹ betitelt. »If this were just a linear scanning of the coded sequence […] the matters would be quite simple. Coding a problem for the machine would be merely what its name indicates: Translating a meaningful text […] from one language (the language of mathematics […]) into another language (that of the code). This, however, is not the case. Thus, the relation of the coded instructions to the mathematically conceived procedures of (numerical) solutions is not a statical one, that of a translation, but highly dynamical.«194 Codieren Goldstine und von Neumann den Rechner noch direkt, indem sie die zuvor mit Hilfe der ›flow charts‹ strukturieren Befehle in Form von Steckverbindungen in einen der ersten Universalrechner – ENIAC (Electro191 Vgl. Herman H. Goldstine, John von Neumann: ›Planning and Coding Problems for an Electronic Computing Instrument, Part II, Vol 1‹ (1947), in: John von Neumann: Collected Works: Design of Computers, Theory of Automata and Numerical Analysis (hrsg. von Abraham H. Taub), Oxford: Pergamon Press 1963, 5. Bd., 1963, 80–151, S. 81 f. 192 Goldstine, von Neumann, ›Planning and Coding Problems‹, 1963, S. 100, 101, 103. 193 Für Parallelrechner verkompliziert sich die Umsetzung der Programmierung enorm. Vgl. Hesham El-Rewini, Mostafa Abd-El-Barr: Advanced computer architecture and parallel processing, Hoboken: John Wiley & Sons 2005. 194 Goldstine, von Neumann, ›Planning and Coding Problems‹, 1963, S. 81, 82.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

239



240

Kapitel 10  ·  Berechenbarkeit und Anschauung

nic Numerical Integrator and Computer) – einstöpseln, so machen Rechner mit (Programm-)Speicher und höhere Programmiersprachen die Arbeit der Codierung zunehmend einfacher.195 Entsprechend der Church-Turing-These kann jedes intuitiv berechenbare Problem durch eine Turing-Maschine gelöst werden. Algorithmen und Programmiersprachen (formale Sprache zur Formulierung von Datenstrukturen und Algorithmen), die diesen Anforderungen genügen, sind Turing-vollständig. Darunter fallen prozedurale Sprachen wie C oder Fortran, objektorientierte Sprachen wie C++, Fortran90 oder Java, funktionale Programmiersprachen wie LISP und Haskell als auch Logiksprachen wie Prolog.196

Konvergenz als neues Objektivitätskriterium

Das tatsächliche Durchspielen endlich vieler Möglichkeiten, um zu einer Entscheidung zu gelangen, ist eine Möglichkeit, Berechenbarkeit konkret umzusetzen. Die konkrete Umsetzung eröffnet aber auch den Bereich der approximativ-berechenbaren Probleme, die die ›symbolischen Maschinen‹ zur Produktion von Zahlenergebnissen tatsächlich in Form von (numerischer) Berechnung in Betrieb nehmen. Zwar lassen sich diese für einfachere Berechnungen auch per Hand auf dem Papier berechnen, aber die Effektivität menschlicher Rechner ist doch erheblich limitiert im Unterschied zum Computer.197 Daher schlägt hier die maschinelle Realisierung der Berechenbarkeit 195 Schaltungen wurden in ENIAC durch Elektronenröhren, Dioden, Relais, Widerstände und Kondensatoren realisiert. Entsprechend lange dauerte das ›Programmieren‹ des Rechners. »Setting up the ENIAC meant plugging und unplugging a maze of cables and setting arrays of switches. In effect, the machine had to be rebuilt for each new problem it was to solve.« Ceruzzi, A History of Modern Computing, 1998, S. 21. 196 Als erste Programmiersprache gilt Fortran (Formula Translator), die 1954 von John Backus für IBM entwickelt wird und sich schnell in der Wissenschaft durchsetzt. Zum einen, weil sie mit den damals marktbeherrschenden IBM-Computern an die Forschungsinstitute ausgeliefert wird, zum anderen, weil die Konzeption, »a concise, fairly natural mathematical language« für die Programmierung zu verwenden, den Ansprüchen der Wissenschaftler und Ingenieure entgegenkommt. John Backus, Harlan Herrick: ›IBM 701 Speedcomputing and other automatic-programming-systems‹, in: Proceedings of the Symposium Automatic Programming Digital Computers, Washington: Office of Naval Research, Department of the Navy 1954, 106–113, S. 112. Zur Frühgeschichte von Compilern und Fortran vgl. Nicholas Metropolis, Jack Howlett, Gian-Carlo Rota (Hrsg.): A History of Computing in the Twentieth Century, New York: Academic Press 1980; Gabriele Gramelsberger: ›Story Telling with Code‹, in: Andrea Gleininger, Georg Vrachliotis (Hrsg.): Code. Zwischen Operation und Narration, Basel: Birkhäuser 2010, 29–40. 197 Vgl. David A. Grier: When Computers Where Human, Princeton Univ. Press 2005.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Konvergenz als neues Objektivitätskriterium

und der mediale Wechsel des Erkenntnismittels zur elektrischen Schaltung für die Erkenntniskraft der Mathematik erheblich zu Buche. Denn durch diesen medialen Wechsel wird es möglich, komplexere mathematische Gleichungen,198 insbesondere Differentialgleichungen, als dynamische Systeme numerisch zu erforschen. Differentialgleichungen sind Gleichungen für gesuchte Funktionen von einer oder mehreren Variablen, in der auch Ableitungen dieser Funktionen vorkommen können. Differentialgleichungen mit Ableitungen nach einer Variablen sind gewöhnliche, mit Ableitungen nach mehreren Variablen sind partielle Differentialgleichungen. Insbesondere letztere sind für die Darstellung raum-zeitlichen Systemverhaltens für wissenschaftliche Anwendungskontexte der Mathematik wichtig.199 Die numerische Erforschungsmöglichkeit 198 Grundsätzlich sind unterschiedliche Gleichungstypen voneinander zu unterscheiden: Lineare Gleichungen, algebraische Gleichungen, Wurzelgleichungen, Exponentialgleichungen, trigonometrische Gleichungen und Differentialgleichungen. Lineare Gleichungen lassen sich aufgrund des Superpositionsprinzips relativ einfach analytisch lösen. Für algebraische Gleichungen (Polynomgleichungen) lassen sich bis zum vierten Grad allgemeine Lösungsformeln ableiten (Satz von Abel-Ruffini). Algebraische Gleichungen von mindestens zweitem Grad sind nicht-linear, also die quadratische (2. Grad), kubische (3. Grad) oder quartische (4. Grad) Gleichung. Eine quadratische Gleichung hat zwei Lösungen und es gibt Lösungsformeln für diese Art von Gleichung. Bereits René Descartes konnte 1637 in seiner Geometrie zeigen, dass sich quadratische Gleichungen mit Hilfe von Zirkel und Lineal lösen lassen. Der zur quadratischen Gleichung zugehörige Funktionsgraph im kartesischen Koordinatensystem ist eine Parabel mit einem Extrempunkt (Scheitelpunkt). Eine kubische Gleichung hat drei Lösungen, die auch zusammenfallen können. Für reelle Koeffizienten ist der Graph eine kubische Parabel mit zwei Extrempunkten. Kennt man eine der drei Lösungen der kubischen Gleichung, so lässt sich – falls die Lösung rational ist – mit Hilfe der Polynomdivision die Gleichung auf eine quadratische Gleichung rückführen und lösen. Allgemein lässt sich das Lösungsverfahren für kubische Gleichungen durch Lineartransformationen vereinfachen (Tschirnhaus-Transformation). Die Lösungsformeln der quartischen Gleichung schließlich sind unübersichtlich. Die meisten Strategien laufen auf die Reduktion der quartischen Gleichung auf zwei quadratische Gleichungen hinaus. Diese verschiedenen Lösungsstrategien der algebraischen Gleichungen gehören in den Bereich der algebraischen Auflösungstheorie. Bruchgleichungen lassen sich analytisch lösen, wenn sie auf algebraische Gleichungen zurückführbar sind. Für Wurzelgleichungen werden alle Wurzeln durch Potenzieren wegtransformiert und die daraus resultierenden algebraischen Gleichungen, wie beschrieben, gelöst. Exponentialgleichungen sind durch Logarithmen lösbar. Trigonometrische Gleichungen lassen sich durch Parametrisierung der Winkelfunktion lösen. Vgl. Ilja Blechmann, A.D Myskis, J. G. Panovko: Angewandte Mathematik. Gegenstand, Logik, Besonderheiten, Ost-Berlin: VEB Deutscher Verlag der Wissenschaften 1984; René Descartes: Geometrie (1637) (hrsg. von Ludwig Schlesinger), Darmstadt: Wissenschaftliche Buchgesellschaft 1981. 199 Eine Mischform stellen differential-algebraische Gleichungen wie die Euler-Lagrange-Gleichungen dar, die für die Variationsrechnung eine tragende Rolle spielen. Eine

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

241



242

Kapitel 10  ·  Berechenbarkeit und Anschauung

ist dann entscheidend, wenn für die zu untersuchenden Differentialgleichungen keine Lösung analytisch (formal) ableitbar ist. Eine Differentialgleichung ist integrabel, wenn sie analytisch lösbar ist (Lösungsfunktion respektive Integral). Ob gewöhnliche und partielle Differentialgleichungen analytisch lösbar sind, hängt von ihrer Komplexität ab. Für explizite gewöhnliche Differentialgleichungen gibt es eine abgeschlossene Lösungstheorie.200 So ist beispielsweise Thomas Malthus’ Populationsgleichung von 1798 – eine ein­fache lineare Differentialgleichung (ẋ = dx/dt = kx) – analytisch lösbar (x(t) = x0ekt).201 Malthus’ Gleichung lässt sich auch numerisch berechnen, um deren Dynamik zu studieren. Dazu bedarf es eines rekursiven Algorithmus (x(t + h) ≈ x(t) + h(kx(t))), der für jeden Zeitschritt t den konkreten Wert für x eindeutig berechnet. Je kleiner die Diskretisierung der Zeitschrittweite h für t ist, desto mehr nähert sich die konkrete Berechnung der exakten, analytisch deduzierten Lösung an; also desto besser approximiert die numerische Lösung die exakte Lösung. Für partielle Differentialgleichungen hingegen gibt es keine abgeschlossene Lösungstheorie. Die meisten nicht-linearen partiellen Differentialgleichungen sind nicht integrabel, selbst für relativ einfach erscheinende Zusammenhänge (Dreikörperproblem, Doppelpendel, zahlreiche Kreiseltypen, etc.).202 Insbesondere sind nicht-lineare Gleichungssysteme, die mehrere Gleichungen verbinden und daher für die naturwissenschaftliche Anwendung besonders interessant sind, selten integrabel. Numerische Näherungsverfahandere Art von Mischform sind stochastische Differentialgleichungen, in welchen neben der deterministischen Gleichung stochastische Terme auftreten. 200 Gewöhnliche Differentialgleichungen höherer Ordnung lassen sich auf Systeme erster Ordnung reduzieren. Lineare gewöhnliche Differentialgleichungen wie die eulersche, die besselsche oder die hermitesche unterliegen dem Superpositionsprinzip und sind daher in der Regel analytisch lösbar. Nicht-lineare gewöhnliche Differentialgleichung sind wie die lagrangesche, die bernoullische, die jacobische oder die riccatische Differentialgleichung ebenfalls lösbar. Beispielsweise lässt sich die riccatsche Gleichung auf die bernoullische zurückführen und diese wiederum durch Transformationen auf eine lineare Differentialgleichung. Die meisten nicht-linearen partiellen Differentialgleichungen hingegen sind nicht integrabel, selbst für relativ einfach erscheinende Zusammenhänge wie das Drei-Körper-Problem. Der Grund ist, dass in partiellen Differentialgleichungen Ableitungen nach mehreren Variablen auftreten. Dafür gibt es weder allgemeingültige Lösungsstrategien, noch lässt sich der dynamische Einfluss der Variablen aufeinander kognitiv vorstellen und formal fassen. Vgl. Blechmann, Myskis, Panovko, Angewandte Mathematik. Gegenstand, Logik, Besonderheiten, 1984. 201 Vgl. Thomas Robert Malthus: Essay on the Principle of Population, London: Johnson 1798. 202 Einen strukturierten Lösungsansatz stellt die kontinuierliche Gruppentheorie von Sophus Lie dar. Vgl. Lie, Theorie der Transformationsgruppen, 3 Bde., 1888, 1890, 1893.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Konvergenz als neues Objektivitätskriterium

ren stellen daher die einzige Alternative zur fehlenden analytischen Lösbarkeit dar, die jedoch in der Regel umfangreiche Berechnungen erfordern. Eines der bekanntesten nicht-linearen Gleichungssysteme sind die NavierStokes-Gleichungen der Strömungsdynamik, die auch für Wetter- und Klimaprognosen eine wichtige Rolle spielen. Dabei handelt es sich um ein System von nicht-linearen partiellen Differentialgleichungen zweiter Ordnung, das die Änderung des Betrags und der Richtung der Geschwindigkeit eines Fluids (Gase, Flüssigkeiten) gewisser Masse in Abhängigkeit von den einwirkenden Kräften wie Druck, Schwerkraft und Viskosität beschreibt. Die Komplexität dieser Gleichungen hat jedoch zur Folge, dass nicht nur keine analytische Lösung bekannt ist, sondern dass nicht nachgewiesen werden kann, ob es überhaupt eine solche allgemeine Lösung gibt. Zwar lassen sich für manche Spezialfälle, die das Gleichungssystem beispielsweise auf den zweidimensionalen Fall inkompressibler Strömungen reduzieren, Existenzund Eindeutigkeitsaussagen bezüglich einer möglichen analytischen Lösung machen. Doch »könnte man diese Gleichungen allgemein analytisch lösen, so ergäben sich ungeahnte Einblicke in die Natur von Strömungen und Turbulenzen; man würde vieles verstehen, was uns heute noch rätselhaft ist. Hier stehen wir vor einer Situation, in der die Unzulänglichkeit mathematischer Methoden den physikalischen Fortschritt ernsthaft behindert.«203 Aus eben dieser Überwindung der Stagnation der Analysis bezüglich nicht-linearer Probleme durch numerische Näherungslösungen (Simulationen) motivierte sich in den 1940er Jahren der Bau von Computern, wie dies Herman Goldstine und John von Neumann treffend 1946 beschreiben: »The advance of analysis is, at the moment, stagnant along the entire front of non-linear problems. […] We believe, therefore, that it is now time to concentrate on effecting the transition to such [digital] devices, and that this will increase the power of the approach in question to an unprecedented extend.«204 Um Differentialgleichungen numerisch berechnen zu können, müssen die kontinuierlichen Differentialgleichungen in diskrete Differenzengleichungen transformiert werden (Diskretisierung), die dann für einzelne Raum- und Zeitpunkte berechnet werden können. Hier ergibt sich jedoch das nächste Problem, denn es ist nur für lineare Gleichungen beweisbar, dass die numerische Berechnung und die exakte (analytische) Lösung konvergieren. Anders sieht es bei nicht-linearen Differentialgleichungen aus. Der Grund ist folgender: »Da die Diskretisierung nicht eindeutig ist, muß die gewählte Dif203 Ludwig Bergmann, et al.: Lehrbuch der Experimentalphysik: Mechanik, Relativität, Wärme, Berlin: de Gruyter 1998, S. 478, 479. 204 Herman H. Goldstine, John von Neumann: ›On the Principles of Large Scale Computing Machines‹ (1946), in: von Neumann, Collected Works, Bd. 5, 1963, 1–32, S. 2 und S. 4.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

243



244

Kapitel 10  ·  Berechenbarkeit und Anschauung

ferenzenapproximation nicht unbedingt zur richtigen Lösung führen. Die Eindeutigkeit einer Differenzenlösung oder einer anderen finiten Approximation kann heute in der Regel nur für lineare Probleme nachgewiesen werden.«205 Der Preis ist, dass die numerische Berechnung nicht-linearer (partieller) Differentialgleichungen allenfalls approximativ ist und die Mathematik damit ihren epistemischen Anspruch auf Exaktheit aufgeben muss. Denn der Hinweis, dass die Differenzenlösung für nicht-lineare Probleme gegen die (unbekannte) exakte Lösung konvergiert, lässt sich nur über das tatsächlich berechnete Lösungsverhalten kontrollieren. »Der Laxsche Äquivalenzsatz sagt aus, dass der Nachweis der numerischen Stabilität die notwendige und hinreichende Bedingung für die Konvergenz der Lösung darstellt, wenn die Differenzenapproximation konsistent formuliert ist. Unter einer konsistenten Formulierung versteht man, daß die Differenzenapproximation wieder in die zu approximierende Differentialgleichung übergeht, wenn die Abstände der Gitterpunkte gegen Null streben. Eine Differenzenapproximation wird numerisch stabil genannt, wenn bei der Auflösung der resultierenden Differenzengleichungen Abbruch-, Rundungs- und Verfahrensfehler nicht beliebig anwachsen.«206 Stabilität indiziert Konvergenz und Konvergenz wird zum neuen Objektivitätskriterium einer rein numerischen Mathematik. Doch da sich ein eindeutiger Zusammenhang von Stabilität und Konvergenz nur für lineare Probleme 205 Egon Krause: ›Einige grundsätzliche Aspekte numerischer Strömungssimulationen‹, in: Wolfgang E. Nagel (Hrsg.): Partielle Differentialgleichungen, Numerik und Anwendung (Manuskripte der Vorlesungen der Sommerschule vom 2. bis 6. September 1996), Forschungszentrum Jülich, Bd. 18, 1996, 13–24, S. 15. Heute gibt es zahlreiche Online-Bibliotheken für ›PDE-Löser‹ also Diskretisierungsalgorithmen für partielle Differentialgleichungen (PDEs). Das Problem für die Anwendung ist dabei folgendes: »So findet man z. B. schon 1988 […] über 950 verschiedene Finite-Elemente Codes. […] Da man davon ausgehen muß, daß er [Anwender von PDE-Lösern] in seinem eigenen Studium kaum Ausbildung in Theorie und Numerik partieller Differentialgleichungen erhalten hat, und seine Kenntnisse über PDEs daher nicht sehr groß sind, muß man mit zwei sich gegenseitig verstärkenden Schwierigkeiten rechnen: Einmal muß man annehmen, daß ein guter Überblick über die aktuelle Methodenlandschaft fehlt, so daß nicht selten in unbekümmerter Weise die exotischsten Gleichungskombinationen aufgestellt werden, für die dann anschließend nur sehr schwer geeignete Software zu finden ist (wenn es sie denn überhaupt gibt). Zum zweiten verleitet die fehlende Kenntnis dazu, die jeweils zuerst gefundene halbwegs funktionierende numerische Methode zu verwenden, was zu einer ineffizienten und unsicheren Numerik führen kann sowie in der Folge zur Verschwendung personeller Ressourcen und Rechenzeit.« Frederik Fuhrmann, Uwe Kleis, Wolfgang Mackens: ›Partielle Differentialgleichungen und Numerische Software‹, in: Nagel, Partielle Differentialgleichungen, Numerik und Anwendung, 1996, 119–130, S. 119, 120. 206 Krause, ›Einige grundsätzliche Aspekte numerischer Strömungssimulationen‹, 1996, S. 15.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Konvergenz als neues Objektivitätskriterium

beweisen lässt, bleibt für nicht-lineare Probleme, deren exakte Lösung unbekannt ist, nur die Möglichkeit eines ›empirischen‹ Konvergenztests, indem die Auflösung der Diskretisierung verdoppelt wird. Verhält sich die approximierte Lösung für diese Verdoppelung numerisch stabil, ist davon auszugehen, dass die Diskretisierung konsistent ist, also gegen die (unbekannte) exakte Lösung konvergiert. Doch dies ist schwierig zu beurteilen, da je nach Anwendung noch Anfangs- und Randwertprobleme hinzukommen, die ebenfalls zu instabilen Lösungen führen können.207 Insbesondere die Anfangswertprobleme treten bereits lange vor der Realisierung der Berechenbarkeit mit Computern in das Bewusstsein der Mathematiker. 1773 fragt Pierre-Simon Laplace, ob das nicht-lineare Dreikörperproblem sich stabil verhält.208 Er untersucht das Problem rein numerisch anhand von Reihenentwicklungen durch Berechnungen per Hand. Doch er kommt zu keiner Lösung, denn die numerische Konvergenz der Reihenentwicklung ist unsicher. Das heißt, er kann keine Antwort darauf geben, ob sich drei Körper stabil umeinander bewegen oder nicht. Dieses unentscheidbare Problem der Physik erschüttert das Vertrauen in die Stabilität des Sonnensystems und veranlasst den schwedischen König 1885, die Frage nach der Stabilität des Sonnensystems als Preisfrage auszuschreiben. 1890 bringt Henri Poincaré Licht in die Sache, indem er zum einen beweisen kann, dass es keine analytische Lösung für das Dreikörperproblem gibt, da achtzehn statt der zehn klassischen Bewegungsintegrale von Nöten wären.209 Zum anderen kann er zeigen, warum es auch keine eindeutige numerische Lösung geben kann: die Divergenz oder Konvergenz der Reihenbildung hängt von den Anfangsbedingungen der Reihenentwicklung ab. »Es kann der Fall eintreten, dass kleine Unterschiede in den Anfangsbedingungen große Unterschiede in den späteren Erscheinungen bedingen; ein kleiner Irrtum in den ersteren kann einen außerordentlich großen Irrtum für die letzteren nach sich ziehen. Die Vorhersage wird unmöglich und wir haben eine ›zufällige Erscheinung‹.«210 207 Trotz des epistemisch vagen Terrains, auf das sich die angewandte Mathematik mit der Simulation begibt, gewinnt das Studium nicht-linearer (partieller) Differentialgleichungssysteme mit der Einführung von Computern entscheidend an Bedeutung für die außermathematische Anwendung. Denn mit diesen Gleichungssystemen lassen sich komplexe Zusammenhänge beschreiben. 208 Vgl. Pierre-Simon de Laplace: Traité de mécanique céleste, 2 Bde., Paris: Duprat 1798– 1825. 209 Vgl. Henri Poincaré: ›Sur le problème des trois corps et les équations de la dynamique‹, in: Acta Mathematica, 13, 1890, 1–270; Henri Poincaré: Les méthodes nouvelles de la mécanique céleste, 3 Bde., Paris: Gauthier-Villars 1892. 210 Poincaré, Wissenschaft und Hypothese (1902), 1904, S. 56, 57.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

245



246

Kapitel 10  ·  Berechenbarkeit und Anschauung

Im Unterschied zum vorhersagbaren Verhalten linearer Entwicklungen unterliegt das Verhalten komplexer Systeme einer nicht-linearen Dynamik mit zumeist unvorhersagbaren Entwicklungen. Zur Darstellung der komplexen Strukturen der Nicht-Linearität entwickelt Poincaré in den 1890er Jahren das neue Darstellungsmittel der Phasenraumportraits.211 Damit lassen sich die möglichen Zustände eines Systems visuell darstellen, indem jeder Zustand des Systems einem Punkt im Phasenraum entspricht. Beispielsweise erzeugt ein ideales, reibungsfreies Pendel einen Kreis als Phasenraumportrait all seiner möglichen Zustände, ein nicht-reibungsfreies Pendel eine Ellipse. Die Kreis- beziehungsweise Ellipsenbahn ist eine zweidimensionale Darstellung des Orts- und Geschwindigkeitsvektors des Pendels ausgehend vom Koordinatenursprung. Jeder weitere Faktor wie die potentielle Energie des Pendels fügt eine Dimension im Phasenraum hinzu. Das bedeutet, dass der Phasenraum selbst grafisch nur für maximal drei Variablen visualisiert werden kann. Für mehr als drei Variablen entwickelt Poincaré eine Schnitt-Technik zur Dimensionsreduzierung (Poincaré-Schnitte). Mit diesen Schnittbildern lassen sich ›Filme‹ erzeugen, indem man »eine Trajektorie in ihrer zeitlich kontinuierlichen Bewegung im Phasenraum auf eine zeitlich diskrete Folge von Schnittbildern (Punkttransformationen)« abbildet.212 Die Situation verkompliziert sich weiter, wenn von leicht variierenden Anfangsbedingungen ausgegangen wird. Denn unter realen Bedingungen ist jeder Anstoß des Pendels nicht mit dem vorhergehenden exakt identisch. Die Frage ist dann, wie sich die Trajektorien (Entwicklungsbahnen einzelner Lösungen) verhalten. Sind sie ähnlich (Konvergenz) oder driften sie auseinander (Divergenz)? Oder laufen sie gar in sich zurück, wie im Falle des idealen Pendels? In anderen Worten: Wie sehen die Phasenraumportraits dynamischer Systeme aus? Lassen sich unterschiedliche dynamische Phänomene beobachten? Welche mathematischen Objekte verbergen sich im Lösungsraum? Aus diesen Fragen entwickelt sich anhand von Stabilitätsanalysen einzelner Gleichungen die mathematische Theorie deterministischer, nicht-linearer dynamischer Systeme, deren Geschichte Reiner Hedrich als Entdeckung der Komplexität rekonstruiert hat.213 Poincaré, der das Verhalten zweidimensionaler dynamischer Systeme untersucht, kann bereits zwei charakteristische Bewegungsformen ausmachen: Grenzpunkte und geschlossene Orbits (Grenzzyklen). Dadurch gelingt es ihm, den Phasenraum in Regi211

Vgl. Poincaré, Les méthodes nouvelles de la mécanique céleste, 1892. Hedrich: Die Entdeckung der Komplexität. Skizzen zu einer strukturwissenschaftlichen Revolution, Frankfurt: Harri Deutsch 1994, S. 14. 213 Ebd. 212 Reiner

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Konvergenz als neues Objektivitätskriterium

onen zu unterteilen, in welchen sich das System stabil respektive instabil verhält. 1892 nimmt Aleksandr Liapunov eine erste Quantifizierung in Form dynamischer Stabilitätsindizes vor (Liapunov-Exponenten), wobei positive Exponenten Stabilität anzeigen (Konvergenz der Trajektorien) und negative Exponenten Instabilität (Divergenz der Trajektorien).214 Liapunov nutzt für seine Studien zwei Methoden. Eine indirekte Methode, die im Vergleich der bekannten analytischen Lösung einer Differentialgleichung durch Potenzreihenentwicklung für ungestörte respektive minimal gestörte Bewegungen besteht, sowie eine direkte Methode, die es ihm erlaubt, Differentialgleichungen numerisch zu untersuchen, für die keine analytische Lösung bekannt ist. Grundlage für letztere ist »die Konstruktion einer skalaren Funktion V, welche man als Verallgemeinerung einer Potentialfunktion ansehen kann. Die Minima dieser skalaren Funktion V entsprechen stabilen Gleichgewichtszuständen. Es lassen sich hiermit stabiles, asymptotisch stabiles und instabiles Verhalten unterscheiden.«215 1912 führt George Birkhoff die Forschungen von Poincaré und Liapunov weiter und systematisiert sie als Theorie der Dynamical Systems.216 Seine Theorie beschreibt eine Klassifikation von Phasenraumportraits unterschiedlicher Stabilitäten basierend auf zentralen, rekurrenten oder einfach periodischen Bewegungen.217 214 Vgl. Aleksandr Liapunov: ›Probléme général de la stabilité du mouvement‹ (1892), in: Annales de la faculté des sciences de Toulouse, 9, 1907, 203–474; Aleksandr Liapunov: The general problem of the stability of motion (1892), London: Taylor & Francis 1992. 215 Hedrich, Die Entdeckung der Komplexität, 1994, S. 35. Schon Lagrange wie auch Dirichlet nutzten die direkte Methode für Stabilitätsanalysen. 216 Vgl. George D. Birkhoff, Harry S. Vandiver: ›Quelques théorèmes sur le mouvement des systèmes dynamiques‹, in: Bulletin de la Société Mathématique de France, 40, 1912, 303–323; George D. Birkhoff: Dynamical Systems, New York: American Mathematical Society 1927. 217 In den 1950er Jahren formulieren Andrej Kolmogorov und Kollegen das Kolmogorow-Arnold-Moser-Theorem (KAM-Theorem), das die Existenz von quasi-periodischen Lösungen für eine gewisse Klasse von Differentialgleichungen postuliert. Das KAMTheorem spielt in der Mechanik eine wichtige Rolle, da es das mit dem Übergang von integrablen hamiltonschen Systemen zu nicht-integrablen hamiltonschen Systemen verbundene Lösungsverhalten erfasst. Damit ist es möglich, wie später Vladimir Arnold und Jürgen Moser beweisen, dass sich integrable Systeme für störungstheoretische Untersuchungen nicht-integrabler Systeme eignen. Dies wird für die frühen Teilchenbeschleunigungsexperimente am CERN relevant, insofern sich beschleunigte Teilchenbewegung als nahezu hamiltonisch auffassen lässt. Vgl. Andrej Kolmogorov: ›General Theory of Dynamical Systems and Classical Mechanics‹ (1954), in: Mathematics and Its Applications (Soviet Series), 25, 1991, 355–374. Zum KAM-Theorem vgl. Hedrich, Die Entdeckung der Komplexität, 1994, S. 19 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

247



248

Kapitel 10  ·  Berechenbarkeit und Anschauung

Poincaré, Liapunov und Birkhoff beschäftigen sich mit der numerischen (In-)Stabilität von Trajektorien bezüglich variierender Anfangsbedingungen. Eine andere Perspektive auf dynamische Systeme ergibt sich durch die Frage, wie sich nicht-lineare Systeme unter variierenden Systemparametern bei gleichbleibenden Anfangsbedingungen verhalten. Dieses als strukturelle (In-)Stabilität bezeichnete Verhalten ergibt sich aus technischen Anwendungen im Kontext nicht-linearer elektrischer Oszillatoren Anfang der 1930er Jahre.218 Für technische Systeme sind die realen Systemparameter nie exakt, daher kann eine mathematische Beschreibung nur praktikabel sein, wenn die formulierten Gleichungen nicht zu sensitiv auf variierende Systemparameter reagieren, sondern ›robust‹ sind. Schließlich vereint Stephen Smale in den 1960er Jahren unter der Bezeichnung ›global analysis‹ beide Perspektiven – dynamische Instabilität (variierende Anfangsbedingungen) und strukturelle Instabilität (variierende Systemparameter) – als »modern way of looking at differential equations« im Sinne eines qualitativen Ansatzes mit dem Ziel, »to obtain information on the phase portrait of differential equations«.219 Er kann beweisen, dass die Parametersensitivität von Systemen zu spontanen ›Bifurkationen‹ (Abzweigungen) führen können, die mit einem komplett anderem Systemverhalten einhergehen.220 218 Vgl. Alexander A. Andronov: ›Mathematical problems of the theory of self-oscillations‹ (1933), in: Ders.: Andronov’s Collected Works, Moskau: Izvestija Akademii Nauk SSSR 1956, 85–124. 219 Stephen Smale: ›What is Global Analysis‹, in: The American Mathematical Monthly, 76 (1), 1969, 4–9, S. 4. »My definition of global analysis is simply the study of differential equations, both ordinary and partial, on manifolds and vector space bundles. Thus, one might consider global analysis as differential equations from a global, or topological point of view.« Smale, ›What is Global Analysis‹, 1969, S. 4. Vgl. Stephen Smale: ›On Dynamical Systems‹, in: Bulletin of the Mathematical Society Mexicana, 5, 1960, 195–198. 220 Das Konzept der ›Bifurkation‹ als Fallunterscheidung von geometrischen Lösungen untersucht bereits Carl Gustav Jacobi 1834 im Kontext der Frage, welche Gestalt die Erde unter Rotations- und Gravitationskräften hat. Entgegen den »sehr groben Irr­ thum«, dass »beide Umdrehungsellipsoide […], wenigstens unter Flächen zweiter Ordnung, die einzigen Figuren des Gleichgewichts« seien, gelangt Jacobi zur Fallunterscheidung zweier möglichen Figuren anhand derselben Gleichung: abgeplattetes gleichaxiges Umdrehungsellipsoid oder reelles ungleichaxiges Elliposid. Carl Gustav Jacobi: ›Über die Figur des Gleichgewichts‹, in: Poggendorf Annalen der Physik und Chemie, 33, 1834, 29–33, S. 20. Eberhard Hopf untersucht in den 1940er Jahren ›Bifurkationen‹ als Verzweigungsfall im numerischen Lösungsverhalten für thermodynamische Systeme. Er kann zeigen, dass entweder die periodischen Lösungen nach ›Unstabilwerden‹ der stationären Lösung von dieser abzweigt oder die periodischen Lösungen selbst unstabil werden. Vgl. Eberhard Hopf: ›Abzweigungen einer periodischen Lösung einer stationären Lösung eines Differentialgleichungssystems‹, in: Berichte der Verhandlungen der Sächsischen Akademie der Wissenschaften Leipzig, Mathematisch-Physische Klasse, 94, 1942, 1–32.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Was zeigt sich?

Ein solcher Wechsel des Systemverhaltens zeigt sich bereits für so einfache nicht-lineare Systeme wie die 1837 von Pierre François Verhulst formulierte logistische Gleichung. Die Gleichung erweist sich als nützlich dabei, das Wachstumsverhalten einer Population bei endlichen Ressourcen zu untersuchen, und stellt damit eine komplexere Beschreibung als die Gleichung von Malthus dar. Dennoch geht das Verständnis des berechneten Systemverhaltens lange Zeit nicht über zyklisches Verhalten hinaus.221 Erst Stanislav Ulam erkennt Ende der 1940er Jahre den stochastischen Charakter der logistischen Gleichung und nutzt diesen zur Erzeugung von Zufallszahlen auf ENIAC.222 Mitte der 1970er Jahre können Mitchell Feigenbaum wie auch Siegfried Grossmann und Stefan Thomae zeigen, wieso die logistische Gleichung ab einem bestimmten Parameterbereich in Zufall umschlägt. In Abhängigkeit von den Werten des Systemparameters r (Verhältnis der Vermehrung/Verminderung einer Population) verzweigt sich die Lösung von konvergentem Verhalten in ein alternierendes Verhalten, das ab einem bestimmten Wert des Systemparameters durch Periodenverdopplungen in chaotisches Lösungsverhalten mündet.223

Was zeigt sich?

Die Rede von ›Chaos‹ in deterministischen, nicht-linearen Gleichungen mutet Mitte der 1970er Jahre exotisch an und nur wenige Mathematiker und Naturwissenschaftler interessieren sich für die Irregularitäten nicht-linearer Sys221 »Das Komplexeste, was für die Beteiligten [Alfred Lotka, Vito Volterra] bis in die dreissiger Jahre noch vorstellbar war, war zyklisches Verhalten. Das Potenzial der verwendeten Modelle wurde weder erkannt, noch ausgeschöpft.« Hedrich, Die Entdeckung der Komplexität, 1994, S. 54. Vgl. Alfred Lotka: Elements of Physical Biology, Baltimore: Williams & Wilkins 1925; Vito Volterra: Leçons sur la théorie mathématique de la lutte pour la vie, Paris: Gauthier-Villars 1931. 222 Aus diesen Studien wird sich die Monte-Carlo-Methode zur Erzeugung von Zufallsläufen entwickeln, die von Ulam und Kollegen in den 1940er Jahren in Los Alamos im Kontext der Atombombenforschung entwickelt wurde, um Realexperimente durch Simulationsläufe zu ersetzen. Vgl. zur historischen Rekonstruktion der MonteCarlo-Methode Peter Galison: ›Computer Simulations and the Trading Zone‹, in: Peter Galison, David J. Stump (Hrsg.): The Disunity of Science. Boundaries, Contexts, and Power, Stanford: Stanford University Press 1996, S. 118–157; Stanislav Ulam: ›Random Processes and Transformations‹, in: Proceedings of the International Congress of Mathematics, 2. Bd., 1950, 264–275. 223 Vgl. Mitchell J. Feigenbaum: ›The universal metric properties of nonlinear transformations‹, in: Journal of Statistical Physics, 21, 1979, 669–706; Siegfried Grossmann, Stefan Thomae: ›Invariant distributions and stationary correlation function of one-dimensional discrete processes‹, in: Zeitschrift für Naturforschung, 32, 1977, 1353–1363.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

249



250

Kapitel 10  ·  Berechenbarkeit und Anschauung

teme. Dies hat verschiedene Gründe. Zum einen bewegt sich die Physik im Paradigma der Lösung von Problemen durch Koordinatentransformationen (Invarianz). »Dies verleitete dazu, anzunehmen, jedes mechanische Problem sei in den geeigneten Koordinaten einfach darstellbar, die Schwierigkeit sei vielmehr das Auffinden der geeigneten Koordinaten […] obwohl schon [… in den 1890er Jahren] Bruns und Poincaré gezeigt hatten, dass es diese ›geeigneten Koordinaten‹ schon etwa für das relativ einfache Dreikörperproblem nicht geben kann und die Trajektorien sich nicht in ein regulär erscheinendes Bild transformieren lassen.«224 Damit entgeht den Forschern ein tieferes Verständnis der inhärenten Dynamik und Struktur komplexer Systeme, die sie numerisch erforschen. Zweitens bedarf es leistungsstarker Computer, um die Analyse des Phasen- und Zustandsraums eines Gleichungssystems und seiner Gebilde in größerem Umfang voranzutreiben. Drittens ist Konvergenz im Nicht-Linearen aufgrund der ›empirischen‹ Konvergenztests ein problematisches Objektivitätskriterium, das allenfalls Plausibilität versprechen kann. Doch eine Mathematik wie auch Wissenschaft, die sich zunehmend auf das Studium nicht-linearer Gleichungen konzentriert, muss sich zwangsläufig mit deren Dynamik auseinandersetzen.225 Deutlich wird dies bereits 1963, als Edward Lorenz in einer vereinfachten Konvektionsgleichung einer Wettersimulationen – formuliert als 3-VariablenProblem – nach zahlreichen Iterationen aufgrund gerundeter Anfangswerte chaotisches Verhalten entdeckt.226 Er kann zusehen, wie die Lösung für die Y-Trajektorie seiner Gleichung über charakteristische Zwischenschritte ins Chaos evolviert: »[…] by step 85 the system has reached steady state not far from that of steady convection. Between steps 85 and 150 it executes a complete oscillation in its intensity, the slight amplification being almost indetectable […] until step 1650. At this point a critical state is reached, and thereafter Y changes sign at seemingly irregular intervals, reaching sometimes one, sometimes two, and sometimes three and more extremes of one sign 224 Hedrich, Die Entdeckung der Komplexität, 1994, S. 28. In den Worten eines Physikers Ende der 1980er Jahre: »This phenomenon is called chaos today, and the name reflects accurately the fact that we do not really know what is going on. The physics community has finally waked up to this unpleasant reality in the last decade, and there is a chance that even the particle theorists will finally become aware of this bug in their world full of nonlinear field theories.« Martin C. Gutzwiller: ›Chaos and Symmetry in the History of Mechanics‹, in: Il Nouvo Cimento, 11 (1–2), 1989, 1–17, S. 2. 225 Vgl. Klaus Mainzer, Walter Schirmacher (Hrsg.): Quanten, Chaos und Dämonen. Erkenntnistheoretische Aspekte der modernen Physik, Leipzig u.a.: BI Wissenschaftsverlag 1994. 226 Vgl. Edward N. Lorenz: ›Deterministic Nonperiodic Flow‹, in: Journal of the Atmospheric Sciences, 20 (2), 1963, 130–141.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Was zeigt sich?

before changing sign again.«227 Was Lorenz hier in seinen Daten nach 1650 Iterationen entdeckt, ist chaotisches Verhalten und ein neues mathematisches Objekt (Lorenz-Attraktor), das Smale später als »an extreme vertex (attractor)« im Lösungsverhalten bezeichnen wird.228 Ein solches extremes Verhalten ist kein fiktives Computerproblem. Es lässt sich sowohl in der Natur als auch in hydrodynamischen Experimenten beobachten. Insbesondere Osborn Reynolds hatte sich im 19.  Jahrhundert mit dem Übergang von laminaren Strömungen zu chaotischen Verwirbelungen befasst. Mithilfe von Rauch, dem Einspritzen von farbiger Flüssigkeit in einen Wassertank oder mit Seifenblasen machte er in aufwendigen Experimenten das Verhalten verschiedener Strömungsmuster sichtbar und experimentell analysierbar.229 Lorenz entdeckt nun ähnliche Phänomene in seinem approximativ-berechneten 3-VariablenProblem. Für die Wissenschaft bedeutet dies die prinzipielle Unvorhersagbarkeit des Wetters über einen längeren Zeitraum.230 Doch erst 1976 wird die Theorie dynamischer Systeme einer breiten Fachöffentlichkeit durch Robert Mays Überblicksartikel zu Simple mathematical models with very complicated dynamics bekannt.231 Der Begriff des Chaos macht die Runde, aber auch das Konzept des Attraktors. Dabei stellen chaotische Attraktoren komplexere Gebilde dar als die bereits von Poincaré identifizierten Grenzpunkte und Grenzzyklen, insofern sie zu unvorhersagbarem Verhalten, also ins Chaos, führen. Dies macht deutlich, dass Vorhersagbarkeit und Zufall in deterministischen Systemen näher beieinanderliegen als bis 227

Lorenz, ›Deterministic Nonperiodic Flow‹, 1963, S. 137. Stephen Smale: ›Differentiable dynamical systems‹, in: Bulletin of the American Mathematical Society, 73, 1967, 747–817, S. 784. 229 Osborn Reynolds gelang es, mit diesen Experimenten den Übergang von laminaren zu turbulenten Strömungen aufzuklären. Durch das Studium der Größen der NavierStokes-Gleichung konnte er eine dimensionslose Verhältniszahl, die so genannte Reynoldszahl, ableiten. Diese Zahl gibt das Verhältnis zwischen kinetischer Energie und Reibungsenergie an und charakterisiert den Zustand einer Strömung, das heißt, mit zunehmender Reynoldszahl überwiegt der Anteil der kinetischen Energie. Ab einer Reynoldszahl von 103 verhält sich die Strömung, abhängig von den Randbedingungen, turbulent. Vgl. Osborn Reynolds: ›On Vortex Motion‹ (1877), in: Ders.: Papers on Mechanical and Physical Subjects, Bd. 1, Cambridge: Cambridge University Press 1900, 184–192. 230 Dies gilt auch für aktuelle Wettersimulationen. Allerdings behelfen sich Meteorologen mit Messdaten. Das heißt, jede numerisch berechnete Wetterprognose wird alle sechs Stunden mit aktuellen Messdaten als Anfangswerte neu gestartet. Dies setzt eine flächendeckende Erfassung durch Satelliten als auch die Echtzeitverarbeitung der Messdaten voraus, wie es ab den 1990er Jahren üblich wird. Damit verlängert sich die Vorhersagekraft der numerischen Wettermodelle von drei auf sieben Tage. 231 Vgl. Robert M. May: ›Simple mathematical models with very complicated dynamics‹, in: Nature, 261, 1976, 459–467. 228

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

251



252

Kapitel 10  ·  Berechenbarkeit und Anschauung

dahin gedacht. Aus epistemischer Perspektive betrachtet gehen Grenzpunkte, Grenzzyklen und Torus-Attraktoren mit vorhersagbarem, da wiederholbarem (integrablem) Verhalten einher, während chaotische Attraktoren unvorhersagbares, nicht-wiederholbares (nicht-integrables) Verhalten anzeigen. So folgt ein Pendel, das unter Reibungsbedingungen einem Ruhepunkt zustrebt, einem Fixpunktattraktor (Grenzpunkt); eine stabile Oszillation folgt einem einfachen Grenzzyklus und eine quasi-periodische Bewegung einem TorusAttraktor. Chaotische Attraktoren hingegen bedeuten unvorhersagbares Verhalten. Benötigte der Computer, den Lorenz 1967 benutzte, noch eine Sekunde pro Iteration,232 so verfügen aktuelle Supercomputer über eine Leistung von Billiarden Rechenoperationen pro Sekunde.233 Damit sind höherdimensionale Gleichungssysteme für zunehmend feinere räumliche wie zeitliche Auflösungen approximativ-berechenbar und somit numerisch erforschbar. Deren Resultate sind nicht mehr als Zahlenkolonnen erfassbar, sondern nur noch visualisiert als Datenbilder (jeder numerische Wert entspricht gemäß einer festgelegten Farbzuordnung einem Pixel) oder übersetzt in Figuren wie gemittelte Werte, Kurvenverläufe, Attraktoren und andere Formen.234 Damit kehrt die Mathematik mit der erkenntnismittelgeleiteten Anschaulichkeit wieder zur Figur zurück. Allerdings handelt es sich dabei nicht um geometrische Figuren wie in der euklidischen Geometrie. Die Frage ist: Was zeigt sich hier tatsächlich? Wie bereits die Diskussion um die Anschaulichkeit der Wellenmechanik von Schrödinger und Heisenberg demonstrierte, war es die gewohnte symbolische Anschauung von Elektronenbahnen, die sich im mathematischen Formalismus zeigte. Diese war zwar nicht mit der apparativen Anschauung in Einklang zu bringen, aber sie verwendete »die mathematischen Methoden 232 »The computations have been performed on a Royal McBee LGP-30 electronic computing machine. Approximately one second per iteration, aside from output time, is required.« Lorenz, ›Deterministic Nonperiodic Flow‹, 1963, S. 136, 137. Wie viele Rechenoperationen einer Iteration entsprechen, gibt Lorenz leider nicht an. 233 Seit 2018 haben die Supercomputer die ›exascale‹ Grenze mit mehr als 1018 ›floating point operations per second‹ (flops) überschritten. Die TOP500 Liste ermittelt halbjährlich die weltweit schnellsten Supercomputer. Vgl. TOP500, November 2019. 234 Zur Bildlichkeit der Simulation vgl. Inge Hinterwaldner: ›Simulationsmodelle. Zur Verhältnisbestimmung von Modellierung und Bildgebung in Echtzeitsimulationen‹, in: Ingeborg Reichle, Steffen Siegel, Achim Spelten (Hrsg.): Visuelle Modelle, München: Fink 2008, 301–314; Inge Hinterwaldner, Markus Buschhaus (Hrsg.): The Picture‹s Image. Wissenschaftliche Visualisierung als Komposit, München: Fink 2006; Inge Hinterwaldner: Das systemische Bild. Ikonizität im Rahmen computerbasierter Echtzeitsimulationen, München: Fink 2010.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Was zeigt sich?

der partiellen Differentialgleichungen, die jedem Physiker geläufig sind«.235 Im Gegensatz dazu wurde der Formalismus der Matrizenmechanik als ›abstoßend unanschaulich‹ empfunden. Dieser Bruch mit der Gewohnheitserfahrung von Mathematikern und Physikern war ein epistemischer Bruch bezüglich der in den mathematischen Formalismen inkorporierten zeitlichen Anschauung, die sich eben nicht mehr als Bahnen, Wellen, Linien oder Kurven verräumlicht zeigte. Kann das geschulte ›Auge des Geistes‹ an einfachen Gleichungen die graphische Gestalt der Lösung sofort zur Vorstellung bringen, so ändert sich dies mit den neuen Erkenntnismitteln wie der Matrizenmechanik oder den nicht-linearen Differentialgleichungssystemen. Die im Formalismus verborgene Zeitlichkeit bedarf der operativ-instrumentellen Realisierung in der Anschaulichkeit. Daher sind die in den nicht-linearen Gleichungen verborgenen Gestalten keine Bilder statischer Figuren. Was sich hier zeigt, ist Mathematik als formale (Zeichen-)Sprache in Aktion und das sorgte für manche Überraschung, wie die logistische Gleichung oder Lorenz’ vereinfachte Konvektionsgleichung deutlich machten. Was dabei anschaulich wird, sind die komplexen Ordnungen des Nacheinanders des Mannigfaltigen, die sich in der Operativität der Formalismen verbergen und durch die Anschaulichkeit der konkreten Berechnung ›entborgen‹ werden müssen.236 Martin Heideggers Begriff des ›Entbergens‹ als technischer passt hier bestens auf das Entbergen der Zeitlichkeit der inhärenten Dynamik der mathematischen Operativität durch den Computer. »Das Entscheidende der τέχνη liegt somit keineswegs im Handeln und Hantieren, nicht im Verwenden von Mitteln, sondern in dem genannten Entbergen. Als dieses, nicht aber als Verfertigen, ist die τέχνη ein Her-vor-bringen.«237 Insbesondere das, was nicht formal zur Anschauung gebracht werden kann, bedarf des instrumentelltechnischen Her-vor-bringens als visualisierte Anschaulichkeit. Was sich hier zeigt, sind die wirklichkeitskonstituierenden Funktionen der zur mathematischen Methode geronnenen Rationalität in ihrer Technizität.

235

Born, ›Die statistische Deutung der Quantenmechanik‹, 1962, S. 6. Eventuell erfüllt sich damit Husserls Forderung, dass die »verborgene Dimension des ›Transzendentalen‹ wirklich zu Gesicht, zu direkter Erfahrung« kommen soll. Husserl, Die Krisis der europäischen Wissenschaften (1935), 1996, S. 112 237 Martin Heidegger: ›Die Frage nach der Technik‹ (1949), in: Ders.: Die Technik und die Kehre, Stuttgart: Cottasche Buchhandlung 1962, S. 13. 236

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

253

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

TEIL IV OPER ATIVE EPISTEMOLOGIE

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 11 Ausgangsbedingungen der operativen Epistemologie Frage nach der Anwendbarkeit der Mathematik

Die bisherige Analyse hat gezeigt, dass sich die Mathematik durch den Wechsel von der geometrischen Figur zur algebraischen Zeichensprache und schließlich zur elektrischen Schaltung der Rechner nicht nur in ihrer Medialität verändert, sondern dass dieser Wechsel mit dem Verlust der Anschauung und damit einem Wandel der Objektivitätskriterien einhergeht. Innermathematisch sichern Konstruierbarkeit und Berechenbarkeit (Entscheidbarkeit) die Existenzansprüche, außermathematisch formulieren Invarianz und Konvergenz die neuen Objektivitätskriterien. Der Preis dafür ist, dass der Evidenzcharakter der Objektivitätskriterien in Bezug auf das Direkt-Erfahrbare abnimmt. Invarianz bedarf des nachgelagerten Aufweises der apparativen Anschauung und Konvergenz der berechneten Anschaulichkeit. Der Gewinn ist jedoch, dass die Mathematik tiefer blickt und weiter reicht als je zuvor. Dies dokumentiert sich in den neuen physikalischen Theorien der Quantenmechanik und der Relativitätstheorie wie auch in der Möglichkeit, komplexe (nicht-lineare) Systeme numerisch-approximativ zu erforschen. Fragt man jedoch danach, wie sich die Anwendbarkeit der modernen Mathematik erklären lässt, dann stößt man auf massive philosophische Probleme.1 Bereits Albert Einstein rätselte, »wie es möglich [sein kann], daß die [moderne] Mathematik, die doch ein von aller Erfahrung unabhängiges Produkt des menschlichen Denkens ist, auf die Gegenstände der Wirklichkeit so vortrefflich paßt?«2 Denn zum einen muss sich die aktuelle Mathematik mit ihren axiomatisierten Kalkülen auf keine bekannte Wirklichkeit mehr beziehen, zum anderen hantiert die moderne Wissenschaft in Dimensionen 1 Es gibt erstaunlich wenig Literatur zur Anwendungsfrage der Mathematik. Eine Studie ist die bereits ausführlich diskutierte von Mark Steiner. Ein weitere ist die von Torsten Wilholt zu Zahl und Wirklichkeit. Leider arbeitet sich Wilholts Studie ausschließlich an der ontologischen Differenz abstrakter und konkreter Gegenstände und an der repräsentationstheoretischen Forderung der Isomorphie zwischen beiden Bereichen ab. Vgl. Steiner, The Applicability of Mathematics as a Philosophical Problem, 1998; Torsten Wilholt: Zahl und Wirklichkeit. Eine philosophische Untersuchung über die Anwendbarkeit der Mathematik, Paderborn: Mentis 2004. 2 Albert Einstein: Geometrie und Erfahrung (Erweiterte Fassung des Festvortrages gehalten im Januar 1921 an der Preußischen Akademie der Wissenschaften zu Berlin), Berlin: Julius Springer 1921, S. 3.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



258

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

jenseits der direkten raumzeitlichen Erfahrbarkeit. Dadurch wird Kants Frage nach der Rolle des Subjekts als objektivitäts- und damit wirklichkeitskonstituierende Instanz scheinbar obsolet. Denn nicht nur die Mathematik entwickelt sich ins ›Nichtwirkliche‹ der bloß logischen Möglichkeit, sondern auch die Philosophie verbannt das Subjekt mit der sprachanalytischen Wende. Freges Methode der Begriffsdefinition durch Ersetzung ›salva veritate‹ wird zur einzig objektiven Methode erklärt und das erkenntnistheoretische Sprechen über Urteile (Subjekte und Prädikate) transformiert sich in ein bedeutungstheoretisches Sprechen über Propositionen und Sätze. Logische Gesetze basieren für Frege auf dem »Gebiet des Objectiven, Nichtwirklichen« und Begriffe sind daher für ihn keine Vorstellungen von Subjekten.3 Erkenntnistheorie wird dadurch insgesamt als psychologistisch diskreditiert. Das Problem dieser Entwicklung der Mathematik – wie auch der Philosophie als Reflexionsinstanz – ins Nichtwirkliche ist jedoch, dass auch die moderne Wissenschaft erfolgreich mit der Welt interagiert, sie verändert und erweitert und damit den wirklichkeitskonstituierenden Einfluss ihrer Rationalität demonstriert. Bereits Cassirer hat darauf verwiesen, dass den Logizisten die Welt ein ewig unbegriffenes Problem bleibe,4 lange bevor Willard van Orman Quine Analytizität generell kritisiert und damit die analytische Urteilstheorie im Kontext der Wissenschaftstheorie in Misskredit bringt.5 Was nach diesen Revisionen übrig bleibt, sind tautologische und empirische Urteile, die die dichotome Unvermitteltheit mathematischer und empirischer Objekte im aktuellen mathematikphilosophischen Diskurs begründen. Doch die Frage nach dem Wirklichen kann im Kontext der Anwendbarkeit der Mathematik nicht ignoriert werden. Ohne im Sinne des Realismus von der Wirklichkeit mathematischer Objekte per se ausgehen zu wollen, ist daher zu fragen, welche wirklichkeitskonstituierenden Funktionen die zur mathematischen Methode geronnene Rationalität in ihrer Technizität aufweist und worin diese begründet sind. Die Frage nach der Wirklichkeit der Mathematik markiert daher die Ausgangsbasis der operativen Epistemologie, denn solange mathematische (abstrakte) Objekte und empirische (konkrete) Objekte unvermittelt gegenübergestellt werden, führt die Frage nach der Anwendbarkeit zu realistischnominalistischen Spekulationen über repräsentationstheoretische Isomorphiebehauptungen oder metaphysische Annahmen. Da aber ontologische und noch mehr metaphysische Fragestellungen der modernen Philosophie mit 3 Frege,

Grundgesetze der Arithmetik (1893), 1966, S. XVIII. Vgl. Cassirer, ›Kant und die moderne Mathematik‹, 1907. 5 Vgl. Quine, ›Two dogmas of empiricism‹ (1951), 1961. 4

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Frage nach der Anwendbarkeit der Mathematik

der Wende ins Sprachanalytische suspekt geworden sind, nimmt die aktuelle Debatte eine eigenartige Position gegenüber der Anwendungsfrage ein.6 Entweder sie desavouiert die Anwendungsfrage weitgehend oder erklärt das Anwendungsproblem als semantisches für geklärt.7 Oder sie geht pauschal von bereits realisierten mathematisierten Theorien aus. Letztere Haltung resultiert aus der Umdeutung des Realismus von einem Platonismus, wie er noch im Grundlagenstreit zu Beginn des 20. Jahrhunderts dominant war,8 in einen Naturalismus. Dieser basiert auf Quines Dogma, dass ontologisch einzig ein Kommitment in Form der Feststellung ›there is‹ denkbar ist. In den Worten Quines: »To be assumed as an entity is, purely and simply, to be the value of a variable. […] But this is, essentially, the only way we can involve ourselves in ontological commitments: by our use of bound variables.«9 Bezogen auf die Wissenschaft bedeutet dies ein ontologisches 6 Vgl. Carnap, ›Überwindung der Metaphysik durch logische Analyse der Sprache‹, 1931/32. 7 Vgl. Wilholt, ›Lost on the Way from Frege zu Carnap: How the Philosophy of Science Forgot the Applicability Problem‹, 2006. Mark Steiner ist der Meinung, dass »Frege adressed this semantical problem and solved it. […] Maybe without even intending to, Frege disposed of the metaphysical ›problem‹ of applicability.« Steiner, The Applicability of Mathematics, 1998, S. 17 und S. 19. Frege hatte erklärt, dass »Anwendungen der Arithmetik zur Naturerklärung […] die logische Bearbeitung von beobachteten Thatsachen« wären. Frege, Grundlagen der Arithmetik, 1988, § 87. Weiter betrachtete er die Anwendungsfrage als semantisches Problem der doppeldeutigen Rede von Numeralen als Namen abstrakter Gegenstände wie auch als Eigenschaften konkreter Objekte. Deren Doppeldeutigkeit ließe sich dadurch auflösen, so Frege, dass Numerale als Aussagen von Begriffen definiert seien, die Zahlen als Gegenstände behandeln. Ob damit das Anwendungsproblem als philosophisches Problem tatsächlich gelöst ist, ist zu bezweifeln. 8 Paul Bernays beklagt, dass auch unter Mathematikern die Position weit verbreitet sei, mathematische Gegenstände als Gesamtheit »losgelöst von aller Bindung an das seiende Subjekt zu betrachten«, obwohl es für die Mathematik eigentlich »unmöglich ist, folgende Dinge miteinander in Einklang zu bringen: den Gedanken der Gesamtheit aller mathematischer Gegenstände und die allgemeinen Begriffe von Menge und Funktion«. Bernays, ›Über den Platonismus in der Mathematik‹ (1935), 1976, S. 63. Nicht nur Frege, sondern auch Cantor, Russell und Gödel gelten als Platonisten, die von der eigenständigen Existenz mathematischer Objekte ausgehen und diese nicht nur als Resultate der mechanischen Ableitbarkeit verstehen. Sprach Frege abfällig vom ›Formeln‹ in Bezug auf Hilberts Formalismus, so bezweifelt Gödel die maschinelle Generierbarkeit von Axiomen, »denn eben dieses Evidentwerden immer neuerer Axiome auf Grund des Sinnes der Grundbegriffe ist etwas, was eine Maschine nicht nachahmen kann«. Kurt Gödel: ›The modern development of the foundations of mathematics in the light of philosophy‹ (1961), in: Gödel, Collected Works, 3. Bd., 1995, 374–386, S. 384. 9 Willard van Orman Quine: ›On what there is‹, in: Review of Metaphysics, 2, 1948/49, 21–38, S. 32 und S. 31. »The variables of quantification, ›something‹, ›nothing‹, ›everything‹ range over our whole ontology, whatever it may be; and we are convicted of a particular ontological presupposition if, and only if, the alleged presuppositum has to be

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

259



260

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

Bekenntnis zu jenen Entitäten, die für unsere ›besten wissenschaftlichen Theorien‹ als unverzichtbar gehalten werden.10 Zu diesen Entitäten gehören aber auch theoretische und mathematische Entitäten, also jene abstrakten Objekte, die den konkreten Objekten üblicher Weise entgegengesetzt werden. In Quines normativer Lesart ergibt sich aufgrund der Unverzichtbarkeitsthese nun der ontologische Status abstrakter Objekte automatisch als real existierende. Real ist dabei ontisch als raumzeitliche Gegebenheit zu verstehen und gibt damit dem Realismus eine naturalistische Deutung. An Quines naturalistischem Dogma der »objectual existential quantifier« arbeitet sich vor allem die anglo-amerikanische Mathematikphilosophie bis heute ab, die zudem die aktuelle Mathematikphilosophie insgesamt dominiert.11 Wie mathematische Objekte als ontische zu denken sind – ob als kausal aktiv oder inaktiv –, wird dabei zum Grundproblem der Mathematikphilosophie.12 Dieses Problem setzt sich in der epistemischen Fragestellung fort, wie ›justified, true belief‹ in mathematische Objekte möglich sein soll. Die Antwort ist eine kausale Theorie des Wissens, die jedoch voraussetzt, dass mathematische Objekte kausal wirken, und diese Voraussetzung ist mehr als fragwürdig.13 Einen anderen Versuch einer naturalistisch inspirierten Epistemologie unternimmt Penelope Maddy mit ihrer Frage, wie ›intuitive belief in sets‹ möglich ist. Basierend auf der Reduktion jeglicher Mathematik auf mengentheoretische Darstellungen argumentiert sie, dass bereits ein Blick auf einen Karton Eier die Wahrnehmung eines ›set of three eggs‹ ist.14 Diese Argureckoned among the entities over which our variables range in order to render one of our affirmations true.« Quine: ›On what there is‹, 1948/49, S. 32. 10 Quine entwickelt das Unverzichtbarkeitsargument in verschiedenen Texten. Für eine Übersicht vgl. Michael Resnik: ›Scientific and mathematical realism: The indispensability argument‹, in: Philosophia Mathematica, 3, 1995, 166–174; Mark Colyvan: The Indispensability of Mathematics, Oxford: Oxford University Press 2001. 11 Jody Azzouni: Deflating Existential Consequences. A Case for Nominalism, Oxford: Oxford University Press 2004, S. 6. 12 Vgl. John Bigelow: The Reality of Numbers: A Physicalist’s Philosophy of Mathematics, Oxford: Clarendon 1988; Penelope Maddy: Realism in Mathematics, Oxford: Clarendon 1990; Penelope Maddy: Naturalism in Mathematics, Oxford: Clarendon 1997; Michael Resnik (Hrsg.): Mathematical Objects and Mathematical Knowledge, Aldershot: Dartmouth 1995. 13 Vgl. Paul Benacerraf: ›Mathematical truth‹ (1973), in: Benacerraf, Putnam, Philosophy of Mathematics, 1983, 403–420; Edmund Gettier: ›Is justified true belief knowledge?‹, in: Analysis, 23, 1963, 121–123; Alvin I. Goldman: ›A Causal Theory of Knowing‹, in: The Journal of Philosophy, 64 (12), 1967, 357–372. Zur Kritik dieser Theorie vgl. Kenneth W. Collier: ›Contra the Causal Theory of Knowing‹, in: Philosophical Studies: An International Journal for Philosophy in the Analytic Tradition, 24 (5), 1973, 350–352; Mark Steiner: ›Platonism and the causal theory of knowledge‹, in: Journal of Philosophy, 70, 1973, 57–66. 14 Vgl. Maddy, Realism in Mathematics, 1990.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Frage nach der Anwendbarkeit der Mathematik

mentation erinnert nicht nur an Mills empiristischen Begründungsansatz der Mathematik, sondern vor allem an Husserls Analyse der perzeptuellen Bedingungen von Vielheitsbegriffen (Mengen) in seiner Philosophie der Arithmetik von 1887.15 Husserl differenziert die Wahrnehmungsoperationen des Kollegierens, des Zählens sowie des Unterscheidens. Einzig im Kollegieren erkennt er jene geistige Operation, die heterogenste Inhalte in kollektivischer Weise vereinigt und die als sinnliche Kollektion eine figurale Komponente aufweist – eben die Menge als (Gestalt-)Vielheit.16 Spricht Husserl von ›Kollektionen‹ und bezieht sich auf den Gestalttheoretiker Christian Ehrenfels, so spricht Maddy von ›Aggregaten‹ und bezieht sich auf den Neurophysiologen Donald Hebb.17 Allerdings mit dem Unterschied, dass Husserl die (Gestalt-)Vielheit als Gesamtheit adressiert, während Maddy auf die Unterscheidbarkeit des einzelnen Objekts einer Menge als Element referiert – beispielsweise durch die Annahme eines neuronalen ›triangle-detector‹, der sich durch die wiederholte Wahrnehmung eines raumzeitlich-wahrnehmbaren Objektes (Triangel) formt. Von der neuronal fixierten Wahrnehmung physischer Objekte wie auch Mengen solcher Objekte gelangt sie zum Konzept des ›intuitive belief in sets‹ als ontische Objekte. Dieser intuitive Glaube bildet die Basis ihrer Epistemologie der Mengentheorie im Kontext des mathematischen Naturalismus. Obwohl der Bezug auf Eierkartons offensichtlich kein Problem darstellt, wird der Bezug auf die Erkenntnismittel der Mathematik als wahrnehmbare Figuren und Zeichen rigoros abgelehnt.18 Bei aller Skepsis gegenüber neuronalen Triangel-Detektoren bringen diese Diskussionen jedoch kein wirkliches Licht in die Anwendungsfrage der 15 Vgl. John Stuart Mill: A System of Logic, London: Longman Green 1843. ; Husserl, Philosophie der Arithmetik (1887), 1992. 16 Auch Kant unterscheidet Einheit als sukzessiv generierte Einheit in den Axiomen der Anschauung von Einheit als Koalition in den Antizipationen der Wahrnehmung. 17 Vgl. Christian Ehrenfels: ›Über Gestaltqualitäten‹, in: Vierteljahresschrift für wissenschaftliche Philosophie, 14, 1890, 249–292; Donald O. Hebb: The Organization of Behaviour, New York: Wiley & Sons 1949. 18 Im Unterschied dazu nimmt die mathematikphilosophische Diskussion zum Aspektsehen Bezug auf die Visualität der mathematischen Erkenntnismittel. Vgl. Tinne Hoff Kjeldsen, Stig Andur Pedersen, Lise Mariane Sonne-Hansen (Hrsg.): New Trends in History and Philosophy of Mathematics, Odense: Syddansk Uiniversitetsforlag 2004; Juliet Floyd: ›Wittgenstein on Aspect-Perception, Logic, and Mathematics‹, in: William Day, Victor J. Krebs (Hrsg.): Seeing Wittgenstein Anew, Cambridge: Cambridge University Press 2010, 314–337; Jan Wöpking: ›Die synthetische Kraft der Mathematik‹, in: Gabriele Gramelsberger, Peter Bexte, Werner Kogge (Hrsg.): Synthesis. Zur Konjunktur eines philosophischen Begriffs in Wissenschaft und Technik, Transcript: Bielefeld 2013, 61–76; Jan Wöpking: Raum und Erkenntnis. Elemente einer Theorie epistemischen Diagrammgebrauchs, Berlin: De Gruyter 2016.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

261



262

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

Mathematik, da Anwendbarkeit durch den Fokus auf bereits mathematisierte Theorien schon vorausgesetzt wird. Der Schritt zur völligen Desavouierung der Anwendungsfrage bedarf daher wenig und ist charakteristisch für nominalistische Positionen. 2000 behauptet Jody Azzouni, »there are no genuine philosophical problems to be found in the success of applied mathematics«.19 Nominalistische Positionen lehnen die Existenz mathematischer Objekte strikt ab, sowohl bezüglich einer platonistischen Interpretation von Existenz als abstrakte Entitäten als auch bezüglich einer naturalistischen Interpretation von Existenz als raumzeitliche Objekte.20 Das Problem dabei ist jedoch, dass durch diese Ablehnung nur der Rekurs auf physikalische Objekte übrigbleibt. Zum einen im Sinne eines Homomorphismus zwischen physikalischen Objekten und mathematischen Individuen, den Hartry Field in seinem Konzept des Fiktionalismus mit einem abgeschwächten Wahrheitskonzept fundiert (Konservatismus).21 Konservativität soll dabei auf Basis eines Homomorphismus zwischen den Entitäten physikalischer und mathematischer Theorien die Existenz der mathematischen Entitäten garantieren, insbesondere für mathematische Theorien, die mengentheoretische Variablen enthalten. Dies ist jedoch nur möglich, wenn die Aufgabe der Mathematik lediglich darin gesehen wird, »to provide shorter deductions of things that without the mathematics could still be deduced but only in a lengthier fashion«.22 Das bedeutet, dass die mathematische Theorie aus nominalistischer Perspektive nicht mehr enthalten darf als die zugrundeliegende empiristische Theo19 Jody Azzouni: ›Applying Mathematics: An Attempt to design a philosophical problem‹, in: The Monist, 83 (2), 2000, 209–227, S. 209. »A mathematical subject S (numbers, for example, and relations and properties of such things) relative to an intended model M, is successfully applicable to an empirical domain E, if E is embeddable in M.« Azzouni: ›Applying Mathematics‹, 2000, S. 216. 20 Dabei sind zwei nominalistische Ansätze erwähnenswert: Hartry Fields Fiktionalismus und Jody Azzounis Epistemologie. Vgl. Hartry Field: Science without Numbers, Oxford: Blackwell 1980; Hartry Field: Realism, Mathematics and Modality, Oxford: Basil Blackwell 1989; Azzouni, Deflating Existential Consequences, 2004. Vgl auch Mark Balaguer: Platonism and Anti-Platonism in Mathematics, New York: Oxford University Press 1998; Jody Azzouni: Knowledge and Reference in Empirical Science, London: Routledge 2000; Gideon Rosen: ›Nominalism, Naturalism, Epistemic Relativism‹, in: Philosophical Perspectives, 15, 2001, 69–91; Mary Leng: ›Platonism and Anti-Platonism: Why Worry?‹, in: International Studies in the Philosophy of Science, 19, 2005, 65–84; Stathis Psillos: ›Scientific Realism: Between Platonism and Nominalism‹, in: Philosophy of Science, 77 (5), 2010, 947–958. 21 »Let A be any nominalistically statable assertion. Then A isn’t a consequence of N [nominalistic scientific theory] + S [mathematical theory] unless A is a consequence of N.« Field, Science without Numbers, 1980, S. 12. 22 Field, Realism, Mathematics and Modality, 1989, S. 126.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Frage nach der Anwendbarkeit der Mathematik

rie und dass sich die empiristische Theorie gegebenenfalls auch durch eine andere mathematische Theorie darstellen lässt. Es bedeutet aber auch, dass mathematische Variablen semantisch durch die empiristische Theorie gesättigt sein müssen, um den Anspruch der Konservativität aufrechtzuerhalten. Daher besteht Fields weiterer Ansatz auch in dem Projekt einer Science without Numbers, die mathematisierte wissenschaftliche Theorien, die abstrakte Objekte enthalten, nominalisiert.23 Zum anderen zeigt sich der Nominalismus in Form einer nominalistisch inspirierten Epistemologie, wie sie Azzouni entwickelt hat. Diese kommt auf den ersten Blick dem Konzept der operativen Epistemologie erstaunlich nahe, insofern sie anhand einer epistemologischen Klassifikation fiktiver, empirisch möglicher und empirisch bestätigbarer Objekte Postulate über die Existenz mathematischer und wissenschaftlicher Objekte vornimmt.24 Doch im Unterschied zu dem hier vorgeschlagenen Ansatz, der eben nicht wie Azzouni die Anwendungsfrage negiert, sondern sie ins Zentrum stellt, geht es Azzouni einzig um die empirische Überprüfbarkeit mathematischer Postulate in wissenschaftlichen Theorien. Demzufolge lassen sich die ›epistemic ultrathin posits‹ der reinen Mathematik, die keinerlei ›epistemische Last‹ tragen,25 von den ›epistemic thin posits‹ und den ›epistemic thick posits‹ der angewandten Mathematik unterscheiden. Bei den ›epistemic thin posits‹ handelt es sich um spezifische Aussagen in mathematisierten Theorien, die prinzipiell überprüfbar sind, aber nicht unbedingt existieren müssen, da sie noch nicht entdeckt wurden oder noch kein Verfahren der experimentellen Nachweisbarkeit bereitstehen. Dies sind also jene Postulate, die Steiner als pythagoreische Analogien bezeichnete.26 Schließlich sind ›epistemic thick posits‹ jene, welche nachgewiesene Eigenschaften wissenschaftlicher Objekte betreffen. Azzounis Epistemologie lässt sich als Ontologie fiktiver, möglicher und bestätigbarer Objekte verstehen und als toleranter Nominalismus, der zwar ›ultradünne‹ Postulate über abstrakte Objekte wie Punktmassen oder Mittelpunkte akzeptiert, ihnen aber – im Unterschied zum Realismus – keinerlei ontologische Relevanz zugesteht. Interessant nun sind die Bedingungen, die 23 Zur Kritik an Hartry Fields Fiktionalismus vgl. David D. Malament: ›Review of Science without Numbers: A Defense of Nominalism‹, in: Journal of Philosophy, 79, 1982, 523–534. 24 Vgl. Azzouni, Deflating Existential Consequences, 2004, S. 127. 25 »A mathematical subject with its accompanying posits can be created ex nihilo by simply writing down a set of axioms. [..] They’re not even required to pay their way via applications to already established mathematical theories or to one or another branch of empirical science.« Azzouni, Deflating Existential Consequences, 2004, S. 127. 26 Vgl. Steiner, The Applicability of Mathematics, 1998.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

263



264

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

sich an ›epistemic thick posits‹ knüpfen, also die konkreten Objekte der Wissenschaft. Sie müssen laut Azzouni robust sein, das heißt sie müssen theorieunabhängig sein, insofern Robustheit »due to the antecedent robustness of observation« gesehen wird.27 Dies setzt aber voraus, dass instrumentenvermittelte Beobachtung komplett frei von Theorie und Mathematik ist, was für die moderne Wissenschaft nicht annehmbar ist. Dies verweist auf das grundlegende Problem der aktuellen Debatte, die – solange Quines ›there-is‹-Ontologie als verkappter Empirismus virulent ist – überhaupt keine mathematikphilosophische ist, sondern eine wissenschaftsphilosophische, die sich nicht sonderlich für die Anwendungsfrage interessiert. Dabei geht die Restriktion unter eine empiristische Wissenschaftsphilosophie mit weiteren Problemen einher. Denn das grundlegende Problem des klassischen Empirismus ist, dass er bereits für alles nicht direkt Beobachtbare an die Grenze einer ›there-is‹-Ontologie stößt und schon für mikroskopische oder teleskopische Beobachtungen in Erklärungsnot gerät.28 Die empiristische Fragestellung markiert jedoch ohne Zweifel den kritischsten Punkt der Debatte. Denn ob ein Objekt auch in der Dunkelheit 27

Azzouni, Deflating Existential Consequences, 2004, S. 130. Weise orientiert sich das empiristische Evidenzkriterium an dem, was mit menschlichen Sinnen direkt, also ohne Hilfe von Instrumenten beobachtbar ist (›unaided observation‹). Vor diesem Hintergrund erscheinen apparative und symbolische Anschauung wie auch theoretische und mathematische Objekte als nicht akzeptabel. Doch Wissenschaft ist seit der Neuzeit essentiell durch die Delegation ihrer empirischen Tätigkeiten an Instrumente wie auch die Delegation ihrer theoretischen Tätigkeiten an die Mathematik geprägt. Empiristische Positionen hantieren daher mit Konzepten der Überlappung durch Kalibrierung. Dabei wird die kognitive Erweiterungsfunktion durch Instrumente wie beispielsweise das Mikroskop oder Teleskop durch eine adäquate Kalibrierung legitimiert. Die Kalibrierung erfolgt anhand des direkt Sichtbaren und wird dann ins nicht-direkt Sichtbare extrapoliert. Dieses Vorantasten durch Kalibrierung von zunehmend komplexeren Instrumenten in den Bereich des nicht direkt Erfahrbaren erschließt das grundlegende Motiv der neuzeitlichen und modernen Wissenschaft als »enlarging the range of human abilities«. Humphreys, Extending Ourselves, 2004, S. 4. Zur realistisch-empiristischen Debatte der Wissenschaftsphilosophie vgl. Bas van Fraassen: The Scientific Image, Oxford: Oxford University Press 1980; Ian Hacking; ›Experimentation and Scientific Realism‹, in: Philosophical Topics, 13, 1982, 71–87; Paul Churchland, Clifford A. Hooker (Hrsg.): Images of Science: Essays on Realism and Empiricism, Chicago: University of Chicago Press 1985; Ian Hacking: ›What Do We See Through a Microscope?‹, in: Churchland, Hooker, Images of Science, 1985, 132–152; Philip Kitcher, Wesley Salmon: ›Van Fraassen on Explanation‹, in: Journal of Philosophy, 84 (6), 1987, 315–330; Robert Nola (Hrsg.): Relativism and Realism in Sciences, Dordrecht: Kluwer 1988; André Kukla: Studies in Scientific Realism, Oxford: Oxford University Press 1998; Michael Devitt: Realism and Truth, Oxford: Blackwell 1991; Bas van Fraassen: The Empirical Stance, New Haven: Yale University Press 2002; Michele Marsonet (Hrsg.): The Problem of Realism, London: Ashgate 2002; Simon Blackburn: ›Realism: Deconstructing the Debate‹, in: Ratio, 15, 2002, 111–133. 28 Traditioneller

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Frage nach der Anwendbarkeit der Mathematik

existiert, mag dank Gewöhnung einfach zu beantworten sein; für die apparative Anschauung ist dies jedoch schon schwieriger zu beurteilen, wenn ausschließlich mit Hilfe von Apparaten Unterscheidungen und Zuschreibungen erfolgen.29 Das Problem vergrößert sich, je weiter sich die Instrumente von den menschlich direkt erfassbaren Dimensionen entfernen und die Existenzannahmen rein auf mathematischen Kriterien beruhen, wie das Beispiel der Elementarteilchenphysik dokumentierte. Die wissenschaftsphilosophische Frage par excellence ist daher, wie der Erfolg der modernen Wissenschaften, der vor allem durch technische und mathematische Erkenntnismittel im Zugang zum Unbeobachtbaren besteht, erklärt werden kann, ohne diesen Erfolg zum Rätsel zu verklären.30 Eine solche Rätselfrage würde nichts anderes als die Rückseite der Medaille der Rätselfrage zur Anwendbarkeit der Mathematik darstellen.31 Die empiristische Existenzfrage ist jedoch nur so lange ein Problem, solange sich unmittelbare Beobachtbarkeit als das Empirische sowie mathematische und theoretische Rationalität als das Abstrakte gegenüberstehen. Weder ist das Empirische in der modernen Wissenschaft ein Unmittelbares, noch ist Mathematik und schon gar nicht wissenschaftliche Theorie gänzlich aus dem empirischen Kontext abzulösen. Auch wenn reine Mathematik im Nichtwirklichen operieren kann, so liegt ihr Ursprung und ihre Operativität in der Lebenswelt begründet – wie Husserl konstatierte, in der Evidenz der geometrischen Gestalt, und wie Klein feststellte, im Prinzip der Stetigkeit als ein aus der Naturbeobachtung hervorgehender Bewegungsbegriff.32 Doch der eigentliche Punkt ist, dass die Dichotomie von Empirie und Rationalität die epistemische wie handlungstheoretische Formkraft der Mathematik auf 29 Der durch die empiristische Skepsis problematisierte Transfer des Existenzkriteriums von Objekten und Prozessen an Instrumente – ob technische oder mathematische – ist durchaus berechtigt und wird durch die Fehlinterpretationen von Unterscheidungen und Zuschreibungen, die sich im Laufe der Wissenschaftsgeschichte ergeben haben, bestätigt. Vgl. Karl Popper: Vermutungen und Widerlegungen (1963), Tübingen: Mohr 2009; Jürgen Mittelstraß: ›Vom Nutzen des Irrtums in der Wissenschaft‹, in: Die Naturwissenschaften, 84 (7), 1997, 291–299. 30 Vgl. Hilary Putnam: Mathematics, Matter and Method, Cambridge: Cambridge University Press 1975, S. 73 ff; James R. Brown: ›The Miracle of Science‹, in: Philosophical Quarterly, 32, 1982, 232–244; Jacob Busch: ›No New Miracles, Same Old Tricks‹, in: Theoria, 74, 2008, 102–114. 31 Vgl. Einstein, Geometrie und Erfahrung, 1921; Wigner, ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹ (1960), 1967; Bangu, ›Wigner’s Puzzle for Mathematical Naturalism‹, 2009; Gelfert, ›Applicability, Indispensability, and Underdetermination: Puzzling Over Wigner’s ›Unreasonable Effectiveness of Mathematics‹, 2013. 32 Vgl. Husserl, ›Beilage III zu § 9a‹ (1936), 1976; Klein, ›Über die Arithmetisierung der Mathematik‹ (1895), 1922.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

265



266

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

die wissenschaftliche Theorie und apparativ erfasste Empirie unterschätzt. Überhaupt stellt sich die Frage, wodurch die Fokussierung auf den Objektcharakter der abstrakten und konkreten Objekte gestützt wird, noch dazu in einer ontischen Sprechweise bezüglich mathematischer Objekte. Bereits Hilary Putnam kritisiert diese Referenz auf Objekte, insofern Mathematik keine Objekte generiert, sondern allenfalls Strategien der Objektivierung.33 Wenn die Diskussion des ontologischen Status jedoch keinen Aufschluss gibt, dann stellt sich die Frage, woraus die erkenntnisleitende Funktion der Mathematik für die Wissenschaft resultiert. Dies führt zur Frage nach der Wirklichkeit der Mathematik und wieder zurück zu Kants hybridem Wirklichkeitsbegriff als formalem Organisationsbegriff von Erfahrung.

Frage nach der Wirklichkeit der Mathematik

Die Frage nach der Wirklichkeit der Mathematik ist zentral für die operative Epistemologie, die sich als Theorie der Anwendung wie der Anwendbarkeit der Mathematik versteht. Es ist Kants Transzendentalphilosophie als intentionaler Gegenstandstheorie zu verdanken, dass logische Möglichkeit (Widerspruchsfreiheit), mathematische und kategoriale Wirklichkeit (Begriff plus Anschauung a priori) sowie empirische Realität (sinnliche Gegebenheit) unterscheidbar werden. Die Frage, wie Begriff und Anschauung a priori als ontologisch Ungleichartiges subsumiert werden können, daran sei noch einmal erinnert, beantwortet Kant operativ. Es ist das von ihm als Schematismus bezeichnete Vermittlungsverfahren der transzendentalen Zeitbestimmung, das Heterogenes zu subsumieren vermag und damit Gleichartigkeit konstituiert.34 Die Operativität ergibt sich aus der Synthesisfähigkeit der Einbildungskraft als ein bestimmtes Regelfolgen unterschiedlicher Vergegenwärtigungsmodi, das verschieden geordnete Einheit in die Mannigfaltigkeit der Anschauung bringt und damit formal die Möglichkeit von Erkenntnis garantiert. Sowohl die Differentialität der Kategorien generiert sich durch die Vergegenwärtigungsmodi der Zeitbestimmung als auch die mathematische Begriffskonstruktion. Objektivität wird dadurch als operative Bestimmung 33

Vgl. Putnam, Mathematics, Matter and Method, 1975. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 176 ff. »Die Schemate sind daher nichts als Zeitbestimmungen a priori nach Regeln, und diese gehen nach der Ordnung der Kategorien, auf die Zeitreihe, den Zeitinhalt, die Zeitordnung, endlich den Zeitbegriff in Ansehung aller möglichen Gegenstände.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 184, B 185. 34 Vgl.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Frage nach der Wirklichkeit der Mathematik

der Möglichkeit der Erfahrbarkeit von Gegenständlichkeit und damit Wirklichkeit in das transzendentale Subjekt verlagert.35 Der problematische Aspekt daran ist unter aktueller Perspektive das Konzept der Anschauung a priori, welches das Apriori des Raumzeitlichen als Garant der Wirklichkeit für das transzendentale Subjekt reklamiert. War dies zu Kants Zeiten bestens exemplifizierbar und auf die empirische Realität durch die Anwendung der euklidischen Geometrie als Messkunst übertragbar,36 so bestimmt diese Interdependenz von Geometrie und Messkunst zwar die mathematische Wirklichkeit der Neuzeit – die Basisgrößen neuzeitlicher Messung sind Länge, Gewicht und Zeit37 –, doch eben nicht mehr die Wirklichkeit der modernen Mathematik und Physik. Der in Folge dieser Entwicklung von der aktuellen Mathematikphilosophie eingeschlagene Rückgang auf die unvermittelte Dichotomie von logischer Möglichkeit und empirischer Realität liegt daher nahe, beantwortet aber wie gezeigt die Anwendungsfrage in keiner Weise. Denn entweder bedarf es metaphysischer Annahmen oder repräsentationstheoretischer Isomorphiebehauptungen, um beide Sphären plausibel in Verbindung zu setzen. Es ist die Hybridität von Begriff und Anschauung, die Kants Wirklichkeitsbegriff für die Anwendungsfrage der Mathematik so interessant macht, aber aus genannten Gründen einer Revision bedarf. Der Vorwurf gegen Kants Mathematikkonzeption besteht darin, dass die moderne Mathematik sich nicht mehr an der Anschauung der euklidischen Geometrie orientiert und dass sich die Apriorizität des Raums durch die Relativitätstheorie als nicht haltbar herausgestellt hat.38 Zwar erwähnt Kant in der Kritik der reinen Vernunft die euklidische Geometrie mit keinem Wort, doch es ist das Linearitätsparadigma der newtonschen Mechanik basierend 35 Mit dieser Umgestaltung der Begriffsbildung wird die auf Exklusion basierende traditionelle Logik der Aussonderung von qualitativen Merkmalen zur Begriffsbildung durch die inkludierende Logik der formalen, an der allgemeinen Quantität (Mannigfaltigkeiten) orientierten Regelbegriffe abgelöst, die keine inhaltlichen Begriffe, sondern formale Organisationsbegriffe von Erfahrung sind. 36 Begründet wird dies bei Kant durch die Antizipation der Wahrnehmung (2. Grundsatz). Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 207. 37 »The numerical measures of angle, length, time and weight or mass continued to be the quantities in terms of which almost all other quantities were measured, even the newly quantified properties of physics such as ›magnetic intensity‹ or fluid pressure.« Roche, The Mathematics of Measurement, 1998, S. 52. 38 Kants »Versuch, die Notwendigkeit auch des Parallelenpostulats aus den Prinzipien der reinen Anschauung zu konzipieren, wurde daher als Falsifikator seines Erklärungsversuchs für die Geltung mathematischer Sätze überhaupt gewertet«. Christian Thiel: ›Einleitung‹, in: Ders. (Hrsg.): Erkenntnistheoretische Grundlagen der Mathematik, Hildesheim: Gerstenberg 1982, 9–18, S. 11.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

267



268

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

auf Euklids Geometrie, das Kants Anschauungskonzept von Raum und Zeit zugrunde liegt. Kant hat zwar eine Differenzierung für die kategorialen Organisationsbegriffe von Erfahrung eingeführt, indem sich die Differentialität der Kategorien durch die Ordnungen der Beharrlichkeit, der Sukzession, des Zugleichseins, des Nacheinanderseins, des temporären und permanenten Daseins bestimmt.39 Er hat jedoch nicht explizit die Ordnungen des Nebeneinanders (Räumlichkeit) und Nacheinanders (Zeitlichkeit) der mathematischen Begriffskonstruktionen definiert, sondern als linear-gleichförmig angenommen, insofern Mathematik ihre »Gegenstände selbst durch gleichförmige Synthesis« erschafft.40 Die Idee der gleichförmigen Synthesis generiert sich dabei aus den gewohnten Vergegenwärtigungsmodi des linearen Nacheinanders (natürliches Zählkalkül als Zeitdarstellungsmittel) und des linearen Nebeneinanders (euklidische Geometrie als Raumdarstellungsmittel) der Mannigfaltigkeiten zu Kants Zeiten. Es sind die starren, linear aneinanderreihbaren Maßstäbe der euklidischen Geometrie, die die indirekte Mathematisierung der Füllen mit der newtonschen Physik ermöglichen und die empirische Realität mit einem gleichmäßigen raumzeitlichen Koordinatenraster durchziehen. Was Kant nicht vorausahnen konnte, war die sich durch die projektive Geometrie in Invarianten- und Kovarianten- und schließlich Gruppentheorie transformierende Mathematik, die die Struktur des Nebeneinanders der Mannigfaltigkeiten anhand von Permutationen und Transformationen variabel und die Variabilität ineinander projizierbar macht. Allerdings – und das ist der entscheidende Punkt – lösen sich dadurch nicht das Nebeneinander und Nacheinander von Mannigfaltigkeiten als grundlegende anthropozentrische Vergegenwärtigungsmodi von Erfahrung auf, sondern lediglich die von Kant vorausgesetzte linear-gleichförmige Ordnung als das die Wirklichkeit der neuzeitlichen Mathematik und damit Wissenschaft Konstituierende verliert ihr Primat. Das Nebeneinander und Nacheinander von Mannigfaltigkeiten als grundlegende anthropozentrische Vergegenwärtigungsmodi von Erfahrung bleibt bestehen, auch wenn es sich für die moderne Mathematik komplizierter gestaltet und in Folge die Anschauung wie auch die Erkenntniskraft der Mathematik und damit das, was erfahrbar wird, verändert. Denn es geht nicht nur die an der geometrischen Gestalt gewonnene Evidenz und Bezüglichkeit verloren, sondern das Verräumlichungsdiktat der Mathematik – sowohl konzeptuell als auch technisch. Konzeptuell, da es mit Felix Klein 39

40

Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 185. Ebd., B 751.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Frage nach der Wirklichkeit der Mathematik

gesprochen nicht mehr um die »Eigenschaften der räumlichen Dinge an sich« geht, sondern um die Eigenschaften von Systemen von Mannigfaltigkeit unter bestimmten Transformationsbedingungen.41 Raum wird zu einer differenzierbaren Mannigfaltigkeit unter vielen. Technisch, weil es nur noch um das »Operieren mit Operationen« geht.42 Wenn es jedoch nur noch um das Operieren mit Operationen geht, dann findet eine grundlegende Verzeitlichung der Technizität der Mathematik statt und diese ist eben nicht mehr mit geometrischen Figuren möglich, sondern nur als Operieren mit formalen (Zeichen-)Systemen und tatsächlich prozessierbar mit elektrischen Schaltungen. Das bedeutet, dass anstelle einer verräumlichten Mathematik (Primat der geometrischen Figur) eine verzeitlichte tritt (Primat der formalen Zeichenoperation), die das Neben- und Nacheinander neu organisiert. Anstelle der ›starren Linie‹ als Grundmetapher neuzeitlicher Organisation von Wirklichkeit und Erfahrung43 tritt das Formal-Operative selbst. Verfolgt man diese Entwicklung historisch weiter, dann wird deutlich, wohin dies führt. Es führt in die prinzipielle Selbstbezüglichkeit einer rein formal-operativ agierenden Mathematik, die den Kern des neuen Objektivitätsverständnisses der modernen Mathematik und Wissenschaft ausmacht. Konkret bedeutet dies, dass sich einerseits die starr-lineare Ordnung des Nebeneinanders von Mannigfaltigkeiten in die permutativ-transformativen Automorphismen der Gruppentheorie auflöst. Voraussetzung dafür ist die Ersetzung der an der geometrischen Figur orientierten Ähnlichkeitsäquivalenz der Symmetrie durch eine rein symbolisch verfasste Äquivalenzrelation, wie sie schon 1693 von Leibniz in De analysi situs als »aus den Symbolen abgeleiteter« Ununterscheidbarkeitsbegriff gefordert wird.44 Das Operieren damit führt zu den invarianten Transformationen der Automorphismen der Gruppentheorie. Folgerichtig bedeutet »Objektivität« und damit Wirklichkeit in der modernen Physik »Invarianz gegenüber der Gruppe der [symmetrieerhaltenden] Automorphismen«.45 Andererseits transformiert sich die lineare 41 Klein, ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), 1893, S. 69. 42 Netto, Die Substitutionentheorie, 1882, S. V. 43 Interessant ist, dass Hermann Weyl eben diesen starr-linearen Rest der neuzeitlichen Mathematik in Bernhard Riemanns Differentialgeometrie als Voraussetzung der Integrierbarkeit sowie die unhinterfragte Übernahme der Differentialgeometrie durch Albert Einstein für seine Relativitätstheorie kritisieren wird. Diese Kritik führt Weyl zur Entwicklung der Eichtheorie. Vgl. Weyl, ›Eine neue Erweiterung der Relativitätstheorie‹, 1919; Straumann, ›Zum Ursprung der Eichtheorien bei Hermann Weyl‹, 1987. 44 Leibniz, ›De analysi situs‹ (1693), 1996, S. 76. 45 Weyl, Symmetrie, 1955, S. 132. In den Worten Felix Kleins: »Man könnte […] den Namen ,Invariantentheorie relativ zu einer Gruppe von Transformationen‹ sehr wohl

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

269



270

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

Ordnung des Nacheinander in die ›rekurrierende Denkweise‹ der sich aus sich selbst generierenden Funktionen und damit in die rekursive Ordnung der Kalküle.46

Anschauung, Erfahrung und Operabilität

Den Verlust der Anschauung als Verlust der Anschaulichkeit zu verstehen, wäre falsch. Vielmehr geht es um den Verlust des linear-gleichförmigen Automatismus der operativen Ordnungen des Neben- und Nacheinander der Mannigfaltigkeiten. Was dies bedeutet, zeigt sich am neuzeitlichen Konzept des Zugleichseins der Erfahrung von Subjekten. Denn ein am Paradigma der starren Linearität orientierter Erfahrungs- und Wirklichkeitsbegriff bleibt einem sehr restriktiven Verständnis dessen verhaftet, was Kant als Gemeinschaft (Wechselwirkung zwischen dem Handelnden und Leidendem) unter die Kategorie der Relation subsumiert und von der Kausalität (Dependenz) unterschieden hat.47 Die Bedeutung der Gemeinschaft wird in den Bemerkungen über die Kategorien deutlich, wenn es hier um koordinierte und nicht subordinierte – »einander nicht einseitig, wie in einer Reihe, sondern wechselseitig, als in einem Aggregat« bestimmte – Relation geht, in welcher »die Folge nicht wechselseitig wiederum den Grund bestimmt«, sondern »zugleich und wechselseitig als Ursache in Ansehung der Bestimmung der anderen beigeordnet« ist.48 In der dritten Analogie der Erfahrung ist das Zugleichsein nach dem Prinzip der Wechselwirkung (Gemeinschaft) als das räumliche Zugleich definiert, was somit »die Bedingung der Möglichkeit der Dinge selbst als Gegenstände der Erfahrung« darstellt.49 Es ist diese Bestimmung von Zugleichsein, durch das Wort ,Relativitätstheorie bezüglich einer Gruppe‹ ersetzen.« Felix Klein: ›Über die geometrischen Grundlagen der Lorentzgruppe‹, in: Jahresbericht der Deutschen Mathematiker-Vereinigung, 19, 1910, 533–554, S. 539. 46 Richard Dedekind hatte die Selbstbezüglichkeit durch Selbstabbildung noch ›Ketten‹ genannt, die Giuseppe Peano bereits ein Jahr später als (aussagelogischen) Kalkül mit Induktionsaxiom axiomatisierte. Später wird Thoralf Skolem dies die ›rekurrierende Denkweise‹ nennen und als finites Gegenkonzept der Logisierung der Mathematik entgegenstellen. Vgl. Dedekind, ›Was sind und was sollen die Zahlen‹ (1888), 1930; Giuseppe Peano: Arithmetices principia nova methodo exposita, Rom: F. Bocca 1889; Skolem, ›Begründung der elementaren Arithmetik durch die rekurrierende Denkweise‹, 1923. 47 Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 106. 48 Ebd., B 112. Im Schematismus bedeutet das »Schema der Gemeinschaft (Wechselwirkung), oder der wechselseitigen Kausalität der Substanzen in Ansehung ihrer Akzidenzen, […] das Zugleichsein der Bestimmungen der Einen, mit denen der Anderen, nach einer allgemeinen Regel.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 183, B 184. 49 Ebd., B 258.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Erfahrung und Operabilität

die durch das neue Objektivitätsverständnis der Relativitätstheorie ausgehebelt wird, indem Einstein den Begriff der Gleichzeitigkeit dekonstruiert und beobachterabhängig definiert.50 Doch wenn dies der Fall ist, dann ist auch Kants Bestimmung hinfällig, Etwas überhaupt als Gegenstand der Erfahrung wahrzunehmen – zumindest für ein Subjekt, das Relativitätstheorie mit Hilfe von Interferenzspektrometern betreibt. Dies macht zweierlei deutlich. Zum einen, dass Kants transzendentales Subjekt das des Empirismus ist, das unmittelbare Erfahrungen macht. Deutlich wird dies in seinen erkenntnispsychologischen Erklärungsversuchen bezüglich der mittelbaren Sinneserfahrung durch Mikroskop und Teleskop, als unklare, aber bereits vorhandene Vorstellung, die mit Hilfe von Apparaten nur deutlicher wird.51 Bis heute stellt die apparativ vermittelte Erfahrung der Wissenschaft ein Erklärungsproblem für den Empirismus dar.52 Was im vorliegenden Kontext jedoch entscheidender ist, ist Folgendes: Solange Erfahrung unmittelbare Erfahrung ist – also allein durch die Sinne vermittelt –, fallen Subjektivität und Anschauung in eins und die Konsistenz der Objekte in der Erfahrung aller Subjekte als Zugleichsein stellt kein Problem dar. Eben dies ist die Situation, die Kant zu erfassen hat; die, in der Galileo Galilei »seine Kugel die schiefe Fläche mit einer von ihm selbst gewählten Schwere herabrollen« sieht.53 Die Revolution der Denkart besteht in der selbstgewählten Schwere und in der Kugel als experimentierfähigem Analogon physikalisch-mathematischer Theoriebildung und nicht in einer zwischengeschalteten Optik oder anderen apparativen Einrichtungen. Doch aus der unmittelbaren Beobachtung der Naturforschung ist die instrumentenvermittelte Beobachtung und Messung der Naturwissenschaften geworden, insbesondere wenn im 19. Jahrhundert durch die zunehmend sensibleren Apparate das menschliche Auge seine Autorität verliert. Gänzlich verloren geht die direkte Erfahrbarkeit jedoch spätestens im 20. Jahrhundert mit dem Wechsel von geometrischen, starr-linearen Maßstäben zu elektromagnetischen Schwingungen und Elektronenflüssen. Allein das über elektrische und elektronische Apparate und deren Anzeigen festgestellte Gegebene ist Gegenstand des neuen Objektivitätsverständnisses im Kontext empirischer 50

Vgl. Einstein ›Zur Elektrodynamik bewegter Körper‹, 1905. Vladimir Satura: Kants Erkenntnispsychologie in den Nachschriften seiner Vorlesungen über empirische Psychologie, Kant-Studien 101, 1971, S. 56 ff. 52 Vgl. Fraassen, The Scientific Image, 1980; Churchland, Hooker, Images of Science: Essays on Realism and Empiricism, 1985; Hacking, ›Do We See Through a Microscope?‹, 1985; Fraassen, The Empirical Stance, 2002. 53 Kant, Kritik der reinen Vernunft (1781, 1787), 1993, Vorrede B XII. Vgl. Meli, Thinking with Objects, 2006. 51 Vgl.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

271



272

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

Wissenschaften. Nicht von ungefähr reklamiert Einstein die Definition der Gleichzeitigkeit in seiner Studie Zur Elektrodynamik bewegter Körper von 1905.54 Die Anschauung des Subjekts der mittelbaren Wahrnehmung wird jedoch nicht nur einfach an Apparate delegiert, sondern zweigeteilt – wie dies bereits am Verlust der Autorität des menschlichen Auges im 19. Jahrhundert deutlich wird. 1836 stellt Carl Friedrich Gauß für Das in den Beobachtungsterminen anzuwendende Verfahren der erdmagnetischen Messungen fest, dass die Sensitivität der Messgeräte es erfordere, dass »an die Stelle der unmittelbaren Beobachtung solche mittelbaren Bestimmungen treten müssen«.55 Diese mittelbaren Erfahrungen sind keine optisch, sondern durch die »Bestimmung der Mittelwerthe« mathematisch verstärkte Erfahrungen.56 Heinrich Dove charakterisiert diesen Wandel der wissenschaftlichen Beobachtung treffend: »Die Wahrscheinlichkeit der aus vielen Beobachtungen abzuleitenden Bestimmungen muss daher das Resultat einer Rechnung sein, welche lehrt, aus lauter unrichtigen Beobachtungen, nicht das richtige Resultat abzuleiten, denn dies ist unmöglich, sondern eins, welches wahrscheinlicher ist, als eine einzelne Beobachtung.«57 Das bedeutet, dass die an Apparate delegierte Anschauung einer Komplettierung im Mathematisch-Symbolischen bedarf; dass also vermittelte Anschauung ein Konglomerat aus der apparativen Anschauung von Messung und Experiment und der symbolischen Anschauung der mathematischen Formalismen ist. Dies trifft bereits auf das neuzeitliche Objektivitätsverständnis zu, doch bis ins 19. Jahrhundert bewegt sich dieses noch im starr-linearen Paradigma 54 Vgl. Einstein, ›Zur Elektrodynamik bewegter Körper‹, 1905. Es wäre naheliegend, mit Paul Natorp die direkte Beobachtbarkeit der Apparate und ihrer Anzeigen als Ausweg zu benutzen, doch das würde die Logik des neuen Objektivitätsverständnisses verfehlen heißen. Vgl. Paul Natorp: Die logischen Grundlagen der exakten Wissenschaften, Leipzig: Teubner 1910, S. 396 ff; Klaus Hentschel: Interpretationen und Fehlinterpretationen der speziellen und der allgemeinen Relativitätstheorie durch Zeitgenossen Albert Einsteins, Basel: Birkhäuser 1990. 55 Carl Friedrich Gauß: ›Das in den Beobachtungsterminen anzuwendende Verfahren‹ (1836), in: Ders.: Werke (hrsg. von der Königlichen Gesellschaft der Wissenschaften zu Göttingen), 5. Bd., Berlin: Springer 1867, 541–55, S. 542. Der Grund für die Mittelbarkeit der Beobachtungen ist folgender: »Es steht nicht in unserer Macht, die Nadel des Magnetometers so vollkommen zu beruhigen, dass gar keine erkennbaren Schwingungsbewegungen zurückbleiben.« Gauß: ›Das in den Beobachtungsterminen anzuwendende Verfahren‹ (1836), 1867, S. 542. 56 Gauß, ›Das in den Beobachtungsterminen anzuwendende Verfahren‹ (1836), 1867, S. 560. 57 Heinrich W. Dove: Über Maass und Messen oder Darstellung der bei Zeit-, Raum- und Gewichts-Bestimmungen üblichen Maasse, Messinstrumente und Messmethoden, Berlin: Sander 1835, S. 166.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Erfahrung und Operabilität

der euklidischen Geometrie und deren indirekter Mathematisierung der Füllen. Auch wenn Gauß mit der erdmagnetischen Intensität eine neue Messgröße definiert, so ist diese klassisch aus den Basisgrößen Länge, Masse und Zeit abgeleitet. Mit dem neuen Objektivitätsverständnis ändert sich die Situation zu Beginn des 20. Jahrhunderts. Das Verhältnis von symbolischer und apparativer Anschauung wird komplexer und organisiert sich neu, insofern nicht mehr die ›anschaulichen‹ geometrischen und numerischen Gestalten, sondern das Invariante unter Symmetriebedingungen zum Evidenzkriterium wird. Die neue Forschungslogik bedeutet, »to derive a law of nature by selecting the simplest invariant equation«.58 Damit löst Invarianz die intuitive Einsichtigkeit des linearen Automatismus der ›Gestalt‹ von Raum und Zeit ab. Oder in anderen Worten: Anschauung a priori im Kontext mittelbarer Erfahrung durchläuft eine Transformation. Dies macht zweitens deutlich, dass das vermittelnde Verfahren des Schematismus, das die operative Bestimmung der Möglichkeit von Erfahrung und Gegenständlichkeit als das Wirkliche garantiert, eventuell weniger dunkel ist, als Kant annimmt. Für ihn ist der Schematismus eine »verborgene Kunst in den Tiefen der menschlichen Seele, deren wahre Handgriffe wir der Natur schwerlich jemals abraten, und sie unverdeckt vor Augen legen werden«.59 Es ist vielleicht eben dies, was Husserl als verborgene Dimension des Transzendentalen in der Idealität der Geometrie zu entbergen versuchte.60 Doch anstatt wie Husserl an den geometrischen Figuren als aus der Lebenswelt abstrahierten und dennoch idealen Gestalten festzuhalten, ist es die operative Methode der Geometrie – allerdings in ihrer formal-symbolischen Technizität –, an der festzuhalten lohnt. Das Operative selbst und mit ihm das Invariante tritt anstelle der starren Linie als Grundmetapher der Organisation von Wahrnehmung. Damit zeigt sich die Sinnverschiebung des neuen Objektivitätsverständnisses darin, dass Invarianz nicht nur a priori das apparativ Anschauliche und damit messbar Gegenständliche bestimmt,61 sondern dass 58

Wigner, Symmetries and Reflections, 1967, S. 6. Kritik der reinen Vernunft (1781, 1787), 1993, B 181. 60 Husserl verbindet das empirische Moment der Abstraktion mit dem Postulat der reinen Transzendenz der Abstraktion (geometrische Gestalten). Verstehen lässt sich diese Argumentation nur unter der Zielsetzung Husserls, Philosophie als transzendentale Phänomenologie zu begründen. Indem Geometrie mit Philosophie bezüglich ihres Ursprungssinns wie auch der Zweckbestimmung, auf eine ›mathesis universalis‹ ausgerichtet zu sein, gleichgesetzt wird, wird die Methode der Geometrie zur Methode der transzendentalen Phänomenologie. Vgl. Husserl, ›Beilage III zu § 9a‹ (1936), 1976, S. 382 ff. 61 »Soweit ich sehe, haben alle a-priori-Aussagen [über neue, beobachtbare (messbare) Größen] in der Physik ihren Ursprung in der […] Invarianz.« Weyl, Symmetrie, 1955, S. 126. 59 Kant,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

273



274

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

Selbstbezüglichkeit unter Invarianzbedingungen das vermittelnde Verfahren des Schematismus offenlegt. In anderen Worten: Einen neuzeitlich-mathematischen Begriff unter unmittelbaren Wahrnehmungsbedingungen konstruieren heißt, die ihm korrespondierende Anschauung a priori als das neben- und nacheinander geordnete Mannigfaltige darzustellen und auf das Gegebene zu beziehen.62 Für Kant ergibt sich die Ordnung des Neben- und Nacheinanders automatisch, doch eben diesen Automatismus löst die moderne Mathematik auf. Einen modernmathematischen Begriff unter mittelbaren Wahrnehmungsbedingungen konstruieren heißt, die ihm korrespondierende Anschauung a priori als die sich aus sich selbst automorph und rekursiv generierende Ordnung des Nebenund Nacheinanders des Mannigfaltigen darzustellen, daraus das ›Gegebene‹ als das Invariante oder Konvergente zu prognostizieren und es apparativ aufzuweisen. Das bedeutet, die moderne mathematische Rationalität differenziert einerseits die Ordnung der Vergegenwärtigungsmodi der Erfahrung und damit das operative Verfahren des Schematismus über die linear-gleichförmige Synthesis hinaus. Andererseits verschiebt sich dadurch die Orientierung der Anschauung vom Gegebenen auf das Prognostizierbare, und zwar als erkenntnistheoretisches Diktum beobachtbarer Größen. Hinterfragt man die Rolle des linearen Automatismus für die Anschauung a priori, so offenbart sich dessen intuitive Einsichtigkeit. Diese Einsichtigkeit resultiert aus der Einfachheit der Kinematik der linearen Ordnung, deren Darstellungsmittel die gerade Linie oder die Line um einen Mittelpunkt mit gleichförmigem Abstand ist. Eine so geordnete Wirklichkeit garantiert charakteristische Eigenschaften wie Gleichförmigkeit, Stetigkeit, Symmetrie, Reversibilität, Kommutativität, Konvergenz und vieles mehr, allerdings zum Preis eines sehr einfachen Konzepts des Zugleichseins.63 Die Einfachheit der linearen Kinematik macht es möglich, die temporale Differenz zwischen dem Gegebenen und dem Prognostizierbaren in der Anschauung zu nivellieren, denn die Fortsetzung der Linie ergibt sich zwingend anschaulich aus sich selbst.64 Ein solcher Automatismus der Gestalt mit all seinen wirklichkeits62

Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 741. Das einfache Konzept des linearen Zugleichseins ist im Grunde das des vereinzelten Objekts als ein Aggregat aus einer, maximal zwei koordinierten Wechselwirkungen. Mit diesem Konzept sind idealisierte, solitäre Objekte, aber keine interagierenden Systeme erfassbar. Es ist das grundlegende Konzept der newtonschen Mechanik, das spätestens 1865 mit der Elektrodynamik an erste Grenzen stößt. Vgl. Maxwell, ›A Dynamical Theory of the Electromagnetic Field‹, 1865. 64 Ein Beispiel dafür ist die Wirkung von Kräften aufeinander in der newtonschen Mechanik, die als lineare Parallelogrammverschiebung (Vektoraddition) realisiert ist. 63

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Erfahrung und Operabilität

konstituierenden Eigenschaften ist mit den komplexeren Ordnungsformen des neuen Objektivitätsverständnisses nicht mehr möglich. Insbesondere lässt sich aus dem Gegebenen das Zukünftige, Vergangene oder Alternative nicht mehr automatisch prognostizieren. Denn ohne die lineare Anschauung ist nicht einsichtig, wie sich ein komplexer Ordnungskalkül verhalten wird. Oder in anderen Worten: Linearität hat nur eine Realisierung, deren Gestalt sich direkt an der mathematischen Begriffskonstruktion ablesen lässt,65 während das Nicht-Lineare unendlich viele Realisierungen und Gestalten haben kann und nicht mehr direkt ablesbar ist. Aus diesem Umstand resultieren maßgebliche Bedingungen für die Rationalität der modernen Mathematik. Vor allem erfährt mit den zunehmend komplexeren Ordnungskalkülen das Symbolische in seiner Technizität eine Komplizierung. Denn wenn die Ordnung in ihrer Dynamik nicht mehr direkt an der mathematischen Begriffskonstruktion ablesbar ist, dann teilt sich mathematische Begriffskonstruktion (Kalküle, Gleichungssysteme, etc.) in Begriffskonstruktion einerseits und in die Verwirklichung dieser konstruierten Begriffe andererseits, um die Dynamik der komplexeren Ordnungen zu explizieren. Verwirklichung bedeutet im Mathematisch-Symbolischen Berechenbarkeit – formal als Ableitung oder numerisch als Berechnung – und diese führt pragmatische Kriterien ein. Denn die mit den mathematischen Begriffskonstruktionen artikulierte Operativität muss operabel gemacht werden und dies erfordert eine differenzierte Praxis des formalen wie numerischen Berechnens, die sich letztendlich an Maschinen delegieren lässt und damit den technischen Charakter des mathematischen Symbolismus endgültig offenkundig macht. Die Frage, welche Kalküle oder Gleichungssysteme wie berechenbar sind, sagt etwas über ihre Operabilität aus. Das Interessante daran ist, dass Operabilität als das verwirklichbare (berechenbare) Operative durch die Orientierung auf die Verwirklichung per se ›Anwendbarkeit‹ inkludiert. Die Rede von der Anwendbarkeit der Mathematik wird üblicherweise auf die Anwendung der Mathematik auf wissenschaftliche Theorien bezogen und in Folge dessen die reine Mathematik von der angewandten unterschieden. Doch diese Unterscheidung ist aus zwei Gründen problematisch. Zum einen, weil ein Großteil der Anwendungen mathematischer Theorien auf andere mathematische Theorien erfolgt – beispielsweise die Anwendung von Methoden und Resultaten der komplexen Analysis auf die analytische Zahlentheorie.66 Erkenntnisfortschritt generiert sich in 65 Der lineare Automatismus setzt sich als Konvergenzgarantie numerisch berechneter und formal deduzierter Lösungen fort. 66 Vgl. Anthony Peressini: ›Applying Pure Mathematics‹, in: Philosophy of Science, 66, 1999, S1-S13.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

275



276

Kapitel 11  ·  Ausgangsbedingungen der operativen Epistemologie

der Mathematik maßgeblich durch die innermathematische Anwendung von Theorien, wobei die angewandte Theorie eine Veränderung erfährt. Zum anderen – und dies ist der entscheidende Punkt –, weil die Pragmatik einer Mathematik als rein formale Sprache die Anwendbarkeit generell zum Kern der Mathematik erklärt.67 Der Grund dafür liegt in Hilberts Axiomatisierungsprogramm und seiner strengen Pragmatik des rein formalen (Zeichen-)Sprechens, die für die Mathematik bis heute Gültigkeit hat – entgegen Freges Kritik.68 Hilbert hatte formale Zeichenoperationen derart allgemein gefasst, dass sich die objektkonstitutionellen Unterscheidungen nicht mehr aus einem evidenten Ableitungsverhältnis als Axiome, sondern erst im Folgeverhältnis als Konkretisierung (Modell) ergeben.69 ›Axiome‹ werden zu relationalen Beziehungen wie ›liegt zwischen‹ oder ›koinzidiert mit‹ und sind keine logisch-evidenten Denkgesetze mehr wie noch für Frege.70 Das Ziel von Hilberts Axiomatisierungsprogramm war es, »ein vollständiges und möglichst einfaches System von [unabhängigen] Axiomen aufzustellen«, aus welchen alles weitere eindeutig und klar ableitbar ist.71 Um aber derart über ein Axiomensystem verfügen zu können, muss im Vorhinein geklärt (vorhersagbar) sein, dass es vollständig und widerspruchsfrei ist.72 Die epistemischen Konsequenzen dieser sprachpragmatischen Wende sind tiefgreifend, insofern eine derart formale Mathematik ihren Fokus von Wahrheitsfragen auf Fragen deduktiver Beziehungen verschiebt. Denn es geht »nicht mehr [um] kategorische Aussagen, sondern generelle Wenn-dann-Sätze«73 und generelle Wenn-dann-Sätze bewegen sich einzig im Paradigma der formalen Ableitung. Damit rückt die Praktik (Operabilität) der formalen Ableitbarkeit ins Zentrum der Mathe­ 67 Vgl. Newcomb Greenleaf: ›Algorithmics: A New Paradigm for Mathematics‹, in: Leslie Burkholder (Hrsg.): Philosophy and the Computer, Boulder: Westview Press 1992, 195–210. 68 Vgl. Frege, Brief an David Hilbert vom 27. Dezember 1899, 1980. 69 Vgl. Peckhaus, Hilbertprogramm und Kritische Philosophie, 1990. 70 »Meine Meinung ist eben die, dass ein Begriff nur durch seine Beziehungen zu anderen Begriffen logisch festgelegt werden kann. Diese Beziehungen, in bestimmte Aussagen formuliert, nenne ich Axiome und komme so dazu, dass die Axiome […] die Definitionen der Begriffe sind.« Hilbert, Brief an Gottlob Frege vom 22. September 1900, 1980, S. 23. 71 Hilbert, Grundlagen der Geometrie (1899), 1903, S. 1. 72 Hilbert selbst hat dies am Modell der Arithmetik zu beweisen versucht, insofern jeder »Widerspruch in den Folgerungen aus den Axiomen […] in der Arithmetik des Systems der reellen Zahlen erkennbar sein« müsste. Hilbert, Grundlagen der Geometrie (1988), 1903, S. 19. 73 Stegmüller, Theorie und Erfahrung, 2. Bd., 1985, S. 37.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Anschauung, Erfahrung und Operabilität

matik – inklusive aller Probleme, die Hilberts sprachpragmatische Wende mit sich bringt.74 Folgt man dieser Argumentation, dann liegt es näher, zwischen inner- und außermathematischen Bezügen als zwischen reiner und angewandter Mathematik zu unterscheiden. Versteht man Konstruierbarkeit und Berechenbarkeit als Anschauungsparadigmen einer Mathematik der Figur respektive der formalen Zeichensprache, dann wird deutlich, warum Operabilität anwendbare Operativität bedeutet. Die Mathematik unterwirft sich bezüglich ihrer Operabilität limitierenden Verwirklichungsbedingungen, ähnlich der Anwendung der Mathematik auf wissenschaftliche Theorien. Daher stellt sich die Frage nach der Anwendbarkeit der Mathematik unter dieser Perspektive als Frage nach den Bedingungen inner- und außermathematischer Operabilität und verschiebt damit den Fokus von der im Mathematikphilosophischen üblichen ontologisch-dichotomen Fragestellung auf die Frage nach den Verwirklichungs- und Realisierungsbedingungen der Mathematik. Das Forschungsprogramm der operativen Epistemologie im Kontext der Anwendungsfrage ist daher folgendes: Anstelle der üblichen Isomorphiebehauptung werden die symbolisch-operativen Prozesse der Verwirklichung komplex geordneter Organisationsbegriffe der Erfahrung untersucht: zum einen im Möglichkeitsraum mathematisierter Theorien, zum anderen im Realisierungsraum mathematisierter Apparate. Dies geschieht unter der Fragestellung, was es heißt, eine Theorie zu mathematisieren und welchen Erkenntnisvorteil es der Wissenschaft verschafft. Oder anders gewendet: Woraus resultiert die erkenntnisleitende Funktion der Mathematik für die Wissenschaft?

74 Vgl. Gödel, ›Die Vollständigkeit der Axiome des Funktionskalküls‹ (1930), 1986; Gödel, ›Über unentscheidbare Sätze‹ (1931), 1995; Gödel, ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), 1986; Turing, ›On Computable Numbers, with an Application to the Entscheidungsproblem‹, 1936/37.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

277

Kapitel 12 Erkenntnisfortschritt durch Operationalisierung Erkenntnisleitende Funktion der Mathematik

Die Frage nach der erkenntnisleitenden Funktion der Mathematik für die Wissenschaft ist gleichzeitig die Frage nach dem Erkenntnisfortschritt durch Mathematisierung. Klassische wissenschaftstheoretische Ansätze erklären Erkenntnisfortschritt durch die zunehmende Erklärungs- und Prognosekraft von Theorien.75 Besser bestätigte Theorien werden als die ›wahren‹ Theorien bewertet. Die epistemische Grundannahme dabei ist, dass sich Theorie als Modell – durch experimentelle Forschung präzisiert – der Realität zunehmend annähert, dass also Theorien im Laufe der Forschung ›wahrer‹ werden. Die Revolution der neuzeitlichen Astronomie gilt dabei als Paradebeispiel. Die Erklärungs- und Prognosekraft der alten Epizyklentheorie von Claudius Ptolemäus löst sich durch die zunehmende Präzision der apparativen Anschauung (Teleskop) in der Astronomie auf.76 Dies führt durch die empirisch orientierten Forschungen von Galilei, Kepler, Newton und anderen Naturforschern schließlich zu einer neuen Theorie, die die alte ersetzt.77 Die neue Theorie ist am Ende dieses Prozesses mit der alten inkommensurabel, die alte hat sich als falsch herausgestellt. Durch dieses Ablösungsverhältnis von ›normaler‹ Wissenschaft und revolutionären Veränderungen, so Thomas Kuhn, generiert sich Erkenntnisfortschritt über Theoriemodifikationen hinaus durch Paradigmenwechsel.78 75 Vgl. Carl G. Hempel: Aspects of Scientific Explanation, New York: The Free Press 1965; van Fraassen, The Scientific Image, 1980; Theo Kuipers: From Instrumentalism to Constructive Realism, Dordrecht: Reidel 2000. 76 Die Epizyklentheorie erklärt die aus geozentrischer Perspektive teilweise rückläufigen Planetenbahnen, die sich in einer heliozentrischen Perspektive als Überlagerung von Erd- und Planetenbewegung erklären. Mathematisch betrachtet stellt die Epizyklentheorie den geometrischen Vorläufer der Fourier-Reihe dar, die eine periodische, stetige Funktion durch eine Funktionenreihe aus Sinus- und Kosinusfunktionen approximiert. 77 Vgl. Thomas S. Kuhn: The Structure of Scientific Revolutions, Chicago: University of Chicago Press 1962; Koyré, Von der geschlossenen Welt zum unendlichen Universum (1957), 1969. Die Theorie der Inkommensurabilität wird beispielsweise von Paul Feyerabend bestritten, der darauf hinweist, dass neue Theorien nicht zur Ablehnung, sondern zum Verschwinden alter Fragen führen. Vgl. Paul K. Feyerabend: Problems of Empiricism, Cambridge: Cambridge University Press 1970. 78 Vgl. Kuhn, The Structure of Scientific Revolutions, 1962.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Erkenntnisleitende Funktion der Mathematik

Auch wenn die Darstellung der wissenschaftsphilosophischen Erklärung des Erkenntnisfortschritts mehr als verkürzt ist, so lässt sich dennoch die Frage motivieren, ob Erkenntnisfortschritt nicht auch anders erklärt werden kann als durch ›wahrere‹ Theorien. Zum einen, weil die formatierende Funktion der Mathematik in der wissenschaftlichen Theoriebildung oft unterschätzt wird. Zum anderen, weil die ›Realität‹ der neuzeitlichen wie modernen Wissenschaft keine natürlich gegebene, unveränderte Realität ist. Es ist die Folie einer ›natürlichen, unveränderbaren Natur‹, auf welcher als Garant von Objektivität die Wahrheit der Theorien validiert wird. Doch diese Annahme gilt es kritisch zu hinterfragen. Denn Galileis neues Verständnis von Bewegung als gleichförmiger und Newtons theoretische Vereinheitlichung der Bewegungsgesetze von Kepler sind ohne den mathematischen Paradigmenwechsel wie auch ohne die Analogisierung von mathematisierter Theorie in Kugeln und Ebenen als die tatsächliche experimentelle Realität nicht zu verstehen. Der Erfolg der zur Mechanik umgestalteten Astronomie besteht maßgeblich darin, Realität im Experiment an mathematisierte Theorie anzupassen.79 Erst beides zusammen – Mathematisierung und Analogisierung – ermöglicht es, den physikalischen Begriff der Materie in einen prozessualen Bewegungsbegriff zu verallgemeinern und damit den Paradigmenwechsel einzuläuten. Erkenntnisfortschritt aus dieser Perspektive generiert sich nicht aus der Entgegensetzung von Theorie und Natur, sondern aus dem Umstand, dass neuzeitliche Wissenschaft Theorie nicht als kontemplative Schau (θεωρεῖν), sondern als ›operationale Theorie‹ konzipiert, die Erkenntnis- und Handlungstheorie in einem ist. Kennzeichen einer operationalen Theorie ist, dass »die Anpassung von Theorie und Realität von zwei Seiten her [erfolgt …]. Die neuen Wirklichkeiten, die auf diese Weise entstehen, haben andere Eigenschaften als die Welt, die wir vorgefunden haben.«80 Die Anwendbarkeit der Mathematik ist dabei keine Zufälligkeit, sondern die Bedingung der Möglichkeit, Theorie in eine operable zu transformieren. Das bedeutet, dass sich Erkenntnisfortschritt seit der Neuzeit weniger als Einbahnstraße zunehmend wahrer Theorien begreifen lässt, sondern als wesentlich komplexeres Verhältnis der (Re-)Organisation wissenschaftlicher Erfahrung durch die Mathematisierung. Die (Re-)Organisationsleistung der Mathematik realisiert sich dabei einerseits als epistemische Dimension der Umformatierung 79

Vgl. Meli, Thinking with Objects: The Transformation of Mechanics in the Seventeenth Century, 2006; Dear, Disciplines & Experience. The Mathematical Way in the Scientific Revolution, 1995. 80 Kurt Klagenfurt: Technologische Zivilisation und transklassische Logik. Eine Einführung in die Technikphilosophie Gotthard Günthers, Frankfurt: Suhrkamp 1995, S. 16.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

279



280

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

wissenschaftlicher Theorie in operationale Theorie (Operationalisierung), andererseits als materiale Dimension der Implementierung mathematischer Operativität in die Objekte und apparativen Techniken des Experiments, der Messung und der Beobachtung (Implementierung). Empirie wird dabei immer als durch Objekte und apparative Technik vermittelte verstanden, die je nach Komplexität der Objekte und Apparate mehr oder weniger ›theoriegeladen‹ ist. Allerdings steht weniger die Theoriegeladenheit der Empirie als die Organisation durch die mathematische Operativität im Fokus. Die Hoffnung ist, auf diese Weise die Bedingungen der außermathematischen Operabilität der Mathematik als ihre Anwendbarkeit offenzulegen. Dies ist jedoch nur möglich, wenn die Operationalisierungsleistung der Mathematik von der Quantifizierungsleistung der Mathematik abgegrenzt wird, insofern Quantifizierung lediglich eine funktionale Vorschrift formuliert, die es erlaubt, einer Variable einen Wert zuzuweisen, während Operationalisierung das Gefüge der verschiedenen Variablen einer wissenschaftlichen Theorie symbolisch-operativ artikuliert. Quantifizierung als Übersetzungsleistung in ›objectual existential quantifier‹ verstanden lässt sich daher bestens mit Quines ontologischem Kommitment in Einklang bringen. Beispielsweise ist in der Meteorologie, wie das Fallbeispiel zeigen wird, der atmosphärische Zustand durch sieben Messgrößen hinreichend bestimmt: Lufttemperatur, Luftdichte, Luftdruck, Luftfeuchte sowie die Windgeschwindigkeit für drei Richtungen. Die Variable T repräsentiert dementsprechend die Temperatur, die Variable p den Druck, etc. und diese Variablen lassen sich durch experimentelle Verfahren der Begriffsbestimmung quantifizieren oder in Quines Sprechweise in gesättigte Variablen transformieren. Quantifizierung bestätigt und präzisiert wissenschaftliches Wissen und generiert in diesem Sinne Erkenntnisfortschritt, aber sie macht Theorie nicht operabel und ist nicht primär erkenntnisleitend für die Erschließung neuer Bereiche. Quantifizierung von Theorie lässt sich daher repräsentationstheoretisch als korrespondenztheoretische Übersetzung von Messgrößen in gesättigte Zustandsvariablen interpretieren. Eine klassisch mathematik- oder wissenschaftsphilosophische Interpretation kann nun nach dem Status der Zustandsvariablen im Kontext einer ›there-is‹-Ontologie fragen. Insofern die Messungen einer direkten Beobachtung weitgehend zugänglich sind, ist auch aus empiristischer Perspektive wenig gegen diese Art der Mathematisierung als Quantifizierung einzuwenden. Etwas anderes verhält es sich, wenn über diese eindeutige, zunehmend präzisere Zuweisungsfunktion der Quantifizierung hinaus sich der Modus der experimentell-operativen Begriffsbestimmung der zu quantifizierenden Variable ändert. Diesen Prozess hat Percy W. Bridgman mit seinem Kon-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Erkenntnisleitende Funktion der Mathematik

zept des Operationalismus 1927 in The Logic of Modern Physics beschrieben.81 Basierend auf Einsteins Kritik grundlegender Begriffe der Physik hinterfragt Bridgman das Verhältnis von theoretischer Begriffsdefinition und experimenteller (in seinen Worten: operationaler) Begriffsbestimmung. Erkenntnisfortschritt in der Physik besteht für ihn darin, neue Operationen der empirischen Begriffsbestimmung zu realisieren, »of course, to be so chosen that they give, within experimental error, the same numerical results in the domain in which the two sets of operations [old and new set] may be both applied«.82 Durch die Kalibrierung neuer experimentell-operativer Begriffsbestimmungen an bestehenden ist, so Bridgman, Erkenntnisfortschritt durch Präzisierung möglich. Nur wenn sich die experimentell-operationalen Definitionen grundlegend ändern, ist Neues erschließbar. Deutlich wird dies an seinem Beispiel der Längenbestimmung, für die verschiedene operationale Begriffsbestimmungen möglich sind. »To say that a certain star is 105 light years distant is actually and conceptually an entire different kind of thing from saying that a certain goal post is 100 meters distant.«83 Dies entspricht weitgehend dem, was mit der materialen Implementierung der mathematischen Formkraft gemeint ist, allerdings nur, insoweit der Fokus auf die mathematische Operativität erfolgt. Bridgman steht der Mathematik jedoch skeptisch gegenüber, daher ist sein Operationalismus nicht deckungsgleich mit dem hier skizzierten Ansatz.84 Denn ohne die Berücksichtigung der Leistung der Mathematisierung ist die Kritik an Bridgmans Ansatz, dass die Bedeutung wissenschaftlicher Begriffe anhand rein operationaler (Mess-)

81 Vgl. Percy W. Bridgman: The Logic of Modern Physics, New York: Macmillan 1927; Percy W. Bridgman: ›Operational Analysis‹, in: Philosophy of Science, 5, 1955, 114–131; Percy W. Bridgman: Reflections of a Physicist, New York: Philosophical Library 1955. 82 Bridgman, The Logic of Modern Physics, 1927, S. 23. 83 Ebd., S. 18. 84 Percy Bridgman sieht im Unterschied zur Messung die Mathematisierung als problematisch, insofern die mathematischen Darstellungen nicht skalierbar seien und der Physik Vorstellungen wie Elektrobahnen oktroyierten. »Mathematics does not recognize that as the physical range increases, the fundamental concepts become hazy, and eventually cease entirely to have physical meaning, and therefore must be replaced by other concepts which are operationally quite different. For instance, the equations of motion make no distinction between the motion of a star into our galaxy from external space, and the motion of an electron about the nucleus, although physically the meaning in terms of operations of the quantities in the equations is entirely different in the two cases.« Bridgman, The Logic of Modern Physics, 1927, S. 63. Dies ist sicherlich richtig für die Übertragung vertrauter symbolischer Anschauung in neue Bereiche, wie bereits von Heisenberg und Born kritisiert, aber eben nicht für neue operative Modi der Mathematik und deren Erschließungslogiken.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

281



282

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

Definitionen nur ungenügend erfasst ist, zutreffend.85 Dies betrifft nicht nur Bridgman, sondern auch Einsteins und Heisenbergs Primat beobachtbarer Größen. Denn nur jene theoretisch postulierten Größen sind relevant, für die sich als invariante Größen experimentell-operationale Definitionen angeben lassen. Allerdings ist das, was die Invarianz generiert, gerade der mathematischen Operativität geschuldet, wie die Beispiele zeigten. Daher wird eine Verkürzung auf das empirische Moment der Messung weder in Bridgmans noch in Quines Ansatz der epistemischen Funktion der Mathematik im Anwendungskontext gerecht. Die eigentliche Frage ist also, wie Erkenntnisfortschritt durch die Operationalisierungsleistung der Mathematik epistemisch verfasst und material realisiert ist. Die grundlegende These dabei ist, dass nur eine Wissenschaft, die in der Lage ist, ihre Wissensobjekte durch die Erschließungslogik der mathematischen Operativität in dynamische Prozessobjekte umzuformatieren (operationalisieren), unbekanntes Terrain eröffnen kann. Als Paradebeispiel lässt sich ebenfalls – wie im Falle der ›wahreren‹ Theorien – die neuzeitliche Astronomie als Mechanik anführen, nur dass es nun nicht um Wahrheit geht, sondern um die Umformatierung des Grundbegriffs der Materie in einen regelbasierten Bewegungsbegriff. Was dadurch mathematisch operationalisierbar wird, ist das Prozessuale in seiner Kinematik und Dynamik. Fragt man, welche Erkenntnisvorteile die Operationalisierung für eine wissenschaftlichen Theorie mit sich bringt, so sind dies insbesondere zwei: Zum einen eröffnet die mathematische Operativität den kompletten Möglichkeitsraum einer wissenschaftlichen Theorie und dadurch das Neue, insofern sich die aus der Operativität generierenden Kombinationen unendlich viele potentielle Realisierungen der Theorie ermöglichen.86 Zum anderen wandelt 85 Diese Kritik, wie Hasok Chang hinweist, stößt sich am ›meaning as use‹, da der Gebrauch sich mit dem späten Ludwig Wittgenstein in seiner Engführung problematisiert. »Since measurement operations provide only one specific context in which a concept is used, operational definitions can only cover one particular aspect of meaning. […] Metrological validity becomes an interesting question only if the concept possesses a broader meaning than the specification of the method of its measurement. Then the measurement method can be said to be valid if it coheres with the other aspects of the concept’s meaning.« Hasok Chang: ›Operationalism‹, in: Stanford Encyclopedia of Philosophy, 2009, Kap. 2.1. 86 Dies ist nicht quantitativ, sondern qualitativ gemeint. Fragt man, welche Art von Erkenntnisfortschritt durch die Operationalisierungsleistung der Mathematik möglich wird, dann lässt sich dieser als Erschließung des Neuen durch Komplettierung beschreiben. Operationalisierung erschließt jedoch nicht nur den kompletten Möglichkeitsraum einer Theorie, sondern formuliert den Gegenstandsbereich einer wissenschaftlichen Disziplin allgemeiner – eben dies soll anhand der Fallbeispiele konkret analysiert werden. Dies wird auch von Gaston Bachelard beobachtet und als Komplizierung und Vervoll-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Erkenntnisleitende Funktion der Mathematik

sich durch die mathematische Operativität wissenschaftliche Theorie von einer deskriptiven in eine prognostische Theorie. Denn das grundlegende Versprechen einer mathematisch operationalisierten Theorie besteht gerade in ihrer Prognostizität. Prognostizität erhält dabei eine epistemische Doppelrolle. Zum einen als limitierender Zugriff auf den prinzipiell unendlichen Möglichkeitsraum, zum anderen als verwirklichender Vorgriff auf das durch Realisierung neu herzustellende oder neu zu verifizierende Empirische. In dieser Doppelrolle liegt die Vermittlungsaufgabe der Prognose einer mathematisierten Wissenschaft. Diesen Prozess der Erschließung von Neuem durch Mathematisierung aufzuklären, ist Ziel der folgenden Fallanalysen. Erkenntnisfortschritt als Erschließung des Neuen erfordert jedoch noch eine weitere Differenzierung, nämlich die zwischen der Operationalisierungsleistung der Mathematik (operative Epistemologie) und der Erschließung des Neuen durch explorative Experimente (explorative Epistemologie).87 So unterschiedlich beide Strategien sein mögen, sie haben den Aspekte gemein, aufgrund des epistemischen Ziels Unbekanntes zu erschließen, Zukunft herzustellen. Hans-Jörg Rheinberger hat dies für die explorative Forschung in Abgrenzung zur bereits technisierten Forschung wie folgt artikuliert: »Forschung […] produziert Zukunft: Differenz ist für sie konstitutiv.«88 Im Unterschied dazu geht der Impuls der Wissenschaft, wenn er »sich zur Technologie verfestigt […] ›von der Zukunft zur erstreckten Gegenwart‹ über. Technische Gegenstände haben mindestens die Zwecke zu erfüllen, für die sie gebaut worden sind; sie sind in erster Linie Maschinen, die Antwort geben sollen. Ein epistemisches Objekt hingegen ist in erster Linie eine Maschine, die Fragen aufwirft.«89 Diese Unterscheidung von epistemischen und technischen Dingen spricht einzig den epistemischen Dingen die Erschließungsfunktion für Zukunft respektive Unbekanntes durch die Generierung forschungskonstitutiver Differenzen zu. Ähnlich wie Rheinberger hat Ian Hacking diese Erschließungsfunktion als »Phänomene schaffen, hervorbringen, verfeinern und stabilisieren« beschrieben.90 In diesem Sinne entspricht ständigung bezeichnet. Vgl. Gaston Bachelard: Der neue wissenschaftliche Geist (1934), Frankfurt: Suhrkamp 1988. 87 Eine detaillierte Abgrenzung erfolgt später. 88 Hans-Jörg Rheinberger: Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen: Wallstein 2002, S. 29. 89 Ebd. 90 Ian Hacking: Einführung in die Philosophie der Naturwissenschaften (1983), Stuttgart: Reclam 1996, S. 380 Dies ist bei Hacking wesentlich extrapolativer und weniger theoriegetrieben gemeint, als dies Karl Poppers Falsifikationismus von Theorien oder Bas van Fraassens Credo, »experimentation is the continuation of theory construction by other means« annehmen. Van Fraassen, The Scientific Image, 1980, S. 77; vgl. Popper, Logik der

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

283



284

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

Mathematisierung als Quantifizierung Rheinbergers verfestigter Gegenwart durch die Antwort der Messung, die sich zwar zunehmend präzisieren lässt, aber nicht wirklich Neues hervorbringt.91 Anders jedoch Mathematisierung als Operationalisierung, sie folgt der Logik des Hervorbringens durch die mathematische Gleichung, in der die Frage nach dem Unbekannten formuliert wird. Diese Explizierung ist gleichzeitig eine Operationalisierung des Gesuchten, da die mathematischen Zeichen »Träger von Operationen« sind.92 Nur durch die Subsumierung unter ihre Operativität kann die Mathematik das Unbekannte eröffnen, denn Gleichsetzung allein genügt nicht. Es bedarf einer operativen Anleitung, wie das Unbekannte zu erschließen ist. Dabei ist das Öffnen eines Bezirks dadurch charakterisiert, »daß in einem Bereich des Seienden, z. B. der Natur, ein bestimmter Grundriß der Naturvorgänge entworfen wird. Der Entwurf zeichnet vor, in welcher Weise das erkennende Vorgehen sich an den eröffneten Bezirk zu binden hat.«93 Auf die Operationalisierungsleistung der Mathematik bezogen bedeutet dies, dass die unterschiedlichen Modi der mathematischen Operativität mit unterschiedlichen Erschließungslogiken einhergehen und dass sich dadurch unterschiedliche (Re-)Organisationen von Erfahrungsbereichen eröffnen. Denn es ist anzunehmen, dass, wenn sich der Entwurf des Öffnens eines Bezirks ändert, sich auch der Grundriss der Transformation der Natur in bestimmt geregelte Naturvorgänge ändert. Deshalb ist es das weitere Ziel der Analyse von Fallbeispielen, den Begriff der Formkraft der Mathematik insofern näher zu spezifizieren, als die verschiedenen operativen Modi der Mathematik in ihren jeweiligen Ausprägungen der Formkraft untersucht werden.

Forschung (1935), 1989. »Theory draws a picture of the world. But science itself designates certain areas in this picture as observable. […] To accept the theory involves no more belief, therefore, than that what it says about observable phenomena is correct.« Van Fraassen, The Scientific Image, 1980, S. 57. 91 Erkenntnisfortschritt durch Quantifizierung grenzt sich vom Erkenntnisfortschritt durch Operationalisierung ab, insofern Präzisierung bedeutet, zunehmend genauere funktionale Vorschriften der Wertezuweisungen von Variablen mathematisch zu formulieren und experimentell-operational umzusetzen. 92 Jahnke, ›Die algebraische Analysis des 18. Jahrhunderts‹, 1999, S. 134. 93 Martin Heidegger: ›Die Zeit des Weltbildes‹ (1938), in: Ders.: Holzwege, Frankfurt: Vittorio Klostermann 1963, 75–114, S. 77.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Prognostizität durch numerische Extrapolation

Prognostizität durch numerische Extrapolation

Die Meteorologie stellt ein interessantes Fallbeispiel dar,94 da ihr der experimentelle Zugang zu ihren Wissensobjekten – Wetter und Klima 95 – verwehrt ist und sie bis Ende des 19. Jahrhunderts als rein deskriptive Wissenschaft verfasst ist. Dies bedeutet, dass sich Empirie für die Meteorologie, im Unterschied zur experimentellen Physik, primär aus der Beobachtung in Form lokaler Messungen generiert. Vorhersagen von Wetterphänomenen wie Stürme oder Gewitter wären zwar gesellschaftspolitisch dringend erforderlich, sind jedoch – solange die Meteorologie rein deskriptiv verfasst ist – nicht möglich. Zwar versucht bereits Aristoteles in seinem Werk Meteorologica eine theoretische Erklärung atmosphärischer Erscheinungen wie Wolken und Wirbelwinden zu geben,96 doch erst die Neuzeit verschiebt den theoretischen Fokus von den Phänomenen auf die Ursachen der Entstehung der Wetterphänomene als Prozesse. 1686 publiziert Edmond Halley die Entdeckung, dass niedere Breitengrade mehr solare Einstrahlung erhalten als höhere und dass der daraus resultierende Temperaturgradient die Ursache der atmosphärischen Zirkulation der Luftmassen darstellt.97 Ganz im Sinne der Größenbegriffe der newtonschen Mechanik erklärt sich aus der unterschiedlichen Erwärmung die Ausdehnung und Druckveränderung der Luft und damit die Zirkulation der Luftmassen in der Atmosphäre. 1735 bringt George Hadley mit der Rotation der

94 Für eine detaillierte wissenschaftshistorische wie -theoretische Darstellung des Fallbeispiels vgl. Gabriele Gramelsberger: ›Conceiving meteorology as the exact science of the atmosphere – Vilhelm Bjerknes revolutionary paper from 1904‹, in: Meteorologische Zeitschrift, 18 (6), 2009, 663–667; Gabriele Gramelsberger, ›Conceiving processes in atmospheric models – General equations, subscale parameterizations, and ›superparameterizations‹, in: Studies in History and Philosophy of Modern Physics, 41 (3), 2010, 233–241; Gabriele Gramelsberger, Johann Feichter (Hrsg.): Climate Change and Policy. The Calculability of Climate Change and the Challenge of Uncertainty, Heidelberg u.a.: Springer 2011; Gabriele Gramelsberger: ›Climate and Simulation‹, in: Oxford Research Encyclopedia Climate Science, New York: Oxford University Press 2018. 95 Klima ist bereits selbst ein mathematisches Konstrukt, insofern es die auf 30 Jahre gemittelte Darstellung des Wetters ist. Als solches spielt Klima epistemisch erst Mitte des 20. Jahrhunderts eine Rolle für die Meteorologie. 96 Vgl. Aristoteles: Meteorologie. Über die Welt, Darmstadt: Wissenschaftliche Buchgesellschaft 1970. 97 Vgl. Edmund Halley: ›An historical account of the Trade-Winds and Monsoons observable in the seas between and near the Tropick, with an attempt to assign the physical cause of said Winds‹, in: Philosophical Transactions of the Royal Society, 183, 1686, 153–168.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

285



286

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

Erde eine weitere Kraft ins Spiel,98 deren Gradient der Rotationsgeschwindigkeit 1837 Heinrich Dove nutzt, um die verschiedenen Windmuster der Regionen zu deuten. Damit kann er die relativ einfachen Zirkulationsverhältnisse mit gleichmäßigen Windströmungen am Äquator und die zunehmend verwickelteren Zirkulationsmuster in Richtung der Pole insbesondere in den gemäßigten Breiten erklären.99 Zusammen mit der 1858 von William Ferrel auf die Atmosphäre angewandte Coriolis-Kraft, die die Ablenkung eines Partikels durch seine Beschleunigung, hervorgerufen durch die Erdrotation, beschreibt, ist ein adäquates konzeptionelles Zirkulationsmodell der Atmosphäre formuliert.100 Wetter und Klima (statistisch gemitteltes Wetter) werden damit als Bewegungsphänomene durch Zirkulation erklärbar. Die Frage ist nun, wie sich der Bewegungsbegriff des konzeptuellen Zirkulationsmodells mathematisch fassen lässt. Noch spielt Ende des 19. Jahrhunderts die Mathematik für die Meteorologie kaum eine Rolle. Die Situation hat der Meteorologe Cleveland Abbe 1890 wie folgt beschrieben: »The professional meteorologist has too frequently been only an observer, a statistician, an empiricist – rather than a mechanician, mathematician and physicist.«101 Doch die passende mathematisierte Theorie – die Hydrodynamik (Bewegungsgleichungen) – ist für die Meteorologie schon vorhanden. Bereits 1755 hatte Euler die grundlegende Bewegungsgleichung, basierend auf Newtons Gesetz der Impulserhaltung, für Strömungsprozesse in idealisierten Fluiden formuliert.102 1822 fügt Claude M. Navier einen weiteren Term hinzu, der Eulers Gleichung in eine Beschreibung für viskose Fluide überführt und damit die innere Reibung eines Fluids berücksichtigt.103 Unabhängig von Navier formuliert George Stokes 1845 Eulers Gleichung ebenfalls für viskose 98 Vgl. George Hadley: ›The cause of the general Trade-Wind‹, in: Philosophical Transactions of the Royal Society, 34, 1735, 58–62; Heinrich W. Dove: Meteorologische Untersuchungen, Berlin: Sander 1837. 99 Die einfachen Strömungsverhältnisse der Tropen wurden von den Seefahrern ›trade winds‹ genannt, weil sie das Segeln und Navigieren einfach machten. »Der Name ›Trade-Winds‹, welchen die Engländer dem Passat gegeben, könnte aber auch mit vollem Recht den Monsoons oder Moussons beigelegt werden.« Dove, Meteorologische Untersuchungen, 1837, S. 243. 100 Vgl. William Ferrel: ›The influence of the Earth’s rotation upon the relative motion of bodies near its surface‹, in: Astronomical Journal, 109 (5), 1858, 97–100. 101 Cleveland Abbe zitiert in Frederik Nebeker: Calculating the Weather. Meteorology in the 20th Century, San Diego u.a.: Academic Press 1995, S. 28. 102 Vgl. Leonhard Euler: ›Principes géneraux du mouvement des fluides‹ (1755), in: Ders.: Opera mathematica, II. Reihe, 12. Bd., Basel: Birkäuser 1954, 54–91. 103 Vgl. Claude M. Navier: ›Memoire sur les lois du mouvement des fluides‹, in: Mémoires de l’Académie des Sciences, 6, 1822, 389–440.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Prognostizität durch numerische Extrapolation

Fluide um.104 Die daraus resultierenden Navier-Stokes-Gleichungen bilden als nicht-lineare partielle Differentialgleichungen zweiter Ordnung bis heute das grundlegende (hydrodynamische) Gleichungssystem der Strömungsdynamik. Sie beschreiben die Änderung des Betrags und der Richtung der Geschwindigkeit eines ausgedehnten Fluids gewisser Masse in Abhängigkeit von den einwirkenden Kräften wie Druck, Schwerkraft und Viskosität. Doch mit Hydrodynamik allein lassen sich die atmosphärischen Prozesse, die als maßgebliche Faktoren die thermodynamischen Elemente der Temperatur und der Feuchte enthalten, nicht hinreichend theoretisch fundieren. Es bedarf der Kopplung von Hydro- und Thermodynamik, um ein adäquates ›Bild‹ der atmosphärischen Prozesse für die Prognose zu erhalten. Dieses »Bild der zukünftigen [atmosphärischen] Zustände zu konstruieren«, gelingt erst 1904 Vilhelm Bjerknes.105 Er beschreibt ein vollständiges, konzeptuelles Modell der Zustandsgrößen der Atmosphäre, basierend auf sieben Gleichungen für die sieben meteorologischen Variablen der Dichte, der Feuchtigkeit, des Drucks, der Temperatur sowie der Geschwindigkeit der Luft in drei Richtungen. Das Gleichungssystem beschreibt dabei den Zustand der Luftmassen (Dichte, Druck, Temperatur, Feuchte), ihre Bewegung (Geschwindigkeitskomponenten, Dichte, Druck), die Massenerhaltung während der Bewegung (Geschwindigkeitskomponenten, Dichte) sowie die Veränderung der Energie und Entropie der Zustandsänderungen der Luftmassen als Variablen im Zusammenhang mit der von den Luftmassen ausgeführten Arbeit sowie den aufgenommenen und abgegebenen Wärmemengen durch solare Ein- und Ausstrahlung und vom Boden aufgenommener Energie. Damit ist die Umformatierung des epistemischen Objekts der Meteorologie (Wetter, Klima) in ein dynamisches Prozessobjekt durch die Subsumtion unter die klassischen Größenbegriffe der Neuzeit abgeschlossen.106 Die mathematisierte Theorie folgt dabei einer spezifischen mathematischen Operativität. Sowohl für den meteorologischen Zirkulations- als auch den 104 Vgl. George G. Stokes: ›On the theories of the internal friction of fluids in motion‹ (1845), in: Ders.: Mathematical and Physical Papers, 1. Bd., Cambridge: Cambridge University Press 1880, 75–115. 105 Vilhelm Bjerknes: ›Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und Physik‹, in: Meteorologische Zeitschrift, 21 (1), 1904, 1–7, S. 7. Vgl. Robert M. Friedman: Appropriating the Weather. Vilhelm Bjerknes and the Construction of a Modern Meteorology, Ithaca, London: Cornell University Press 1989; Gramelsberger, ›Conceiving meteorology as the exact science of the atmosphere – Vilhelm Bjerknes revolutionary paper from 1904‹, 2009. 106 Meteorologie, obwohl erst 1904 mit Vilhelm Bjerknes’ mathematischem Modell in eine Physik der Atmosphäre transformiert, stellt eine Version der neuzeitlichen Newton’schen Wissenschaft und ihrer Größenbegriffe dar.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

287



288

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

physikalischen Bewegungsbegriff ist dies die mathematische Operativität des Infinitesimalkalküls. Jedoch mit dem Unterschied, dass Zirkulation ein nicht-lineares Prozessobjekt ist, während der Bewegungsbegriff der neuzeitlichen Physik ein lineares Prozessobjekt darstellt. Fragt man, worin die genuin mathematische Operativität des Infinitesimalkalküls besteht, dann zeigt sich diese in der Operation des ›Ins-Verhältnis-Setzens‹ von geordneten Entitäten durch raumzeitlich koordinierte Zustandstransformationen.107 In dem Moment, in dem die Meteorologie über ein mathematisiertes Prozessobjekt als ihr Wissensobjekt verfügt, wird sie prognostisch, insofern sich die mathematische Operativität durch Berechnung ›in Gang setzen‹ lässt. Im Falle der atmosphärischen Zirkulation ist das zu Prognostizierende die zeitliche Entwicklung der differentialrelationalen Zustandstransformationen. Die mathematische Zirkulation wird durch die hydrodynamischen Gleichungen angetrieben. Diese sind die eigentlichen prognostischen Gleichungen, da nur sie als Bewegungsgleichungen die Zeit als unabhängige Variable beinhalten und somit die Zustandstransformationen ermöglichen. Das bedeutet, dass alle zu prognostizierenden Größen mit den Bewegungsgleichungen verknüpft sein müssen. Auf diese Weise entsteht eine komplexe Struktur miteinander interagierender Zustandsgrößen. Damit hat die Meteorologie ein mathematisches Modell zur Berechnung zukünftiger atmosphärischer Zustände ganz im Sinne des mechanistischen Determinismus formuliert. Nicht zufällig lautet der Titel von Bjerknes’ Veröffentlichung des mathematischen Modells: Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und Physik. Die Idee dabei ist, dass sich aus den physikalischen Gesetzen, die mathematisch im Modell artikuliert sind, sowie der Kenntnis des Anfangszustandes (Messungen) die zukünftige Entwicklung numerisch extrapolieren lässt. Ein Problem ist jedoch, dass 1904 zu Bjerknes’ Zeit kaum Messungen vorhanden sind, um die Berechnung eines solchen Wettermodels adäquat zu initialisieren. Das weitaus größere Problem ist jedoch, dass das (nicht-lineare) mathematische Modell mit sieben zu prognostizierenden Zustandsgrößen viel 107 Bjerknes beschreibt dies treffend: Die drei hydrodynamischen Bewegungsgleichungen sind »Differentialrelationen zwischen den drei Geschwindigkeitskomponenten, der Dichte und dem Druck. […] Die Kontinuitätsgleichung, welche das Prinzip von der Erhaltung der Masse während der Bewegung ausspricht […] ist wieder eine Differentialrelation und zwar zwischen den Geschwindigkeitskomponenten und der Dichte. [Ebenso] die Zustandsgleichung der atmosphärischen Luft, welche eine Relation in endlicher Form zwischen Dichte, dem Druck, der Temperatur und der Feuchtigkeit einer beliebigen Luftmasse ist.« Bjerknes, ›Das Problem der Wettervorhersage‹, 1904, S. 2. Diese Art der differentialrelationalen Operativität unterscheidet sich damit von der Operativität der Permutation, wie sie in den Koordinatentransformationen der Elementarteilchenphysik zum Tragen kam.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Prognostizität durch numerische Extrapolation

zu komplex ist, um es formal berechnen zu können. Das bedeutet, dass die Meteorologie ohne die erkenntnismittelgeleitete Operativität der Simulation sowie der Rechenleistung der Computer keinen Zugriff in Form von überprüfbaren Prognosen auf ihre mathematisierte Theorie hat. Erst die computerbasierte Simulation erlaubt die numerische Extrapolation der differentialrelationalen Zustandstransformationen.108 Dazu werden die hydro- und thermodynamischen Gleichungen diskretisiert, mit numerischen Werten aus Messungen als Anfangswerte für den Zeitpunkt t0 initialisiert und die Trajektorien für jeden Punkt eines Berechnungsgitters, das die räumliche Auflösung repräsentiert, rekursiv berechnet. Die Endwerte des Zeitschritts t1 werden dann als Startwerte für t2 verwendet, usf. Auf diese Weise arbeitet sich die Simulation iterativ in der Zeit voran und entwickelt so die Zirkulation im Digitalen ähnlich den realen Wetter- oder Klimaverhältnissen. Selbst wenn sich die Meteorologie als Physik der Atmosphäre der newtonschen Mechanik und ihrer neuzeitlichen Größenbegriffe verschrieben hat und ihre Mathematisierung zu einem Prozessobjekt 1904 abgeschlossen ist, ist sie aufgrund ihrer Nicht-Linearität erst mit Hilfe der Computer als mathematisierte Wissenschaft realisierbar.109 Ohne leistungsfähige Computer ist weder der Zugriff auf die mathematisierte Theorie noch der Vorgriff durch empirisch bestätigbare Wetter- und Klimaprognosen möglich. Im Unterschied zur algebraischen Deduktion sind die Prognosen aufgrund der Approximativität der numerischen Extrapolation allenfalls plausibel.110 Trotz des epistemisch unsicheren Charakters stellt die Meteorologie basierend auf Prognosemodellen ein Paradebeispiel der hypothetisch-deduktiven Forschungslogik dar, jedoch nicht der Gestaltsphäre wie im Falle der Elementarteilchenphysik. Mit dieser Art der hypothetisch-simulativen Prognosemodelle von numerischen Zustandstransformationen gelingt die approximative Vorhersage der ›Füllen‹ der indirekten Mathematisierung durch Messung, wie sie Husserl beschrie108 Berechnungsversuche

vor Einführung elektronischer Computer basierten auf extrem vereinfachten Wettermodellen. Vgl. Gabriele Gramelsberger: ›Calculating the weather – Emerging cultures of prediction in late 19th- and early 20th-century Europe‹, in: Matthias Heymann, Gabriele Gramelsberger, Martin Mahony (Hrsg.): Cultures of Prediction. Epistemic and Cultural Shifts in Atmospheric Science, London: Routlegde 2017, 45–67. 109 Bis heute basiert jedes Wetter- und Klimamodell auf Vilhelm Bjerknes’ mathematischem Modell der sieben Zustandsgrößen. Die weitere Mathematisierung der Wetter- und Klimamodelle betrifft die subskaligen Parametrisierungen wie Wolken. Vgl. Gramelsberger, ›Conceiving processes in atmospheric models – General equations, subscale parameterizations, and ›superparameterizations‹, 2010. 110 Hinzukommt für die anfangsdatensensitiven Wettermodelle, wie das Beispiel von Edward Lorenz’ Berechnungen zeigte, das Problem der inhärenten Instabilitäten. Vgl. Lorenz, ›Deterministic Nonperiodic Flow‹, 1963.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

289



290

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

ben hat.111 Die indirekte Mathematisierung unterliegt Kants zweitem Grundsatz der Antizipation der Wahrnehmung, der auf das Reale (Dasein) durch die Quantifizierung der Empfindungsgehalte als intensive Größen (Intensitätsquanta) Bezug nimmt. Da Intensität als Quanta der Mathematik zugänglich ist, ergibt sich hier aus transzendentalphilosophischer Perspektive der Realitätsbezug der indirekten Mathematisierung der Füllen, über die logische Möglichkeit sowie die mathematische Wirklichkeit hinaus.

Prognostizität durch algebraische Permutation

Einen anderen Weg beschreitet die Festkörperchemie, die sich in den 1970er Jahren durch die computerbasierte Syntheseplanung von einer empirischen in eine hypothetisch-deduktive Wissenschaft transformiert.112 Im Zentrum steht dabei die Strukturchemie, die die (statische) Molekülstruktur als »räumliche Anordnung der Atome in einer ausgezeichneten Konfiguration [aufklärt]. Das ist im Allgemeinen eine Gleichgewichtskonfiguration, die durch ein relatives Minimum der potentiellen Energie gekennzeichnet ist. Da praktisch die gesamte Masse in den Atomkernen konzentriert ist, werden bei einer Strukturanalyse die Atome zunächst mit dem Kern identifiziert.«113 Durch diese Identifizierung der Atome mit ihren Kernen ist es schon früh möglich, auf Basis der symmetrieerhaltenden Bewegungsgruppen der 14 Bravaisgitter der Kristallographie (32 Kristallgruppen) sowie der 230 diskreten Raumgruppen die molekulare Struktur eines Moleküls zu prognostizieren. Experimentell werden diese Prognosen erstmals 1912 mit der Untersuchung der atomaren 111

Vgl. Husserl, Die Krisis der europäischen Wissenschaften (1935), 1996, S. 36 ff. Vgl. Martin Jansen: ›The Deductive Approach to Chemistry, a Paradigm Shift‹, in: Kenneth M. Harris, Peter P. Edwards (Hrsg.): Turning points in Solid-State, Materials and Surface Science, Cambridge: RSC Publishing, 2008, 22–50. Zur historischen Darstellung der Chemie der Neuzeit vgl. Ursula Klein: Verbindung und Affinität: Die Grundlegung der neuzeitlichen Chemie an der Wende vom 17. zum 18.  Jahrhundert, Basel u.a.: Birkhäuser 1994. »Syntheseplanungsprogramme lassen sich einteilen in empirische, semiformale und formale. Empirische Programme zur Syntheseplanung basieren auf Reaktionsbibliotheken [LHASA, Wipkes SECS, SYNCHEM, etc.], semiformale Systeme haben meist formale Reaktionsgeneratoren, die mit heuristischen Selektionsverfahren arbeiten [IGOR, CAMEO, SYNGEN, TOSCA, etc.]. Rein formale Syntheseplanungsprogramme verzichten weitgehend auf Heuristik und übertragen wichtige Selektionsentscheidungen dem Anwender [CICLOPS, EROS, FLAMINGOES, PEGAS, MAPOS etc.].« Ivar Ugi, et al.: ›Die computerunterstützte Lösung chemischer Probleme – eine neue Disziplin der Chemie‹, in: Angewandte Chemie, 105, 1993, 210–239, S. 212. 113 Dirk Steinborn: Symmetrie und Struktur in der Chemie, Weinheim: Wiley-VCH 1993, S. 7. 112

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Prognostizität durch algebraische Permutation

Struktur von Zinksulfid von Walter Friedrich, Paul Knipping und Max von Laue bestätigt.114 Der Zusammenhang von kombinatorisch erschlossener und experimentell nachgewiesener Struktur mit der Chemie ergibt sich dann aus der elektronischen Struktur und den dynamischen Prozessen der Kernkonfigurationen eines Moleküls. Aus diesen Prozessen lassen sich Rückschlüsse auf die chemische Reaktivität und die spektroskopischen Moleküleigenschaften gewinnen. Mit Hilfe der Strukturchemie ist es beispielsweise möglich, den Unterschied zwischen den Isomeren Graphit und Diamant festzustellen, die jeweils aus derselben Konfiguration von Kohlenstoffatomen bestehen und sich dennoch physikalisch und chemisch stark voneinander unterscheiden. Die Aufklärung der Strukturen gehört ebenso wie die Identifikation der Reaktionsmechanismen zu den experimentellen Aufgaben der Strukturchemie. Dafür sind neben den qualitativen Darstellungen zu unterschiedlichen Aspekten der Strukturen quantitative Angaben für interatomare Abstände und Winkel, Messungen der Aufenthaltswahrscheinlichkeiten und Berechnungen der Wechselwirkungen der Elektronen nötig.115 Die frühe Mathematisierung der Strukturchemie anhand der 230 diskreten Raumgruppen folgt der mathematischen Operativität der Kombinatorik oder Permutation der geometrischen Automorphismen als ein Paradebeispiel der hypothetisch-deduktiven Forschungslogik der Gestaltsphäre. Doch erst mit Neuformulierung der Stereochemie als Permutationsisometrie auf Basis der chemischen Identitätsgruppentheorie (CIG) sowie die Neuformulierung der konstitutiven Chemie als axiomatisierte Theorie der Bindungs-, Elektronenund Reaktionsmechanismen (Dugundji-Ugi-Modell, kurz: DU-Modell) wird die Festkörperchemie im Sinne der Syntheseplanung prognostisch.116 Denn 114 Vgl. Friedrich, Knipping, von Laue, ›Interferenzerscheinungen bei Röntgenstrahlen‹, 1913. 115 Neben der Berechnung von Energieniveaus sowie der Geometrien molekularer Systeme gibt es »jedoch auch viele Arten chemischer Probleme, die zwar mit Computerunterstützung, nicht aber durch numerische Rechnungen lösbar sind. In diesen Fällen werden vor allem die logischen und kombinatorischen Fähigkeiten der Computer benötigt.« Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme – eine neue Disziplin der Chemie‹, 1993, S. 211. Den Beginn der Computerchemie markiert das Programm DENDRAL, das basierend auf spektroskopischen Daten die Strukturmerkmale eines Moleküls ermittelt. Vgl. Robert K. Lindsay, et al.: Applications of Artificial Intelligence for Organic Chemistry. The DENDRAL Project, New York: McGraw-Hill Book Company 1980. 116 »Ein mathematisches Modell der Chemie muß daher aus zwei Teilen bestehen, einem, der die konstitutive Chemie wiedergibt, und einem, der die Stereochemie repräsentiert. Die Theorie der be- und r-Matrizen ist ein algebraisches Modell der logischen Struktur der konstitutiven Chemie, das in der Literatur auch ,Dugundji-Ugi-Model oder

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

291



292

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

die anfangs beschriebenen 230 diskreten Raumgruppen der Stereochemie haben sich zwar als nützlicher Permutationsformalismus für Strukturvorhersagen erwiesen, allerdings nur für starre Moleküle. Moleküle verändern jedoch ihre Struktur dynamisch durch Drehung von Atomgruppen und dies wird durch den geometrischen Kalkül nicht erfasst. Die chemische Identitätsgruppentheorie (CIG) stellt daher eine explizit nicht-geometrische Theorie dar.117 Als abstrakte Gruppentheorie formalisiert sie die logische Struktur der Stereochemie auf Basis des Äquivalenzbegriffs der ›chemischen Identität‹. »Zerlegt man ein Molekül gedanklich in ein Molekülgerüst und ein Sortiment von Liganden, so entsprechen die distinkten Moleküle, die sich durch permutierte Platzierungen der Liganden am Gerüst unterscheiden, den Permutationsisomeren. Die Menge aller aus einem Bezugsisomer erhältlichen Permutationsisomere wird dessen Familie von Permutationsisomeren genannt.«118 Diese räumliche Definition wird nun in eine abstrakte gruppentheoretische übersetzt, insofern jene Ligandenpermutationen identifiziert werden, die für dasselbe Molekül eine räumlich veränderte Orientierung durch Drehung von Atomgruppen bedeuten. Durch diese Ligandenpermutationen ändern sich zwar die räumlichen Anordnungen im Molekül, aber nicht die chemische Identität des Moleküls. Alle Ligandenpermutationen, die die chemische Identität wahren, bilden eine Gruppe.119 Durch mengenwertige Abbildungen von Permutationen auf Mengen von Permutationen lässt sich die Dynamik der molekularen Strukturveränderungen als stereochemische Äquivalenzrelatio-Theorie‹ oder kurz ,DU-Modell‹ genannt wird. […] Die logische Struktur der Stereochemie läßt sich mit der Theorie der Chemischen Identitätsgruppe (CIG) beschreiben, die auf dem Konzept der Permutationsisomerie basiert. Im Gegensatz zur traditionellen mathematischen Chemie beziehen sich diese beide Modelle auch und vor allem auf den dynamischen Aspekt der Chemie. Im Rahmen des DU-Modells werden chemische Reaktionen durch Transformationen von be-Matrizen repräsentiert, welche den Graphen der chemischen Konstitution entsprechen, und in der CIG-Theorie werden stereochemische Prozesse durch mengenwertige Abbildungen dargestellt. Diese mathematischen Methoden zur direkten Modellierung chemischer Vorgänge sind die theoretische Grundlage der computerunterstützten deduktiven Lösung chemischer Probleme, für die nicht auf detaillierte empirische chemische Daten zurückgegriffen werden muß.« Ugi, et al., ›Die computerunterstützte Losung chemischer Probleme‹, 1993, S. 216. 117 Vgl. Ivar Ugi, et al.: ›Chemie und logische Strukturen‹, in: Angewandte Chemie, 82 (18), 1970, 741–771. 118 Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 222. 119 »Sind alle Liganden des Sortiments L unterscheidbar, so bilden die die chemische Identität von X wahrenden Ligandenpermutationen im allgemeinen eine Gruppe S(E), die CTG des durch E repräsentierten Bezugsisomers X, eine Untergruppe der symmetrischen Permutationsgruppe Sym(L) der Liganden aus L. […] Trägt ein Modell n Liganden, so besteht Sym(L) aus n! Permutationen.« Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 222.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Prognostizität durch algebraische Permutation

nen erfassen. »Um die gesamte Familie der Permutationsisomere zu beschreiben, genügt es daher, aus jeder Äquivalenzklasse eine Permutation als Repräsentant für jeweils ein Permutationsisomer zu wählen. […] Liganden, die die gleiche chemische Interpretation aufweisen und deren Vertauschung die chemische Identität von Molekülen nicht verändert, heißen äquivalent.«120 Chemische Identität ist auf diese Weise als Äquivalenzbegriff mathematisch operationalisierbar und verringert die Datenmenge der Lösungen stereochemischer Probleme erheblich. Ergänzt wird die chemische Identitätsgruppentheorie durch das DUModell der Bindungs-, Elektronen- und Reaktionsmechanismen. Das DUModell basiert auf einem algebraischen Matrizenformalismus, der Matrizen nicht tabellarisch zur Darstellung chemischer Molekülkonstitutionen nutzt, sondern als »echte mathematische Objekte mit wohldefinierten mathematischen Eigenschaften [… der] abelschen Gruppen« anwendet.121 Durch diesen Formalismus lassen sich mit den Eintragungen in die Matrize neue Reaktionsmechanismen ›errechnen‹. Moleküle werden dabei als Atomkerne und Valenzelektronen aufgefasst, die durch kovalente Bindungen zwischen Valenzelektronenpaaren, die sich zwei benachbarte Atome teilen, zusammengehalten werden. Eine chemische Reaktion ist als Verschiebung von Valenz2 Ɵ

:O:

2

:O:

3

3 H      C      C Ξ N: 1 6 5

Ɵ

:C Ξ N

+

C 1 H        H

5

6

H

4

4

       C1 O2 H3 H4 C5 N6

       C1 O2 H3 H4 C5 N6

       C1 O2 H3 H4 C5 N6

C    0   2   1   1   0   0 O2   2   4   0   0   0   0 H3   1   0   0   0   0   0 H4   1   0   0   0   0   0 C5   0   0   0   0   3   2 N6   1   0   0   0   3   2

C    0‐1     0   0+1    0 O2  ‐1+2   0   0   0   0 H3   0   0   0   0   0   0 H4   0   0   0   0   0   0 C5  +1   0   0  0‐2     0 N6   0   0   0   0   3   2

C1   0   1   1   1   0   0 O2   1   6   0   0   0   0 H3   1   0   0   0   0   0 H4   1   0   0   0   0   0 C5   0   0   0   0   0   3 N6   1   0   0   0   3   2

1

B

1

+

=

         +                        R                         =                          E Matrizenformalismus des DU-Modells von Ugi (1993)

120

Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 223. Ebd., S. 218. »Die Mathematik ist damit zu einer natürlichen Sprache der Chemie geworden, einschließlich einer eigenen Semantik und Syntax, ebenso wie es die Sprache der chemischen Formeln schon lange ist.« Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 216. 121

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

293



294

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

elektronen definiert. Entweder entstehen dadurch isomere Moleküle, die eine Familie aller möglichen isomeren Kombinationen A1, .., A n des Moleküls A bilden und die sich durch be-Matrizen B (bond and electron Martizen) darstellen lassen: Die Diagonaleintragungen repräsentieren die freien Valenzelektronen der isomeren Kombinationen, die außerdiagonalen Eintragungen die formalen Bindungsanordnungen. Oder es finden Reaktionen zwischen unterschiedlichen Molekülen statt, die durch r-Matrizen R anschreibbar sind: Die Diagonaleintragungen repräsentieren dann die Veränderung der Zahl der freien Valenzelektronen und die außerdiagonalen Eintragungen die Veränderung der formalen Anordnung der Bindungen. Die rechnenden Eigenschaften des Matrizenformalismus ergeben sich aus dessen Additivität (abelsche Eigenschaft). »Die be-Matrizen B der Edukte werden durch additive Transformationen mit den Reaktionsmatrizen R in be-Matrizen E der Produkte gemäß B + R = E, der Grundgleichung des DU-Modells, überführt.«122 Auf Basis dieses Matrizenformalismus lassen sich nicht nur Reaktionen errechnen, sondern metrische Eigenschaften ableiten. Indem die Eintragungen der Matrizen als Punktkoordinaten re-geometrisiert und die Distanz zwischen zwei Punkten als Vektor angegeben wird, gewinnt man den (Maß-)Begriff der ›chemischen Distanz‹ zwischen zwei Molekülen einer Reaktion. Basierend auf diesem Begriff lässt sich ein »geometrisches Bild der logischen Struktur der Chemie [als] eine ›Landkarte‹ der Minima der Energiehyperfläche einer gegebenen Kollektion von Atomen« erstellen.123 Chemische Distanz erweist sich dabei als prognostischer Begriff der Vorhersage existenzfähiger, neuer Moleküle. Die Stereochemie als Permutationsisometrie und die konstitutive Chemie als axiomatisierte Theorie der Bindungs-, Elektronen- und Reaktionsmechanismen bilden die konzeptuelle wie mathematische Basis der computergestützten Syntheseplanung. Die mathematischen Formalismen ermöglichen aufgrund ihrer Operativität die Transformation der Chemie von einer empiri122

Ebd., S. 218. »Die Lösungen der Grundgleichung B + R = E des DU-Modells entsprechen den Lösungen einer Vielzahl chemischer Probleme. Somit kann das DU-Modell als universelle theoretische Grundlage von Computerprogrammen zur deduktiven Lösung konstitutionschemischer Probleme dienen.« Ebd. 123 Ebd., S. 218. Auf dem Konzept der minimalen chemischen Distanz lässt sich eine Hierarchie zunehmend allgemeinerer Darstellungen aufbauen und damit ein allgemeinerer Begriff von ›Reaktion‹ ermöglichen. Insbesondere für die Identifikation neuer Reaktionen spielt die Verallgemeinerung eine wichtige Rolle. »Dabei wird für die betrachtete Reaktion die zugehörige Hierarchie ihrer Klassen und Unterklassen gebildet und ermittelt, ab welchem Niveau der Hierarchie sich keine literaturbekannten Reaktionen mehr zuordnen lassen. Je ›höher‹ dieses Niveau ist, umso größer ist der Neuheitsgrad der betrachteten Reaktion.« Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 220.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Prognostizität durch algebraische Permutation

schen in eine hypothetisch-deduktive Wissenschaft. Dabei ist es die Leistung der Permutationsisometrie, den Begriff der ›chemischen Identität‹ als dynamisches Prozessobjekt in Form einer gruppentheoretisch fundierten Äquivalenzrelation zu formulieren. Die Leistung des DU-Modells ist es, Reaktionsmechanismen durch einen algebraischen Matrizenformalismus berechenbar zu machen und damit den prognostischen Begriff der ›chemischen Distanz‹ zu gewinnen. Damit steht ein Formalismus zur Verfügung, neue, existenzfähige Moleküle vorherzusagen. Die eigentliche Leistung der Mathematik ist auch hier, dynamische Interaktionen zu operationalisieren. Deutlich wird dies an der Verwendung der Matrizen als mathematische Objekte mit wohldefinierten mathematischen Eigenschaften des Rechnens und nicht als deskriptive Tabellen. Die Operativität des Matrizenformalismus folgt dabei nicht chemischen Bedingungen, sondern allein mathematischen. Chemische Probleme werden zu »mathematischen Problemen […], deren Lösungen den Lösungen der chemischen Probleme entsprechen«.124 Das prognostische Konzept der Landkarte der Minima der Energiehyperfläche erlaubt den vollen Zugriff auf die mathematisierte Theorie und aufgrund des metrischen Begriffs der chemischen Distanz den Vorgriff auf experimentelle Bestätigung. Voraussetzung dafür ist die simulationsbasierte »Projektion der gesamten Welt der bekannten und der noch nicht hergestellten, aber existenzfähigen chemischen Verbindungen auf eine Energielandschaft«.125 Im Zentrum dieser Projektion steht das Konzept des Konfigurationsraumes. »Ein Punkt im Konfigurationsraum entspricht einer Atomkonfiguration, und alle Atomkonfigurationen, die gemeinsam eine lokal ergodische Region auf der Beobachtungszeitskala bilden, stellen in ihrer Gesamtheit eine existenzfähige (meta)stabile chemische Verbindung auf dieser Zeitskala dar. Insbesondere bei tiefen Temperaturen entspricht der Bereich um jedes Minimum der potentiellen Energie einer existenzfähigen Verbindung.«126 Das chemische System wird dabei als System aus Impuls- (P) und Positionsvektoren (R) für N Atome mit einer Energiefunktion, die sich aus kinetischer und potentieller Energie ergibt, mathematisch modelliert. Der 3N-dimensionale Raum der Vektoren R bildet den Konfigurationsraum und der 6N-dimensionale Raum der Vektoren R und P bildet den Phasenraum des Systems.127 »Die Hyper124

Ebd., S. 216. Jansen, J. Christian Schön: ››Design‹ in der chemischen Synthese – eine Fiktion?‹, in: Angewandte Chemie, 118 (21), 2006, 3484–3490, S. 3485. 126 Ebd. 127 In der hamiltonschen Mechanik wird unter einem Phasenraum das Produkt von Ortsraum und Impulsraum verstanden. Entsprechend zeigt eine Trajektorie die Bahn eines Teilchens im Phasenraum an, die durch die hamiltonschen Bewegungsgleichungen 125 Martin

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

295



296

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

fläche der Funktion Epot (R): R3N  R definiert die Landschaft der potentiellen Energie, oft einfach auch als Energielandschaft bezeichnet. Die zeitliche Entwicklung des Systems wird als Trajektorie R(t) auf der Energielandschaft dargestellt […]. Ein physikalischer Messprozess [im Simulationsmodell] ist durch das Zeitmittel ›O‹t einer Observablen O entlang der Trajektorie über das Messintervall tobs gegeben.«128 Erkundet die Trajektorie einen Bereich der Energielandschaft derart dicht, dass das Ensemblemittel der Observablen O äquivalent dem Zeitmittel von O ist, so ist die Region lokal ergodisch. Jede dieser lokal ergodischen Regionen entspricht einer chemischen Verbindung. Der Konfigurationsraum ist ein mathematischer Möglichkeitsraum, der zwar alle potentiell existenzfähigen Moleküle enthält, der sich aber erst während der Berechnung (Erkundung durch sogenannte ›random walker‹ Programme) generiert. Jede vielversprechende Region, die entdeckt wird, muss gespeichert werden, soll sie auf ihre Eigenschaften hin untersucht und später gegebenenfalls im Labor synthetisiert werden.129 Für die chemische Synthese bedeutet dies, dass ausgehend von 86 reaktionsfähigen Elementen der Festkörperchemie sich die Zahl der möglichen Einstoffsysteme auf insgesamt 286 beläuft. »Diese gigantischen Zahlen, vergleichbar mit der geschätzten Gesamtzahl der Atome im Universum, verlieren nichts von ihrer Unfassbarkeit, wenn man offensichtlich unergiebige Elementkombinationen ausschlösse; sie würden sich allenfalls um 10 bis maximal 20 Größenordnungen verkleinern.«130 Ähnlich verhält es sich für die gesamte Chemie, deren Bestand auf rund siebzehn Millionen prognostizierter und in Datenbanken abgespeicherter Molekülverbindungen geschätzt wird – von insgesamt 10100 möglichen Molekülen.131 beschrieben wird. Einem eindimensionalen harmonischen Oszillator entspricht das Phasenraumporträt einer Ellipse, einem (mathematischen) Pendel das Phasenraumporträt eines stabilen (elliptischen) Fixpunktes und eines instabilen (hyperbolischen) Fixpunktes – so wie von Henri Poincaré 1890 beschrieben. Vgl. Poincaré, ›Sur le problème des trois corps et les équations de la dynamique‹, 1890. 128 Jansen, Schön, ››Design‹ in der chemischen Synthese – eine Fiktion?‹, 2006, S. 3489. 129 »Die Computerchemie wird zumindest auf längere Sicht billiger und schneller sein und die präparativ-explorative Arbeit nachhaltig stützen können. Die klassisch präparative Chemie bleibt allerdings unverzichtbar, da der praktische Nutzen aus einem Stoff trivialerweise nur dann gezogen werden kann, wenn dieser auch faktisch verfügbar ist.« Jansen, Schön, ››Design‹ in der chemischen Synthese – eine Fiktion?‹, 2006, S. 3486. 130 Martin Jansen: ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, in: Angewandte Chemie, 114, 2002, 3896–3917, S. 3912. 131 Vgl. Frank Öllien: Algorithmen und Applikationen zur interaktiven Visualisierung und Analyse chemiespezifischer Datensätze, Dissertation, Friedrich-Alexander-Universität Erlangen-Nürnberg 2002.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Theorie

Operationale (Re-)Organisation von Theorie

Wie die Fallbeispiele zeigen, besteht die maßgebliche Leistung der Formatierung einer Theorie in eine mathematisierte Theorie – also operationale Theorie – in der Transformation der Wissensobjekte in mathematisierte Prozessobjekte. Erst als solche eröffnen sie den gesamten Möglichkeitsraum einer Theorie. Die epistemische Struktur dieses Möglichkeitsraums ist mathematisch-operativ, potentiell sowie prinzipiell prognostisch. Im Falle der Chemie besteht der Möglichkeitsraum aus 10100 möglichen, mathematischoperativ generierbaren Molekülen. Die tatsächlich berechneten Moleküle in den Datenbanken der Chemie umfassen etliche Millionen Moleküle und die davon in den Laboren mit automatisierten Hochdurchsatzverfahren synthetisierten Moleküle etliche Hunderttausende. Im Fall der Meteorologie besteht der Möglichkeitsraum aus allen in die Vergangenheit und Zukunft mathematisch-operativ extrapolierten Zuständen beliebiger Atmosphären. Die tatsächlich berechneten Zustände umfassen jedoch nur einige Jahrzehnte oder in Einzelfällen wenige Jahrhunderte der Erdatmosphäre. In der Biologie sieht es mittlerweile ähnlich aus. Auf Basis genetischer und molekularbiologischer Theorieentwicklungen und deren Mathematisierung sind heute im Computer und den Laboren künstliche DNA und damit neue Genome herstellbar. Es wird vermutet, dass der Möglichkeitsraum 1045 DNA-Genome auf Basis natürlicher Komponenten umfasst, die im Computer prognostizierbar und im Labor synthetisch herstellbar wären.132 Doch auch die natürlichen Komponenten werden durch die Synthese künstlicher Bausteine zur Xeno-Biodiversität erweitert. Die 20 natürlich vorkommenden Aminosäuren wurden bisher durch Kombination ihrer Bausteine um weitere 40 ›komplementiert‹.133 Aber auch die vier Basen (A, G, C, T) der DNA werden durch die Substitution mit neuen Bausteinen als Xeno-DNA variabel (DNX).134 Dies zeigt die genuine Leistung der Mathematik, durch ihre Operativität neues Terrain für die Wissenschaft zu erschließen. Wie es Ivar Ugi treffend für die Chemie formulierte: 132 Die Schätzung basiert auf der Annahme, dass es 1031 mikrobische Genome auf der Welt gibt und dass seit 4 x 109 Jahren Mikroorganismen jährlich 104 Generationen durchlaufen. Vgl. Philippe Marliere: ›The farther, the safer: a manifesto for securely navigating synthetic species away from the old living world‹, in: Systems and Synthetic Biology, 3, 2009, 77–84. 133 Vgl. Lei Wang, Peter G. Schultz: ›Die Erweiterung des genetischen Codes‹, in: Angewandte Chemie, 117 (1), 2005, 34–68; Qiaoyan Wang, Alan R. Parrish, Lei Wang: ›Expanding the genetic code for biological studies‹, in: Chemistry & Biolology, 16 (3), 2009, 323–336. 134 Vgl. Philippe Marliere et al.: ›Chemical Evolution of a Bacterium’s Genom‹, in: Angewandte Chemie (Internationale Edition), 50, 2011, 7109–7114.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

297



298

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

Matrizen als »tabellarische Darstellungen der chemischen Konstitution einzelner Moleküle« sind uninteressant; interessant werden sie erst als »echte mathematische Objekte mit wohldefinierten mathematischen Eigenschaften«, indem die Lösungen der »mathematischen Probleme […] den Lösungen der chemischen Probleme entsprechen«.135 Vor diesem Hintergrund der mathematisch-operativen Verfassung des Möglichkeitsraumes von Theorien mit seiner teilweise unendlichen Potentialität wird zweierlei deutlich. Zum einen, dass die mathematische (Re-)Organisation von Theorie wissenschaftliche Begriffe verallgemeinert. Meteorologie wird zu einer allgemeinen Theorie der Zirkulation und Chemie wird zu einer allgemeinen Theorie chemischer Reaktivität. Erst als allgemeiner Theorie steht der komplette Möglichkeitsraum offen. Zum anderen, dass die jeweilige Erschließungslogik der mathematischen Operativität (Permutation, Extrapolation, etc.) zwar das ›Programm‹ der Umformatierung darstellt und damit den kompletten Möglichkeitsraum einer Theorie determiniert, dass aber erst die Prognostizität durch Berechnung sowohl den Zugriff auf die mathematisierte Theorie als auch den Vorgriff auf die Empirie ermöglicht und damit die erkenntnisleitende Rolle der Mathematik operabel macht. Das heißt, Prognostizität ist nicht nur eine hinreichende, sondern epistemisch notwendige Funktion der Formkraft der Mathematik. Das bedeutet jedoch nicht, dass die prognostizierten Möglichkeiten bereits experimentell hergestellt sein müssen, sondern dass sie das realisierbare (berechnete) Reservoir des Möglichkeitsraums mathematisierter Theorien bilden. Die Frage nun ist, wie die Annäherung an die ›Empirie‹ erfolgt, ohne davon auszugehen, dass die mathematische Operativität strukturell das Verhalten natürlicher Systeme repräsentiert, noch dass mathematische Operativität magische Formalismen auf die empirische Wissenschaft anwendet. Die These ist, dass die mathematische Operativität ihrer eigenen Logik folgt und im Falle der Zugriffsfunktion der Prognose auf die Theorie ein Passungsverhältnis geschaffen werden muss, das einen adäquaten Vorgriff auf die Empirie ermöglicht.136 Dieses Passungsverhältnis ist notwendig, um den Möglich135 Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 216 und S. 218. 136 Passung ist hier konkret gemeint, im Sinne von Anpassungen der Theorie an die Empirie, aber auch allgemein, im Sinne von Nelson Goodmans Vorschlag, »statt zu versuchen, die Richtigkeit von Beschreibungen oder Darstellungen unter den Begriff Wahrheit zu subsumieren, […] Wahrheit zusammen mit ihnen unter den allgemeinen Begriff der Richtigkeit des Passens [zu] subsumieren. […] Passen auf das, worauf in der einen oder anderen Weise Bezug genommen wird, oder Passen auf andere Wiedergaben, auf Arten und Weisen der Organisation.« Nelson Goodman: Weisen der Welterzeugung (1978), Frankfurt: Suhrkamp 1990, S. 161 und S. 167. Konkret auf die Mathematisierung von Theo-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Theorie

keitsraum, den die mathematische Operativität eröffnet, mit der Empirie zur Deckung zu bringen, die jedoch immer nur im Realisierungsraum der experimentellen Wissenschaft gegeben ist. Wie das Beispiel der Chemie zeigt, lassen sich zwei Passungsvorgänge beobachten. Zum einen seitens der ›Empirie‹ durch Transformationsregeln, die nur erlaubte, also tatsächlich vorkommende Valenzelektronenschemata für die Berechnung berücksichtigen und damit die Anzahl der potentiell möglichen Kombinationen einschränken. Empirisch widersprüchliche Kombinationen wären sinnlos. Zum anderen seitens des aus der Theorie errechneten metrischen Begriffs der chemischen Distanz, der eine Selektion existenzfähiger Moleküle ermöglicht. Die empirischen Einschränkungen theoretischer Prognosen wurden von Heisenberg ›Unschärfen‹ genannt und sie liefern das ›empirische‹ Kriterium der Widerspruchsfreiheit analog der Berechenbarkeit als mathematisch operables Kriterium der Widerspruchsfreiheit. Heisenberg hatte es so formuliert: Eine Theorie ist dann als »[apparativ] anschaulich zu verstehen, wenn wir uns in allen einfachen Fällen die experimentellen Konsequenzen dieser Theorie qualitativ denken können, und wenn wir gleichzeitig erkannt haben, daß die Anwendung der Theorie niemals innere Widersprüche enthält«.137 Diese inneren Widersprüche waren nicht logisch motiviert, sondern experimentell. Theoretische Begriffe wie ›Gleichzeitigkeit‹ oder ›chemische Bindung‹ sind daher nicht nur durch die wissenschaftliche Theorie und deren Mathematisierung charakterisiert, sondern aufgrund des Kriteriums der apparativen Anschauung durch den experimentellen Realisierungsraum. Dieser koppelt die ›imaginative Distinktion‹ der theoretischen Definition mit der experimentell-apparativen. Eine »,schärfere‹ Definition der Gleichzeitigkeit« wäre die rein mathematisch mögliche, in der sich die Signale »unendlich schnell fortpflanzen«, doch damit »wäre die Relativitätstheorie unmöglich. […] Ebenso steht es mit der Definition der Begriffe: ›Elektronenort, Geschwindigkeit‹ in der Quantentheorie.«138 Ähnlich verhält es sich auch mit dem algebraischen Matrizenformalismus der Chemie, der aufgrund der mathematischen Operativität den kompletten Möglichkeitsraum aller Kombinationen möglicher rie bezogen schreibt Paul Humphreys: »We simply force-fit our [scientific] models to the available mathematics because which forms of mathematics are available constitutes one of the constraints within which we must work.« Humphreys, Extending Ourselves, 2004, S. 90. 137 Heisenberg, ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, 1927, S. 172. 138 Ebd., S. 179. »Alle Experimente, die wir zur Definition dieser Worte verwenden können, enthalten notwendig die durch Gleichung (1) angegebene Ungenauigkeit, wenn sie auch den einzelnen Begriff p [Impuls], q [Koordinate] exakt zu definieren gestatten.« Ebd.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

299



300

Kapitel 12  ·  Erkenntnisfortschritt durch Operationalisierung

Moleküle aufspannt und damit eine ›scharfe‹ Definition des theoretischen Begriffs der ›chemischen Reaktivität‹ basierend auf der Verschiebung von Valenzelektronen gibt. Doch dieser bedarf der ›Unschärfe‹ durch die empirische Einschränkung anhand von Transformationsregeln, die nur erlaubte Valenzelektronenschemata zulassen. Erst durch diese Einschränkung lassen sich logisch mögliche, aber empirisch sinnlose Prognosen vermeiden. Diese empirisch-apparative Limitierung wird durch die symbolisch-operable komplettiert. Für die Chemie bedeutet es, den aus der mathematisierten Theorie errechneten metrischen Begriff der chemischen Distanz als Selektionsmechanismus potentiell existenzfähiger Moleküle zu formulieren. Dieser leitet sich aus der räumlichen Interpretation als kürzeste Distanz zwischen zwei Molekülen einer Reaktion ab und folgt dem Prinzip der kleinsten Wirkung. Dieses Prinzip fungiert als Extremalprinzip der Optimierung. Im Falle der Chemie bedeutet es, die unendlich vielen prognostizierbaren Kombinationen auf dieses Prinzip hin zu optimieren und so den Zugriff auf die mathematisierte Theorie zu selektieren. In diesem Sinne ist das Extremalprinzip ein ›objectual existential principle‹, um hier Quines Ausdruck der ›objectual existential quantifier‹ zu modifizieren. Allerdings stellt sich die Frage nach dem ontologischen Status dieser existenzpostulierenden Prinzipien. Ist die Annahme, die Natur wäre dahingehend optimiert, dass sie dem Prinzip der kleinsten Wirkung folgt, so wäre es ein empirisches Prinzip, falls es experimentell bestätigbar wäre; ansonsten wäre es ein metaphysisches Prinzip.139 Doch eventuell ist es gar kein ontologisches, sondern ein mathematisch-epistemisch bedingtes Prinzip, insofern das Extremalprinzip wie das Invarianzprinzip Orientierung für den Zugriff auf die potentielle Unendlichkeit des mathematisch-operativen Möglichkeitsraum bietet und, wie Max Planck feststellt, die angenehme »Eigentümlichkeit [besitzt], daß es auf jedwede den Verlauf eines Naturvorganges betreffende sinnvolle Frage eine eindeutige Antwort besitzt«.140 Und dies gilt eben auch für die Antworten der Experi139 Für Mark Steiner generiert sich die Objektivität der Erhaltungssätze der Physik aus den mathematischen Symmetrien. Wie bereits von Emmy Noether beschrieben, basieren die Erhaltungssätze als Integrale der Bewegung auf dem Extremalprinzip, das in der Variationstheorie zur Anwendung kommt, »d. h. setzt man ψ i = 0, so geht (13) über in die Gleichungen: DivB (1) = 0, …, DivB (ρ) = 0, die vielfach als ›Erhaltungssätze‹ bezeichnet werden.« Noether, ›Invariante Variationsprobleme‹, 1918, S. 245. Die Erhaltungsgrößen resultieren aus der Invarianz gegenüber der Translation und Rotation des Raumes, der Translation der Zeit sowie der Translationsgeschwindigkeit. 140 Max Planck: Wege zur physikalischen Erkenntnis: Reden und Vorträge, Leipzig: Hirzel 1944, S. 302. Vgl. Michael Stöltzner: ›Das Prinzip der kleinsten Wirkung als Angelpunkt der Planckschen Epistemologie‹, in: Dieter Hoffmann (Hrsg.): Max Planck und die moderne Physik, Berlin, Heidelberg; Springer 2010, 167–183.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Theorie

mente, die das Extremalprinzip insofern empirisch bestätigen, als nur danach gefragt wurde. Heidegger hat diesen Umstand treffend artikuliert: »Darum kann die Physik bei allem Rückzug aus dem bis vor kurzem allein maßgebenden, nur den Gegenständen zugewandten Vorstellen auf eines niemals verzichten: daß sich die Natur in irgendeiner rechnerisch feststellbaren Weise meldet und als ein System von Informationen bestellbar bleibt.«141 Für die Chemie wie die Physik bedeuten Extremalprinzipien in erster Linie, mathematisches Selektionskriterium in dem durch mathematische Operativität eröffneten, potentiell unendlichen Möglichkeitsraum zu sein. Fakt ist, dass die neuzeitliche und moderne Wissenschaft als mathematisierte ohne diese Prinzipen der Selektion oder Optimierung keine Aussagekraft besäßen. Durch seinen Zweck der Selektion respektive Optimierung entpuppt sich das Extremalprinzip als teleologisches Orientierungs- und Passungsprinzip, dessen Teleologie sich durch die Anwendbarkeit der Mathematik ergibt. Allgemein lässt sich feststellen, dass die Passung der Zu- und Vorgriffsfunktionen der Prognose seitens des Möglichkeitsraumes der mathematisch-operativ umformatierten Theorie in der Limitierung auf empirischer Möglichkeit besteht. Prognostizität wird durch empirische Einschränkungen (Unschärfen) sowie apriorische Selektions- und Optimierungsmechanismen (Anwendungsteleologien) limitiert. Passung lässt sich daher als Nötigung der mathematisierten Theorie verstehen, bestimmte Fragen zu stellen, um »die Natur [zu] nötigen« auf eben diese »Fragen zu antworten«.142

141

Heidegger, ›Die Frage nach der Technik‹ (1949), 1962, S. 22. Kritik der reinen Vernunft (1781, 1787), 1993, Vorrede B XII und B XIII.

142 Kant,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

301

Kapitel 13 Erkenntnisfortschritt durch Präzisierung

D  

ie andere Seite der Medaille besteht darin, die Natur zu nötigen, auf eben jene bestimmten Fragen in bestimmter Weise zu antworten. Vor diesem Hintergrund wird deutlich, dass der Begriff der ›Empirie‹ mit Vorsicht zu genießen ist. Empirie als gegeben vorauszusetzen mag für die direkte Beobachtung noch zutreffen, insofern man diese rein induktiv und ohne Modifikation des Beobachtungsgegenstandes versteht.143 Doch dies ist in der Regel nicht der Fall. Um hier noch einmal Rheinberger zu zitieren: »Das Projekt der neuzeitlichen Wissenschaft leitet seine Macht aus dem spezifisch technologischen Charakter der Darstellungsräume her. Die Kräfte und die Art von Überlegungen, die sie freisetzen, ebenso wie die Regeln, denen sie gehorchen, sind weniger die von cartesischen Subjekten als vielmehr die von technologisch-epistemischen Texturen.«144 Die Frage bezüglich der Konstitution des Realisierungsraums der Empirie lautet daher: Sind wissenschaftliche Instrumente per se mathematische Instrumente? Diese Frage wird vor dem Hintergrund des experimentellen Realisierungsraums der apparativen Anschauung relevant. In anderen Worten: Ist die apparative Anschauung eine material mathematisierte?

Apparative Anschauung

Die Frage stellt sich vor allem auch deshalb, weil Studien zu wissenschaftlichen Instrumenten den epistemischen Schwerpunkt zumeist auf ›tacit knowledge‹, ›material activity‹ und ›trial-and-error‹-Verfahren legen.145 Dies deckt sich weitgehend mit der Geschichte des Instrumentenbaus bis ins 19. Jahrhundert, der sich durch handwerkliches Geschick und Erfahrung auszeichnet. Optimierte Instrumente und Verfahren sind das Produkt eines durch Anwendbarkeit bestätigten Erfahrungswissens. Mathematik hingegen wird mit Theorie identifiziert und als zu wenig nützlich für praktische Kontexte abgelehnt. 1821 beschreibt John F. W. Herschel die Situation wie folgt: »That 143

Zur Kritik eines naiven Induktionismus vgl. Norwood R. Hanson: Patterns of Discovery, Cambridge: Cambridge University Press 1958. 144 Rheinberger, Experimentalsysteme und epistemische Dinge, 2002, S. 243, 244. 145 Vgl. Harry Collins: Changing Order. Replication and Induction in Scientific Practice, Chicago: University of Chicago Press 1985.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative Anschauung

from all the abstruse researches of Clairaut, Euler, d’Alembert, and other celebrated geometers, nothing hitherto has resulted beyond a mass of complicated formulae, which, though confessedly exact in theory, have never yet been made the basis of construction for a single good instrument, and remained therefore totally inapplicable, or at least unapplied in practice.«146 Doch Mitte des 19. Jahrhunderts ändert sich die Situation. Ausgehend von der Feinmechanik und -optik jener Zeit transformieren sich die wissenschaftlichen Instrumente durch zunehmende Mathematisierung in Präzisionsinstrumente.147 Diese Entwicklung haben Bernward Joerges und Terry Shinn untersucht und mit dem Begriff der aufkommenden Forschungstechnologien beschrieben.148 Als Wegbereiter sehen sie Joseph von Fraunhofer, der 1815 eine Bestimmungsmethode des Brechungs- und Farbzerstreuungs-Vermögens achromatischer Linsen entwickelt und damit einen neuen Qualitätsstandard in der Optik setzte.149 1824 bringt von Fraunhofer die Rolle der Mathematik in seiner experimentellen Forschung treffend zum Ausdruck: »Man hatte bisher die achromatischen Objective nicht völlig nach bestimmten theoretischen Grundsätzen verfertiget, und mußste sich innerhalb gewisser Gränzen auf einen günstigen Zufall verlassen, weswegen man eine größsere Anzahl Gläser schliff, und diejenigen zusammen suchte, bey welchen sich die Fehler am 146 John F. W. Herschel zitiert in David Brewster: The Edinburgh Encyclopedia. The American Edition, 14. Bd., 2. Teil, Philadelphia: Joseph and Edward Parker 1832, S. 609. Vgl. John F. W. Herschel: ›On the alterations of compound lenses and object-glasses‹, in: Philosophical Transactions of the Royal Society of London, 111, 1821, 221–268. 147 »In the 1870s and 1880s much of the initiative for community development came from Berlin’s instrument craftsmen who prodded the new imperial government into recognizing the nation’s need for a strong precision instrument capacity and who militated in behalf of a formal instrument association.« Terry Shinn: ›The research-technology matrix: German origins, 1860–1900‹, in: Bernward Joerges, Terry Shinn (Hrsg.): Instrumentation Between Science, State and Industry, Dordrecht u.a.: Kluver Academic Publishers 2001, 29–48, S. 29. 148 »These research-technologists admittedly work within universities, industry, state or independent establishments, yet at the same time they maintain some distances from their organizations. In many instances, they pursue ›hybrid careers‹, shifting back and forth between different employers or, while remaining with a single employer, lend their services to changing outside interests.« Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, S. 7, 8. Vgl. Terry Shinn, Bernward Joerges: ›The Transverse Science and Technology Culture: Dynamics and Roles of Research-Technology‹, in: Social Science Information, 41 (2), 2002, 207–251; Terry Shinn: Research-Technology and Cultural Change, Oxford: The Bardwell Press 2008. 149 Vgl. Jackson, Spectrum of Belief. Joseph von Fraunhofer and the Craft of Precision Optics, 2000; Myles Jackson: ›From theodolite to spectral apparatus: Joseph von Fraunhofer and the invention of a German optical research-technology‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 17–28.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

303



304

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

nächsten compensirten. Da die Wahrscheinlichkeit dieses Zufalls bey größseren Objectiven vielmal geringer ist, als bey kleineren, so würden auch die Objective von mittlerer Größse nur selten vollkommen […]. Die wichtigsten Ursachen [dafür …] sind: daßs theils die Theorie der achromatischen Objective noch unvollkommen war; theils daßs das Brechungs- und Farbenzerstreuungs-Vermögen der Glasarten, welches bey der Berechnung als genau bekannt vorausgesetzt werden mußs, durch die früher angewendeten Mittel nicht genau bestimmt werden konnte; theils endlich, daßs man durch die Methoden, deren man sich zum Schleifen und Poliren der Gläser bediente, der Theorie nicht in dem Grade genau Folge leisten konnte, als es vorausgesetzt werden mußs, wenn keine bemerkbare Undeutlichkeit entstehen sollte.«150 In anderen Worten: Dem Zufall und den ›trial-and-error‹ Methoden sind auch im Instrumentenbau Grenzen gesetzt. Entsprechend revidiert Herschel seine Kritik und fordert eine ›rational mechanics‹.151 Was von Fraunhofer beschreibt, kündet ein neues Forschungsparadigma in der Herstellung wissenschaftlicher Apparate an, dessen Rationalität sich aus der Mathematik und deren prognostischen Möglichkeiten generiert. Denn ihm gelingt es, eine Kalibrierungstechnik für achromatische Linsen zu entwickeln, in der sich die Mathematisierung zweifach manifestiert: zum einen in der Erfindung eines neuen, metrisierten Messapparates (Spektroskop), indem er sein Messinstrument zur Brechung des Lichts mit einem Maßstab versieht (Winkelmesser des Theodolits). Dies ermöglicht ihm, die Linien im Farbspektrum als Messmarken für dessen Brechungs- und Farbenzerstreuungs-Vermögen zu nutzen. Zum anderen in der Erschließung von Theorie, die in Form von Vorausberechnungen der achromatischen Linsen anwendbar wird, da die benötigten Daten für die Brechzahl und Dispersion optischer Gläser sich dadurch mit gesteigerter Genauigkeit experimentell bestimmen lassen.152 150

Joseph Fraunhofer: ›Über die Construktion des so eben vollendeten großen Refractor‹ (1824), in: Astronomische Nachrichten, 4, 1825, 17–24, S. 19. 151 »According to Herschel, rational mechanics and arithmetic communicated in written, algorithmic form would result in the production of superior lenses.« Jackson, ›From theodolite to spectral apparatus‹, 2001, S. 34. 152 Fraunhofers Berechnungen basieren dabei nicht mehr auf der Korpuskeltheorie Isaac Newtons oder dem vereinfachenden Strahlenmodell der geometrischen Optik, sondern auf der Wellentheorie des Lichts. Mit seinen Beugungsexperimenten verhilft von Fraunhofer – wie zuvor Thomas Young und Augustin Jean Fresnel – der neuen Theorie zum Durchbruch. Vgl. Emil Wilde: Geschichte der Optik: vom Ursprunge dieser Wissenschaft bis auf die gegenwärtige Zeit, 2 Bde., Berlin: Rücker und Püchler 1838; Hans Boegehold: ›Die Lehre von der Beugung bis zu Fresnel und Fraunhofer‹, in: Die Naturwissenschaften, 14 (23), 1926, 523–533.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Apparative Anschauung

Damit wird deutlich, was die treibende Kraft hinter der Implementierung mathematischer Prinzipien in Instrumente und experimentelle Verfahren ist. Es ist das Streben nach immer höheren Graden der Präzision. Der Nachteil ist, dass dieses Streben der Reichweite der Hand und damit dem ›tacit knowledge‹ Stück für Stück entzogen wird. Stattdessen wird die instrumentelle und mathematische Präzisierung durch Zusatzapparate der standardisierten Messung und Kalibrierung, durch angewandte Theorie in Form von Berechnungsverfahren als auch durch Standardisierungen und Metrologien erforderlich. Dabei ist es kein Zufall, dass auch die Berechnungen von Fraunhofer durch einen höheren Grad an Präzision als damals üblich charakterisiert sind. Fraunhofer nutzt das neue Erkenntnismittel der Differentialrechnung anstelle von geometrischen Methoden. Möglich ist ihm dies, weil Euler den Funktionsbegriff ab den späten 1740er Jahren zur Grundlage der Differentialrechnung macht und auch die Winkelfunktionen als analytische Größen auffasst.153 Indem Euler die trigonometrischen Größen nicht wie bis dahin üblich als Linien, sondern als Verhältnisse denkt, kann er sie »in den Kalkül [… einführen], so daß man sie wie andere Größen behandeln und mit ihnen alle Operationen ohne jedes Hindernis ausführen« kann.154 Damit führt er die trigonometrischen Linien als reine Berechnungsgrößen in die Wissenschaft ein und dieser Paradigmenwechsel von der Geometrie zur Algebra wird 1770 von Simon Klügel in seiner Analytischen Trigonometrie weiter ausgearbeitet und 1778 in seiner Analytischen Dioptrik auf Fernrohre, Spiegelteleskope und Mikroskope angewandt.155 Mit beiden Schriften macht Klügel Eulers algebraische Analysis breiten Kreisen bekannt und auch von Fraunhofer arbeitet sich an Klügels Dioptrik in das Gebiet der optischen Berechnungen ein. Damit nutzt von Fraunhofer ein modernes mathematisches Instrumentarium und wird damit zum Prototyp des ›rationalen Forschers‹, der experimentelles Geschick mit Berechnung verbindet. Insgesamt konstituiert sich im Laufe des 19. Jahrhunderts die induktivdeduktive Forschungslogik der ›Auflösung und Zusammensetzung der Phä153 »For example, he deployed differential equations for a second-order calculation of the deviation of the ray outside the optic axis. […] From an early age, then, Fraunhofer possessed an impressive range of analytical tools applicable to geometrical optics.« Jackson, Spectrum of Belief. Joseph von Fraunhofer and the Craft of Precision Optics, 2000, S. 58. Vgl. Euler, Introductio in analysis infinitorum (1748), 1983. 154 Leonhard Euler übersetzt in: Moritz Cantor: Vorlesungen über Geschichte der Mathematik, 4. Bd., Leipzig: Teubner 1908, 403–450, S. 406, Fn. 1. Vgl. Leonhard Euler: ›Subsidium calculi sinuum‹ (1754/1755), in: Ders.: Opera Omnia, 1. Reihe, 14. Bd., Leipzig: Teubner 1925, 542–584. 155 Vgl. Klügel, Analytische Trigonometrie, 1770; Klügel, Analytische Dioptrik in zwey Theilen, 1778.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

305



306

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

nomene‹ neu. Physikalische Phänomene und Effekte werden in metrisierbare Zustandsgrößen zerlegt und diese in »reine Wertfolge von Zahlen auf[gelöst], die durch eine bestimmte arithmetische Regel miteinander verknüpft sind«.156 Damit gewinnt die Frage nach der Präzision von berechneten und gemessenen Zahlenwerten (Daten) als diskrete Entitäten an Bedeutung, und zwar in mehrfacher Weise. Zum einen als Präzision der gemessenen oder berechneten Werte selbst, denn das Problem einer algebraischen und arithmetischen Analysis ebenso wie der Messung einzelner Zustände ist es, per se Fehlern, Abweichungen, Ungenauigkeiten und Approximationen unterworfen zu sein. Von nun an gilt es, die Grenzen der Genauigkeit durch präzisere Messungen oder exaktere Berechnungen für jeden einzelnen Wert immer weiter hinauszuschieben. Zum anderen als Präzision der Berechnungsverfahren und Messinstrumente für die experimentell-operationale Präzisierung der wissenschaftlichen Begriffe. Das bedeutet, die Resultate der Experimente selbst werden zunehmend komplexer. Statt experimenteller ja/nein-Entscheidungen transformieren sich die Experimente zu Messexperimenten.157 Es entsteht eine Präzisionswissenschaft, die sich als exakte Wissenschaft positioniert, insofern sie die Werte »allenthalben mit Maß und Zahl« berechnet.158 Die epistemische Paradoxie an dieser Entwicklung zu immer größerer Präzision, die Alexandre Koyré als ›superparadigmatische‹ Entwicklungslinie wissenschaftlicher Forschung bezeichnet, ist nicht nur der Drang nach zunehmend präziseren Instrumenten und Messungen, sondern je präziser die Messungen werden, desto weniger traut man der menschlichen Wahrnehmung.159 Deutlich wird dies bereits in den 1830er Jahren, als Gauß gemeinsam mit Wilhelm Weber Messungen des Erdmagnetismus durchführt. »Bei den viel grösseren Forderungen, die man an die Genauigkeit der Bestimmung durch die jetzt eingeführten Apparate machen kann und machen muss«, schreibt Gauß 1836, »kann aber von einer solchen unmittelbaren Bestimmung nicht mehr die Rede sein. Es steht nicht in unserer Macht, die Nadel des Magnetometers so vollkommen zu beruhigen, dass gar keine erkennbaren Schwingungsbewegungen zurückbleiben. […] Es werden daher an die Stelle der unmittelbaren Beobachtung solche mittelbaren Bestimmungen 156 Cassirer,

Substanzbegriff und Funktionsbegriff, 1910, S. 95. Vgl. Rudolf Stichweh: Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen: Physik in Deutschland 1740 – 1890, Frankfurt: Suhrkamp 1984. 158 Max Planck: Sinn und Grenzen der exakten Wissenschaft (1941), Leipzig: Barth 1947, S. 5. 159 Vgl. Alexandre Koyre: ›Du monde de la peu près à l’univers de la précision‹, in: Critique, 4 (28), 1948, 809–825. 157

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematische Medialisierung der Empirie

treten müssen.«160 Diese ›mittelbaren‹ Bestimmungen sind errechnete Mittelwerte aus einer größeren Anzahl von Messungen um einen Zeitpunkt t. Damit nimmt die Flut der Daten ihren Anfang und den Naturforschern wird klar: »Die Beobachtungskunst verdankt ihre hohe Vollendung in neuerer Zeit [1830er Jahre] vielleicht eben so sehr der Entwicklung der sich auf sie beziehenden mathematischen Methoden, als der technischen Vervollkommnung der Beobachtungsmittel.«161

Mathematische Medialisierung der Empirie

Die Implementierung mathematischer Prinzipien in Instrumente und experimentelle Verfahren setzt sich im 20. Jahrhundert durch Methoden der mittelbaren Datengenerierung sowie der indirekten Datenanalyse weiter fort. Immer weniger Daten sind Ergebnisse direkter Messungen, denn »die Mehrzahl der physikalisch wichtigen Größen [fällt] einer indirecten Messung anheim, die in der mathematischen Ableitung der gesuchten Grössen aus anderen durch die directe Messung gefundenen besteht«.162 Die Folge ist, dass sich ein viel größeres Spektrum an messbaren Entitäten mit einer viel größeren Anzahl an Messwerten (Massendaten) als je zuvor der Wissenschaft eröffnet. Mittelbare Datengenerierung und indirekte Datenanalyse sind dabei notwendigerweise durch mathematische Verfahren bedingt und bergen dadurch das Potenzial der Automatisierung in sich. Dieses Potenzial kommt jedoch erst durch die Entwicklung ›mathematisierter Medien‹ wie photoelektrische und elektrische Schaltkreise zur Entfaltung. Schaltkreise lassen sich deshalb als mathematisierte Medien bezeichnen, da ihre materiale Organisation auf mathematischen und logischen Prinzipien beruht. Das mathematisierte Medium par excellence ist jedoch der Computer. Indem die Operativität der Mathematik auf derart elementare Operationen heruntergebrochen wird, dass diese repetitiv umsetzbar wird, gelingt die materiale Realisierung des Anschauungsparadigmas der Berechenbarkeit. Die Implementierung von photoelektrischen und elektrischen Schaltkreisen sowie später von Computern in Mess- und Experimentierapparate hat zwei grundlegende Veränderungen zur Folge: zum einen die Automatisierung der Datenregistrierung (mittelbare Datengenerierung), zum anderen 160

Gauß, ›Das in den Beobachtungsterminen anzuwendende Verfahren‹ (1836), 1867, S. 542. 161 Dove, Über Maass und Messen oder Darstellung der bei Zeit-, Raum- und GewichtsBestimmungen üblichen Maasse, Messinstrumente und Messmethoden, 1835, S. 166. 162 Wilhelm Wundt: Allgemeine Methodenlehre, Stuttgart: Enke 1894, S. 416, 417.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

307



308

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

die Dekodierung der Daten (indirekte Datenanalyse). So beschreibt beispielsweise Rheinberger den Übergang von der unmittelbaren zur mittelbaren Datengenerierung in der Entwicklung von Flüssigkeitsszintillationszählern als den eigentlichen Durchbruch für die molekularbiologische Untersuchung radioaktiv markierter Zellen. Noch weit ins 20. Jahrhundert hinein zählt man die durch die radioaktive α-Strahlung des Poloniums verursachten Lichtblitze »visually by using a simple microscope […], although it had major disadvantages grounded in the fact that the ›counters‹ were human«.163 Dies führt dazu, dass die Szintillation in Vergessenheit gerät, als die praktikableren Geiger-Müller-Zähler in Betrieb kommen – praktikabler, da ihre akustischen Signale besser wahrnehmbar und zählbar sind. Doch zu Beginn der 1940er Jahre erinnert man sich wieder der Szintillationszähler und entwickelt ein Instrument, »in which the human eye was replaced by a highly sensitive, fastresponding photoelectric device for detecting and counting scintillations«.164 Die Delegation der Beobachtung an einen photoelektrischen Schaltkreis (Photomultiplier) fordert jedoch bald weitere Automatisierungsschritte, denn mit jeder neuen Sensorgeneration wächst die Kapazität generierbarer Daten pro Zeiteinheit an. Während menschliche Zähler maximal 20 bis 40 Lichtblitze pro Minute zählen können, und das auch nur im ausgeruhten Zustand und für zwei Stunden, zählen Sensoren unermüdlich weiter, und das immer schneller. Dies wirkt sich nicht nur auf das Design der Geräte aus, sondern hat weitreichende Folgen für die Experimentalkultur der Biologie: »The possibility of doing serial counts involving hundreds of samples unattached and overnight opened the prospect of performing experiments with hitherto unheard-of dimensions that required frequent measurements and combined different types of assays. […] and it allowed laboratory works to include in the design of their experiments as many controls as they deemed necessary for good and reliable work in order to obtain their differential signal.«165 Die mittelbare Datengenerierung ist die eine Seite der Automatisierung der apparativen Anschauung. Die andere ist die Dekodierung der Daten (indirekte Datenanalyse) als neuer Methode der Datengewinnung. Diese neue Methode zeigt sich exemplarisch an der Entwicklung der Fourier-Spektroskopie, wie sie Sean Johnston beschrieben hat.166 Ende des 19. Jahrhunderts wen163 Hans-Jörg Rheinberger: ›Putting isotopes to work: liquid scintillation counters, 1950–1970‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 143–174, S. 147. 164 Ebd., S. 148. 165 Ebd., S. 159. 166 Vgl. Sean F. Johnston: ›In search of space: Fourier spectroscopy, 1950–1970‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 121–141.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematische Medialisierung der Empirie

det Albert Michelson die Fourier-Spektroskopie erstmals auf seinem Interferometer an. Dieser misst Unterschiede in der Geschwindigkeit des Lichts, Spektren von farbigem Licht oder Brechungsindizes von Gasen.167 Das Problem ist jedoch, dass der Interferometer für die damalige Zeit zu anspruchsvoll ist. »When using an interferometer, the spectrum of the source of light turns out to be encoded. To determine the relative intensity of the wavelengths making up the light source (that is, to measure its ›spectral distribution‹) the experimenter moves on the mirrors by infinitesimal amounts, while recording fluctuations in the brightness of light – not the color – leaving the device. The intensity variations are related to the spectrum by the complex mathematical relationship known as the Fourier transform (hence ›Fourier spectroscopy‹).«168 Die Messungen setzen ein hohes Maß an experimenteller Präzision voraus, das manuell kaum zu bewerkstelligen ist, und die Datenanalyse (Dekodierung der Spektren) ist aufgrund des komplexen mathematischen Zusammenhangs extrem rechenaufwendig. Insbesondere Letzteres macht die Technologie des Interferometers vor Einführung von Digitalrechnern unpraktikabel. Michelson selbst versucht zwar Spektren mit Hilfe eines analogen ›harmonic analyzer‹ zu berechnen, doch »this was a laborious and approximate procedure even with the analyzer, and very few others took up his technique«.169 Bis Ende der 1940er Jahre stehen den Entwicklern der Fourier-Spektroskopie nur mechanische und analoge Rechner zur Verfügung. Erst 1954 kann ernsthaft der Vorschlag gemacht werden, einen Digitalrechner für die Transformation der Messungen in Spektren zu nutzen.170 Die fehlenden Rechenkapazitäten verhindern nicht nur die Anwendung der Messtechnologie für die Forschung, sie erlauben es auch nicht, die Analysemethode zu verbessern.171 167 Albert Michelson wollte mit seinem Interferometer Einsteins Theorie widerlegen. Doch das Michelson-Morley-Experiment von 1886 belegte Einsteins spezielle Relativitätstheorie. Vgl. Schiff, ›On Experimental Tests of the General Theory of Relativity‹, 1960. 168 Johnston, ›In search of space: Fourier spectroscopy, 1950–1970‹, 2001, S. 124. 169 Ebd. Interessanter Weise berichtet Johnston, dass die Nachkriegsentwicklung der Spektroskopie auf ähnliche Probleme stieß wie hundert Jahre zuvor von Herschel diagnostiziert. »It is often tacitly accepted that ›in theory‹ an instrument should have a particular performance, but ›in practice‹ it does not. This however is not good science, which demands that if theory and practice differ, then one or both must be improved.« Johnston, ›In search of space: Fourier spectroscopy, 1950–1970‹, 2001, S. 125. 170 »[They] arranged for an IBM 605 computer at Binghampton, New York, to be programmed for the Fourier transform, and a single spectrum was calculated. Owing to the high cost of computer calculation (some $25,000 per spectrum), it remained the only published transformed spectrum until 1956.« Johnston, ›In search of space: Fourier spectroscopy, 1950–1970‹, 2001, S. 127. 171 »[…] (a) Fourier spectroscopy was no better, and probably worse, than existing

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

309



310

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

Der Zugang zu Digitalrechnern ist aber für die steigenden Ansprüche an die mittelbare Datengenerierung und indirekte Datenanalyse unabdingbar, denn mechanische und analoge Rechner sind für die Lösung spezifischer Probleme konstruiert, da hier Hard- und Software noch eins sind. Selbst elaborierte Analogrechner wie Vanevar Bushs Differential Analyzer unterliegen Limitierungen der Anwendung. Daher gibt es Anfang des 20. Jahrhunderts eine große Palette an unterschiedlichsten Rechnern, die zudem »a great number of different mechanical, elastic, and electrical methods of expressing and of combining quantities as well as mixtures of these, together with most known methods of mechanical, electrical and photo electrical control and amplification« nutzen.172 Mechanisch und analog erzeugte Daten sind aufgrund ihrer Materialabhängigkeit stark fehlerbehaftet, ungenau und untereinander nicht vergleichbar. Dies ändert sich mit der Einführung der Digitalrechner. Nun können zunehmend komplexere mathematische Verfahren der Datenanalyse, wie eben die Fourier-Transformation, ausgeführt werden, da sie sich nun an Maschinenalgorithmen delegieren lassen. Doch diese komplexeren Verfahren werden bald kritisiert, denn die Interpretationsmöglichkeiten der Datenanalyse wachsen ins Beliebige. Da die Rohdaten selbst keine Auskunft über das rückgeschlossene Phänomen bieten, ist es schwierig nachzuweisen, dass die berechneten Dekodierungsdaten aussagekräftig sind und keine Artefakte darstellen. Dieses Problem stellt sich ab nun mit jeder neuen, noch komplexeren Datenanalyse sowie mit jeder Änderung bereits bewährter Analysealgorithmen. Im Falle der FourierSpektroskopie wird kritisiert, dass die Darstellung eines Fourier-transformierten Spektrums »could be altered dramatically by the kind of ›adoptization‹ [mathematical smoothing], or mathematical fine-tuning, employed with the Fourier transformation. […] Their opponents argued that such ›artificial‹ and ›cosmetic‹ manipulation was disturbingly sensitive, and consequently labeled the entire technology as ad hoc and scientifically unsound.«173 Dennoch ergibt sich der Durchbruch der Fourier-Spektroskopie in den späten 1960er Jahren durch die Einführung eines noch komplexeren Analyseverfahrens, dem ›FastFourier-Transform‹-(FFT)-Algorithmus. Mittlerweile ist die Fourier-Transfortechniques; (b) it was prone to poorly understood errors which were difficult to discern or resolve because (c) the technique was unintuitive; and, (d) impracticable because of computational difficulties and unrealistic demands for mechanical precision.« Johnston, ›In search of space: Fourier spectroscopy, 1950–1970‹, 2001, S. 129. 172 Goldstine, Neumann: ›On the Principles of Large Scale Computing Machines‹ (1946), 1963, S. 9. 173 Johnston, ›In search of space: Fourier spectroscopy, 1950–1970‹, 2001, S. S. 132 und S. 132, Fn. 17.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematische Medialisierung der Empirie

mation ein grundlegendes Analyseverfahren in allen Bereichen der Wissenschaft, denn sie ist basal für die Signalverarbeitung. Die Fourier-Analyse basiert dabei auf der 1822 von Jean Fourier eingeführten Reihenentwicklung einer periodischen, stetigen Funktion in eine Funktionenreihe aus Sinus- und Kosinusfunktionen (Fourier-Reihe).174 Sie transformiert ein kontinuierliches, aperiodisches Signal in ein kontinuierliches Spektrum respektive ein diskretes Signal in ein diskretes oder kontinuierliches Spektrum (DTFT ›DiscreteTime Fourier Transform‹). Die durch die Fast-Fourier-Transformation erzielte Schnelligkeit der Datenanalyse wendet den Nachteil, dass die Fourier-Spektroskopie nur mit leistungsfähigen Computern möglich ist, in einen Vorteil. Denn es zeigt sich alsbald, dass die Stärke der Technologie darin besteht, »to measure more ›difficult‹ samples with less preparation, and to undertake more elaborate analyses of the data« –, dass sie also robuster und genereller ist als andere Methoden.175 Die mathematische Medialisierung der Empirie nimmt im Laufe des 20.  Jahrhunderts erheblich zu. Heute finden sich in signalverarbeitenden Instrumenten neben den Detektoren, die das sich ›als real Bekundene‹ in ein analoges elektrisches Signal umwandeln und verstärken, Analog-DigitalKonverter, die die analogen elektrischen Signale in numerische Daten transformieren und an Computer zur Speicherung und Datenanalyse weiterleiten. Analog-Digital-Konverter (Digitizer) stellen daher im Kontext moderner signalverarbeitender Instrumente die maßgeblichen mathematisierten Medien dar. Schnelle PC-basierte Digitizer finden sich in Instrumenten wie dem Lidar (Light Detection and Ranging), ein aktives Messverfahren, das auf dem Radar basiert, jedoch statt Radiowellen Lichtwellen (gepulste Laser) zur Abstandsmessung verwendet.176 174

Vgl. Fourier, Théorie analytique de la chaleur, 1822. Johnston, ›In search of space: Fourier spectroscopy, 1950–1970‹, 2001, S. 137. 176 Bereits 1963 werden mit dem ›optischen Radar‹ erste Messexperimente in der Meteorologie durchgeführt, die das aus der Atmosphäre zurückgestreute Licht zur Lagebestimmung von Aerosolschichten detektieren. Lidar erlaubt es mittlerweile, eine Vielzahl atmosphärischer Parameter wie Druck, Temperatur, Feuchte, die bisher konventionell erfasst wurden, zu bestimmen. Mit einem Raman-Lidar wird das Wasserdampfmischungsverhältnis in der Atmosphäre messbar und mit einem Depolarisations-Lidar der Aggregatzustand von Wolken. Indem Licht unterschiedlicher Wellenlänge genutzt wird, können die genaue Größenverteilung und die optischen Eigenschaften von Aerosolen bestimmt werden. Dadurch hat sich Lidar vor dem Hintergrund des Klimawandels zu einer Standard-Methode für die Emissionsüberwachung etabliert. Vgl. Giorgio Fiocco, L. D. Smullin: ›Detection of Scattering Layers in the Upper Atmosphere (60–140 km) by Optical Radar‹, in: Nature, 199, 1963, 1275–1276. Das Funktionsprinzip von Lidar in der Meteorologie basiert auf der Physik elastischer und inelastischer Streuprozesse in der Atmosphäre. Im Falle der inelastischen Streuung verändert sich die Wellenlänge oder 175

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

311



312

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

Das Interessante am Lidar ist, dass es ein Paradebeispiel der modernen Massendaten-Messtechnologie einer ›data intensive science‹ ist, welche die Grenze zwischen der symbolischen Anschauung der Mathematik und der apparativen Anschauung fast komplett auflöst. Dieser Auflösungsprozess ist durch eine noch engere Verschränkung von material implementierter Mathematik und mathematisierter Theorie möglich. Im Falle des Lidar bedeutet dies, dass die rückgestreuten Photonen eines Laserimpulses optisch mit Hilfe eines Teleskops eingefangen werden und die Hintergrundstrahlung durch einen Spektralfilter herausgefiltert wird, bevor sie von einem Detektor (Photomultiplier, Photodioden) in ein analoges elektrisches Signal umgewandelt und verstärkt werden. Das analoge elektrische Signal wird von einem Analog-Digital-Konverter schließlich in numerische Daten transformiert. Lidar-Systeme sammeln dabei etwa 100 Million Signale pro Sekunde.177 Jeweils 1.000 bis 10.000 Signale werden zu einem integrierten Messdatum zusammengefasst und aus den Messdaten wird dann auf die ursprüngliche Phänomene rückFrequenz. Dies lässt sich durch ein Raman- oder Fluoreszenz-Lidar messen. Hingegen beschreibt die elastische Streuung die Veränderung, die ein Laserstrahl erfährt, wenn er auf ein Partikel (Atome, Moleküle, Aerosole, etc.) trifft und zurückgestreut wird, ohne seine Wellenlänge oder Frequenz zu verändern. Die Größe der Partikel bestimmt dabei die Art der Rückstreuung. Atome und Moleküle erzeugen eine Rayleigh-Streuung, Partikel mit einer Größe ähnlich der Wellenlänge des Lasers – wie eben Aerosole – erzeugen eine Mie-Streuung. Vgl. John Strutt (Lord Rayleigh): ›On the Scattering of Light by small Particles‹, in: Ders.: Scientific Papers (1869–1881), 1. Bd. Cambridge: Cambridge University Press 1899–1920, 104–111; Gustav Mie: ›Beiträge zur Optik trüber Medien, speziell kolloidaler Metalllösungen‹, in: Annalen der Physik, 25, 1908, 377–445; Albert Ansmann: Advances in atmospheric remote sensing with lidar, Berlin: Springer 1997; Gabriele Gramelsberger: ›Generizität von Forschungs-Technologien – Mathematische und algorithmische Bedingungen‹, in: Klaus Hentschel (Hrsg.): Zur Geschichte von Forschungstechnologien Generizität, Interstitialität und Transfer, Berlin u.a.: GNT-Verlag 2012, 161–183. 177 »Typically, lidar systems require a sampling rate on the order of 100 million samples (MS)/s, which leads to a spatial resolution on the order of 1/2 x (300 m/μs)/(100 MS/s) = 1.5 m. […] The required capture time of 100 μs at a sampling rate of 100 MS/s gives a waveform size of 10,000 points. Modern PC-based digitizers with ultrafast PCI transfer speeds are able to capture 10,000-point waveforms at rates in excess of 1000 waveforms per second.« Andrew Dawson: ›PC-based digitizers empower modern optical spectroscopy‹, in: Laser Focus World, 41 (3), 03/01/2005. mV/step gibt die Auflösung des analogen Signals (Welle) durch den Konverter an: 8-bit (11,7 mV/step) = 256 steps, 12-bit (0,73 mV/step) = 4.096 steps, 16-bit (0,046 mV/step) = 65.536 steps. »While voltage resolution depends on the digitizer bit number, the time or range cell depends on the clock frequency. For example, a clock frequency of 1 MHz corresponds to a 300-m range cell, whereas a clock frequency of 6 MHz results in an altitude cell resolution of 48 m.« Cynthia K. Williamson, Russell J. De Young: Characterization of a 16-Bit Digitizer for Lidar Data Acquisition, National Aeronautics and Space Administration (NASA), Langley Research Center, Hampton-Virginia 2002, S. 7.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Mathematische Medialisierung der Empirie

geschlossen.178 Dazu werden die in der Lidar-Gleichung enthaltenen Größen des Rückstreu- und Extinktionskoeffizient genutzt, welche die Streuprozesse an Aerosol- wie auch Luftmolekülen wiedergeben.179 Allerdings muss dazu die Lidar-Gleichung invertiert werden, wobei die Abhängigkeit der Gleichung von der Aerosolextinktion und -rückstreuung nicht bekannt ist. 1981 schlägt James Klett einen Algorithmus vor, der die Unterbestimmtheit der Lidar-Gleichung durch ein angenommenes Verhältnis zwischen Aerosolextinktion und Aerosolrückstreuung so umwandelt, dass sie invertierbar wird.180 Dadurch lässt sich das Rückstreuverhältnis R für eine bestimmte Höhe bestimmen und damit auf die Partikelkonzentration rückschließen. Ist R0 = 1, sind keine Aerosole vorhanden (nur Rayleigh-Streuung). Um nun auf konkrete Bestimmungen zu kommen, wie die Größenverteilung der Partikel, müssen Annahmen über die Verteilung der Rückstreuquerschnitte der Partikel getroffen werden, um einen Rückstreuquerschnitt der gesamten Verteilung abzuleiten. Dies ist wiederum nur auf Basis der mathematisierten Theorie der Lidar-Gleichung möglich.181 Mit Hilfe eben dieser mathematisierten Theorie sowie der Zusammenfassung der mathematisierten Medien (Detektor, Verstärker und Digitizer) 178 »Once collected, the data is averaged and reduced before it is stored and made available to the operator for further analysis.« Scott S. Cornelsen: Electronics Desgin of the AGLITE-LIDAR Instrument, Master Thesis in Electrical Engineering, Utah State University 2005, S. 5. 179 Die Lidar-Gleichung beschreibt die Leistung (P(R)) der elastischen Rückstreuung anhand von vier Parametern: Die Systemkonstante (K), die entfernungsabhängige Messgeometrie (G(R)), den Rückstreukoeffizient (β(R)) sowie den Teil des Lichts, der auf dem Weg vom Lidar zum Streuvolumen und zurück verloren geht, und als Transmissionsterm (T(R)) in die Gleichung eingeht. K und G(R) sind experimentell regulierbare Größen, β(R) und T(R) hängen von der Wellenlänge des Lasers ab. Vgl. Claus Weitkamp (Hrsg.): Lidar – Range-resolved optical remote sensing of the atmosphere, New York: Springer 2005. 180 James D. Klett: ›Stable analytical inversion solution for processing lidar returns‹, in: Applied Optics, 20, 1981, 211–220; James D. Klett: ›Lidar inversion with variable backscatter/extinction ratios‹, in: Applied Optics, 24, 1985, 1638–1643. 181 »Mit Hilfe dieser theoretischen Größenverteilungen und ihrer berechneten Rückstreukoeffizienten lassen sich aus den mit dem Lidar gemessenen Rückstreukoeffizienten Rückschlüsse auf die Größe der beobachteten Partikel ziehen. Mit einem 3-WellenlängenLidar ist die Ableitung von 3 Parametern möglich: Anzahldichte N(r), Verteilungsbreite σ und medianer Radius r med. […] Aufgrund der erläuterten Streuprozesse ist es mit dem Rückstreu-Lidar schon bei Verwendung einer Wellenlänge λ möglich, über das Rückstreuverhältnis R Aussagen zu Volumen- und Oberflächendichte zu treffen. Mittels der Depolarisation läßt sich der Aggregatzustand der Partikel deuten, nämlich flüssig für nicht depolarisierende, sphärische Teilchen bzw. fest bei depolarisierenden, asphärischen Partikeln.« Marion Müller: Polare Stratosphärenwolken und Mesoskalige Dynamik am Polarwirbelrand, Dissertation im Fachbereich Physik, Freie Universität Berlin 2001, S. 57.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

313



314

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

zu einer Signal-Daten-Präprozessierungseinheit durch ›embedded computer‹ wird das Instrument der Manipulation von außen zugänglich. »The control unit contains the electronics and computer that control the lidar and collect and store the measurements made by the instrument. A user defines the parameters of an experiment at the control unit, including the scan pattern, scan duration, and measurement resolution. The control unit then automatically collects the data.«182 Erst dann erfolgt der Transfer an einen externen Computer zur Datenauswertung. Damit sind die Systemkonstanten und die Messgeometrie keine an das jeweilige Instrument fest gekoppelten Größen mehr, sondern werden zu regulierbaren Parametern. In anderen Worten: Dasselbe Instrument kann für unterschiedliche Messexperimente verwendet werden (Multifunktionalität). Durch die Verschaltung von Elektronik und Computer im Instrument werden die einst spezifischen Messapparaturen universeller einsetzbar, da sie nun über Schnittstellen für unterschiedliche Experimentaldesigns modifiziert werden können. Konkret bedeutet dies jedoch, dass die Kalibrierung des Instruments schwieriger wird und für jedes neue Experiment neu ausgeführt werden muss. Daher erfolgt die Kalibrierung mittlerweile vor Ort an In-situ-Daten konventioneller Messinstrumente.183 Die interne Verschaltung von Messinstrumenten durch mathematisierte Medien (Schaltkreise wie Digitizer und ›embedded computer‹, Algorithmen) ermöglicht es, immer mehr Daten automatisiert zu erheben. Die Datenfluten der Wissenschaft des späten 20. und beginnenden 21. Jahrhunderts haben hier ihren Ursprung. Von ›unaided observation‹ kann in der aktuellen Wissenschaft also kaum noch die Rede sein. Im Gegenteil, durch die Multifunktionalität der Instrumente und die interpretative Flexibilität der softwarebasierten Datenanalyse, die zunehmend Simulationsdaten integriert, um zusätzliche Informationen aus den Messdaten herauszuholen, löst sich die Grenze zwischen der symbolischen und der apparativen Anschauung auf. Zum Vergleich: Ein Theoriemodell der Atmosphärenzirkulation zur Prognose zukünftiger Klimaentwicklungen besteht aus etwa 70.000 Zeilen Code. Die Algorithmen eines satellitenbasierten Lidar-Systems zur Generierung von 182 Christian C. Marchant: Algorithm Development of the AGLITE-LIDAR Instrument, Master Thesis in Electrical Engineering, Utah State University 2008, S. 8. 183 »Several of these factors, particularly the parameters of the receiver telescope, can also drift from campaign to campaign. Uncertainty in these factors means that it is most practical to calibrate the lidar returns against conventional instruments. During the campaign, the lidar is directed past a point where a particle sampler and OPC instrument are located. The point sensors give absolute aerosol concentration at that point, which in turn allows the lidar signal to be calibrated.« Marchant, Algorithm Development of the AGLITE-LIDAR Instrument, 2008, S. 9, 10.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Empirie

›Messdaten‹ bestehen aus über 370.000 Zeilen Code mathematischer Berechnungen.184

Operationale (Re-)Organisation von Empirie

Die Fallbeispiele machen deutlich, dass es verschiedene Grade der Implementierung mathematischer Prinzipien in Materialien, Objekte und Apparate gibt. Eine erste Form der Implementierung besteht in der Ergänzung wissenschaftlicher Instrumente durch Maßstäbe und Messskalen. Nicht nur von Fraunhofer erfindet 1814 mit dem Spektroskop einen metrisierten Experimentierapparat, sondern bereits im 18. Jahrhundert werden dynamische Instrumente wie Waagen und Thermometer oder skalierbare Instrumente wie Teleskope und Mikroskope mit Maßstäben versehen.185 Diese Metrisierung ist den Instrumenten von außen beigefügt und entkoppelt dadurch das zu beobachtende Ereignis von der Beobachtung. Das zu Messende wird entweder direkt mit einem Maßstab quantisiert oder analogisch in die Bewegung eines Mediums umgesetzt und dann anhand einer Skala oder eines Maßstabes ablesbar.186 Dies erfordert Standardisierung durch aufwendige Kalibrierungen von Theorie und Empirie. Im Falle des Ausdehnungsthermometers zieht sich der Prozess der Kalibrierung eines geeigneten Mediums wie Maßstabs von Galileis erstem Thermometer um 1600 über mehr als ein Jahrhundert hin, bis 1724 mit dem Gefrierpunkt von Wasser ein geeigneter Fixpunkt für die Vergleichbarkeit der Messungen anhand einer Skala gefunden ist. Dazu sind experimentelle und theoretische Arbeiten von Daniel Fahrenheit zur Konstanz des Eispunktes (1724), von Anders Celsius zur Abhängigkeit des Siedepunktes vom Luftdruck (1742), von Robert Boyle zur Kompressibilität von Flüssigkeiten (1662), von Jean-André Deluc zur Wärmeausdehnung von Flüssigkeiten (1772) und anderen Forschern nötig.187 Temperatur als Messgröße wird dabei 184 Vgl. Oliver Reitebuch: Lidar measurements: No observation without algorithms, Vortrag am Institut für Physik der Atmosphäre des Deutschen Luft- und Raumfahrtzentrums Oberpfaffenhofen, 14. Oktober 2011. 185 1698 kombiniert Stephan Gray erstmals Mikroskop und Mikrometer und 1738 baut der Londoner Instrumentenmacher Benjamin Martin einen Mikrometer fest in ein Mikroskop ein. Vgl. Dieter Gerlach: Geschichte der Mikroskopie, Frankfurt: Harri Deutsch 2009. 186 Direkte Messverfahren ergeben sich durch einen direkten Vergleich des zu Messenden mit einem (konventionellen) Maßstab (z. B. Länge, Gewicht). Indirekte Messverfahren lassen sich material in jene unterscheiden, die ein Medium benötigen, an das der Maßstab angelegt werden kann (z. B. Zeit, Temperatur), und jene, die eine Messgröße auf Basis von Rechenvorschriften aus mehreren Messgrößen ableiten. 187 Zur Entwicklung des Thermometers vgl. Gernot Böhme, Wolfgang van den Daele:

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

315



316

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

zunehmend generalisiert und unabhängig von spezifischen Instrumenten exakt messbar. Je genauer die Messapparate und ihre Anzeigen dabei werden, desto mehr wird der menschliche Beobachter jedoch zum Problem. Die Trägheit des Auges wird zum limitierenden Faktor in der empirischen Forschung. So liegt die Grenze der Genauigkeit des Ablesens von Skalen mit bloßem Auge bei 0,3 Millimeter. Das bedeutet, dass man entweder mehrere ›unrichtige‹ Beobachtungen (ungenaue Ablesungen der Skalen und Maßstäbe) durch statistische Mittelung ›berichtigen‹ oder die wissenschaftliche Beobachtung automatisieren muss. 188 In beiden Fällen wird die Empirie zwingend von der Mathematik abhängig. Automatisierung in größeren Umfängen ist jedoch nur mit Hilfe mathematisierter Medien auf elektrischer und elektronischer Basis möglich. Dies führt zu grundlegenden semiotischen und epistemischen Verschiebungen in der empirischen Forschung. Denn Empirie wird nicht mehr dem analogischen Übersetzungsverhältnis der Veränderung des zu Messenden mit der Bewegung eines Mediums und deren Abtrag auf einen fixen Maßstab unterworfen, sondern den Gesetzen der Handhabung elektromagnetischer Strahlung in Form von Schwingungen und ›Elektronenflüssen‹. Dies setzt voraus, dass die Dynamik elektromagnetischer Strahlung theoretisch wie regeltechnisch beherrschbar wird. Beginnend mit elektrischen und elektromagnetischen Verschaltungen, Unterbrechungen und Widerständen auf den Labortischen der Forscher und der Inklusion der Versuchsanordnungen in das Vakuum von Glasröhren gelingt es, Elektrizität in modulierte Schwingungen zu transformieren und je nach Verschaltungsplan spezifische Schwingungsmuster zu generieren. So entwickelt Thomas Alva Edison 1883 die ›Thermionic Tube‹ (Glühlampe), erfindet Ferdinand Braun 1897 die Kathodenröhre (Elektronen›Erfahrung als Programm – Über Strukturen vorparadigmatischer Wissenschaft‹, in: Gernot Böhme, Wolfgang van den Daele, Wolfgang Krohn: Experimentelle Philosophie. Ursprünge autonomer Wissenschaftsentwicklung, Frankfurt: Suhrkamp 1977, 183–236, S. 201 ff; Hasok Chang: Inventing temperature: Measurement and scientific progress, Oxford: Oxford University Press 2004. 188 Die Messung nicht-elektrischer Größen umfasst als die grundlegendsten die Zeitund Längenmessung, das Zählen sowie die Messung von Flächeninhalt und Volumen, Ortsbestimmung, Winkel und Richtung, Masse, Gewichtskraft, Dichte und Temperatur. Im 19. Jahrhundert kommen Messgeräte für elektromagnetische Größen und im 20. Jahrhundert für radioaktive Strahlung hinzu. Ein großes Feld stellen die abgeleiteten Messungen dar (Geschwindigkeit, Drehzahl, Beschleunigung, Flüssigkeiten-, Feststoff- und Gasmessungen, meteorologische Messungen, Licht- und Schallmessungen, etc.), die analytischen Messungen der Zusammensetzung von Substanzen sowie industrielle Spezial-Messinstrumente. Vgl. Jörg Hoffmann: Taschenbuch der Messtechnik, Leipzig: Hanser 2004.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Empirie

strahlröhre), konzipiert John Flemming 1904 die Gleichrichterröhre (Diode) und erweitert Lee de Forest 1906 diese zur Trioden-Elektronenröhre (Triode).189 Wie von Heidegger beschrieben, wird dadurch die Energie in Form von Bauteilen »aufgeschlossen, das Erschlossene umgeformt, das Umgeformte gespeichert, das Gespeicherte wieder verteilt und das Verteilte erneut umgeschaltet«.190 Die Aufschließung teilt sich dabei in passive (lineare) Bauteile zur Speicherung elektrischer Ladung (Kondensator); zur Generierung von Magnetfeldern (Spulen); zur Begrenzung des elektrischen Flusses, zur Aufteilung elektrischer Spannung und zur Umwandlung elektrischer Energie in Wärme (Widerstand); zur Erhöhung oder Verringerung von Wechselspannungen (Transformatoren), zur Schaltung von Strömen (Relais); sowie in aktive Bauteile (Elektronenröhren) zur Erzeugung (Kathodenstrahlröhre), Gleichrichtung (Diode), Verstärkung (Triode, Transistor) und Modulation (Oszillator) des Elektronenflusses; zur Detektion und Verstärkung von Licht durch elektrische Signale (Photomultiplier); zur Erzeugung von Röntgenstrahlen (Röntgenröhre) oder Mikrowellen (Magnetron), etc.191 Die derart umgeformte und in Bauteile verpackte Energie lässt sich zu völlig neuen Apparaten verschalten, die das komplette Anwendungsspektrum der elektromagnetischen 189 Vgl. Thomas Alva Edison: Electrical indicator, US-Patent 307.031, eingereicht am 15. November 1883, patentiert am 21. Oktober 1884; Ferdinand Braun: ›Electrische Schwingungen und drahtlose Telegraphie‹ (1909), in: Les Prix Nobel 1908–1010, Stockholm: Norstedt 1910, 2. Teil, 2. Abschnitt, 1–18; John Flemming: Improvements in Instruments for Detecting and Measuring Alternating Electric Currents, GB-Patent 190.424.850, eingereicht am 16. November 1904, patentiert am 21. November 1905; Lee De Forest: Device for Amplifying Feeble Electrical Currents, US-Patent 841.387, eingereicht am 25. Oktober 1906, patentiert am 15. Januar 1907. 190 Heidegger, ›Die Frage nach der Technik‹ (1949), 1962, S. 16. 191 Die Logik der ins Vakuum eingekapselten Röhrenschaltung folgt dabei dem Baukastenprinzip: Mit jeder neuen Kombination von Anode und Katode (Diode), Anode, Katode und Steuergitter-Elektrode (Triode), Anode, Katode, Steuergitter- und Schirmgitter-Elektrode (Tetrode), Anode, Katode, Steuergitter-, Schirmgitter- und BremsgitterElektrode (Pentode), etc. lassen sich die Parameter des Elektronenflusses verändern. Beispielsweise stellt das Schirmgitter für das Steuergitter konstante Feldbedingungen her. Dadurch ist eine gleichmäßigere Beschleunigung der Elektronen möglich und aufgrund der geringeren Schwankungen eine größere Verstärkung. Elektronische Bauteile sind auch für die Realisierung boolescher Funktionen verwendbar (Logikgatter). So verstärkt die Triode nicht nur Radiowellen, sondern ist auch als logische UND-Schaltung verwendbar. Der erste rein elektronische Universalrechner Electronic Numerical Integrator and Computer (ENIAC) von 1946 bestand aus 17.468 Elektronenröhren, 7.200 Dioden, 1.500 Relais, 70.000 Widerständen und 10.000 Kondensatoren. Vgl. John Presper Eckert Jr., John W. Mauchly, Herman H. Goldstine, John G. Brainerd: Description of the ENIAC and Comments on Electronic Digital Computing Machines, Moore School of Electrical Engineering, University of Pennsylvania, Bericht vom 30. November 1945.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

317



318

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

Strahlung von der elektronischen Messung bis zur Informationsübertragung erschließen (Funk, Rundfunk, Fernsprechen, Fernsehen, Informationstechnik). Letztendlich konvergieren Messung und (digitale) Informationsübertragung in der modernen Massendaten-Messtechnologie. Die Formkraft der Mathematik zeigt sich dabei ganz material als (Re-) Organisation von Empirie. Besonders deutlich wird dies an der ›Zurichtung‹ elektromagnetischer Wellen für die Informationsübertragung. Grundsätzlich basiert die Übertragung von Informationen mit analogen Signalen auf der technischen Modulation elektromagnetischer Wellen, um diesen Informationen ›aufzuprägen‹. Dies geschieht zu Beginn der Nachrichtenübertragung in Form der drahtlosen Funken-Telegraphie ab 1898 noch stark ›empirisch‹ orientiert. Denn die Aufprägung erfolgt in der Funken-Telegraphie mit Knallfunkensendern, die kurzfristig ein gedämpftes breitbandiges Signal durch elektrischen Kurzschluss erzeugen (›Funken‹). Eine Serie von Funken – maximal 30 Funken pro Sekunde – lassen sich dann mit einem Unterbrecherkontakt in einen Morsecode umsetzen.192 Erst mit der mathematischen Normierung von Trägerwellen beginnt jedoch die moderne Nachrichtenübertragung. Voraussetzung dafür ist es, eine hochfrequente Trägerwelle (Funk-, Radar-, Mikrowellen, etc.) charakteristischer Art zu generieren, deren Amplitude oder Frequenz entsprechend moduliert und demoduliert werden kann. Diese charakteristische Form ist üblicherweise die Sinusschwingung einer bestimmten Frequenz, die sich mit harmonischen Oszillatoren erzeugen lässt. Die maßgebliche Verschaltung zur Herstellung periodischer Schwingungsmuster wie Sinuswellen ist die Rückkopplung.193 1913 konzipiert Alexander Meißner einen ersten elektrischen Oszillator als Schwingkreis bestehend aus 192 Knallfunksender werden ab 1905 durch den von Max Wien entwickelten Löschfunkensender abgelöst, der 1000 Funken pro Sekunde erzeugen kann. 193 Bereits 1897 gelingt es Ferdinand Braun durch die Ausrichtung elektromagnetischer Felder mit Kondensatoren den Elektronenfluss so abzulenken, dass sich periodische Schwingungen ergeben (Kathodenstrahl-Oszilloskop). Bei der Überlagerung linearer Schwingungen entstehen Lissajous-Figuren auf einem Bildschirm, deren Formen vom Frequenzverhältnis und der Phasenwinkeldifferenz abhängig sind. Gleiche Frequenzen generieren Ellipsen unterschiedlicher Exzentrizität, ungleiche Frequenzen in einem rationalen Verhältnis zueinander erzeugen unveränderliche Figuren (periodisches Verhalten) und für alle anderen Frequenzverhältnisse wiederholen sich die Bahnkurven nicht und die Form verändert sich permanent. Die Lissajous-Figuren sind Phasenraumportraits eines zweidimensionalen anisotropen harmonischen Oszillators. Vgl. Jules Antoine Lissajous: ›Note sur un moyen nouveau de mettre en évidence le mouvement vibratoire des corps‹, in: Comptes rendus, 41, 1855, 93–95; Gabriele Gramelsberger: ›Figurationen des Phänomenotechnischen‹, in: Jahrbuch Technikphilosophie 2016 (hrsg. von Gerhard Gamm, Petra Gehring, Andreas Kaminski, Alfred Nordmann, Christoph Hubig), Zürich, Berlin: diaphanes, 157–168.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Empirie

einer Spule und einem Kondensator, der eine ungedämpfte Sinus-Schwingung erzeugt.194 Damit bildet die Meißner-Schaltung die Grundlage jeglicher Informationsübermittlung mit Trägerwellen als ideale mathematische Objekte.195 Auch wenn die durch Verschaltung mathematisch ›gezähmte‹ Energie sich in Vakuumröhren-Bauteile modularisieren lässt und dadurch völlig neue (analoge) Apparate ermöglicht, so ist die direkte materiale Implementierung der mathematischen Formkraft noch eindrucksvoller mit Kristallen realisierbar. Voraussetzung dafür ist die Gleichartigkeit des atomaren Aufbaus eines Kristalls (Reinheit) sowie die Eigenschaft, Halbleiter zu sein.196 Bereits frühe Experimente mit Schwefelkies-Kristallen von Ferdinand Braun in den 1870er Jahren offenbaren deren ›anomales‹ Verhalten.197 Denn Braun findet heraus, dass die Kristalle Strom in eine Richtung durchlassen, während sie in die andere Richtung sperren. Dieses Verhalten eines Kristalls – als Halbleiter bezeichnet: halb elektrischer Leiter, halb Isolator – ist ein binäres. Dennoch ist der Auftakt der Festkörper-Elektronik durch die Analogie zur Röhrentechnologie charakterisiert. So wird in den 1930er Jahren versucht, Stromfluss als Schwingung im Kristall durch die Einbettung einer Elektronenröhre zu realisieren. Doch dieser Ansatz scheitert. 194 Vgl. Alexander Meißner: Einrichtung zur Erzeugung elektrischer Schwingungen, DEPatent 291.604, angemeldet am 13. April 1913, patentiert am 23 Juni 1919. 195 Auch wenn Alexander Meißner die Grundlagen mit seiner Schaltung legte, setzten sich andere Oszillatorenschaltungen technisch durch. Vgl. Ralph V. L Hartley: Oscillation Generator, US-Patent 1.356.763, patentiert am 26. Oktober 1920; Edwin Colpitts: Oscillation Generator, US-Patent 1.624.537, patentiert am 12. April 1927. 196 Halbleiter sind sowohl Leiter als auch Isolatoren. Sie sind in ihrem Verhalten von Probe zu Probe aufgrund von Verunreinigungen unterschiedlich, was den erheblichen Aufwand für die Herstellung von Kristallen in Reinform erklärt. Zudem sind Halbleiter extrem lichtempfindlich, denn die tetraedische Bindung der Halbleiterkristalle Germanium und Silizium besitzt im Unterschied zu Diamant eine niedrige Bindungsenergie. Daher kann bereits Lichteinfall (Lichtquanten) in Halbleitern Elektronen freisetzen. Die Folge: »Man konnte keine normale Eingliederung [der Halbleiter] in Tabellen vornehmen, überall mußten Sternchen und Zahlen auf Fußnoten hinweisen, daß ein Wert etwa nur im Stockdunklen gültig war oder nur, wenn man auf den Kristall drückte.« Hans Queisser: Kristallene Krisen. Mikroelektronik, München: Pieper 1987, S. 89, 90. Doch Halbleiter verfügen über die Eigenschaft, den Elektronenfluss wesentlich weniger durch Wärmeausbreitung zu erschweren als Metalle und es ist eben diese Eigenschaft, trotz aller Probleme, die für die Festkörper-Elektronik von Bedeutung ist. Diese Forschungen, zu Anfang rein experimentell, begründen die Festkörperphysik und die Oberflächenphysik. 197 Ferdinand Braun experimentiert mit einem »mit Quecksilbernäpfen von etwa 25 mm Berührungsfläche versehenen Schwefelkies […] welcher die anomalen Erscheinungen bei einem Widerstand von etwa 1.5 S. E. sehr deutlich zeigte«. Ferdinand Braun: ›Versuche über Abweichungen vom Ohmschen Gesetz in metallisch leitenden Körpern‹ (1876), in: Annalen der Physik und Chemie (Neue Folge), 1. Bd., 1877, 95–110, S. 98, 99.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

319



320

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

Ab den 1940er Jahren wird der Stromfluss als Elektronenfluss erforscht, der durch das Einbringen von Fremdatomen in eine Halbleiter-Kristallschicht aus Germanium- oder Silizium erzeugt wird (Dotierung). Die Voraussetzung dafür ist die perfekt symmetrische, atomare Gitterstruktur der Kristalle in Reinform, die dann gezielt manipuliert werden kann.198 Die Einbringung eines fünfwertigen Elements (mit fünf Bindungselektronen) als ›Störung‹ in die Schicht vierwertiger Germanium- oder Siliziumkristalle fügt eine freibewegliche negative Ladung ein (n-Dotierung) und die eines dreiwertigen Elements eine freibewegliche positive Lücke (p-Dotierung). Damit folgt die Festkörper-Elektronik einer grundlegend anderen Operativität als die Röhrentechnologie, insofern nicht Schwingungen moduliert, sondern symmetrische Gitterstrukturen durch Erzeugung von Störstellen in den Leitungsbändern eines Halbleiters manipuliert werden. Entsprechend ändert sich die mathematische Darstellung, da die Ausbreitung der Elektronen in Kristallschichten nach Gesetzen der Diffusion und quantentheoretischen Kriterien verläuft. Stromfluss ist dementsprechend eine Störung der Symmetrie beziehungsweise des Gleichgewichtszustandes im Elektronenhaushalt des Halbleiters. Dieser Stromfluss kann mit Anordnungen von p- und n-Übergängen gelenkt und beeinflusst werden. Mit dem p/n-Transistor aus Germanium entsteht 1947 ein erstes Halbleiter-Bauteil,199 gefolgt von der p/n-Diode auf Siliziumbasis, die sich binärlogisch schalten lässt.200 Doch bis weit in die 1970er 198 In der Frühphase der Elektronik wurde mit Germanium gearbeitet. Doch dies hatte den Nachteil, dass, wenn es zu warm wurde, es zu viele Elektronen freisetzte und dadurch die implementierte Funktionalität eliminierte. Für Starkstromanwendungen wurde Germanium daher schon früh durch Silizium ersetzt. Dazu muss Silizium jedoch in Reinform vorliegen (Siemens-Prozess zur Herstellung ultrareinen Siliziums). Der Prozess der Herstellung extrem reiner, einkristalliner Siliziumschichten durch Züchtung in Reinräumen ist aufwendig und bedarf bis weit in die 1980er Jahre der Optimierung. 199 Die Dotierung von Kristallen wird in den Bell Laboratorien durch William Shockley und Kollegen erforscht. 1947 entdecken Walter Brattain, John Bardeens und William Shockley, dass sich durch Nadelspitzen, in welchen Strom fließt – ursprünglich zur Ausmessung der elektronischen Eigenschaften des Halbleiters verwendet –, der Stromfluss im dotierten Germaniumkristall verstärken lässt. Eine Reihe von Stromgebern (Emitter) in Abständen von 0,05mm als Punktkontakte angebracht realisiert dann den ersten Halbleiter-Transistor. 1947 melden die Bell Labs den Germanium-Transistor zum Patent an. Halbleiter-Transistoren sind energiesparsamer, wesentlich kleiner und in Massenproduktion kostengünstiger herstellbar als die Röhrentechnologie. Sie ersetzen diese in den 1950er Jahren, indem sie zu Verstärkerzwecken anstelle von Funken-Generatoren oder Elektronenröhren-Transistoren in Schaltungen eingebaut werden. Das Transistorradio ist ein typisches Produkt jener Zeit. Vgl. John Bardeen, et al.: Three-electrode circuit element utilizing semiconductive materials, US-Patent 2.524.035, eingereicht am 17. Juni 1948, patentiert am 30. Oktober 1950. 200 Mit der Rückkopplung von zwei elektronischen Verstärkern durch William Henry

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Empirie

Jahre wird das Potential der einzelnen Halbleiter-Bauteile lediglich als Ersatz für die Röhrentechnologie genutzt. Mit der Etablierung der Halbleiter, insbesondere Silizium, findet nicht nur ein materieller Wechsel statt, sondern aufgrund der binären Eigenschaft der Halbleiter – Stromfluss in eine Richtung und Sperrung in die andere (Diodeneffekt)201 – geht dieser materielle Wechsel mit der Transformation der Analogtechnik in die Digitaltechnik einher. Für das Messen bedeutet dies, analoge Signale wie Ton-, Lichtstärke, etc. in binäre Zahlendarstellungen umzuwandeln.202 Voraussetzung dafür ist die Realisierung einer integrierten Messkette von der Sensorik zur Umwandlung der analogen Signale in elektrische, die Quantifizierung der elektrischen Signale als digitale (Digitizer)203 und Eccles und Frank W. Jordan 1918 ist die Realisierung bistabiler Kippschaltungen möglich (›Trigger Relay‹). Diese Art von Schaltung ist die Voraussetzung für die späteren binärlogischen Schaltungen (Flipflopschaltung). 1949 entwickelt William Shockley eine Halbleiter-Diode, die ebenfalls binärlogisch schalten kann. Vgl. William Henry Eccles: ›A method of using two triod valves in parallel for generating oscillations‹, in: The Electrician, 83, 1919, 299; William Shockley: Circuit element utilizing semiconductive material, US-Patent 2.569.347, eingereicht am 26. Juni 1948, patentiert am 25. September 1951; Robert Dennhardt: Die Flipflop-Legende und das Digitale, Berlin: Kadmos 2009. 201 Eine Diode nutzt den von Ferdinand Braun beobachteten Effekt, bei dem Strom in eine Richtung fast ungehindert passieren kann und in der anderen Richtung fast isoliert wird. Das bedeutet, in einer Diode fließt trotz anliegender Spannung kein Strom, bis eine bestimmte Spannungsstärke erreicht ist, dann nimmt der Stromfluss stark zu. Bei Silizium-Dioden ist dies bei etwa 0,7 Volt Spannung der Fall. 202 Halbleiter wandeln physikalische und chemische Effekte in elektrische Signale. Dabei gelangen unterschiedliche Messprinzipien wie opto- und piezoelektrische, elektrochemische oder elektromagnetische Prinzipien zur Anwendung. 203 Die Analog-Digital-Konverter-Technologie geht auf die 1920er Jahre zurück, als im Zuge der entstehenden Telekommunikationsindustrie nach Möglichkeiten gesucht wird, kontinuierliche Signale in gepulste zu transformieren. Das erste Verfahren wird 1921 von Paul M. Rainey zum Patent angemeldet. Darin schlägt er vor, Licht mit Hilfe einer Photozelle in ein elektrisches Signal umzuwandeln und an ein Galvanometer zu leiten, dessen Auslenkung dann einen anderen Lichtstrahl auf eine von 32 Photozellen leitet, die jeweils ein korrespondierendes Relais aktivieren. Die Relais sind so miteinander verschaltet, dass sie das ursprüngliche Signal in einem 5-bit-Parallelumsetzer in ein gepulstes Signal (Code) transformieren, das seriell mit einem elektro-mechanischen Verteiler an einen Empfänger weitergeleitet werden kann. Dort wird der Code über verschiedene Transformationsschritte wieder in ein analoges Lichtsignal umgewandelt, das auf eine Photoplatte übertragen das derart gefaxte Bild reproduzieren soll. Die Theorie gepulster Signale wird in den 1920er Jahren in den Bell Labs von Harry Nyquist und Ralph Hartley mathematisch entwickelt. Vgl. Paul M. Rainey: Facsimile Telegraph System, US-Patent 1.608.527, eingereicht am 20. Juli 1921, patentiert am 30. November 1926; Walt A. Kester (Hrsg.): The Data Conversion Handbook, Burlington: Newnes 2005. Ein analoges Signal lässt sich durch Faltung (Rechteckfunktion) in ein digital-quantisiertes umsetzen. Dabei entstehen Verzerrungen des Frequenzspektrums, die durch entsprechende

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

321



322

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

schließlich die binärlogische Verarbeitung der digitalen Signale. Erst indem »Schaltpläne für die mathematische Logik […] ins Innere des Kristalls gegossen werden«, setzt sich die Festkörper-Elektronik auch als die maßgebliche Technologie für das Rechnen durch.204 Die semiotische Voraussetzung bildet die epistemische Transformation von der Algebraisierung der Aussagenlogik (boolesche Algebra), über die Reduktion der sechzehn Möglichkeiten der Verknüpfungen der binär interpretierten booleschen Algebra auf die NAND Filter kompensiert werden müssen. Bereits 1928 kommt Harry Nyquist zu dem Ergebnis, »that full knowledge of N/2 sinusoidal components is necessary to determine the wave completely«. Harry Nyquist: ›Certain Topics in Telegraph Transmission Theory‹, in: Transactions of the American Institute of Electrical Engineers, 47 (2), 1928, 617–644, S. 620. Damit beschreibt Nyquist die nötige Rate, um ein analoges Signal digital ›abzutasten‹, ohne die Information (›intelligence‹) über die ursprüngliche Wellenform zu verlieren. Im selben Jahr führt Ralph Hartley die Quantifizierung der Informationsübertragung der ›elektrischen Kommunikation‹ ein und markiert damit den Übergang von der Orientierung am physikalischen Phänomen elektromagnetischer Trägerwellen zum Symbol: »In any given communication the sender mentally selects a particular symbol and by some bodily motion, as of his vocal mechanism, causes the attention of the receiver to be directed to that particular symbol.« Ralph V. L. Hartley: ›Transmission of Information‹, in: Bell System Technical, 7, 1928, 535–563, S. 536. Mathematisch bedeutet dies den Wechsel von harmonischen Oszillatoren und Sinuswellen zur logarithmischen Funktion: H = n log s. Claude Shannon interpretiert dann in den 1940er Jahren H als »the entropy of the set of probabilities«. Claude Shannon: ›A Mathematical Theory of Communication‹, in: Bell System Technical Journal, 27, 1948, 379–423 und 623–656, S. 389. Für die weitere Entwicklung ist die Umsetzung der analog-digitalen Konvertierung durch Vakuumröhren und logische Schaltungen entscheidend. Die Umwandlung eines analogen Signals in ein digitales auf elektronischer Schaltungsbasis gelingt 1939 Alec Reeves. Sein ›Electric Signaling System‹ wandelt ein analoges Audiosignal in ein 6-kHz-getaktetes Signal um, dessen Anzahl an Pulsen dem analogen Signal entspricht. Diese werden in logischen Schaltungen – basierend auf den 1906 von Lee de Forest erfundenen Vakuumröhren – gespeichert, übertragen und mit einem inversen Verfahren wieder in ein analoges Audiosignal umgewandelt. Damit ist Reeves’ Verfahren ein erster Analog-Digital-Wandler (Digitizer). Vgl. Alec Harley Reeves: Electric Signaling System, US-Patent 2.272.070, eingereicht am 22. November 1939, patentiert am 3. Februar 1942. 204 Queisser, Kristallene Krisen, 1987, S. 181. Liegt an einem Eingang eines binärlogischen Schalters t elektrische Spannung an, so leitet der Schalter den Strom: am Ausgang liegt Spannung vor (t = L). Liegt keine Spannung an, so sperrt der Schalter (t = Ø). Durch die Kopplung von Schaltungen lassen sich Gatter bilden, welche entsprechend den aussagelogischen Operationen ein Muster an Eingangs- und Ausgangszuständen bilden. Negationselement, UND- sowie ODER-Gatter sind die Grundbausteine der Schaltalgebra, aus welchen sich kompliziertere Schaltungen bauen lassen. Die Gatter verarbeiten die Operationen gemäß den Wahrheitstafeln der Konjunktion, Disjunktion und Negation. »Mathematisch gesehen wird durch die Wahrheitstabelle eine Funktion y definiert, die in Abhängigkeit von ihren beiden Variablen a und b die Werte Ø und L annehmen kann.« Helmut Schauer: Computersysteme – Aufbau und Funktionsweise, Wien, New York: Springer 1976, S. 12.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operationale (Re-)Organisation von Empirie

Operation (NOT, AND), über den analogen Nachweis, dass sich die aussagelogischen Verknüpfungen auf die Negation und Konjunktion zurückführen lassen, und das Verständnis der Nachfolger-, Null- und Identitätsfunktion als rekursive Operationen letztendlich auf die Projektion der propositionalen Formulierungen der Aussagenlogik auf elektrische Schaltungen.205 In den 1970er Jahren werden die Schaltungen zu integrierten Schaltungen verdichtet, die mehrere Schaltungen auf einem Silizium-Chip miteinander ›verdrahten‹,206 und zu ganzen Mikroprozessoren, die komplette Rechner auf Silizium-Chips realisieren.207 Die enormen Rechenkapazitäten heutiger Siliziumcomputer ergeben sich aus den zunehmend komplexeren Anordnungen von p-n-Übergängen im Kristall, die schnellere Verschaltungen und Apparate ermöglichen.208 Dies ermöglicht die Umsetzung zunehmend anspruchsvollerer Programmiersprachen und -funktionen und die Anpassungsleistung an die mathematisierte Theorie durch mittelbare Beobachtung und indirekte Datenanalyse. Damit verlagert sich ein Teil der Zugriffsfunktion der Prognosekraft der mathematisierten Theorie an die Experimentier- und Messapparate, wie das Beispiel der Lidar-Technologie zeigte. Indem die Siliziumkristalle zunehmend reiner, die Kristallschichten dünner (einkristalline Halbleiterscheiben mit einigen wenigen Atomschichten), die Dotierungen präzisier und die Sensor- und Schaltkreise durch extrem-ultraviolett-lithographische Methoden immer kleiner werden (aktuell 22 Nanometer), gelangt die Siliziumtechnologie heute an die Grenzen der klassischen Physik.209 Aktuell wird deshalb über einen Wechsel der Operativität zur Quantenlogik sowie zu neuen Implementierungsmaterialen wie Graphen geforscht.210 205

Vgl. Shannon, ›A Symbolic Analysis of Relay and Switching Circuits‹, 1938. Vgl. Jack S. Kilby: ›Invention of the integrated circuit‹, in: IEEE Transactions on Electron Devices, 23 (7), 1976, 648–654. 207 Die ersten Mikroprozessoren wurden 1971 vorgestellt. Vgl. Gary W. Boone: Computing Systems CPU, US-Patent 3.757.306, eingereicht am 31. August 1971, patentiert am 4. September 1973. 208 Die Logikfamilien haben sich von der Widerstand-Transistor-Logik (RTL) und der Diode-Transistor-Logik (DTL) der 1970er Jahre zur aktuellen Transistor-Transistor-Logik (TTL) und zu Complementary Metal Oxide Semiconductors (CMOS) entwickelt. 209 Ende der 1970er Jahre entdeckt Klaus von Klitzing an Silizium den QuantenHall-Effekt. Vgl. Klaus von Klitzing, Gerhard Dorda, Michael Pepper: ›New Method for High-Accuracy Determination of the Fine-Structure Constant Based on Quantized Hall Resistance‹, in: Physical Review Letters, 45, 1980, 494–497; Klaus von Klitzing: Grenzen der Mikroelektronik: Quantenphänomene in mikrostrukturierten Halbleitern, Jena: Universitätsverlag 1995. 210 2013 wählt die Europäische Union neben dem Human Brain Project, basierend auf dem Re-Engineering des Gehirnes durch Computerschaltkreise, das Graphen-Projekt als 206

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

323



324

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

Operative Logik der mathematischen Formkraft

Die Formkraft der Mathematik konstituiert Theorie als operationale Theorie und vereint daher erkenntnis- wie handlungstheoretische Momente in sich. Handlung bezieht sich dabei auf die Umformatierungsleistung der mathematischen Operativität als (Re-)Organisation von Theorie und Empirie. Die Folge ist, dass sich mit dem Aufkommen operationaler Theorien seit der Neuzeit das Inventar mathematisch-technischer Objekte, Apparate und Verfahren als Mittel der Forschung von einfachen Kugeln, Ebenen und Fernrohren zu einer Vielzahl komplexer Apparate und Verfahren vermehrt hat und diese Objekte-, Apparate- und Verfahrensflut bedingt die Datenfluten der Wissenschaft.211 Zudem hat sich auch das Inventar an mathematischen Erkenntnismitteln – symbolischen wie material realisierten – zur Umformatierung von Theorie enorm erweitert.212 Die wachsenden Inventarlisten dokumentieren die sich in der Formkraft realisierende Erkenntniskraft der Mathematik. Diesen volitiven Aspekt operationaler Theorien hat Bachelard mit den Begriffen der ›Realisierung‹ und der ›Phänomenotechnik‹ treffend charakterisiert. Beide Begriffe tragen der Wissenschaft als Praxis der Realitätserzeugung Rechnung.213 Experimentieren und Messen – die ›modi operandi‹ wissenschaftlichen Handelns – bedeuten für Bachelard, »Anwendungsbedingungen zu verwirklichen, die die [Realität] nicht zustande gebracht hat. An diesem Punkt merkt man, daß die Wissenschaft ihre Objekte [realisiert], ohne sie jemals ganz fertig vorzufinden. Die Phänomenotechnik erweitert die Phänomenologie. Ein Konzept wird in dem Maße wissenschaftlich, wie es technisch wird, wie mit ihm eine Technik der [Realisierung] einhergeht.«214 Flagship Initiative mit jeweils einer Milliarde Euro Forschungsgeldern aus. Vgl. Europäische Union: FP7 Flagship Initiative, EU: Brüssel 2013. 211 Zum Diffundieren dieser Objekte, Apparate und Verfahren in die Lebenswelt als Technik und Systemtechnik vgl. Christoph Hubig: Die Kunst des Möglichen: Grundlinien einer dialektischen Philosophie der Technik, 2 Bde., Bielefeld: Transcript 2006, 2007; Werner Kogge: ›Technologie des 21.  Jahrhunderts – Perspektiven der Technikphilosophie‹, in: Deutsche Zeitschrift für Philosophie, 6, 2008, 935–956. 212 »So findet man z. B. schon 1988 […] über 950 verschiedene Finite-Elemente Codes.« Fuhrmann, Kleis, Mackens, ›Partielle Differentialgleichungen und Numerische Software‹, 1996, S. 119. 213 Dies schließt an Kants Konstruktivismus der Kritik der reinen Vernunft an und setzt sich in dem aktuellen technowissenschaftlichen Paradigma der Technikphilosophie fort. Vgl. Alfred Nordmann: ›Collapse of Distance: Epistemic Strategies of Science and Technoscience‹, in: Danish Yearbook of Philosophy, 41, 2006, 7–34. 214 Bachelard, Die Bildung des wissenschaftlichen Geistes (1938), 1987, S. 111. Alfred Nordmann hat dies für aktuelle Entwicklungen treffend als ›mit der Natur über die Natur hinausgehen‹ bezeichnet. »Hiernach ist die Natur ein technisches System, ein Prozeß-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operative Logik der mathematischen Formkraft

Experimente und Messungen in diesem Sinne verstanden sind ›realisierte Theorien‹ und die daraus resultierenden Phänomene tragen die ›Prägemale‹ der mathematisierten Theorie in sich.215 Dies deckt sich mit Kants epistemologischem Konstruktivismus, der Wissenschaft als Nötigungscharakter interpretiert. Für Bachelard ist der Charakter der Wissenschaft daher grundsätzlich ein technischer, in dem Sinne, als Experimentieren, Beobachten und Messen instrumental verfasst sind und in der Erzeugung, nicht Entdeckung, von Phänomenen bestehen.216 »Die wahre wissenschaftliche Phänomenologie ist daher ihrem Wesen nach Phänomenotechnik. Sie verstärkt das, was hinter dem Erscheinenden durchscheint. Sie lernt aus dem, was sie konstruiert.«217 Daher ist der technisch-wissenschaftliche Realismus ein ›Realismus zweiter Ordnung‹. Damit beschreibt Bachelard treffend den Raum der Empirie als Realisierungsraum der apparativen Anschauung. Empirie als gegeben und unverändert im Sinne des aristotelischen Allgemeinverständlichen wird durch Wissenschaft ›deformiert‹.218 Deformierung ist dabei ein permanenter Prozess der Realisierung neuer wissenschaftlich-technischer Objekte und Phänomene, die zum Bestand der Empirie werden.219 Die Frage ist, wie sich und Eigenschaftszusammenhang, der wie alle technischen Systeme extrapolierbar und steigerungsfähig ist, und zwar nicht im Sinne der biologischen Evolution mit ihrem gradualistischen Mechanismus der Selektion und der Anpassung, sondern im Sinne von Algorithmen und Verfahren, die zur Steigerung des Systems Natur mobilisiert werden können. Die zweifache Erscheinung des Wortes ›Natur‹ bezieht sich in diesem Fall auf die zwei Erscheinungen des einen Prozesses.« Alfred Nordmann: ›Mit der Natur über die Natur hinaus?‹, in: Kristian Köchy, Martin Norwig, Georg Hofmeister (Hrsg.): Nanobiotechnologien: Philosophische, anthropologische und ethische Fragen, München: Karl Alber 2009, 131–147, S. 136. 215 Vgl. Bachelard, Der neue wissenschaftliche Geist (1934), 1988, S. 18 f. 216 Dies deckt sich mit Heideggers These von der Vollendung der Metaphysik als technisches Entbergen in der neuzeitlichen und modernen Wissenschaft. Allerdings setzt Heidegger noch früher als Bachelard an, indem er bereits der gesamten neuzeitlichen Wissenschaft als Forschung einen technischen Charakter zuspricht. Vgl. Heidegger, ›Die Frage nach der Technik‹ (1949), 1962. 217 Bachelard, Der neue wissenschaftliche Geist (1934), 1988, S. 18. 218 Vgl. Bachelard, Die Bildung des wissenschaftlichen Geistes (1938), 1987, S. 59 ff; Bernhard Waldenfels: Bruchlinien der Erfahrung: Phänomenologie, Psychoanalyse, Phänomenotechnik, Frankfurt: Suhrkamp 2002; Hans-Jörg Rheinberger: ›Gaston Bachelard and the Notion of ›Phenomenotechnique‹, in: Perspectives on Science, 13 (3), 2005, 313–328. 219 »What is achieved in this [epistemological] act is the transformation of something that had been taken as given into a problem. A scientific object is a phenomenon that has been drawn into a cycle of rectification; it is not constituted once for ever, but it remains a scientific object only through its being constantly reconstituted and rectified. The epistemological rupture serves to mark the transition from everyday knowledge to the act of scientific thinking, while at the same time it inscribes itself into this very act and thus

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

325



326

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

dieser Realismus zweiter Ordnung aufgrund der Operativität der Mathematik und der daraus resultierenden Formkraft historisch wandelt. Bezogen auf die Physik bedeutet dies, dass sich die Formkraft der Mathematik im 17. Jahrhundert primär aus der (analogischen) Operativität der geometrischen Figuration und dem linearen Superpositionsprinzip generiert, das sich durch die Vektoraddition ergibt (Parallelogrammverschiebung).220 Dies zeigt sich material in den Forschungsobjekten der neuzeitlichen Experimentalforschung. Trotz ihrer Einfachheit sind diese als hinreichend glatte Kugeln oder plane Ebenen geometrisierte Objekte. Nur so lassen sie sich als Analogon der geometrisierten Theorie erforschen. »For instance, Galilei conceived inclined planes with progressively smaller and smaller slopes to introduce the notion that horizontal motion requires no force.«221 Schon für die frühe Neuzeit ist die mathematische Umformatierung von Theorie und die gleichzeitige Implementierung mathematischer Prinzipien in Materialien, Objekte und Apparate charakteristisch. Domenico Meli nennt diese Verschränkung materialer und theoretischer Objekte Thinking with objects und Jim Bennett bezeichnet dies als ›operative knowledge‹.222 Die Verschränkung ergibt sich weitgehend analogisch aus der geometrisch-figürlichen Operativität der Mathematik, die sich vor allem in Newtons synthetischer Fluxionsmethode als Verallgemeinerung der Exhaustionsmethode der griechischen Mathematik zeigt. Erst im 18. Jahrhundert löst sich mit den von Euler eingeführten Differentialgleichungen und der maßgeblich von Laplace entwickelten Feld- und Potentialtheorie die Physik von der Operativität der geometrischen Figuration und ersetzt diese für einfache Probleme durch die algebraische Deduktion. Eulers Bewegungsgleichung von 1755 ist ein Paradebeispiel dafür. Basierend auf Newtons zweitem Axiom F = dp/dt, das den Einfluss von Kräften (F) auf die zeitliche Veränderung (dt) von Impulsen (dp als Produkt von Masse m und Geschwindigkeit ν) beschreibt, formuliert Euler die Principes généraux du mouvement des fluides als allgemeine Bewegungsgleichung für Flüssigkeiten und Gase.223 Eulers Bewegungsgleichung formuliert die Bewegung eines reibecomes an intrinsic hallmark of a continued scientific engagement with the world.« Rheinberger, ›Gaston Bachelard and the Notion of ›Phenomenotechnique‹, 2005, S. 320. 220 Die Operativität der geometrischen Figuration hält sich bis ins 20.  Jahrhundert in graphischen Berechnungsmethoden, die aufgrund komplexerer Erkenntnismittel wie Planimeter und Integrator anspruchsvoller und besser werden. Vgl. Eugen Mayer: Das Rechnen in der Technik und seine Hilfsmittel, Leipzig Göschen 1908. 221 Meli, Thinking with Objects, 2006, S. 5. 222 Vgl. Jim Bennett: ›Practical Geometry and Operative Knowledge‹, in: Configurations, 6 (2), 1998, 195–222; Meli, Thinking with Objects, 2006. 223 Vgl. Euler, ›Principes géneraux du mouvement des fluides‹ (1755), 1954.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operative Logik der mathematischen Formkraft

bungsfreien Fluids in Form einer partiellen Differentialgleichung erster Ordnung. Doch Eulers Gleichung beschreibt das Verhalten idealer Fluide ohne Dichteänderungen, Reibung und Verwirbelungen unter ebenso idealisierten Randbedingungen wie gerade und perfekt glatte Röhren ohne Hindernisse. Auch wenn die Wissenschaft nun algebraisch herangeht, hantiert sie immer noch mit den raumzeitlichen Idealitäten der geometrischen Gestalten, die sich lediglich »in pure Zahlengestalten, in algebraische Gebilde« aufgelöst haben.224 Für einfache Probleme lassen sich solche Gleichungen analytisch lösen. So gelingt es beispielsweise Stokes 1851, eine Lösung für den speziellen Fall des Widerstandes einer perfekt runden und glatten Kugel in einer Flüssigkeit mit konstanter Fließgeschwindigkeit in einem geraden Rohr aus der modifizierten Euler-Gleichung analytisch zu deduzieren.225 Doch die formale Lösung ist für praktische Probleme wie die der Hydrodynamik wenig nützlich, da sie zu stark vereinfacht ist. Daher bilden sich zunehmend Techniken des diskreten, arbeitsteiligen Rechnens heraus, um weniger idealisierte Gleichungen per Hand zu berechnen. Dazu werden die Berechnungen in Abarbeitungsschritte zerlegt und die einzelnen Berechnungen an ›menschliche Computer‹ delegiert.226 Allerdings ist die Rechenkraft menschlicher Computer und mechanischer Rechenhilfen limitiert, so dass Ende des 19. Jahrhunderts die immer präziser werdenden Experimentier- und Messapparate genutzt werden, um empirische Probleme analog zu berechnen. Voraussetzung dafür ist die Messung mit elektromagnetischen Schwingungen und die dadurch ermöglichten komplex verschalteten Apparate. Beispielsweise werden im Bereich der Strömungsdynamik Experimente in Windkanälen durchgeführt, um auf analoge Weise numerische (Mess-)Ergebnisse für die verschiedenen Zustandsgrößen zu erhalten. Die Ableitung einer Funktion wird dabei ›elektrisch‹ berechnet.227 So benutzen Forscher Modelle aus Draht, um die Windgeschwindigkeit an deren Oberfläche im Windkanal zu messen. Dabei machen sie sich das Prinzip zunutze, dass der elektrische Widerstand des Drahtes von dessen Temperatur abhängt. Die Abkühlung durch den Luftstrom gibt indirekt Aufschluss über die Windgeschwindigkeiten. »The velocity of the air stream, therefore, 224 Husserl,

Die Krisis der europäischen Wissenschaften (1935), 1996, S. 47. Vgl. George Stokes: ›On the Effect of the Internal Friction of Fluids on the Motion of Pendulums‹, in: Transactions of the Cambridge Philosophical Society, 9, 1851, 8–106. 226 Vgl. Grier, When Computers Where Human, 2005. 227 »If the form of a varying current through a pure inductance represents a function, the voltage across the inductance represents the derivative.« Vannevar Bush: ›Instrumental Analysis‹, in: Bulletin of the American Mathematical Society, 42, 1936, 649–669, S. 657. 225

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

327



328

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

can be electronically monitored by accounting for the ensuing changes in electrical resistance. This method has already been described before the First World War, but only with the use of extremely thin wires (with a diameter of approximatley 0.015 mm) and sophisticated electronic circuits did it become feasible for measurements of velocity fluctuations.«228 Doch das Problem ist ein zweifaches: Zum einen sind diese analogen Messungen noch nicht präzise genug. Wie Vannevar Bush 1936 in Instrumental Analysis schreibt: »Unfortunately it is not easy either to cause a current to vary precisely in a prescribed manner, nor to measure precisely a varying voltage. […] None of these applications require the precision desirable in mathematical instruments.«229 Zum anderen werden auf diese Weise für jeden spezifischen Messkontext unzählige empirische Gesetze generiert.230 Bereits 1845 beklagt Stokes diesen Umstand: »The practical importance of such [fluid dynamic] questions […] has made them the object of numerous experiments, from which empirical formulae have been constructed. But such formulae, although fulfilling well enough the purposes for which they were constructed, can hardly be considered as affording us any material insight into the laws of nature; nor will they enable us to pass from consideration of the phenomena from which they were derived to that of others of a different class, although depending on the same causes.«231 Was also dringend gefordert ist, sind neue operative Modi der Mathematik. Diese etablieren sich mit der topologisch-algebraischen Permutation und der algebraisch-arithmetischen Rekursion. Mit der Permutation versucht man der zunehmenden Komplexität in der Physik durch (Koordinaten-)Transformationen Herr zu werden. Dies führt sowohl zum Programm der Vereinigung der Kräfte als auch zu neuen Theorien wie der Relativitätstheorie oder der Quantenmechanik. Damit erschließt der operative Modus der Permutation respektive Transformation unter dem Objektivitätskriterium der Invarianz völlig neue, ontologische Bereiche und dies nicht nur in der Physik, wie das Beispiel der Festkörperchemie deutlich machte. Denn der Vorteil der Permutation ist es, beliebige Entitäten unter eine Vertauschungsrelation zu bringen, die nicht der rekursiven n+1-Ordnung entsprechen muss, und die Entitäten 228 Michael Eckert: The Dawn of Fluid Dynamics. A Discipline between Science and Technology, Weinheim: Wiley-Vch 2006, S. 109. 229 Bush, ›Instrumental Analysis‹, 1936, S. 657. 230 »In 1896 a textbook on ballistics lists in chronological order 20 different ›laws of air resistance,‹ each one further divided into various formulae for different ranges of velocity. […] No physical theory could provide a logical framework for justifying these empirical ›laws‹.« Eckert, The Dawn of Fluid Dynamics, 2006, S. 26. 231 Stokes, ’On the theories of the internal friction of fluids in motion‹, 1880, S. 76.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Operative Logik der mathematischen Formkraft

dann nach bestimmten Kriterien zu gruppieren. Das bevorzugte Erkenntnismittel ist der Matrizenkalkül. Doch der Beherrschung des Komplexen durch Koordinatentransformationen sind Grenzen gesetzt, insofern sich nicht alle Probleme als Darstellungsproblem geeigneter Transformationen lösen lassen. Schon Poincaré hatte gezeigt, »dass es diese ›geeigneten Koordinaten‹ schon etwa für das relativ einfache Dreikörperproblem nicht geben kann und die Trajektorien sich nicht in ein regulär erscheinendes Bild transformieren lassen«.232 Solche komplexen Probleme bedürfen daher der Rekursion unter dem Objektivitätskriterium der Konvergenz in Form der numerischen Extrapolation, auch numerische Simulation genannt. Meteorologie als allgemeine Theorie der Zirkulation beispielsweise ist aufgrund der nicht-linearen Zusammenhänge derart komplex, dass sich eine solche Theorie zwar mathematisch artikulieren lässt, wie dies bereits Bjerknes 1904 leistete, aber viel an Einsicht lässt sich dadurch nicht gewinnen. Denn die mathematisierte Theorie ist zu komplex, als dass sich Schlussfolgerungen und Prognosen deduzieren ließen. Die Rekursion und ihre selbstreferentielle n+1-Ordnung ist jedoch ohne den medialen Wechsel der Mathematik von formalen (Zeichen-)Systemen in elektrische Schaltungen und Maschinenalgorithmen wenig praktikabel. Daher rücken erst im 20. Jahrhundert mit den mathematischen Medien komplexere Probleme in den Fokus der Forschung und mit ihnen nicht-lineare Zusammenhänge. Zur vollen Entfaltung gelangt die Leistungskraft der rekursiven Berechenbarkeit jedoch erst mit dem materialen Wechsel von den elektromagnetischen Schwingungen der analogen Röhren-Technologie zum Elektronenfluss der digitalen Halbleiter-Technologie.233 Für Wissenschaft und Technologie bedeutet dies zweierlei: Zum einen, »to replace [an analogue] computation from an unquestioned theory by direct measurement« durch Berechnung mit (digitalen) Computern.234 Mit der computerbasierten Simulation wird die approximative Berechnung basierend auf Rekursion komplexer Probleme und Phänomene möglich. Mit der Rechenkapazität heutiger Supercomputer von Billiarden Rechenoperationen pro Sekunde setzt sich die 232 Hedrich,

Die Entdeckung der Komplexität, 1994, S. 28. Zwar verbleibt die Wissenschaft und Technik im ›Medium‹ des Elektrons, aber die Operativität verändert sich grundlegend. Denn es ist ein Wechsel von den mathematisch idealen Objekten ungedämpfter Sinuswellen zu den absolut symmetrischen Gitterstrukturen der Kristalle in Reinform als Grundlage jeglicher Modulation und Verschaltung. Damit einher geht der Wechsel von der Analogie- zur Digitaltechnik wie auch die Auflösung des analogen Übersetzungsverhältnisses. 234 Goldstine, von Neumann, ›On the Principles of Large Scale Computing Machines‹, 1963, S. 4. 233

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

329



330

Kapitel 13  ·  Erkenntnisfortschritt durch Präzisierung

Simulation mittlerweile als die maßgebliche Form der rekursiven Operativität der Mathematik in Wissenschaft und Technologie durch. Wissenschaft wird dadurch zu einer ›data intensive science‹. Zum anderen verbindet die digitaltechnische Operativität der Apparate Sensorik und mathematische Schaltungslogik und erschließt durch die mittelbare Datengenerierung und indirekte Datenanalyse zunehmend komplexer zusammengesetzte Messgrößen – passiv wie aktiv.235 Damit sind zunehmend komplexere Rückschlussverfahren zur Dekodierung der in den Messungen vermuteten Informationen unter Zugriff auf die mathematische Theorie automatisiert möglich und auch von Seiten der ›Empirie‹ transformiert sich Wissenschaft in eine datengetriebene Wissenschaft.

235 Elektronisch-digitaltechnische Apparate wie das Lidar ermöglichen aktive Messungen, indem sie Lasersignale aussenden und deren Rückstreuung messen.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

TEIL V THEORIE DER OPER ATIVEN EPISTEMOLOGIE

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 14 Prognostische Erkenntnisgenerierung

E 

ine Epistemologie, die sich als operative versteht, thematisiert eine andere Art von Wissen und Wissensgenerierung als eine Epistemologie, die sich auf semantisch repräsentiertes Wissen und dessen Erhalt fokussiert. Mathematik hantiert zwar mit Sprache, aber mit ihrer rein formalen Form als (Zeichen-)Sprache ohne extrasymbolische Bezüge. Dennoch generiert Mathematik durch formal-syntaktische Symbolmanipulationen ein Wissen, das von den Eigenschaften von Relationen, Ordnungen und Strukturen handelt. Das Wissen über die Einzigartigkeit von Primzahlen oder über die Irrationalität von π in Bezug auf die Teilereigenschaften von Zahlen, das Wissen über die Unentscheidbarkeit formaler Systeme bestimmten operativen Umfangs oder das Wissen über die Überabzählbarkeit der reellen Zahlen handeln von den Eigenschaften bestimmt geordneter und strukturierter Entitäten. Doch bevor Mathematik sich dem Studium solcher Entitäten widmen kann, muss sie diese Relationen, Ordnungen und Strukturen allererst erzeugen. Eben dies leisten die operativen Modi der Mathematik: die geometrische Figuration, die arithmetische Berechnung, die algebraische Deduktion, die algebraisch-topologische Permutation und die algebraisch-arithmetische Rekursion. Obwohl sich die operative Epistemologie auf die rein syntaktische, symbolisch-operative Erzeugung wie Analyse von Wissen bezieht, ist die innermathematische Anwendung nicht das primäre Thema der vorliegenden Studie.1 Vielmehr ist ihr Thema die (Re-)Organisation von Anschauung und Erfahrung durch die Implementierung mathematischer Operativität in außermathematische Wissens- und Handlungsstrukturen. Die Formkraft der Mathematik besteht in eben dieser Reorganisationsleistung von Wissen, die über das wissenschaftlich Theoretische hinausgreift und sich im experimentellen Handeln manifestiert. Darin liegt das Potential einer Episteme, die nicht von semantisch repräsentiertem, sondern von syntaktisch präsentiertem Wissen 1 Ein solches Studium der innermathematischen Anwendungen würde sich vor allem auf die operablen Aspekte der Mathematik beziehen wie beispielsweise die Computermathematik. »Formal proofs are part of a larger project of automating all mechanizable mathematical tasks, from conjecture making to concept formation. […] A groundbreaking project was D. Lenat’s 1976 Stanford thesis. His computer program AM (for Automated Mathematician) was designed to discover new mathematical concepts.« Thomas C. Hales: ›Formal Proof‹, in: Notices of the American Mathematical Society, 55 (11), 2008, 1370–1380, S. 1377.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



334

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

über Relationen, Ordnungen und Strukturen handelt. Als präsentiertes Wissen ist mathematisches Wissen in erster Linie ein kognitives Handlungswissen, das im Vollzug formaler Symbolmanipulationen besteht, bevor es als propositionales Wissen in Form von ›Es-gibt‹-Aussagen realitätserweiternde Funktion erhält. Diese Erweiterungsfunktion kennzeichnet die operative Epistemologie für die mathematisierte Wissenschaft und es stellt sich die Frage, wie die Rolle der (Re-)Organisation von Anschauung und Erfahrung genau zu verstehen ist.

Modi der Erkenntnisgenerierung

Die Motivation der operativen Epistemologie generiert sich aus der Frage nach dem Neuen unter formal-operativen Bedingungen. Dabei ist die Frage so alt wie die Mathematik selbst, wenn die babylonische Mathematik astronomische Ereignisse vorhersagt oder die griechische Mathematik durch Schlussfolgerungen über mathematische Objekte Neues ›entdeckt‹.2 Allerdings verdankt sich die Logik dieses Neuen einer Synthese aus dem Bekannten, die, wie Euklid schreibt, »die Zugrundelegung des [geometrisch] Anerkannten um seiner auf Vollendung oder Ergreifung des Gesuchten führenden Folgerungen willen« ist.3 Dieses Synthesemodell – das Neue wird aus dem Bekannten synthetisiert – überträgt Aristoteles auf die Naturforschung, indem er das Bekannte als das allgemein Wahrnehmbare bestimmt, das sich aus der kontemplativen Schau (θεωρεῖν) der natürlichen Ordnung ableitet.4 Die Verallgemeinerung in der Theorie unterstellt dabei der Natur eine teleologische Orientierung, die sich in der Scholastik – »wissenschaftlich denken, das hieß: die Logik des Aristoteles auf ein gegebenes Feld anwenden«5 – in eine religiöse transformiert.6 Ob das Allgemeine der Interpretation oder das sinnlich 2

Die Entdeckung der Inkommensurabilität wäre ein Beispiel hierfür. Vgl. von Fritz, Grundprobleme der Geschichte der antiken Wissenschaft, 1971. 3 Euklid, Elemente XIII, übersetzt in Engfer, Entwicklung philosophischer Analysiskonzepte, 1982, S. 75, Fn. 24. 4 Für Aristoteles werden Verallgemeinerungen induktiv aus allgemein einsichtigen Sinneserfahrungen gewonnen. Induktionen sind dabei einfache Aufzählungen der Art: x1 hat Eigenschaft P, x2 hat Eigenschaft P etc., woraus gefolgert wird, dass alle x die Eigenschaft P besitzen. Dieses antike induktiv-deduktive Schema ist das der ›Auflösung und Zusammensetzung der Phänomene‹ zur Rekonstruktion der natürlichen Ordnungen. Vgl. John Losee: Wissenschaftstheorie. Eine historische Einführung, München: Beck 1977, S. 17 ff. 5 Kurt Flasch: Das philosophische Denken im Mittelalter, Stuttgart: Reclam 1995, S. 48. 6 Bereits 1248 beklagt sich Albertus Magnus: »Wenn wir Naturwissenschaften betreiben, dann müssen wir danach forschen, was auf natürliche Weise in der natürlichen

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Modi der Erkenntnisgenerierung

Wahrnehmbare der Empirie das Reale ist, wird im Universalienstreit des Mittelalters – nicht unähnlich zur aktuellen Mathematikphilosophie7 – zwischen Realisten und Nominalisten verhandelt. Doch auch wenn sich letztendlich die ›via moderna‹ durchsetzt, die dem Sinnlichen den Vorrang gibt, so ist dies noch nicht das Sinnliche der Neuzeit in Form von Einzeltatsachen, wie Peter Dear dies treffend in seiner Studie zu Discipline and Experience zum Ausdruck bringt: »Singular, unusual events were of course noticed and reported, but they were not, by definition, revealing of how nature behaves ›always or for the most part‹, as Aristotle said; instead, they might be classified as ›monsters‹ or even ›miracles‹.«8 Mitte des 13. Jahrhunderts beginnt sich jedoch die Haltung zum sinnlich Wahrnehmbaren durch frühe Experimentatoren wie Roger Bacon zu ändern. Bacon ist davon überzeugt, dass »wir nur durch die eigene Forschung und durch das Experiment zur Wahrheit gelangen können«.9 Was nun gefordert wird, ist eine ›scientia experimentalis‹, die sich die einzelnen Phänomene vornimmt und studiert. Das bereitet den Weg für die neuzeitliche Wissenschaft, die sich am deutlichsten zweihundert Jahre später im Wissenschaftsprogramm von Francis Bacon artikuliert. Dieses rückt das Studium des sinnlich Wahrnehmbaren ins Zentrum, allerdings unter neuen Vorzeichen. Denn es geht nun um das Einzelne und dessen Ursachen, die in den »geheimen Bewegungen in den Dingen und [den] inneren Kräfte der Natur« gesucht werden.10 Es ist der Wille der Neuzeit, nicht nur über die kontemplative Schau (θεωρεῖν), sondern über die sichtbare Natur hinauszugehen. Theorie wird damit zur Erkenntnis- wie Handlungstheorie. Der Blick in das Innere der Dinge als »eindeutige Auskunft über die unbekannten Bestandteile und Kräfte in den verschiedenen Körpern« ist jedoch nur durch die (Neu-)Ausrichtung der Erkenntniskraft möglich.11 Die mathematische Rationalität erweist sich dabei als zweifach nützlich. Zum einen als ein ›epistemisches Mikroskop‹ der Tiefenansicht auf die kausalen Wirkungen Wirklichkeit geschehen kann, nach den inneren Ursachen der Natur, und nicht nach der Art und Weise erkunden zu suchen, nach der Gott, der Schöpfer, gemäß seinem freien Willen das von ihm geschaffene Wunder vollbringt, um seine Macht zu demonstrieren.« Albert Magnus (1248) übersetzt in Loris Sturlese: Die deutsche Philosophie im Mittelalter. Von Bonifatius bis zu Albert dem Großen (748–1280), München: Beck 1993, S. 344. 7 Vgl. Stegmüller, Glauben, Wissen und Erkennen. Das Universalienproblem Einst und Jetzt, 1965. 8 Dear, Discipline and Experience, 1995, S. 14. 9 Roger Bacon (1268) übersetzt in Sebastian Vogl: Die Physik des Roger Bacons, Erlangen: Junge & Sohn 1904, S. 17. 10 Bacon, Neu-Atlantis (1642), 1982, S. 43. 11 Ebd., S. 55. Vgl. Descartes, Regeln zur Ausrichtung der Erkenntniskraft (1619 ff), 1972, Regel XIII und Regel XVII; Cassirer, Erkenntnisproblem (1906), 1. Bd., 1911, S. 370 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

335



336

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

und Kräfte, da sie die notwendige regelbasierte Erkenntnisgewissheit liefert, die allein durch empirische Induktion nicht gewonnen werden kann. Zum anderen als Voraussetzung der Umwendung des epistemischen Regresses jeder auf das Neue als das Unbekannte fokussierten Naturforschung zum epistemischen Ideal der Klärung von Erkenntnis durch Analyse. Der Regress bezieht sich dabei auf den Doppelschritt von ›metodo resolutivo‹ (Schluss von bekannten Wirkungen auf unbekannte Ursachen) und ›metodo compositivo‹ (Schluss von den nun bekannten Ursachen auf die zu beweisenden Wirkungen). Dies wurde bereits von Zabarella Ende des 16. Jahrhunderts formuliert und von Galilei in konkrete Handlungsanweisungen als Gewinnung von Daten aus Beobachtung und Experiment, Aufstellung von Hypothesen, geometrische Beschreibungen sowie Beweise der Hypothesen und schließlich mathematischen Ableitungen von Vorhersagen, die sich dann wieder an der Beobachtungen überprüfen lassen, umgesetzt.12 Mit der von Engfer als ›Regressus-Modell‹ bezeichneten empirischen Forschungslogik erweitert sich das Synthese-Modell der antiken und scholastischen Wissenschaft in das Analyse-Synthese-Verhältnis der Neuzeit, welches das Neue als formale Analyse unbekannter Größen artikuliert.13 Das dafür nötige Analysewerkszeug liefert nicht die Geometrie und ihre synthetisch-konstruierende Methode, sondern die Arithmetik und die Algebra – als analytische Geometrie bei Descartes – mit deren formal-operativem Symbolismus. Dabei wird die mathematische Gleichung zum Inbegriff der formalen Analyse, indem festgestellt wird, »daß das Gesuchte ›gleich irgendeinem Gegebenen‹ ist«.14 Es ist dieser Kunstgriff der symbolischen Explizierung des Unbekannten als das Neue, der das grundlegende Schema der operativen Epistemologie festschreibt. Indem beliebige algebraische Zeichen für das Unbekannte eingesetzt und diese mit einem mathematisch Gegebenen gleichgesetzt werden, wird das Unbekannte der formalen Analyse zugänglich. Das Neue als das Unbekannte auf der einen Seite der Gleichung wird durch die mathematische Rationalität auf der anderen Seite der Gleichung bestimmt. Die Rolle, die der mathematischen Rationalität in dieser Grundgleichung zukommt, ist die der prognostischen Vergegenwärtigung durch symbolisch-operative Praktiken. Denn was die Mathematik im Unterschied 12 Vgl. Zabarella, ›De methodis‹ (1578), 1966; Cassirer, Erkenntnisproblem (1906), 1. Bd., 1911, S. 138 ff. 13 Vgl. Gabriele Gramelsberger, Peter Bexte, Werner Kogge (Hrsg.): Synthesis. Zur Konjunktur eines philosophischen Begriffs in Wissenschaft und Technik, Bielefeld: Transcript 2014. 14 Engfer, Entwicklung philosophischer Analysiskonzepte, 1982, S. 142 ff. Vgl. Krämer, Berechenbare Vernunft, 1991.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Modi der Erkenntnisgenerierung

zu bloßen Behauptungen zu leisten vermag, ist, mit ihrer operativen Methode aus Einheiten ein regelhaft Zusammengesetztes zu bilden und aus der Regelhaftigkeit Objektivität zu generieren. Auf diese Weise wird das Neue in den möglichen Ordnungen des Nach- und Nebeneinander des Mannigfaltigen als (Re-)Organisation von Anschauung und Erfahrung sichtbar.15 Die operative Epistemologie ist jedoch nicht die einzige Praktik der prognostischen Vergegenwärtigung. Grundsätzlich ist sie von der explorativen Epistemologie des Experimentierens im Labor abzugrenzen. Diese erschließt ebenfalls das Neue und Unbekannte, jedoch ohne den epistemischen Vorgriff der mathematischen Prognose. Der Vorgriffscharakter der explorativen Epistemologie lässt sich mit Wolfram Hogrebe als Vergegenwärtigungsfunktion des natürlichen Erkennens in Form von Ahnungen und Erwartungen aufgrund langjähriger Erfahrungen deuten.16 Im Unterschied zu mathematischen ›rationalen‹ Prognosen sind Ahnungen individuelle und situationsabhängige Resonanzen der sensorischen und semantischen Registratur der Forschenden, die einen anders gearteten epistemischen Vorgriffscharakter auf das, was noch nicht zugänglich ist, etablieren. Sie sind epistemisch flüchtige Zustände der Vergegenwärtigung von spontaner Präsenz fragmentarischer Informationen, die sich im Erfolgsfall, also im Moment der gesicherten Erkenntnis, selbst aufheben.17 In der Literatur zur Laborforschung lassen sich Hinweise auf diesen Vorgriffscharakter des Explorativen finden. So identifiziert beispielsweise Ludwik Fleck den fragilen epistemischen Zustand der explorativen Epistemologie mit der ›Selbständigkeit des Experiments‹, die zwar unklare Experimente zur Folge habe, diese aber nicht »vom System früherer Experimente und Entscheidungen geschleppt« und schon gar nicht von den »Schlußmöglichkeiten auf Existenz oder Nichtexistenz« durch mathematische Prognosen determiniert würden.18 Seine Studie der Realisierung eines wissenschaftlichen Begriffs legt den materialen Prozess der ›plastischen Begriffsumbildung‹ im laufenden Laborbetrieb offen. »So entsteht die Tatsache: zuerst ein Widerstandsa15 Daher kann das Neue sich nie durch reine Ersetzungsstrategien ›salva veritate‹ zeigen, wie es Leibniz vorschwebte. Vgl. Leibniz, Allgemeine Untersuchungen über die Analyse der Begriffe und Wahrheiten (1686), 1993. 16 Vgl. Wolfram Hogrebe: Ahnung und Erkenntnis. Brouillon zu einer Theorie des natürlichen Erkennens, Frankfurt: Suhrkamp 1996. 17 Für Hogrebe gehören Ahnungen trotz ihrer epistemischen Fragilität zur szientifischen Abkürzungskultur, um sich gegebenenfalls langwierige induktive Anstrengungen zu ersparen. Im Unterschied zu Ahnung wird Intuition als das unvermutete »Klarwerden, was der Fall ist« definiert. Hogrebe, Ahnung und Erkenntnis, 1996, S. 25. 18 Ludwik Fleck: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv (1935), Frankfurt: Suhrkamp 1994, S. 114.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

337



338

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

viso im chaotischen anfänglichen Denken, dann ein bestimmter Denkzwang, schließlich eine unmittelbar wahrzunehmende Gestalt.«19 Diese von Hogrebe als epistemische Kette von Ahnungen über Vermutungen zu Meinungen und schließlich zu Wissen titulierte Materialisierung des Denkens hat auch Rheinberger in seiner Analyse der Proteinsynthese im Reagenzglas ausführlich beschrieben.20 Es ist die Vagheit der ›epistemischen Dinge‹, die »begriffliche Unbestimmtheit nicht defizitär, sondernd handlungsbestimmend« werden lässt und so den »prekären Status [der epistemischen Dinge], in ihrer experimentellen Präsenz abwesend zu sein«, begründet.21 Erst im ›operationalen Umdefinieren‹ durch das Experimentieren klärt sich der prekäre Status in gesichertes, da stabilisiertes Wissen. Aus einer etwas anderen Perspektive auf den Prozess des operationalen Umdefinierens wird die Funktion des Labors deutlich. Wie Karin Knorr Cetina in Bezug auf Maurice Merleau-Ponty schreibt, wird dort »eine Rekonfiguration des ›Phänomenfeldes‹« vorgenommen, »um die Welt-bezogen-aufAkteure so zu verändern, daß die Symmetrie zwischen Wissenschaftlern und Objektwelt zugunsten der ersteren verändert wird«.22 Diese Formkraft der explorativen Epistemologie lässt sich ganz im Sinne Bachelards als phänomenotechnische begreifen, die sich aus dem ›modus operandi‹ des Explorativen – dem Experimentieren, dem Beobachten und dem Messen – im Labor generiert.23 Allein der Umstand, dass die Wissensobjekte aus der Umwelt gelöst, ins Labor transferiert und dort der Manipulation zugänglich gemacht werden, rekonfiguriert bereits das Phänomenfeld von lebensweltlicher Erfahrung in wissenschaftliche Erfahrung. Doch noch wesentlich tiefgreifender ist, dass das Labor eine zeitliche Rekonfigurationsmaschine darstellt, die Prozesse in ein artifizielles temporales Regime überführt.24 Erst die Herstellung artifizieller Temporalitäten erlaubt es, Objekte in ihrer Prozessualität zu erforschen. Entsprechend haben Laborrealitäten wenig mit der Idee einer ›natürlichen 19

Ebd., S. 124. Vgl. Rheinberger, Experimentalsysteme und epistemische Dinge, 2001. 21 Ebd., S. 24 und S. 25. 22 Karin Knorr Cetina: Die Fabrikation von Erkenntnis (1981), Frankfurt: Suhrkamp 2002, S. XIV. Vgl. Maurice Merleau-Ponty: Phénoménologie de la perception, Paris: Gallimard 1945. 23 Vgl. Bachelard, Der neue wissenschaftliche Geist (1934), 1988, S. 18 ff. 24 Beispielsweise durch Kryotechnologien, die als temporale Entgegensetzung der prognostischen Vergegenwärtigung agieren. Vgl. Alexander Friedrich, Stefan Höhne: ›Frischeregime: Biopolitik im Zeitalter der kryogenen Kultur‹, in: Glocalism: Journal of Culture, Politics and Innovation, 1–2, 2014, 44 S.; Gabriele Gramelsberger: ›Figurationen des Phäomenotechnischen‹, in: Jahrbuch Technikphilosophie 2016, Zürich, Berlin: diaphanes 2016, 157–168. 20

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Modi der Erkenntnisgenerierung

Um- oder Lebenswelt‹ gemein, seit die Forschung nicht nur über die sichtbare Natur hinaus geht, sondern das Ziel verfolgt, »der Natur ihre tiefsten Geheimnisse zu entlocken […] um alle möglichen Dinge zu bewirken«.25 Bei aller Unterschiedlichkeit zwischen operativer und explorativer Epistemologie stellen beide über Strategien des symbolisch-operativen respektive experimentell-operativen Umdefinierens wissenschaftlicher Begriffe Zukunft her. In der Lesart Rheinbergers sind es die epistemischen Dinge, die Zukunft durch ihre Orientierung auf das Fragen produzieren, während die technischen Dinge von der Zukunft zur erstreckten Gegenwart übergehend Antworten materialisieren.26 Diese Unterscheidung zwischen epistemischen und technischen Dingen wurde verwendet, um Mathematisierung als Quantifizierung (funktionale Zuordnungsvorschrift, die es erlaubt, einer Variablen einen Wert zu zuweisen) der verfestigten Gegenwart zuzuordnen und Mathematisierung als Operationalisierung (operative Artikulation des Gefüges der verschiedenen Variablen einer wissenschaftlichen Theorie) dem Erschließen neuer Terrains durch Prognose.27 Beide Mathematisierungsformen gehen in je eigner Weise mit prognostischem Erkenntnisgewinn einher, insofern Quantifizierung zur Präzisierung und Operationalisierung zur Komplettierung wissenschaftlicher Begriffe beiträgt. Präzisierung des Messens, aber auch des Rechnens und damit des rechnenden Vorhersagens wurde von Koyré als ›superparadigmatische‹ Entwicklungslinie einer Wissenschaft bezeichnet, die sich zunehmend als Präzisionswissenschaft versteht.28 Mit dieser Verortung der Mathematisierung lässt sich eine diametrale Gegenüberstellung von operativer (mathematisch-rationaler) und explorativer (experimenteller) Epistemologie vermeiden, ohne die epistemische Differenz zwischen beiden zu tilgen. Dies ist aus mehreren Gründen von Vorteil. Zum einen, weil zu fragen ist, ob die Gegenüberstellung rational – explorativ 25 Bacon, Neu-Atlantis (1642), 1982, S. 55 und S. 43. Das Resultat ist die mittlerweile umfassende Technologisierung der ›Natur‹. »Dieses Projekt [der technologischen Zivilisation] sichert dem Menschen den instrumentellen, erfolgskontrollierten Zugriff auf die Natur, auf innere und äußere. Dieser Zugriff ist zunehmend technikvermittelt, nicht nur in der Beziehung des Menschen zur Natur außerhalb seiner selbst, sondern auch zu seinesgleichen.« Klagenfurt, Technologische Zivilisation und transklassische Logik, 1995, S. 18. Vgl. Arno Bammé, Wilhelm Berger, Ernst Kotzmann (Hrsg.): Technologische Zivilisation, München: Profil 1987; Christoph Hubig: Technologische Kultur (Leipziger Schriften zur Philosophie 3), Leipzig: Leipziger Universitätsverlag 1997. 26 Vgl. Rheinberger, Experimentalsysteme und epistemische Dinge, 2001, S. 29 ff. 27 Quantifizierung in diesem Sinne lässt sich mit Quines ›objectual existential quantifier‹ vergleichen. Vgl. Quine, ›On what there is‹, 1948/49. 28 Vgl. Koyré, ›Du monde de la peu près à l’univers de la précision‹, 1948; Stichweh, Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen, 1984.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

339



340

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

für die experimentelle Physik heute überhaupt noch sinnvoll ist, wie dies wohl im 19. Jahrhundert noch der Fall war.29 Oder anders gewendet: Gibt es eine explorative Physik, die ohne Mathematik auskommt? Zum anderen, weil auch die explorative Laborforschung jenseits der Physik – selbst für die von Fleck und Rheinberger beschriebene medizinische und biologische Forschung – zunehmend durch Mathematisierung bestimmt ist, wie zu zeigen sein wird. Zum Weiteren aber, weil sich die Frage nach dem Explorativen auch für die Mathematik selbst stellt, und zwar in zweifacher Weise. Einerseits, da mit der partiellen und approximativen Berechenbarkeit eine Experimentalisierung des Mathematischen stattfindet. Das Studium dynamischer Objekte im Zustandsraum komplexer Systeme ist lediglich explorativ möglich. Andererseits, weil sich die Mathematik durch die Exploration neuer Disziplinen, ohne diese zu physikalisieren, eventuell selbst grundlegend verändert und zur abschließenden Frage führt: Wie plastisch ist die Mathematik selbst? Die Modi der prognostischen Erkenntnisgenerierung lassen sich daher wie folgt differenzieren: – a ls Exploration neuer wissenschaftlicher Begriffe im Labor wie im Mathematischen; – a ls Präzisierung bestehender wissenschaftlicher Begriffe durch verbesserte Messapparate und verbesserte Berechnungen, aber auch präzisere Maßstäbe; – a ls Komplettierung bestehender wissenschaftlicher Begriffe durch allgemeinere.

Schema der prognostischen Vergegenwärtigung

Von den drei Modi ist letzterer (Komplettierung) allein durch die mathematische Rationalität möglich.30 Komplettierung referiert auf den prognostisch dominanten Aspekt der Erschließung des kompletten Möglichkeitsraums einer mathematisierten Theorie. Deutlich wurde dies an der Meteorologie 29 »Unlike physico-mathematics, experimental physics [Pneumatik, Hydrostatik, Elektrizitätslehre, Wärmelehre, etc.] was not presented in a mathematical framework until the ninteenth century.« Roche, The Mathematics of Measurement, 1998, S. 51. 30 Ob im Labor durch die explorative Epistemologie materiale Strategien der Verallgemeinerung möglich sind, ist fraglich. Vielmehr scheint durch die Erschließung des Neuen als »Phänomene schaffen, hervorbringen, verfeinern und stabilisieren« eine weitere Spezifizierung singulärer Objekte stattzufinden. Hacking, Einführung in die Philosophie der Naturwissenschaften (1983), 1996, S. 380.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Schema der prognostischen Vergegenwärtigung

und der Festkörperchemie. Prognose erhält in diesem Verallgemeinerungskontext die epistemische Doppelfunktion als limitierender Zugriff auf den prinzipiell unendlichen Möglichkeitsraum und als verwirklichender Vorgriff auf das durch Realisierung herzustellende oder zu verifizierende Empirische. Um diese Doppelfunktion zu leisten, bedarf es der Operabilität des mathematisch Operativen in Form von Berechenbarkeit und formal-anwendungsteleologischer Annahmen. Versteht man Komplettierung handlungstheoretisch als (Re-)Organisation von Wissen und Erfahrung durch Mathematisierung, so bezieht sich Handeln auf folgendes Schema der prognostischen Vergegenwärtigung: (1) die Praxis der Operationalisierung wissenschaftlicher Theorie durch die Operativität der Mathematik in eine prozessual-umformatierte Theorie (auf Wissenschaft angewandte operative Begriffe der Figuration, Deduktion, Berechnung sowie Permutation und Rekursion); (2) die Praxis der Operabilisierung der mathematisierten Theorien durch Berechenbarkeit und formal-anwendungsteleologische Annahmen, um Prognosen zu ermöglichen (operable Begriffe); zum einen als Zugriff auf die prozessuale Theorie, zum anderen als verwirklichender Vorgriff auf die Empirie; (3) d ie Praxis der tatsächlichen Berechnung von Prognosen (konkrete Begriffe) sowie die Operationalisierung der Empirie-Verfahren zur Realisierung bestimmter Erfahrungszukünfte in Form neuer Beobachtungsgrößen und neuer Objekte durch die materiale Implementierung mathematischer Operativität in Apparate, Medien und Objekte des Experimentierens. Diese (Re-)Organisationsleistungen von Theorie und Empirie sind am Beispiel der Synthesechemie wie folgt rekapitulierbar. (1) Die maßgebliche Operativität, auf der die Synthesechemie als prozessuale Theorie basiert, ist die der Permutation der abstrakten Gruppentheorie. Bezogen auf die Chemie werden solche Gruppen gebildet, die invariant bezüglich der chemischen Identität von Molekülen unter Ligandenpermutationen isomerer Moleküle sind. Der Begriff der ›chemischen Identität‹ dient auf diese Weise der Erschließung und Ordnung des kompletten Möglichkeitsraums aller Ligandenpermutationen. Durch die Gebrauchsverschiebung in der Verwendung der Matrizenkalküle von tabellarischen Repräsentationen chemischer Eigenschaften zu »echten mathematischen Objekten mit wohldefinierten mathematischen Eigenschaften [… der] abelschen Gruppen« werden

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

341



342

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

deren rechnende Eigenschaften nutzbar gemacht.31 Die Chemie wird durch den Begriff der chemischen Identität und dessen mathematischer Handhabung in eine prozessuale Theorie umformatiert, die durch die mathematische Operationalisierung den kompletten Möglichkeitsraum aller potentiellen Moleküle eröffnet. (2) Um nun den Begriff der chemischen Identität tatsächlich für verwirklichende Prognosen operabel zu machen, muss er durch den der ›chemischen Distanz‹ weiter bestimmt werden. Dies geht mit der ontologischen Verschiebung des logisch Möglichen in das mathematisch Wirkliche durch die geometrische (Re-)Interpretation der abstrakten Gruppentheorie einher. Möglich wird dies durch die Selektion jener Verschiebungen von Valenzelektronen innerhalb derselben (isomeren Moleküle) respektive zwischen verschiedenen Molekülen auf das Kriterium der kürzesten Distanz hin (Minima der Energiehyperfläche). Das Selektionskriterium der kürzesten Distanz dient dabei als Hinweis auf potentiell existenzfähige Molekülkonfigurationen und erweist sich als aus der Theorie gewonnener metrischer Prognosebegriff. In der Festkörpersynthese wird dies mathematisch durch Kostenfunktionen realisiert, die auf »die Bindungsenergie als die ausschließlich maßgebliche Größe« hin optimieren.32 (3) Der operable Begriff der chemischen Distanz unter Identitätsannahmen liefert die Voraussetzungen zur Berechnung von konkreten Prognosen. Die Berechnung spezifiziert die experimentellen Umsetzungsbedingungen der Festkörpersynthese. Diese gehen in diesem Falle der Beobachtbarkeit voraus, insofern das Neue erst generiert werden muss, bevor es beobachtbar ist. Dabei geht es nicht nur um neue, ›präzedenzlose‹ Moleküle, sondern um die Vorhersage der metastabilen und stabilen Konfigurationen solcher Moleküle. Fragt man nun konkret nach den experimentellen Umsetzungsbedingungen, die der operable Begriff der chemischen Distanz unter Identitätsbedingungen liefert, dann sind diese »möglichst genau experimentell nachzustellen und zugleich die Komplikationen zu meiden, die aus einer nur makroskopischen Durchmischung der Edukte […] folgen«.33 Um dies zu realisieren, werden spezielle Verfahren entwickelt, die die mathematischen Bedingungen erfüllen, insbesondere die extrem feine (hochaufgelöste) und homogene Verteilung der Reaktanten im Ausgangsgemenge.34 Dies ermöglichte bereits gemäß den Pro31

Ugi, et al., ›Die computerunterstützte Lösung chemischer Probleme‹, 1993, S. 218. Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3907. 33 Ebd., S. 3909. 34 »Da man die Elementarprozesse der Diffusion im Festkörper, die lokalen Platzwechsel, nicht wesentlich beeinflussen kann, erschien es uns folgerichtig, bei den Transportlängen anzusetzen und diese auf das niedrigste mögliche Maß, also auf atomare 32

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Schema der prognostischen Vergegenwärtigung

gnosen, »die lange gesuchte, verschiedentlich als ›nicht existenzfähig‹ eingestufte Verbindung Na3N zu erhalten«, denn die Vorzüge des computerbasierten Syntheseverfahrens im Unterschied zur rein experimentellen Exploration »liegen in der Möglichkeit, besonders hoch liegende und/oder besonders flache Minima der Energielandschaften stofflicher Systeme experimentell« verwirklichbar zu machen.35 Das Schema der prognostischen Vergegenwärtigung ist dem Anliegen des »Aufspürens aller Verbindungen (noch unbekannter Zusammensetzungen)« geschuldet, »die in einem System existieren können«.36 Entsprechend ist die Anwendungsteleologie (Optimierung, Selektion) darauf angelegt, auf die Bindungsenergie als die ausschließlich maßgebliche Größe hin zu optimieren. Für eine gezielte Festkörpersynthese reicht dies jedoch nicht aus. Denn die Selektion der tatsächlich gebildeten Syntheseprodukte aus der Menge der möglichen Produktphasen wird durch die Keimbildungsgeschwindigkeit reguliert. Es ist empirisch bestätigt, dass bei hoher Übersättigung zuerst die Modifikationen mit der geringsten Dichte auskristallisieren.37 Der Grund liegt darin, dass für die Modifikationen mit der geringsten Dichte bereits mit der kleinsten Zahl an Atomen die kritische Keimgröße erreicht wird. Daher stellt nicht die niedrigste Bindungsenergie, sondern aufgrund der ›dirigierenden Wirkung‹ der Keimbildungsgeschwindigkeit die kleinste Anzahl der Atome Distanzen zu reduzieren. Dies erreichen wir durch Herstellung eines Eduktgemenges, das die konstituierenden Elemente in regelloser und atomar disperser Verteilung enthält. Weist dieser Ausgangszustand darüber hinaus dieselbe Zusammensetzung auf wie das angestrebte kristalline Produkt, so werden sich im Laufe der Reaktion keine ausgedehnten Konzentrationsgradienten ausbilden können, deren Ausgleich wiederum eine erhöhte thermische Aktivierung erfordern würde. […] Naturgemäß stößt diese Reaktionsführung bei der Realisierung metastabiler Festkörper an eine klar definierte Grenze: Falls im Zuge der Reaktion keine weitere Energie von außen zugeführt wird, sind nur solche metastabilen Verbindungen zugänglich, deren positive Freie Standardbildungsenergie kleiner ist als die Summe der Freien Atomisierungsenergien der Komponenten.« Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 2909. 35 Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3910 und S. 3910. 36 Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3907. »Aus dieser Zielsetzung ergeben sich zwanglos die besonderen Anforderungen an unsere Implementierung: es müssen globale Optimierungen durchgeführt werden, und bei periodischen Randbedingungen dürfen weder die Symmetrie noch die Basisvektoren des Translationengitters fixiert werden.« Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3907. 37 Die ostwaldsche bzw. vollmersche Regel erklärt, »warum – auf den ersten Blick paradoxerweise – über eine Synthese bei tiefen Temperaturen die Hochtemperaturform von AgNO3 entsteht«. Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3911.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

343



344

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

das empirische Selektions- und Optimierungskriterium für eine zielgerichtete Festkörpersynthese dar. Zwar gibt es erste, über die makroskopische, klassisch-phänomenologische Beschreibung hinausgehende mathematisierte Ansätze der Keimbildung auf atomarer Ebene. Doch was noch fehlt, sind die »für eine experimentelle Lenkung der Keimbildung verfügbaren Instrumentarien«, weshalb bislang »nur ein Teil der (vorhergesagten) existenzfähigen Festkörper [experimentell] zugänglich« gemacht werden kann.38 Das Ziel der prognostischen Vergegenwärtigung durch die Mathematik ist klar. Die operative Epistemologie soll die explorative Epistemologie der rein präparativen Forschung im Labor ersetzen. Der Grund ist folgender: Bereits ein einziger Festkörperstoff wie der des Hochtemperatursupraleiters ­Y Ba2Cu3O7 würde selbst unter einschränkenden Vorgaben den experimentellen Durch­ lauf von 1012 präparativen Ansätzen erfordern, um alle metastabilen und stabilen Konfigurationen empirisch zu ermitteln.39 Unter heutigen Bedingungen automatisierter Hochdurchsatzverfahren mit etwa 105 Proben pro Tag würde dies immer noch weit über 27.000 Jahre experimentelle Forschung erfordern. »Dies erklärt zwanglos, dass [rein empirisch] neu entdeckte Verbindungen und unkonventionelle Strukturen häufig als ›zufällig‹ oder ›überraschend‹ wahrgenommen werden, was ja nichts anderes bedeutet, als dass man sie (noch) nicht schlüssig in einen [theoretischen Vorhersage-]Kontext einordnen kann.«40 Der Weg über eben diesen theoretischen Vorhersagekon38 Jansen,

›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3913 und S. 3914. »Eigentlich erstrebenswert bleibt eine wirkungsvolle Kontrolle und Lenkung der homogenen Keimbildung. Dieses Problem zu lösen, bedeutet, die äußeren Bedingungen (p, T, Übersättigung) so einzustellen, dass für die Zielverbindung die kritische Keimgröße am schnellsten erreicht und überschritten wird. Forderte man auch hierfür ein planvolles Vorgehen, so wären entsprechende Modellierungen der Keimbildung für die ins Auge gefassten Verbindungen in Abhängigkeit von den maßgeblichen Parametern unter Einbeziehung von Grenzflächen- und Matrixeinflüssen durchzuführen. Dieser und andere Ansätze, denen ein systematischer Aufbau des Keims Atom für Atom mit chemischen oder physikalischen Methoden zugrunde liegt, sind durchaus folgerichtig, aber heute noch weit von einer Realisierung entfernt.« Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3914. 39 Das Beispiel des Hochtemperaturleiters ist dem Artikel von Martin Jansen entnommen. Vgl. Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3912. »Sich ausschließlich auf die Anwendung von Hochdurchsatz-Methoden zu verlassen, ist offensichtlich nicht der effizienteste Ansatz für die Exploration stofflicher Systeme. Der jeweils abzuarbeitende Parameterraum muss sinnvoll eingeschränkt werden. Dies kann auf der Basis von Intuition und Erfahrung erfolgen oder mit Hilfe theoretischer Methoden vorgenommen werden.« Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3912. 40 Ebd.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der prognostischen Vergegenwärtigung

text eröffnet sich mit dem operablen Begriff der chemischen Distanz unter Identitätsbedingungen und dem prognostischen Konzept der Landkarte der Minima der Energiehyperfläche. Dieses ist jedoch nur aufgrund von Vereinfachungen konkret berechenbar, insofern die Randbedingungen periodisch gewählt und nur einfache Zwei-Körper-Potentiale berücksichtigt werden,41 ferner eine Obergrenze der Atome festgelegt wird, die der effektiven Berechenbarkeit bezogen auf die Leistungsfähigkeit aktueller Supercomputer geschuldet ist, sowie quantenmechanische Verfahren durch klassisch-mechanische ersetzt werden.42

Grenzen der prognostischen Vergegenwärtigung

Die Grenzen der Prognostizität durch formal-operative Praktiken zeigen sich in der (noch) fehlenden Mathematisierung von Prozessen zur weiteren Optimierung der Theorie sowie im Labor durch die fehlenden experimentellen Instrumentarien zur Realisierung der mathematisierten Theorien. Doch die Grenzen der Prognostizität generieren sich vor allem aus der konkreten Berechnung beziehungsweise aus den nötigen Vereinfachungen, um komplexe Zusammenhänge berechenbar zu machen. An dieser Grenze zeigt sich das Verhältnis von Operativität, Operabilität und Konkretisierung von seiner problematischsten Seite. Denn während Operativität den Möglichkeitsoptionen der Mathematik folgt, die prinzipiell unendlich sind, folgt Operabilität den limitierenden und verwirklichenden Zu- und Vorgriffsoptionen der Prognose. Diese sind jedoch konkret zu berechnen und im Labor als neue Objekte oder als neue Beobachtungsgrößen zu realisieren. Die Problematik geht aus der epistemischen Divergenz von Möglichkeit (operative Begriffe), Wirklichkeit (operable Begriffe) und dem Programm der Realisierung (konkret realisierbare operable Begriffe) hervor.

41 Die Einschränkung auf Zwei-Körper-Potentiale impliziert die Reduktion auf kristalline Strukturen. 42 »Es muss die Verteilung der Erwartungswerte der Freien Energie für das betrachtete stoffliche System für alle Variablen p, T, xi in Abhängigkeit von den mikroskopischen Variablen berechnet werden. Dieses impliziert im Prinzip quantenmechanische Energieberechnungen und die Überführung der Ergebnisse in die makroskopischen Zustandsfunktionen nach den Regeln der statistischen Mechanik. Es besteht weitgehend Konsens, dass eine derart rigorose Behandlung von Systemen realistischer Größe noch nicht möglich ist.« Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3904.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

345



346

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

– Der Übergang von der Möglichkeit zur Wirklichkeit wird, wie dargestellt, durch das Anschauungsparadigma der Berechenbarkeit sowie durch formal-anwendungsteleologische Annahmen, um Prognosen zu ermöglichen, operabel (beispielsweise durch den prognostischen Begriff der chemischen Distanz). – Der Übergang von der Wirklichkeit zur Realität im Sinne einer Konkretisierung ist zweigeteilt, zum einen in die konkrete Berechnung der Prognose, zum anderen in die experimentelle Umsetzung der Realisierungsbedingungen der konkretisierten Prognosen. An eben diesem Übergang von der Operabilität (Berechenbarkeit) in die Konkretisierung (Berechnung) zeigen sich die Grenzen der mathematischen Rationalität der Moderne am deutlichsten. Denn die nötigen Vereinfachungen, um komplexe Zusammenhänge tatsächlich berechenbar zu machen – oder in anderen Worten: um symbolische Anschauung operativ vorstellbar zu machen –, sind immens. Das operativ Vorstellbare ermöglicht es zwar, ein ›Bild‹ des noch Unbekannten zu generieren, nach dessen Anleitung das Neue beobachtbar oder herstellbar wird, doch dieses Bild ist eines, das sich weitgehend im Paradigma der regulären Figur und damit der Linearität bewegt und Kants Konzept der Anschauung a priori nicht wirklich überwunden hat. Wie im Falle der Synthesechemie angeführt sind Randbedingungen periodisch gewählt, Potenziale beziehen sich auf Zwei-Körper-Probleme und Zusammenhänge werden linearisiert. Am Beispiel der allgemeinen Relativitätstheorie wird das Problem besonders deutlich. Die Operationalisierung der Physik durch die Gruppentheorie und ihre Koordinatentransformationen hatte die Erschließung des kompletten Möglichkeitsraum gravitiver und elektromagnetischer Wechselwirkungen aus nahgeometrischer Perspektive zur Folge (allgemeine Relativitätstheorie). Die grundlegende qualitative Aussage, dass Licht durch Gravitation abgelenkt wird, hat sich als experimentell bestätigter Erfahrungszusammenhang erwiesen,43 der damit dem idealtypischen (linearen) Zusammenhang von Anschauung und Erfahrung im Sinne Euklids, Kants und Newtons widerspricht. Doch für konkret berechenbare Prognosen sieht die Situation etwas anders aus. Denn der Preis des Allgemeinanspruches der Relativitätstheorie geht mathematisch betrachtet mit Nicht-Linearität, Nicht-Kom43

Die maßgeblichen Experimente zur Bestätigung der allgemeinen Relativitätstheorie waren die Rotverschiebung der Spektrallinien emittierter Atome durch starke gravitative Ablenkung, die Ablenkung des Lichts durch die Masse der Sonne sowie die präzisere Bestimmung des Perihels des Marsorbits. Vgl. Schiff, ›On Experimental Tests of the General Theory of Relativity‹, 1960.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der prognostischen Vergegenwärtigung

mutativität,44 Nicht-Additivität, Nicht-Superponierbarkeit, Nicht-Geradlinigkeit und Nicht-Integrabilität der Gleichungen einher. Die operationalisierte Theorie ist mathematisch zu komplex, als dass sie für formale Ableitungen von Prognosen handhabbar wäre. Nun gibt es zwei Möglichkeiten, mit dieser Situation umzugehen. Entweder wird die Komplexität so weit reduziert, dass sie formal in einem stark vereinfachten Modell der Theorie berechenbar wird, was mit der Rückführung auf linear darstellbare Zusammenhänge einhergeht. Oder die Theorie wird in ihrer gesamten Komplexität simuliert. Beide Wege wurden und werden beschritten.45 Im Falle der Komplexitätsreduktion auf ein einfaches Modell konnte bereits Karl Schwarzschild 1916 eine exakte Lösung der allgemeinen Relativitätstheorie ableiten.46 Diese beschreibt eine statische Vakuumlösung außerhalb einer kugelsymmetrischen Massenverteilung (äußere Schwarzschild-Lösung) mit Drehinvarianz unter der Bedingung, dass »die Bewegung im Unendlichen gleichförmig gradlinig« ist.47 Die Geodätengleichung ist deshalb lösbar, weil 44 De

facto resultiert die Raumzeitkrümmung (Krümmungstensor) aus der NichtKommutativität des Paralleltransports respektive der Zerlegung des Paralleltransports in Raumkomponente und Zeitkomponente. Wird der Transport erst in der Zeit ausgeführt und dann im Raum, so deckt sich dies nicht mit der zurückgelegten Distanz, als wenn der Transport zuerst im Raum und dann in der Zeit ausgeführt wird. Die Abweichung in der Distanz beschreibt der Krümmungstensor. 45 Dies gilt nicht nur für die Relativitätstheorie, sondern für jede mathematisierte Theorie hinreichender Komplexität wie die im Paradigma der newtonschen Mechanik stehende Meteorologie, deren hydro- und thermodynamische Zirkulationstheorie zu komplex ist, als dass sie formal berechenbar wäre. 46 Die Schwarzschild-Lösung stellt aufgrund ihrer idealisierenden Annahmen für stellare Objekte nur eine Näherung dar, stimmt aber mit den Messungen im Sonnensystem innerhalb von deren Messungenauigkeiten gut überein, beispielsweise zur quantitativen Vorhersage der Perihel-Abweichung des Merkur. Bei großem Abstand von der kugelsymmetrischen Massenverteilung stimmen die Bahnen in der Schwarzschild-Metrik mit denen der Radialbewegung eines Teilchens im newtonschen Gravitationsfeld überein. Die Abweichungen resultieren aus dem Term 1/r3 im effektiven Potential, der der Gravitation eine stärker anziehende Wirkung in der allgemeinen Relativitätstheorie zuspricht als in der newtonschen Physik. 47 Karl Schwarzschild: ›Über das Gravitationsfeld eines Massenpunktes nach der Einstein’schen Theorie‹, in: Sitzungsberichte der Königlich-Preussischen Akademie der Wissenschaften, Berlin: Reimer 1916, 189–196, S. 193. Die äußere Schwarzschild-Lösung lässt sich analytisch herleiten, wenn Folgendes gilt: »Sollen x1, x2, x3 rechtwinklige Koordinaten, x4 die Zeit bedeuten, soll ferner die Masse im Nullpunkt zeitlich unveränderlich sein, und soll die Bewegung im Unendlichen gleichförmig gradlinig sein, so sind gemäß Hrn. Einsteins Aufzählung noch folgende Forderungen zu erfüllen: Alle Komponenten sind von der Zeit x4 unabhängig. […] Die Lösung ist räumlich symmetrisch. […] Die gμv verschwinden im Unendlichen. […] Das Problem ist, ein Linienelement mit solchen Koeffizienten ausfindig zu machen, daß die Feldgleichungen, die Determinantengleichung und

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

347



348

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

die Bahnen freier Teilchen im Vakuum aus den klassischen Erhaltungssätzen aufgrund der Drehinvarianz konstruiert werden können und daher integrabel sind. Dies ist jedoch nur unter der Annahme möglich, dass die Erhaltungssätze im Infinitesimalen einer flachen Raumzeit-Geometrie und der dort lokal definierbaren kartesischen Koordinaten gelten.48 Kurze Zeit später folgt eine weitere Lösung für die Koordinatenmetrik innerhalb einer homogen gedachten, nicht-rotierenden Flüssigkeitskugel (innere SchwarzschildLösung), wobei die Integration der Feldgleichungen auf die einfache lineare Summation eines Potentials reduziert wird.49 Neben der Schwarzschild-Metrik gibt es mittlerweile weitere Metriken (exakte Lösungen), die ihre Integrabilität wie in der Schwarzschild-Metrik der Koordinatentransformationen aufgrund der Rotationssymmetrie verdanken. Denn durch die Rotationssymmetrie wird der Drehimpuls konstant und die partielle Differentialgleichung für die radiale Koordinate transformiert sich in eine gewöhnliche Differentialgleichung, die sich problemlos analytisch-exakt lösen lässt. Der Preis dafür sind stark vereinfachte Modelle der allgemeinen Relativitätstheorie. So ist die Reissner-Nordström-Metrik asymptotisch flach, statisch und sphärischsymmetrisch und die Raumzeit der Kerr-Metrik ist rotationssymmetrisch und stationär.50 diese […] Forderungen erfüllt werden. [… Das Ergebnis ist dann folgendes:] Für einen idealen Massenpunkt folgt aber, daß die Winkelgeschwindigkeit nicht, wie beim Newtonschen Gesetz, unbegrenzt wächst bei Verkleinerung des Bahnradius, sondern sich einer bestimmten Grenze n0 = 1/α√2 nähert. (Für einen Punkt von Sonnenmasse wird die Grenzfrequenz rund 104 in der Sekunde).« Schwarzschild, ›Über das Gravitationsfeld eines Massenpunktes nach der Einstein’schen Theorie‹, 1916, S. 193 und S. 196. 48 Die Metrik des euklidischen Raumes ist mit kartesischen Parallel-, Kugel-, Polaroder Zylinderkoordinaten beschreibbar. Für Kugelkoordinaten sind Geraden Kreislinien. Da aber eine gleichförmige Kreisbewegung ebenso wie eine geradlinige Bewegung mit konstanter Geschwindigkeit (keine Beschleunigung und Kräfteeinwirkung) einhergeht, ist die Invarianz beider die Gleichförmigkeit. Worin sich gleichförmige Kreisbewegung und geradlinige Bewegung unterscheiden, ist ihr Richtungsverhalten. Kreisbewegung geht mit kontinuierlicher Richtungsänderung einher, geradlinige Bewegung behält ihre Richtung bei. 49 Vgl. Karl Schwarzschild: ›Über das Gravitationsfeld einer Kugel aus inkompressibler Flüssigkeit‹, in: Sitzungsberichte der Königlich-Preussischen Akademie der Wissenschaften, Berlin: Reimer 1916, 424–434. 50 Vgl. Hans Reissner: ›Über die Eigengravitation des elektrischen Feldes nach der Einsteinschen Theorie‹, in: Annalen der Physik, 50, 1916, 106–120; Gunnar Nordström: ›On the Energy of the Gravitational Field in Einstein‹s Theory‹, in: Verhandelingen der Koninklijke Nederlandse Akademie van Wetenschappen Amsterdam, Natuurkundige Afdeeling, 26, 1918, 1201–1208; Roy Patrick Kerr: ›Gravitational field of a spinning mass as an example of algebraically special metrics‹, in: Physical Review Letters, 11 (5), 1963, 237–238.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der prognostischen Vergegenwärtigung

Die Alternative dazu ist die Näherungslösung durch Simulation, insbesondere für dynamische Darstellungen der Relativitätstheorie wie die dynamische Gravitationsphysik, die Gravitationswellen ausgelöst durch kosmische Ereignisse berechnen will. Dazu wird Einsteins allgemeine Relativitätstheorie in zehn partielle Differentialgleichungen zerlegt und diese werden für ein Berechnungsgitter diskretisiert. Zwar werden dadurch komplexere und damit dynamische Zusammenhänge berechenbar, doch Nicht-Linearität wird dabei in lineare Berechnungen zerlegt und durch deren wechselseitiges Aufeinanderbeziehen werden komplexe Wechselwirkungen ›imitiert‹. Bei der aktuellen Leistungsfähigkeit der Computer ist dies viele Millionen mal pro Sekunde möglich und kann schnell – wie Lorenz’ Beobachtung des Wegs der berechneten Trajektorie ins Chaos dokumentierte51 – in instabiles Verhalten führen. Generell liefern Simulationen als diskretisierte Berechnungsverfahren nur Näherungslösungen, die keine Apodiktizität der Prognosen gewährleisten. Zudem ist die Güte der Näherungslösung, also deren Konvergenz gegen die unbekannte, analytische Lösung, nur ›empirisch‹ über deren Stabilitätsverhalten evaluierbar.52 Ein Gravitationsphysiker bringt die Problematik der epistemischen Divergenz von Operativität, Operabilität und Konkretisierung in einem Interview wie folgt auf den Punkt: »Für dynamische Raumzeiten gibt es keine exakten Lösungen. Wir können also nicht mit einer exakten Lösung vergleichen, d. h. wir müssen darauf vertrauen, dass unsere Simulation richtig ist. […] Ja, wir haben Instabilitäten. Das ist unser größtes Problem. […] Wir benutzen die ›evolution equations‹ um vorwärts zu gehen, mit den ›constrained equations‹ können wir sehen, ob wir Einsteins Gleichungen lösen. Wenn die ›constrained equations‹ richtig sind, wissen wir, dass wir immerhin noch Einsteins Gleichungen lösen.«53 Das Dilemma der allgemeinen Relativitätstheorie besteht also darin, dass zwar experimentell der idealtypische (lineare) Zusammenhang von Anschau51

Vgl. Lorenz, ›Deterministic Nonperiodic Flow‹, 1963. Stabilität einer Näherungslösung ist nur mit ›empirischen‹ Konvergenztests möglich, indem die Auflösung der Diskretisierung verdoppelt wird. Verhält sich die approximierte Lösung für diese Verdoppelung stabil, ist davon auszugehen, dass die Diskretisierung konsistent ist, also gegen die (unbekannte) exakte Lösung konvergiert. Doch dies ist schwierig zu beurteilen, da je nach Anwendung noch Anfangs- und Randwertprobleme hinzukommen, die zu instabilen Lösungen führen können. 53 Interview 2004 mit einem Gravitationsphysiker, in: Gabriele Gramelsberger: Computersimulationen in den Wissenschaften. Neue Instrumente der Wissensproduktion: Schnittstellen zwischen Theorie und Experiment, Studie im Auftrag der Berlin-Brandenburgischen Akademie der Wissenschaften und des Bundesministeriums für Bildung und Forschung im Rahmen der Initiative ›Science Policy Studies‹, Berlin: Berlin-Brandenburgische Akademie der Wissenschaften 2004, 25–30, S. 24, 25. 52 Die

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

349



350

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

ung und Erfahrung widerlegt werden kann, dass sie aber als berechenbare Theorie auf eben diesen idealtypischen (linearen) Zusammenhang zurückgreifen muss, um konkrete Prognosen zu ermöglichen – sei es in vereinfachter-exakter oder in diskretisierter-approximativer Form. Interessant nun ist, dass die simulierten Prognosen trotz ihres epistemisch mehr als vagen Status aufgrund der inhärenten Instabilitäten zur Kalibrierung von Gravitationswellendetektoren benutzt werden.54 Nochmals in den Worten des Gravitationsphysikers: »Wir arbeiten mit dem GEO 600 Teleskop in Hannover zusammen, die Gravitationswellen messen möchten. Wir sollen realistische Wellenformen (›wave forms‹) simulieren, damit sie es mit ihren Daten vergleichen können. In Hannover und in den USA gibt es Detektoren. Sie messen erst seit ein paar Monaten [in 2004]. Das Signal der Gravitationswellen ist ziemlich schwach: viel Rauschen und wenig Signal. Sie müssen irgendwie das Signal aus dem Rauschen herausfiltern. Sie hoffen, dass sie Gravitationswellensimulationen dafür benutzen können, um das Signal vom Rauschen effektiver unterschieden zu können. […] Andererseits, wenn sie ein Signal finden, möchten sie wissen, was für ein System sie gesehen haben. D.h. sie benötigen eine Simulation, die ihnen sagt, das waren zwei schwarze Löcher mit dieser Masse und solcher Geschwindigkeit.«55 Die simulierte Prognose als das operativ Vorstellbare des Unbekannten ›sagt‹ beziehungsweise zeigt den Forschern, was sie in ihren Messdaten sehen.56 54 »Ein weiteres großes Problem sind für uns die Anfangsdaten selbst, weil wir nicht für einen unendlichen Zeitraum simulieren können. Zurzeit [2004] ist unsere Gruppe sehr weit vorne im Forschungsfeld: Wir können einen halben Orbit simulieren. […] Das ist das Problem, das wir hoffen lösen zu können: Dass sie [zwei schwarze Löcher] sich hundert Mal umkreisen und dann zusammenstoßen. Aber zurzeit können wir nur einen halben Orbit simulieren bis die Simulation tot ist, da sie sehr instabil ist. Wir haben Anfangsdaten, die tief ins Gravitationsfeld gehen, so dass die schwarzen Löcher schon ziemlich nahe beieinanderstehen. D.h. wir müssen Gleichungen in einer Situation lösen, in der das Gravitationsfeld sehr stark ist, sehr nicht-linear. Und wir haben keine exakte Lösung für zwei schwarze Löcher. Die beste Möglichkeit wäre, wenn beide weit voneinander entfernt wären, dann könnten wir eine newtonschen Approximation als Anfangsdaten benutzen. Die newtonsche Approximation ist möglich, wenn beide schwarzen Löcher weit auseinander stehen. Dann könnten wir hundert Orbits simulieren bevor sie zusammenstoßen. […] Das wäre in Ordnung. Aber wir können nur einen halben Orbit simulieren. D.h. wir müssen das Anfangsdatenproblem in einer stark nicht-linearen Situation lösen und können nicht die newtonsche Approximation benutzten. Wir benutzen etwas Ähnliches wie newtonschen Approximation, aber es ist nicht klar, ob es physikalisch zutreffende Anfangsdaten sind.« Interview 2004 in: Gramelsberger: Computersimulationen in den Wissenschaften, 2004, S. 26. 55 Interview 2004 in: Gramelsberger: Computersimulationen in den Wissenschaften, 2004, S. 26. 56 »Es gibt eine Website der NASA, auf der sie Wellen sammeln möchten. Aber bis

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der prognostischen Vergegenwärtigung

Daher stellt sich die Frage nach dem Zusammenhang von Anschauung und Erfahrung als Grenze der Prognostizität erneut. Denn auch wenn die moderne Mathematik einen viel größeren und komplett unanschaulichen Möglichkeitsspielraum als den der euklidischen Geometrie eröffnet, liefert nur die Einschränkung auf das Operable mit Hilfe errechneter Prognosen ein apparativ darstellbares Bild des Unbekannten. Diese Einschränkungen resultieren aus den Vereinfachungen, Linearisierungen, (Re-)Geometrisierungen und Anwendungsteleologien, um mathematisch-operativ umformatierte, wissenschaftliche Theorie berechenbar und dadurch ausführbar zu machen – will man nicht »auf der Basis von Intuition und Erfahrung« raten, sondern »mit Hilfe theoretischer Methoden« rationale Prognosen treffen.57 Dass diese theoretischen Prognosemethoden keinen magischen Symbolismus darstellen, sondern dem intrinsischen Zusammenhang von Anschauung und Erfahrung folgen, zeigt sich an der Dominanz des Linearen. Es ist kein Zufall, dass sich das operativ Vorstellbare weitgehend mit Kants Anschauungskonzept zur Deckung bringen lässt, denn es thematisiert einen paradigmatischen Organisationszusammenhang von Erfahrung.58 Zum einen garantiert eine linear geordnete Wirklichkeit charakteristische Eigenschaften wie Stetigkeit, Symmetrie, Reversibilität, Homogenität oder Konvergenz, allerdings zum Preis eines sehr einfachen Konzepts des Zugleichseins.59 Dieses einfache Konzept des Zugleichseins ist das des vereinzelten Objekts oder Systems als ein Aggregat aus einer, maximal zwei koordinierten Wechselwirkungen.60 Mit diesem Konzept sind idealisierte, solitäre

jetzt gibt es keine akkuraten Gravitationswellenformen von schwarzen Löchern. Es gibt einige Neutronenstern-Simulationen mit Wellenformen, die man für so etwas benutzen kann. Bisher ist es ein offenes Projekt und wir arbeiten daran.« Interview 2004 in: Gramelsberger: Computersimulationen in den Wissenschaften, 2004, S. 27. 57 Jansen, ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, 2002, S. 3912. 58 Paul Humphreys hat in seiner Studie zur Computersimulation das operativ Vorstellbare als die ›berechenbare Darstellbarkeit‹ bezeichnet, allerdings nur für den Kontext der Simulation. Humphreys, Extending Ourselves, 2004, S. 80 ff. 59 Kant hat Zugleichsein in der dritten Analogie der Erfahrung nach dem Prinzip der Wechselwirkung oder Gemeinschaft als das räumliche Zugleich definiert, was somit »die Bedingung der Möglichkeit der Dinge selbst als Gegenstände der Erfahrung« darstellt. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 258. 60 Die Bedeutung der Gemeinschaft wird in den Bemerkungen über die Kategorien deutlich, wenn es hier um koordinierte und nicht subordinierte – »einander nicht einseitig, wie in einer Reihe, sondern wechselseitig, als in einem Aggregat« bestimmte – Relation geht, in welcher »die Folge nicht wechselseitig wiederum den Grund bestimmt«, sondern »zugleich und wechselseitig als Ursache in Ansehung der Bestimmung der anderen beigeordnet« ist. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 112.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

351



352

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

Objekte, aber keine komplex interagierenden Systeme erfassbar.61 Zweitens garantiert Linearität einen Automatismus von Form und Bewegung, der sich aufgrund seiner intuitiven Einsichtigkeit leicht als Parademodell von Anschauung a priori postulieren lässt. Die intuitive Einsichtigkeit resultiert dabei aus der Einfachheit der Kinematik der linearen Ordnung. Deren Darstellungsmittel ist die gerade Linie oder die Line um einen Mittelpunkt mit gleichförmigen Abstand (Kreisbahn), deren Fortsetzbarkeit sich zwingend anschaulich aus sich selbst ergibt.62 Als Erfahrungszusammenhang garantiert Linearität Proportionalität, Proportionalität garantiert Additivität, Additivi61

Es ist das grundlegende Konzept der newtonschen Mechanik und dessen ferngeometrischer Blick auf die Welt, der jedoch nur eine Reichweite seiner Aussagen für einzelne Kräfte und maximal die Wechselwirkung zweier Körper aufeinander hat. Der ferngeometrische Blick auf die Welt realisiert den analytisch-zergliedernden Blick, wie 1637 von René Descartes in seinen Regeln zur Ausrichtung der Vernunft formuliert: Jedes Problem soll so lange zerlegt werden, bis man zu den klarsten und einfachsten Elementen gelangt und zu einer vollständige Auflistung aller Elemente. Vgl. Descartes, Von der Methode (1637), 1960. Dieser Blick stößt spätestens 1865 mit der Elektrodynamik an erste Grenzen und wird durch Einsteins spezieller Relativitätstheorie als beobachterabhängig dekonstruiert und verzeitlicht. Einstein hatte erkannt, dass Distanz durch (Lichtlauf-) Zeit zu messen ist, dass Licht in seiner Ausbreitungsgeschwindigkeit konstant und endlich ist und dass auch Lichtstrahlung (Energie) ebenso wie ponderable Materie der Gravitation unterliegt (Ablenkung). Unter diesen Bedingungen stellen sich Raum, Zeit und Gravitation als zusammengesetzter Begriff der gekrümmten Raumzeit dar, deren Krümmung empirisch von der Materieverteilung abhängig ist. Raum und Zeit bilden dabei eine vierdimensionale Union, deren Geometrie sich von der euklidischen darin unterscheidet, dass selbst wenn die Gravitation vernachlässigt wird (Vakuum) und die Raumzeit-Geometrie flach ist, zeitlich gleich weit entfernte Ereignisse auf einer Hyperbel und nicht wie in der euklidischen Geometrie auf einer Kreislinie liegen. Vgl. Einstein ›Zur Elektrodynamik bewegter Körper‹, 1905; Maxwell, ›A Dynamical Theory of the Electromagnetic Field‹, 1865. 62 Eine gleichförmige Bewegung ist geradlinig, das bedeutet, es wirken keine Kräfte auf den sich bewegenden Körper und damit ist dieser nicht beschleunigt. Die Gleichförmigkeit der Bewegung entspricht der Trägheit des Körpers. Die geometrische Form der gleichförmigen Bewegung ist die Gerade. In einem Beschleunigung-Zeit-Diagramm ist die Gerade parallel zur Zeitachse, da der zurückgelegte Weg (s) konstant in der Zeit (t) ist. Die Geschwindigkeit υ = Δs/Δt ist konstant. Es ist Galilei, dem als Erster »eine Definition der gleichförmig beschleunigten Bewegung« gelingt und die Entdeckung, dass für schwere Körper »bewegungsbestimmende Umstände (Kräfte) Beschleunigungen« verursachen. Ernst Mach: Die Mechanik in ihrer Entwicklung (1883), Frankfurt: Minerva 1982, S. 120 und S. 133. Isaac Barrow veranschaulicht dann in seinen Lectiones geometricae von 1670 erstmals Gleichförmigkeit im Bild der Gerade zur Versinnbildlichung physikalischer Vorgänge. Vgl. Isaac Barrow: Lectiones geometricae, London: Godbid 1670. Die Mechanik unterteilt sich dementsprechend in die Lehre von den Bewegungen ohne Berücksichtigung der Kräfte (Kinematik) und mit Berücksichtigung der Kräfte (Dynamik). Die Dynamik lässt sich wiederum in die Lehre vom Gleichgewicht der Kräfte an ruhenden Körpern (Statik) und die Lehre von Kräften und Bewegungen (Kinetik) unterscheiden. Dies ist

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der prognostischen Vergegenwärtigung

tät (lineare Summation) garantiert Superponierbarkeit, Superponierbarkeit garantiert Vertauschbarkeit (Kommutativität) der Symmetrietransformationen,63 Vertauschbarkeit garantiert Integrabilität und Integrabilität ermöglicht die Berechenbarkeit der Koordinatentransformationen. Das bedeutet, dass nicht nur universelle Beobachtbarkeit (Messung), sondern auch die Integrabilität der Bewegungsgleichungen direkt mit Linearität als paradigmatischer Ordnungsstruktur von Erfahrung zusammenhängt.64 Zum dritten ermöglicht der Automatismus des Linearen die Symmetrien des euklidischen Raums, der es möglich macht, verallgemeinernd von den Anschauungsformen des einzelnen, experimentierenden Subjekts auf die Gesamtheit aller beobachtenden Individuen zu schließen und so Transzendentalität zu beanspruchen. Mathematisch-physikalisch wird dies durch die Galilei-Invarianz gestützt, die aussagt, dass Verschiebungen in Raum und Zeit keinen Einfluss auf den Verlauf der Zeit haben und dass Gleichzeitigkeit für alle beobachtenden Individuen gewährleistet ist. Dies bedeutet weiter, dass Anschauung a priori und Beobachtbarkeit für alle Subjekte äquivalent sind und dass damit der Gebrauch der mathematischen und physikalischen Begriffe wie auch deren kategoriale Ordnungsstruktur universell ist. Deutlich wird die Universalität von Anschauung und Erfahrung unter den euklidischen Symmetriebedingungen an der Wiederholbarkeit der Experimente zu beliebigen Zeiten und an beliebigen Orten, an der Messbarkeit mit starren Maßstäben als konforme (isometrische) Abbildung auf sich selbst sowie an der Zeit als unabhängiger Variable in der newtonschen Physik, aber auch bis heute als Bedingung der Möglichkeit der Differentialrechnung raumzeitlicher (Bewegungs-)Prozesse. Der Automatismus der euklidischen Symmetriebedingungen ist die Voraussetzung, auf der sowohl das Superpositionsprinzip als auch die physikalischen Erhaltungssätze gründen. Für das Verhältnis auch die Einteilung, der Kant folgt. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983. 63 Durch die Vertauschbarkeit, die sich aus den Erhaltungssätzen und deren Symmetrieannahmen generiert, werden die Freiheitsgrade eines Systems eingeschränkt. Diese Einschränkung ermöglicht die Integrabilität als Berechenbarkeit der Bewegungsgleichungen. Vgl. Noether, ›Invariante Variationsprobleme‹, 1918. 64 Trotz aller Unanschaulichkeit ist die Quantenmechanik durch Linearität charakterisiert und das Superpositionsprinzip der klassischen Mechanik bleibt erhalten. Superposition bedeutet hier jedoch lediglich die Addierbarkeit der Vektoren, also die Darstellung des Gesamtzustands eines quantenmechanischen Systems durch die Überlagerung der Einzelzustände. Eine symbolische Anschauung in Form einer Geraden wäre fehl am Platze. Dennoch artikuliert Linearität einen zumindest apparativ realisierten Erfahrungszusammenhang quantenmechanischer Welten, der es erlaubt, Ableitungen zu formulieren.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

353



354

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

von Anschauung und Erfahrung bedeutet dies, dass Kants mathematische Begriffskonstruktionen, insbesondere die geometrischen, nicht nur wirklich, sondern universell, da invariant unter Beobachterwechsel, sind. Die Kategorien sind ebenso allgemein wie die mathematischen Begriffe, da sie denselben operationalen Bedingungen unterliegen, nämlich synthetische Begriffe a priori zu sein. Unter diesen linearen Ordnungsbedingungen ermöglicht der Rekurs auf die Anschauung a priori auch die formale Referenz auf das Reale im Begriff der Größe. Linearität stellt daher die epistemische (Unter-)Grenze der Prognostizität in Form einfacher, operativ handhabbarer und kognitiv vorstellbarer Zusammenhänge dar. Dementgegen geht Nicht-Linearität zumeist mit Nicht-Vorhersagbarkeit einher. Dies liegt darin begründet, dass Nicht-Linearität keinen einfachen, kognitiv vorstellbaren Zusammenhang, sondern einen komplexen Erfahrungszusammenhang artikuliert, der operativ über additive Summation, kommutative Permutation und primitive Rekursion hinausgeht. Doch auch hier gibt es einen Bereich der vorstellbaren und handhabbaren Dynamik der Nicht-Linearität, der mit vorhersagbarem, da wiederholbarem Verhalten einhergeht und sich in Form von Grenzpunkten, Grenzzyklen und TorusAttraktoren darstellen lässt.65 Chaotische Attraktoren hingegen bedeuten unvorhersagbares Verhalten. Die Phänomenologie des Nicht-Vorhersagbaren im Kontext komplexerer Wechselwirkungen hat Poincaré treffend zum Ausdruck gebracht. »Die Vorhersage wird unmöglich und wir haben [trotz Determinismus] eine ›zufällige Erscheinung‹.«66 Im mathematischen Kontext der Differentialgleichungen bedeutet dies, dass die meisten nicht-linearen partiellen Differentialgleichungen nicht-integrabel sind, selbst für relativ einfach erscheinende Zusammenhänge wie das Drei-Körper-Problem. Der Grund ist, dass in partiellen Differentialgleichungen Ableitungen nach mehreren Variablen auftreten. Dafür gibt es weder allgemeingültige Lösungsstrategien, noch lässt sich der dynamische Einfluss der Variablen aufeinander kognitiv vorstellen und damit formal fassen. Chaos ist hier ein anderes Wort für nicht-vorstellbare Wechselwirkungen; Turbulenz wäre ein weiteres Synonym. Dennoch lassen sich mathematische Aussagen über nicht-lineare partielle Differentialgleichungen treffen und ihr Verhalten qualitativ analysieren.67 65 Ein Pendel, das unter Reibungsbedingungen einem Ruhepunkt zustrebt, folgt einem Fixpunktattraktor (Grenzpunkt); eine stabile Oszillation folgt einem einfachen Grenzzyklus und eine quasi-periodische Bewegung folgt einem Torus-Attraktor. 66 Poincaré, Wissenschaft und Hypothese (1902), 1904, S. 57. 67 Qualitative Analysen sind beispielsweise Aussagen, ob eine Lösung existiert, und wenn ja, ob sie eindeutig ist. Mit Computern sind Sensitivitätsstudien möglich, die Aus-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der prognostischen Vergegenwärtigung

Doch auch partielle Differentialgleichungen sind nicht ›anschauungslos‹, sondern folgen einer geometrischen Intuition, wie Paul Humphreys in seiner Studie Extending Ourselves bemerkt. »There is the mathematically convenient fact that three fundamental kinds of partial differential equations – elliptic (e.g., Laplace’s equation), parabolic (e.g., the diffusion equation), and hyperbolic (e.g., the wave equation) – are used to model an enormous variety of physical phenomena.«68 Der Zusammenhang mit den Kegelschnitten ist kein Zufall, allerdings handelt es sich nicht mehr um geometrische Figuren, sondern um dynamische Objekte der Wechselwirkung der Phänomene aufeinander. Elliptische Gleichungen werden üblicherweise zur Berechnung zeitunabhängiger, stationärer Zustände mit einem minimalen Energiezustand als Wirkungsbeschränkung verwendet, parabolische Gleichungen für zeitunabhängige, instationäre Zustände wie Wärmeausbreitungs- und Diffusionsprozesse und hyperbolische Gleichungen für Wellenphänomene. Das bedeutet, dass sich neben der Linearität und dem regelmäßig Krummlinigen als paradigmatische Formgestalten einige grundlegende Formtypen seit der Antike tradieren und dass diese auch heute noch eine wichtige Rolle für das operativ Vorstellbare als Bild des Unbekannten und Neuen spielen.69 Oder in anderen Worten: So unbekannt ist das Neue nicht, das sich in der prognostischen Vergegenwärtigung mit Hilfe der mathematischen Rationalität zeigt.70 sagen über das Verhalten nicht-linearer Systeme unter spezifischen Anfangs- und Randbedingungen und anderer Parameter ermöglichen. 68 Humphreys, Extending Ourselves, 2004, S. 68. Dieses Phänomen lässt sich auch in anderen Disziplinen wie der Statistik (binominale, normale und Poisson Verteilung) oder den Ingenieurswissenschaften finden. »It develops that the equations for most field problems of interest to engineers take no more than five or six characteristic forms. It therefore appears logical to classify engineering field problems according to the form of the characteristic equations and to discuss the methods of solution of each category as a whole.« Walter J. Karplus: Analog Simulation: Solution of Field Problems, New York: McGraw-Hill 1959, S. 11 zitiert in Humphreys, Extending Ourselves, 2004, S. 68. 69 Seit der Neuzeit stehen Kreis (Kreislinie sowie deren trigonometrische Größen Sinus, Cosinus, Tangens) und Kegelschnitte (Ellipse, Parabel, Hyperbel) nicht wie in der antiken Geometrie als mathematische Objekte des regelmäßig Krummlinigen, sondern als auseinander hervorgehbare Bewegungsformen im Mittelpunkt des Interesses der Mathematik und Physik. Sie werden zu den paradigmatischen Formgestalten der Wechselwirkung der Phänomene in Form elliptischer Planetenbahnen, parabolischer Geschossbahnen oder hyperbolisch trigonometrischer Bahnen. 70 Mit der Fokussierung auf Vorhersagbarkeit wird Wissenschaft in neuer Weise strukturiert. Nicht mehr die an Experimenten orientierte Substanz-Unterscheidung in chemische, physikalische oder biologische Forschung dominiert die ›computational sciences‹, sondern der Aspekt des operativ Vorstellbaren. So finden sich die Navier-Stokes-Gleichungen zur Simulation überall dort, wo sich Phänomene als Strömungspro­

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

355



356

Kapitel 14  ·  Prognostische Erkenntnisgenerierung

Die Grenze der prognostischen Vergegenwärtigung realisiert sich jedoch auch als Grenze der realisierbaren Anwendungsbedingungen, »die die [Realität selbst] nicht zustande gebracht hat«.71 Auch dieser Spielraum ist nicht beliebig. Selbst wenn die Synthesechemie unvorstellbare Anzahlen neuer Moleküle zu erforschen und herzustellen ermöglicht, so kann sie dies nur im Spektrum der empirisch möglichen Existenzbedingungen von Molekülen tun. »Synthesechemie zu betreiben heißt […], die Landschaft der freien Enthalpie zu erkunden, was in der Vergangenheit überwiegend experimentell durch präparativ arbeitende Chemiker betrieben wurde.«72 Für die Quantenmechanik und Relativitätstheorie bedeutet dies, wesentlich komplexere Zusammenhänge von Raum, Zeit und Materie artikulieren zu können, allerdings nur im Rahmen der apparativen Anschauung. Dies hat sich für eine Theorie wie die Stringtheorie bislang als unmöglich herausgestellt und auch das Standardmodell der Quantenmechanik erfordert hochgradig theorielastige, indirekte Beobachtungsmethoden, die die Grenze der apparativen Anschauung herausfordern.

bleme darstellen lassen – in der Physik ebenso wie in der Meteorologie oder der Medizin und Biologie. 71 Bachelard, Die Bildung des wissenschaftlichen Geistes (1938), 1987, S. 111. 72 Jansen, Schön, ›‹Design‹ in der chemischen Synthese – eine Fiktion?‹, 2006, S. 3486.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 15 Symbolisch-operative Logik Logik der mathematischen Gleichsetzungsleistung

Der Blick auf die Limitierungen der Operabilität durch das operativ Vorstellbare soll nicht darüber hinwegtäuschen, dass sich nicht nur die mathematische Operativität in die neuen Modi der Permutation und Rekursion ausdifferenziert hat, sondern dass sich dadurch auch die symbolisch-operative Logik grundlegend geändert hat. Wenn sich jedoch die symbolisch-operative Logik der mathematischen Rationalität und ihrer Ordnungskalküle auf der einen Seite der Gleichung ändert, dann ändert sich damit auch der logische Status des Neuen auf der anderen Seite der Gleichung. Denn es werden komplexere Ordnungen des Nach- und Nebeneinander des Mannigfaltigen als (Re-)Organisation von Anschauung und Erfahrung möglich, die das Neue konstituieren. Das heißt, dass die Objekte, die die moderne Mathematik und Wissenschaft generieren, anderer logischer Natur sind als die Objekte der Neuzeit. Doch es ändern sich nicht nur die Ordnungskalküle und die daraus resultierenden Objekte auf der einen Seite der Gleichung, sondern die Art der Gleichsetzung mit dem Unbekannten unterliegt ebenfalls einer Transformation. Konstituiert sich die Gleichsetzungsleistung der Neuzeit, solange sie auf die lineare Ordnung der euklidischen Geometrie rekurriert, durch den figurativen Ähnlichkeitsbegriff analogisch, so transformiert sich die Gleichsetzung in der Moderne in einen abstrakten Äquivalenzbegriff. Eben dies meint der Verlust der Anschauung, wenn er auf Anschaulichkeit bezogen wird. Das Neue selbst wird dadurch unanschaulich und bedarf notwendig der symbolisch und apparativ vermittelten Anschauung. Dieser Übergang wurde von Bachelard als epistemologischer Bruch mit der Alltagserfahrung charakterisiert. Der Bruch vollzieht sich dabei für Bachelard von der Erschließungslogik der kartesianischen Epistemologie zur Logik der modernen Wissenschaft als »epistemologisches Kombinieren«, das keine »gesonderte [kartesianische] Betrachtung kombinierter Objekte« mehr ist.73 Die Folge ist die Verlagerung des neuen wissenschaftlichen Geistes von ›naiven Bildern‹ in die Präsenz der mathematischen Aktivität. Dies entspricht Cassirers beschriebenem Übergang von der analogischen (mimischen) zur rein

73 Bachelard,

Der neue wissenschaftliche Geist (1934), 1988, S. 142, 143.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



358

1 U𝑎 (EU 𝑎 ) M𝑞𝑢15  (𝜈)·  =Symbolisch-operative 𝑅 ∑ + Kapitel Logik [ 𝑎 4ℎ ( 𝜈𝑎 − 𝜈

U 𝑎 (EU𝑎 ) 𝜈𝑎 + 𝜈 )

1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) + 𝑒 2𝜋𝑖𝜈𝑡 ) ( − 𝜈 + 𝜈 4ℎ 𝜈 𝜈 ] 𝑒 𝑒 𝑒

−∑

symbolischen Formung.74 Die vormals durch anschauliche Bilder transportierte Klarheit der kartesischen Epistemologie wird in der modernen Wissen1 U𝑎 (EU ) U 𝑎 (EU𝑎 ) und des Experiments schaft durch die ›operative Klarheit‹ der 𝑎Mathematik + M𝑞𝑢 (𝜈) = 𝑅 ∑ ( ) vom Realen weg4ℎ 𝜈 𝜈𝑎 + 𝜈 nicht − 𝜈 ersetzt. Interessant nun ist, die operative Klarheit [ dass 𝑎 𝑎 führt, sondern im Gegenteil, sich die Realität »als Spezialfall des Möglichen 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) wieder[findet]«, da das Mögliche »eine Funktion − ∑ durch die Mathematisierung + 𝑒 2𝜋𝑖𝜈𝑡 ( 𝜈𝑒 − 𝜈 4ℎ 𝜈 75𝑒 + 𝜈 )] 𝑒 in der Organisation von Erfahrung erlangt« hat. Dieser Wandel der ›mathematischen Organisation‹ von Theorie zeigt sich nicht nur in der Erschließung des kompletten Möglichkeitsraums einer wissenschaftlichen Theorie (Komplettierung), sondern in der ›Komplizierung‹ der wissenschaftlichen Begriffe, 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) + M𝑞𝑢dadurch (𝜈) = 𝑅 ∑ 𝑒 2𝜋𝑖𝜈𝑡 ∑ die vollständiger werden. Diese−Entwicklung lässt+ sich schriftbild𝜈𝑎 + 𝜈 ) 𝑒 4ℎ ( 𝜈𝑒 − 𝜈 𝜈𝑒 + 𝜈 )] [ 𝑎 4ℎ ( 𝜈𝑎 − 𝜈 lich an den mathematischen Gleichungen der Wissenschaft ablesen. Bachelard hat dies an der Konzeption der Lichtstreuung deutlich gemacht. 𝐼 = 𝐼0

9𝜋 2 𝜖 − 1 2 𝑛𝑉 2 2 (1 + cos 𝜃) 2 (𝜖 + 2) 𝜆4 𝑟 2

Gleichung zur Beschreibung der Lichtstreuung von Lord Rayleigh (1871).76

1871 formuliert John Strutt (Lord Rayleigh) eine erste Streuungsgleichung des Lichts, die zwar algebraisch formuliert ist, aber dennoch ganz im Paradigma des analogischen Ähnlichkeitsbegriffs der geometrischen Figur steht und Streuung durch Reflexion als Spiegelung interpretiert.77 Die Spiegelauffassung – Licht ›prallt‹ von einem Gasmolekül, das als elastisch schwingender Körper interpretiert wird, in Form einer Kugelwelle in alle Richtungen zurück – ›spiegelt‹ sich analog in der Gleichung wider. Die Geometrie der Spiegelung zeigt sich in der umgekehrten Proportionalität vierten Grades der Intensi-

74

Vgl. Cassirer, Philosophie der symbolischen Formen (1929), 3. Bd., 1990, S. 483 ff. Der neue wissenschaftliche Geist (1934), 1988, S. 61. 76 Vgl. John Strutt (Lord Rayleigh): ›On the scattering of light by small particle‹ (1871), in: Ders.: Scientific Papers (1869–1881), 1. Bd. Cambridge: Cambridge University Press 1899, 104–111. 77 Vgl. Bachelard, Der neue wissenschaftliche Geist (1934), 1988, S. 73 ff. Vgl. John Strutt (Lord Rayleigh): ›On the light from the sky, its polarization and colour‹, in: Philosophical Magazine, 41, 1871, 107–120 und 274–279; Strutt (Lord Rayleigh), ›On the scattering of light by small particle‹ (1871), 1899; John Strutt (Lord Rayleigh): ›On the Transmission of Light through an Atmosphere containing Small Particles in Suspension, and on the Origin of the Blue of the Sky‹, in: Philosophical Magazine, 47, 1899, 375–384; Pedro Lilienfeld: ›A Blue Sky History‹, in: Optics & Photonics News, 6, 2004, 32–39. 75 Bachelard,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) + M𝑞𝑢 (𝜈) = 𝑅 ∑ 𝜈𝑎 + 𝜈 ) [ 𝑎 4ℎ ( 𝜈𝑎 − 𝜈

Logik der mathematischen Gleichsetzungsleistung

1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) −∑ + 𝑒 2𝜋𝑖𝜈𝑡 ( 𝜈𝑒 − 𝜈 𝜈𝑒 + 𝜈 )] 𝑒 4ℎ tät (I) des rückgestreuten Lichtes zur Kreisfrequenz der elektromagnetischen Welle, die sich aus dem harmonischen Oszillatormodell ableitet. 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) + −∑ + M𝑞𝑢 (𝜈) = 𝑅 ∑ 𝑒 2𝜋𝑖𝜈𝑡 𝜈𝑎 + 𝜈 ) 𝑒 4ℎ ( 𝜈𝑒 − 𝜈 𝜈𝑒 + 𝜈 )] [ 𝑎 4ℎ ( 𝜈𝑎 − 𝜈 Gleichung zur Beschreibung der Lichtstreuung von Kramers und Heisenberg (1924)78

9𝜋 2 𝜖 − 1 2 𝑛𝑉 2 2 𝐼 = 𝐼0 (1 + cos 𝜃) ( 𝜖Moderne Der epistemologische Bruch2 der wird für𝜆4Bachelard an der Streu+ 2) 𝑟2 ungsgleichung von Hendrik Kramers und Werner Heisenberg von 1924 deutlich. Obwohl die Gleichung am Beginn der frühen Quantentheorie noch vor Einführung des Matrizenkalküls steht und Bohrs Korrespondenzprinzip folgend an der klassischen Mechanik orientiert ist, spielen für diese erste quantenmechanische Darstellung der Streuung reelle Größen wie die Intensität I des Lichts keine Rolle mehr. Denn die Gleichung ist »nicht an die Anwesenheit von elastisch schwingenden Elektronen geknüpft, sondern an Übergänge von einem stationären Zustand nach einem anderen«.79 Allerdings ist es schwierig, ohne einen Matrizenkalkül eine Analogie für die Übergänge der stationären Zustände mathematisch zu artikulieren. Daher knüpfen Kramers und Heisenberg an die klassisch-mechanische Idee des harmonischen Oszillatormodells und dessen Implikation eines »engen Zusammenhangs zwischen dem tatsächlichen Verhalten eines Atomsystems und der Wirkungsweise des Systems« an.80 Dieser begründet sich, so Born und Jordan später, aus dem »Umstand, daß die elektromagnetischen Grundgleichungen linear sind (Superpositionsprinzip), […] denn daraus folgt, daß die Ersatz-Oszillatoren harmonisch sind«, allerdings ohne Rückwirkungen der Strahlung auf den Oszillator – als Dämpfung interpretiert – zu berücksichtigen.81 Die mathematische Darstellung erfolgt mit Vektoren und für Bachelard gestaltet sich der Energieaustausch der Strahlung nicht mehr analogisch als Abprallen, 78 Vgl. Hendrik Kramers, Werner Heisenberg: ›Über die Streuung von Strahlung durch Atome‹, in: Zeitschrift für Physik A, 31 (1), 1924, 681–708. 79 Kramers, Heisenberg, ›Über die Streuung von Strahlung durch Atome‹, 1924, S. 682. Vgl. Jammer, The Conceptual Development of Quantum Mechanics, 1966. 80 Kramers, Heisenberg, ›Über die Streuung von Strahlung durch Atome‹, 1924, S. 682. Die ›Drei-Männer-Arbeit‹ von 1925 wird das Modell um aperiodische Oszillatoren erweitern. Vgl. Born, Heisenberg, Jordan, ›Zur Quantenmechanik II‹, 1962; Paul Dirac: ›The Quantum Theory of the Emission and Absorption of Radiation‹, in: Proceedings of the Royal Society London, A, 114, 1927, 243–365. 81 Born, Jordan, ›Zur Quantenmechanik‹, 1962, S. 72.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

359



360

Kapitel 15  ·  Symbolisch-operative Logik

| | † | | 𝜔𝑘′ 𝑑 2𝜎 |∑ ⟨𝑓 |𝑇 |𝑛⟩⟨𝑛|𝑇 |𝑖⟩ | 𝛿(𝐸𝑖 − 𝐸𝑓 + ℏ𝜔𝑘 − ℏ𝜔 ′ ) = ∑ | 𝑘 ′ Γ 𝑛 𝑑Ω𝑘 ′ 𝑑(ℏ𝜔𝑘 ) 𝜔𝑘 |𝑓 ⟩ | |𝑛⟩ 𝐸𝑖 − 𝐸𝑛 + ℏ𝜔𝑘 + 𝑖 2 || | | Reflexion oder Stoß, sondern »nach einer Schrift, deren Wechselspiel durch komplizierte numerische Konventionen bestimmt ist«.82 | | † | | 𝜔𝑘′ 𝑑 2𝜎 |∑ ⟨𝑓 |𝑇 |𝑛⟩⟨𝑛|𝑇 |𝑖⟩ | 𝛿(𝐸𝑖 − 𝐸𝑓 + ℏ𝜔𝑘 − ℏ𝜔 ′ ) = ∑ | 𝑘 ′ Γ n 𝑑Ω𝑘 ′ 𝑑(ℏ𝜔𝑘 ) 𝜔𝑘 |𝑓 ⟩ | |𝑛⟩ 𝐸𝑖 − 𝐸𝑛 + ℏ𝜔𝑘 + 𝑖 2 || | | Gleichung zur Beschreibung der Lichtstreuung von Jun John Sakurai (1993).83

1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) + Version − + 𝑒 2𝜋𝑖𝜈𝑡 M ∑ ∑ 𝑞𝑢 (𝜈) = 𝑅 integriert Schließlich )]J. 𝜈𝑎 −moderne 𝜈𝑎 + 𝜈 ) der𝑒 Streuungsgleichung 4ℎ ( 𝜈𝑒 − 𝜈 𝜈𝑒von 𝜈 + 𝜈 Jun [ 𝑎 4ℎ ( die Sakurai aus dem Jahr 1993 alle möglichen Übergangsprozesse von Anfangs- zu Endzuständen unter Berücksichtigung zahlreicher Faktoren anhand mathematischer Operatoren. Sakurais Gleichung benutzt den ›transition operator‹ T, der probabilistische Informationen (|⟩ … ⟨|) über mögliche Übergänge zwi1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) M𝑞𝑢Anfangs(𝜈) = 𝑅 ∑ + des streuenden Atoms wie auch virtuelle schen und Endzuständen [ 𝑎 4ℎ ( 𝜈𝑎 − 𝜈 84 𝜈𝑎 + 𝜈 ) Zwischenübergänge beschreibt. Sakurais Gleichung ist allgemeiner, da vollständiger. Sie ist vollständiger, da sie im Unterschied U 𝑎 (EU𝑎 ) Gleichung 1 U𝑎 (EU 𝑎zu ) Rayleighs 2𝜋𝑖𝜈𝑡 −∑ + ausgeht. Ein𝑒solcher nicht von einem eindeutig festgelegten Übergangsprozess ( 𝜈𝑒 − 𝜈 𝜈𝑒 + 𝜈 )] 𝑒 4ℎ klassisch deterministischer Übergangsprozess basiert auf der experimentell (wegen der Messungenauigkeiten) nicht realisierbaren Annahme, dass ein exakt bestimmbarer Anfangszustand in einen dadurch determinierten Endzustand übergeht.85 Sakurais Gleichung fasst dem𝑎 )probabilistischen ÜberU 𝑎 (EU 1 U𝑎 (EU 𝑎 ) mit (𝜈) Realität = 𝑅 ∑ ›als Spezialfall+des Möglichen‹. Daher ist SakugangsoperatorMT𝑞𝑢die ( 4ℎ 𝜈𝑎 − 𝜈 𝜈𝑎 + 𝜈 ) [ 𝑎

1

U (EU )

U (EU )

𝑎 Geist𝑎(1934), 𝑎1988, 𝑎S. 77. 2𝜋𝑖𝜈𝑡 Der neue wissenschaftliche −∑ + 𝑒 ( 𝜈 + 𝜈 )]Addison-Wesley 1993. 4ℎ 𝜈 𝜈𝑒 Boston: 𝑒 − Mechanics, Vgl. Jun John Sakurai: Modern Quantum 𝑒 84 Vgl. Florian Pieront: Scattering theories from Rayleigh to Dirac: the development of scientific method seen through the work of Gaston Bachelard, Hausarbeit des Physik-Bachelorstudenten Florian Pieront im Seminar ›Cassirer, Bachelard, Heidegger: Philosophische Positionen zu Wissenschaft und Technik in der ersten Hälfte des 20. Jahrhunderts‹ von 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) 1 U𝑎 (EU 𝑎 ) U 𝑎 (EU𝑎 ) Gabriele Institut +für Philosophie, Freie Universität Berlin, Wintersemes−∑ + M𝑞𝑢 (𝜈) =Gramelsberger, 𝑅 ∑ 𝑒 2𝜋𝑖𝜈𝑡 ) ) ( ( − 𝜈 + 𝜈 − 𝜈 + 𝜈 4ℎ 𝜈 𝜈 4ℎ 𝜈 𝜈 [ ] 𝑎 𝑎 𝑒 𝑒 ter 2011/2012. Vgl. 1993. 𝑎 Sakurai, Modern Quantum Mechanics, 𝑒 85 In den Worten Max Borns: »Die Newtonische Mechanik ist deterministisch in folgendem Sinne: Wenn der Anfangszustand (Lagen und Geschwindigkeit aller Teilchen) eines Systems genau gegeben ist, so lässt sich aus den mechanischen Gesetzen der 2 𝜖oder Zustand zu jeder anderen Zeit 9𝜋 (früher berechnen. 2 − 1 später) 𝑛𝑉 2Nach diesem Vorbild sind 2 = 𝐼0 (1 + cosworden.« 𝜃) 4 2 Dies erfordert aber »die alle anderen Zweige der 𝐼klassischen Physik)aufgebaut ( 2 𝜖 des + 2 Anfangszustandes, 𝜆 𝑟 um den Endzustand exakt Möglichkeit absolut exakter Messung« vorherzusagen. »Hat es aber einen Sinn, ich meine: einen physikalischen, nicht metaphysischen Sinn, von absoluten Angaben zu sprechen?« Wohl kaum, das heißt, »man muss auch die gewöhnliche Mechanik statistisch formulieren. […] Der Determinismus der klassischen Physik erweist sich als Trugbild.« Born, ›Die statistische Deutung der Quantenmechanik‹, 1962, S. 9 und S. 10. 82 Bachelard, 83

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Logik der mathematischen Gleichsetzungsleistung

rais Gleichung realistischer, da sie weniger Annahmen macht als Rayleighs Gleichung von 1899. Der Vergleich der physikalischen Gleichungen zur Beschreibung der Lichtstreuung dokumentiert den Übergang der Logik der mathematischen Gleichsetzungsleistung von einer analogischen Formung (figurativer Ähnlichkeitsbegriff) in eine rein symbolische (abstrakter Äquivalenzbegriff). Es wird aber auch der Wandel der Ordnungskalküle auf der einen Seite der Gleichung und die Folgen für die logische Natur dessen, was sich auf der anderen Seite als das Neue zeigt, sichtbar. Auch wenn Rayleigh eine algebraische Darstellung mit seiner Gleichung gibt, ist sie immer noch eine Übersetzung der geometrisch-figurativen Operativität und ihres Analogiecharakters. Dieser beginnt sich in Kramers und Heisenbergs Gleichung aufzulösen, die jedoch noch aus der Zeit vor Einführung der Permutation in Form von Matrizenrechnungen stammt. Erst Sakurais Gleichung ist vollständiger im Sinne Bachelards, indem die differentiale und integrale Betrachtungsweise im Operator T zusammenführt werden, der Heisenbergs Streumatrix von 1943 entspricht.86 Die operative Klarheit von Sakurais Gleichung ergibt sich also aus der mathematischen Organisation der Theorie, die durch den operationalisierten Matrizenkalkül zum ›Programm der Realisierung von Erfahrung‹ wird. Das Programm zur Realisierung von Erfahrung sieht Bachelard über die Vollständigkeit moderner, wissenschaftlicher Begriffe hinaus vor allem in der Logik der ›Warum-nicht‹-Begriffe negativer Konzepte realisiert, wie in Diracs Konzept der negativen Masse, das die Physik komplementär vollendet. Dieser Begriff, so Bachelard, wäre für die Physiker des 19. Jahrhunderts undenkbar gewesen. Anders die Physik des 20. Jahrhunderts, die der Logik des ›warum nicht‹ folgt und nach der Möglichkeit der Legitimierung eines solchen Begriffs im Experiment fragt und damit der Realisierung den Vorrang vor der Realität gibt. Dies gilt auch für den Begriff der negativen Energie.87 Möglich ist dies, weil die neuzeitlichen (Größen-)Begriffe und ihre direkte Orientierung auf das Gegebene (induktiv-deduktive Logik des Oberbegriffs als universaler Regel konkreter Einzelfälle) durch die modernen (Struktur-)Begriffe abgelöst werden. Indem durch die Permutation die logische Möglichkeit der Vertauschung und Negation (Inverse) und durch 86 Vgl. Heisenberg, ›Die ›beobachtbaren Größen‹ in der Theorie der Elementarteilchen‹, 1943. 87 Vgl. Bachelard, Die Philosophie des Nein (1940), 1987, S. 48 ff. »Seine [Diracs] ingeniöse Interpretation [der negativen Energie] konnte zunächst als rein geistige Konstruktion erscheinen. Aber die experimentelle Entdeckung des positiven Elektrons durch Blacket und Occialini brachte schon bald eine unerwartete Bestätigung der Auffassung Diracs.« Bachelard, Die Philosophie des Nein (1940), 1987, S. 51.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

361



362

Kapitel 15  ·  Symbolisch-operative Logik

die Rekursion als Approximation die logische Möglichkeit des Unendlichen selbstbezüglich einbezogen werden, transformiert sich die symbolisch-operative Logik von einer referentiellen in eine selbstreferentielle Logik um. Eben diese prinzipielle Selbstbezüglichkeit macht den Kern des neuen Objektivitätsverständnisses der modernen Mathematik und Wissenschaft aus, der sich als Permutation, als Rekursion, als Iteration, als Simulation und damit als Grundlage der fraktalen Geometrie, der Kybernetik und der deterministischen Dynamik nicht-linearer Systeme zeigt. Die Frage, die sich aus philosophischer Perspektive stellt, ist, wie sich die mathematische Selbstreferentialität und die daraus resultierenden selbstbezüglichen und selbstorganisierenden Konzepte der modernen Forschung epistemologisch verstehen lassen. Oder, anders gewendet, wie lässt sich Selbstreferentialität im Kontext der Operativität der Mathematik deuten: als logischer Widerspruch, als Tautologie (τὸ αὐτό ›dasselbe‹) oder als Autologie (αὐτός ›selbst‹; λόγος ›Wort‹, ›Rede‹, ›Vernunft‹, ›Erklärung‹, etc.)?

Tautologie, Geltung, Extensionalität

Die Diskussion um Tautologie und Autologie soll nicht nur den Wandel der symbolisch-operativen Logik untersuchen, sondern in neuer Weise an die Debatte der mathematischen Urteilstheorie anknüpfen. Während das Konzept der Tautologie als Prinzip der (Selbst-)Identität seit der Antike in der philosophischen Logik eine Rolle spielt,88 handelt es sich bei der formalen Autologie um ein Konzept des 20. Jahrhunderts. Als Operation kommt Selbstreferentialität jedoch erst durch eine rein formal-operativ agierende Mathematik ins Spiel, die Operationen, die sich selbst enthalten, zu formulieren im Stande ist. Die Frage, wie mit solchen Operationen umgegangen wird, hängt von der jeweiligen Perspektive auf die Mathematik ab. Im Kontext einer tautologischen Orientierung wird Selbstreferentialität zum Problem sinnleerer Begriffe. Die tautologische Orientierung resultiert aus der grundlegenden Axiomatik einer logisch konsistenten Sprache, die sich im Satz der Identität (A = A, A → A), im Satz des ausgeschlossenen Widerspruchs ¬(A ∧ ¬A) und im Satz des ausgeschlossenen Dritten (A v ¬A) manifestiert. Der Aussagegehalt dieser Sätze ist immer wahr, weswegen sie die Basis der Mathematik wie Logik als formale (Zeichen-)Sprache bilden. 88 Vgl. Rolf Schönberger: ›Evidenz und Erkenntnis. Zu mittelalterlichen Diskussionen um das erste Prinzip‹, in: Philosophisches Jahrbuch, 102, 1995, 4–19; Stefan Schick: Contradictio est regula veri: Die Grundsätze des Denkens in der formalen, transzendentalen und spekulativen Logik, Hamburg: Meiner 2011.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Tautologie, Geltung, Extensionalität

Eine Mathematik, die mit sich selbst nicht identische Objekte (a ≠ a) zulassen würde, hätte keine Grundlage mehr, auf der sie operieren könnte. Daher trifft Russells logische Antinomie {x | x ∉ x} ins Mark der modernen Mathematik. Diese Antinomie generiert sich, wie bereits skizziert, aus dem Versuch einer rein logischen Redeweise über die Generierung mathematischer Objekte und deren Geltung in einem. Die als geltungskonstitutionell bezeichnete Redeweise basiert zum einen auf Freges Neuausrichtung von Kants Theorie der Analytizität, zum anderen auf Cantors wie auch Freges ›Absolutsetzung‹ konstruierter, mathematischer Objekte, um eine geltungskonstitutionelle Redeweise über abstrakte Objekte und deren Eigenschaften zu ermöglichen. Betrachtet man aus Perspektive der Urteilstheorie die Entwicklung, so werden die Probleme einer geltungskonstitutionellen Redeweise deutlich. Die Entwicklung von der urteilstheoretischen in eine geltungskonstitutionelle Redeweise vollzieht sich vor dem Hintergrund der Diskussion identischer (tautologischer) und analytischer Urteile, deren Extreme sich bereits in der Neuzeit manifestieren – in Lockes kategorischer Ablehnung identischer Urteile als ›trifling propositions‹ und in Leibniz’ ebenso kategorischer Befürwortung identischer Vernunftwahrheiten (A = A) als Kern jeglicher Philosophie und Wissenschaft.89 Dass Leibniz nicht die Trivialität tautologischer Aussagen, die Locke attackiert, im Sinn hat, liegt auf der Hand. Identische Vernunftwahrheiten sind für ihn das Ergebnis aufwendiger Analyseprozesse und der Ersetzung ›salva veritate‹, die der Axiomatisierung einer Wissenschaft dienen. Auch wenn für Leibniz der Unterschied zwischen identischen (A = A) und (virtuellen) analytischen (A = B, im Sinne von B ist in A enthalten) Urteilen klar ist, so ist der epistemische Status identischer und analytischer Urteile nicht immer eindeutig. Die Auffassung, dass alle analytischen Urteile und damit die gesamte Logik tautologisch ist, wie dies Wittgenstein und Russell behaupten,90 oder dass zwischen beiden Urteilsformen ein Unterschied besteht, wechselt im Laufe der Philosophiegeschichte. Kants Differenzierung zwischen synthetischen und analytischen Urteilen sowie seine 89 »Of Trifling Propositions […] there are universal propositions, which, though they be certainly true, yet they add no light to our understanding; bring no increase to our knowledge. Such are […] identical propositions.« Locke, An Essay concerning Human Understanding (1690), 2008, Buch IV, Kap.8, § 1–2. 90 Burton Derben und Juliet Floyd untersuchen die Rolle, die Russell, Frege, Wittgenstein u.a. der Tautologie zuschreiben. Insbesondere Wittgensteins Gleichsetzung von Tautologie und Logik wird historisch detailliert nachvollzogen. Dieser Gleichsetzung schließt sich Russell in den 1910er Jahren an, nachdem er zuvor, insbesondere in den Principa Mathematica, die Synthetizität von Logik und Mathematik favorisierte. Vgl. Burton Derben, Juliet Floyd: ›Tautology: How to not use a word‹, in: Synthesis, 87, 1991, 23–49.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

363



364

Kapitel 15  ·  Symbolisch-operative Logik

Theorie der Analytizität, die sinnleere Begriffe, explizit analytische Urteile (Tautologien) und implizit analytische Urteile (Erläuterungsurteile) unterscheidet, bildet dabei die Folie, auf die sich die moderne Diskussion bezieht.91 Ähnlich wie Locke lehnt Kant Tautologien jedoch als epistemisch folge- oder fruchtleer ab, während analytische Urteile für ihn Gegenstand der philosophischen Methode der Begriffsexposition sind.92 Frege nun kritisiert Kants Begriffsbestimmung analytischer Urteile, in welchen das Prädikat im Subjekt enthalten ist, als zu eng.93 Für Frege sind alle Urteile analytisch, die mit Hilfe der Logik gefunden werden. Dies scheint auf den ersten Blick eine Erweiterung zu sein.94 Doch Freges Begriffsbestimmung motiviert sich einzig aus der Untersuchung der »Berechtigung zur Urteilsfällung« angelehnt an die Methode »der Mathematik, […] den Beweis zu finden und ihn bis auf die Urwahrheiten zurückzuführen«.95 Dies reduziert Kants intensionale Charakterisierung analytischer Urteile auf eine rein extensionale.96 Logik wird dabei zum Instrument der Begriffsdefinition durch Set91

»Die Identität der Begriffe in analytischen Urteilen kann entweder eine ausdrückliche (explicita) oder eine nicht-ausdrückliche (implicita) sein. – Im ersten Falle sind die analytischen Sätze tautologisch. Anmerk. 1. Tautologische Sätze sind virtualiter leer oder folgeleer; denn sie sind ohne Nutzen und Gebrauch. Dergleichen ist z. B. der tautologische Satz: der Mensch ist Mensch. Denn wenn ich vom Menschen nichts weiter zu sagen weiß, als daß er ein Mensch ist: so weiß ich gar weiter nichts von ihm. Implicite identische Sätze sind dagegen nicht folge- oder fruchtleer; denn sie machen das Prädikat, welches im Begriffe des Subjekts unentwickelt (implicite) lag, durch Entwicklung (explicatio) klar. 2. Folgeleere Sätze müssen von sinnleeren unterschieden werden, die darum leer an Verstand sind, weil sie die Bestimmung sogenannter verborgener Eigenschaften (qualitates occultae) betreffen.« Kant, Logik - ein Handbuch zu Vorlesungen, 1800, I. Teil, 2. Abschnitt, § 37. Vgl. Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 10 ff. 92 Begriffsexposition konstituiert sich bei Kant als ›philosophische Methode‹ analytisch. »Z. B. wenn ich sage: alle Körper sind ausgedehnt, so ist dies ein analytisch Urteil. […] Ich kann den Begriff des Körpers vorher analytisch durch Merkmale der Ausdehnung, der Undurchdringlichkeit, der Gestalt usw., die alle in diesem Begriffe gedacht werden, erkennen.« Kant, Kritik der reinen Vernunft (1781, 1787), 1993, B 11 und B 12. 93 Vgl. Frege, Grundlagen der Arithmetik (1884), 1988, § 88. 94 Damit kritisiert Frege Kant eigentlich nicht, sondern stärkt dessen Unterscheidung zwischen tautologischen und implizit analytischen Urteilen. »For Frege, as for Leibniz, logic, although ›analytic‹, was surely not empty of content. ›Tautologous‹ was the last adjective Frege would have applied to a logical truth. Thus Frege’s notion of ›analytic‹ is a strengthening and extension of Kant’s non-tautological analytic.« Derben, Floyd, ›Tautology: How to not use a word‹, 1991, S. 27. 95 Frege, Grundlagen der Arithmetik (1884), 1988, § 3. 96 »Die von Frege stammende Erklärung des analytischen Satzes als eines solchen, der nur aus ›allgemeinen logischen Gesetzen‹ und ›Definitionen‹ hergeleitet ist, ist demgegenüber ein Rückschritt, denn diese Charakterisierung ist wiederum rein extrinsisch, betrifft nur die Art der Herleitung eines Satzes, nichts an ihm selber Auffindbares.« Cars-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Tautologie, Geltung, Extensionalität

zung sowie der deduktiven Beweistheorie. Dementsprechend orientiert sich die Unterscheidung zwischen synthetisch und analytisch sowie a posteriori und a priori um. Ist es nicht möglich, schreibt Frege, »den Beweis zu führen, ohne Wahrheiten zu benutzen, welche nicht allgemein logischer Natur sind, sondern sich auf ein besonderes Wissensgebiet beziehen, so ist der Satz ein synthetischer. Damit eine Wahrheit aposteriori sei, wird verlangt, dass ihr Beweis nicht ohne Berufung auf Thatsachen auskomme; d. h. auf unbeweisbare Wahrheiten ohne Allgemeinheit, die Aussagen von bestimmten Gegenständen enthalten. Ist es dagegen möglich, den Beweis ganz aus allgemeinen Gesetzen zu führen, die selber eines Beweises weder fähig noch bedürftig sind, so ist die Wahrheit apriori.«97 Die Verschiebungen durch Frege sind schwerwiegend und die ihm nachfolgende Sprachanalytik subsumiert das Reden über Begriffsinhalte rein extensional unter das Diktat analytischer Urteile über Begriffsumfänge. Indem Frege den mathematischen Vernunftgebrauch definitorischer Setzungen wie auch die Orientierung an der mathematischen Äquivalenzrelation auf seine Sprachanalytik überträgt, erklärt er die bereits von Leibniz für seine Begriffsund Urteilstheorie entwickelte Methode der paraphrasierenden Ersetzung ›salva veritate‹ zur dominanten Methode. Die Folge ist, dass sich mit dem ›linguistic turn‹ das erkenntnistheoretische Sprechen über Urteile (Subjekte und Prädikate) in ein bedeutungstheoretisches Sprechen über Propositionen und Sätze wandelt und dass die Auffindung von Urteilsinhalten und damit die Erkenntnistheorie insgesamt als ›psychologisch‹ diskreditiert wird.98 Einten Held: ›Analytizität‹, in: Volker Gerhardt, Rolf-Peter Horstmann, Ralph Schumacher (Hrsg.): Kant und die Berliner Aufklärung, Akten des IX. Internationalen Kantkongresses, Bd. 5, Berlin: de Gruyter 2001, 28–36, S. 29. Vgl. Guido Löhrer: ›Gibt es analytische Urteile?‹, in: Internationale Zeitschrift für Philosophie, 1, 2002, 60–84. 97 Frege, Grundlagen der Arithmetik (1884), 1988, § 3. 98 Frege plädiert dafür, logische Gesetze und Denkgesetze nicht automatisch gleichzusetzen. »Nur in diesem Sinne können die logischen Gesetze Denkgesetze genannt werden, indem sie festsetzen, wie gedacht werden soll«, und nicht indem sie vorschreiben, »was sein soll«; zudem regieren die Denkgesetze nicht das Denken wie die »Naturgesetze die Vorgänge der Aussenwelt«, denn »das Denken ist ein seelischer [psychologischer] Vorgang«. Frege, Grundgesetze der Arithmetik (1893), 1966, S. XV. Diese Kritik wendet sich vor allem gegen einen Wahrheitsbegriff, der als Allgemeingültigkeit missverstanden wird und von Benno Erdmann in seiner Logik entwickelt wird. »Dem gegenüber kann ich nur sagen: Wahrsein ist etwas anderes als Fürwahrgehaltenwerden, sei es von Einem, sei es von Vielen, sei es von Allen.« Ebd. Die logischen Gesetze im Sinne Freges basieren auf dem »Gebiet des Objectiven, Nichtwirklichen« und Begriffe sind daher für ihn keine »Vorstellungen«. Ebd., S. XVIII. Vgl. Benno Erdmann: Logische Elementarlehre, 1. Bd. Halle: Niemeyer 1892. Eine gänzlich andere Position als Frege nimmt Edmund Husserl ein. Vgl. Husserl, Philosophie der Arithmetik (1891), 1992.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

365



366

Kapitel 15  ·  Symbolisch-operative Logik

zig die Methode der Begriffsdefinition durch Ersetzung ›salva veritate‹ gilt als ›objektive‹ Methode einer analytischen Sprachphilosophie und einer auf Basis der Mengentheorie axiomatisierten Redeweise der Mathematik.99 Eine Dekonstruktion dieses Objektivitätsanspruchs für die Philosophie und Wissenschaftstheorie lässt jedoch nicht lange auf sich warten. Es ist Quine, der Synonymität – notwendige Bedingung für Ersetzbarkeit – als intensionalen Begriff kritisiert und damit Analytizität insgesamt diskreditiert.100 Damit wird die Frage, wie sich Analytizität herstellen lässt, sowohl für definitorische als auch formale und semantische Theorien problematisch. Für sprachliche Definitionen (›bachelor‹ = ›unmarried man‹) ist Synonymie allenfalls lexikalisch und damit konventionell regelbar.101 Auch formale Ersetzungen ›salva veritate‹ sind einfach zu dekonstruieren, wie Quine für die Ersetzung von ›bachelor‹ durch ›unmarried man‹ in der Aussage »›Bachelor‹ has less that ten letters« zeigt.102 Schließlich werden formal-semantische Ersetzungen in bedeutungstheoretischen Kontexten für formalisierte Sprachen, wie sie Rudolf Carnap in Meaning and Necessity unter Berufung auf Alfred Tarskis semantische Wahrheitsdefinition vornimmt,103 von Quine eben99 Vergleichbar würde Kants Ansatz mit aktuellen Theorien, so Carsten Held, wenn das Enthaltensein eines Prädikats für zusammengesetzte Begriffe als Teilmenge (Prädikat) der Menge von Merkmalen des Subjektbegriffs interpretiert würde. Vgl. Held, ›Analytizität‹, 2001, S. 31 ff. Allerdings verkennt dies im Falle der mathematischen Begriffe den konstruktiven Charakter dieser Begriffe. 100 Vgl. Quine, ›Two dogmas of empiricism‹ (1951), 1961; Philip Kitcher: ›How Kant Almost Wrote ›Tow Dogmas of Empiricism‹, in: Philosophical Topics, 12 (2), 1981, 217–249. 101 »In formal and informal work alike, thus, we find that definition […] hinges on prior relations of synonymy.« Quine, ›Two dogmas of empiricism‹ (1951), 1961, S. 27. 102 Quine, ›Two dogmas of empiricism‹ (1951), 1961, S. 28. »For most purposes extensional agreement is the nearest approximation to synonymy […]. But the fact remains that extensional agreement falls far short of cognitive synonymy.« Quine, ›Two dogmas of empiricism‹ (1951), 1961, S. 31. 103 Rudolf Carnap: Meaning and Necessity: A Study in Semantics and Modal Logic, Chicago: Chicago University Press 1947, Kap. 12, § 2. Carnap gibt eine leicht modifizierte Version von Tarskis semantischer Wahrheitstheorie. Vgl. Alfred Tarski: ›Die semantische Konzeption der Wahrheit und die Grundlagen der Semantik‹ (1931), in: Gunnar Skirbekk (Hrsg.): Wahrheitstheorien. Eine Auswahl aus den Diskussionen über Wahrheit im 20. Jahrhundert, Frankfurt: Suhrkamp 1977, 140–188. Für Tarski ist das Schema »eine Aussage ist wahr, wenn sie einen existierenden Sachverhalt bezeichnet«, missverständlich und bedarf der Revision durch eine semantische Wahrheitstheorie. Ebd., S. 143. Eine semantische Wahrheitstheorie diskutiert Wahrheit im Rahmen der Identität von Aussage und Name wie folgt: »Die Aussage ›Schnee ist weiß‹ ist wahr genau dann, wenn Schnee weiß ist. […] Auf der rechten Seite haben wir die Aussage selbst, auf der linken den Namen der Aussage.« Ebd., S. 143 und S. 144. Eine solche Wahrheitstheorie setzt jedoch eine Struktur der Sprache voraus, die »exakt bestimmt« ist und in der »Wörter und Ausdrücke eindeutig« charakterisiert sind, »die als sinnvoll betrachtet werden«. Ebd., S. 147.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Tautologie, Geltung, Extensionalität

falls kritisiert. »The concept of L-truth«, wie Carnap schreibt, »is here defined as an explicatum for what philosophers call logical or necessary or analytic truth. The definition leads to the result that a sentence in a semantical system is L-true if and only if the semantical rules of the system suffice for establishing its truth.« Doch, so Quine, weder ›analytic‹ noch ›semantical rules‹ seien als Begriffe explizierbar, daher sei die Rede von Analytizität sowie die Trennung zwischen analytischen und synthetischen Urteilen »a metaphysical article of faith«.104 Folgt man Quines Kritik, dann blieben nur noch synthetische Urteile und Tautologien übrig;105 und Letztere auch nur als rein logische Sätze, die sich mechanisch »am Symbol allein« erkennen und beweisen lassen.106 Allerdings würde es, laut Wittgenstein, jeder Sinnhaftigkeit entbehren, über Tautologien zu sprechen,107 denn »Tautologie und Kontradiktion sind nicht Bilder der Wirklichkeit. Sie stellen keine mögliche Sachlage dar. Denn jene lässt jede mögliche Sachlage zu, diese keine. In der Tautologie heben die Bedingungen der Übereinstimmung mit der Welt – die darstellenden Beziehungen – einander auf, so daß sie in keiner darstellenden Beziehung zur Wirklichkeit stehen. […] Die Tautologie läßt der Wirklichkeit den ganzen – unendlichen – Zudem müssen alle Regeln für definierte Terme sowie alle Axiome (einfache Aussagen) bestimmt sein; kurz: es geht um eine formalisierte Sprache, in der »die Theoreme [Aussagen, die aus den Axiomen mit Hilfe von Schlussregeln gewonnen werden] die einzigen Aussagen [sind], die behauptet werden«. Ebd., S. 148. Dies bedeutet die Abkopplung des Gegenstandsbereichs einer Aussage von einem vorgeordneten Sachbereich mit Sachverhalten und die Verkehrung des Aussagehalts in eine deduktive Ableitung, wie bereits von Frege in der Begriffsschrift vorgelegt. Unter diesen restriktiven Bedingungen formaler Sprachen macht Tarskis semantische Wahrheitstheorie Sinn und ist bis heute die maßgebliche Wahrheitsdefinition formaler Systeme der Logik, Mathematik wie auch Informatik. Die Ausweitung von Tarskis Wahrheitstheorie auf die Sprachphilosophie ist von Ernst Tugendhat zu Recht mit dem Hinweis kritisiert worden, dass Wahrheit bei Tarski im Stile der deduktiven Wissenschaften definiert wird, dies aber nicht der philosophischen Methode entspricht. Eine Verwechselung beider Methoden würde sich bezüglich »philosophischer Grundbegriffe als methodische Naivität erweisen.« Ernst Tugendhat: ›Tarskis semantische Wahrheitstheorie und ihre Stellung innerhalb der Geschichte des Wahrheitsproblems im logischen Positivismus‹ (1960), in: Skirbekk, Wahrheitstheorien, 1977, 189–223, S. 191. 104 Quine, ›Two dogmas of empiricism‹ (1951), 1961, S. 37. 105 Vgl. Held, ›Analytizität 2001; Löhrer, ›Gibt es analytische Urteile?‹, 2002, 60–84. 106 Ludwig Wittgenstein: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung (1921), Frankfurt: Suhrkamp 1963, 6.113. Da Tautologien am Symbol ablesbar sind, entgehen sie Quines Kritik. 107 »Tautologie und Kontradiktion sind sinnlos.« Wittgenstein, Tractatus logico-philosophicus (1921), 1963, 4.461. Dennoch sind Tautologien nicht unsinnig, denn »sie gehören zum Symbolismus, und zwar ähnlich wie die ›0‹ zum Symbolismus der Mathematik«. Wittgenstein, Tractatus logico-philosophicus (1921), 1963, 4.4611.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

367



368

Kapitel 15  ·  Symbolisch-operative Logik

logischen Raum.«108 Das heißt, es blieben nur noch synthetische Urteile übrig, über die es sich sinnvoll zu sprechen lohnt. Jegliche Begründung durch Analytizität wäre demnach hinfällig und damit auch Leibniz’ und Freges Programm. Quines Kritik der Analytizität und Wittgensteins Kritik der Logik als tautologische vollziehen sich vor dem Hintergrund des logischen Positivismus, der im Unterschied zu Frege nach Urteilsinhalten Ausschau hält und versucht, Explizierungsregeln für empirische Urteilsinhalte in Form von Protokollsätzen und anderen Hilfsmitteln aufzustellen. Geht es Frege um die logische Klärung mathematischer Beweissprache, so geht es Carnap und den anderen logischen Positivisten um die logische Klärung der Subsumtion empirischer Inhalte unter wissenschaftliche Theorie.109 Damit drängt sich die Frage auf, ob Freges Theorie der Analytizität überhaupt von Quines Kritik betroffen ist. Denn Frege, solange er sich wie in den Grundlagen der Arithmetik im Kontext der Mathematik bewegt, spricht über abstrakte Objekte wie ›Anzahlen‹. Deren Bildungsregeln und damit Identität lässt sich definitorisch festsetzen und auch die Redeweise über diese Objekte ist regelbar. Freges Ersetzungen basieren auf der mathematischen Äquivalenzrelation (Reflexivität, Symmetrie, Transitivität), die eine geltungskonstitutionelle Redeweise über Anzahlen als ›gleichumfänglich‹ quantifiziert.110 Nicht Subjekt und Prädikat wie bei Leibniz werden miteinander identifiziert, sondern Begriffsumfänge und diese Begriffsumfänge sind rein quantitativer Natur. Für die Äquivalenz von Begriffsumfängen mit sich selbst (Reflexivität) ist die Ersetzbarkeit trivial, da tautologisch; und dies behauptet Freges Anzahldefinition.111 Schwieriger ist hingegen die Feststellung der Synonymität für den »Ausdruck: ›der Begriff F 108 Wittgenstein, Tractatus logico-philosophicus (1921), 1963, 4.462 und 4.463. Zur historischen Genese von Wittgensteins Position vgl. Derben, Floyd, ›Tautology: How to not use a word‹, 1991, S. 28 ff. 109 Es war nicht Frege, sondern Carnap in Überwindung der Metaphysik durch logische Analyse der Sprache und dessen von Tarski übernommene und modifizierte, semantische Wahrheitstheorie, die Quine zur Kritik der zwei (metaphysischen) Dogmen des Empirismus herausforderte. Vgl. Carnap, ›Überwindung der Metaphysik durch logische Analyse der Sprache‹,1931/32. 110 Eine solche Äquivalenzrelation kann dann auf ›Gleichmächtigkeit‹ von Mengen, ›Kongruenz‹ und ›Ähnlichkeit‹ geometrischer Objekte sowie ›Kongruenz modulo n‹ von ganzen Zahlen angewandt werden. Die Frage, ob ein Gegenstandsbereich tatsächlich äquivalent ist, stellt sich zwar für die Mathematik nicht, aber durchaus für die Philosophie als erkenntnistheoretisches Problem. Vgl. Husserl, Philosophie der Arithmetik (1891), 1992. 111 »Ich definiere demnach: die Anzahl, welche dem Begriffe F zukommt, ist der Umfang des Begriffes ›gleichzahlig dem Begriffe F‹.« Frege, Grundlagen der Arithmetik (1884), 1988, § 68.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Tautologie, Geltung, Extensionalität

ist gleichzahlig dem Begriffe G‹ sei gleichbedeutend mit dem Ausdrucke ›es giebt eine Beziehung φ, welche die unter den Begriff F fallenden Gegenstände den unter G fallenden Gegenständen beiderseits eindeutig zuordnet‹«.112 Die Frage ist nun, ob Austauschbarkeit unter diesen besonderen, da mathematischen Umständen der Kritik von Quine entgeht. Die Antwort kann nur ja lauten: solange eine eindeutige Zuordnungsbeziehung φ angegeben werden kann, die die Gleichumfänglichkeit (von Anzahlen) herstellt. Frege behauptet nun, diese Zuordnungsbeziehung φ sei eine rein logische und durch ein Wiedererkennungsurteil motiviert.113 Da die Gewinnung von Urteilsinhalten nicht zu Freges Programm gehört, ist er an dieser Stelle äußerst vage. Fragt man jedoch, wie das Wiedererkennungsurteil zustande kommt, dann wird es interessant. Denn Frege bezieht sich auf die symbolische Anschauung: »Die vielseitige und bedeutsame Verwendbarkeit der Gleichungen beruht vielmehr darauf, daß man etwas wiedererkennen kann, obwohl es auf verschiedene Weise gegeben ist.«114 Solange es sich nicht um eine Tautologie handelt, die sich allein am Symbol ablesen lässt, sondern um die Gleichsetzung von Verschiedenem, muss das Wiedererkennungsurteil und damit die Zuordnungsbeziehung φ explizit vorliegen, um Quines Intensionalitätskritik zu entgehen. Nun ist dies nur auf einem Wege möglich, nämlich wenn die Herstellung der Zuordnungsbeziehung φ durch einen ausführbaren Formalismus in Abhängigkeit von einem gewählten Axiomensystem extensionalisierbar ist.115 Ansonsten würde das Wiedererkennen allein anhand einer evidenten, symbolischen Anschauung nicht nur Intensionalität ins Spiel bringen; Freges Position gegen Kants Anschauungskonzeption der Mathematik würde ins Schwanken geraten. Doch erhofft man sich Klärung über den Inhalt des Begriffs ›Begriffsumfang‹, so stößt man auf eine ähnli112 Frege,

Grundlagen der Arithmetik (1884), 1988, § 71. wie Leibniz’ analytische Begriffs- und Urteilstheorie ohne intensionale Theorie der Wiedererkennung wenig Sinn macht, ist es kein Zufall, dass Frege die Zuordnungsbeziehung φ durch ein Wiedererkennungsurteil motiviert. Dass dieses Urteil jedoch nicht rein logisch sein kann, darauf wurde bereits hingewiesen. Vgl. die Kritik von Boolos, ›The Standard of Equality of Numbers‹, 1995. 114 Frege, Grundlagen der Arithmetik (1884), 1988, § 67. 115 Das Anschreiben mit einsichtigen Symbolen in einer Gleichung genügt nicht, sondern es bedarf widerspruchsfreier Kalküle zur expliziten Verwendungsweise der angeschriebenen Symbole. Zwar lässt sich Parallelität als Festsetzung definieren, doch müssen dann alle anderen Begriffe wie ›Gerade‹ oder ›selbe Richtung‹, etc. adäquat sein, um keine Widersprüche zu kreieren. Selbst wenn Axiome beliebig gesetzt werden können, so ist doch »jeder faktischen Zusammenstellung von Axiomen […] noch immer eine Vorstellung von Strukturzusammenhängen vorausgegangen, auf welche sich die Axiome anwenden lassen«. von Fritz, Grundprobleme der Geschichte der antiken Wissenschaft, 1971, S. 220. 113 Ebenso

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

369



370

Kapitel 15  ·  Symbolisch-operative Logik

che Unterdeterminiertheit. Wie Frege in der Anmerkung zum entscheidenden § 68 der Grundlagen der Arithmetik schreibt, setzt er voraus, »dass man wisse, was der Umfang eines Begriffes ist«.116 In seinem umstrittenen Axiom V der Grundgesetze der Arithmetik ersetzt Frege Begriffsausdrücke (P(x), Q(x)) durch Begriffsumfänge (εxP(x), εxQ(x)) durch deren Gleichsetzung (εxP(x) = εxQ(x) ⇔ Λ x ∙ P(x) ↔ Q(x)).117 Dies führt zu den bekannten Problemen, da von Frege nicht genau festgelegt wird, welche ›Gegenstände‹ unter P(x) und Q(x) fallen. Damit ermöglicht er die Russell’sche Antinomie.118 Spätestens an diesem Punkt stößt die geltungskonstitutionelle Redeweise an ihre Grenze, insofern {x | x ∉ x} ein ›sinnloser‹ respektive ›sinnleerer‹ Begriff ist. Ein weiterer sinnloser Begriff wäre ein mit sich selbst nicht identischer Begriff (a ≠ a). Bereits Kant hat auf diese Art der Begriffe in seiner Theorie der Analytizität hingewiesen. »Folgeleere Sätze [Tautologien] müssen von sinnleeren unterschieden werden, die darum leer an Verstand sind, weil sie die Bestimmung sogenannter verborgener Eigenschaften (qualitates occultae) betreffen.«119 Diese ›qualitates occultae‹ zeigen sich in der geltungskonstitutionellen Redeweise an imprädikativen (rückbezüglichen) Begriffen: »Von der Klasse der Menschen wird niemand behaupten wollen, dass sie ein

116 Frege,

Grundlagen der Arithmetik (1884), 1988, § 68, Anmerkung. Vgl. Frege, Grundgesetze der Arithmetik (1893, 1903), 1966, S. VII sowie § 20; Christian Thiel: ›Gottlob Frege: Die Abstraktion‹, in: Schirn, Studien zu Frege I, 1976, 243–264, S. 258. 118 Vgl. Thiel, ›Gottlob Frege: Die Abstraktion‹, 1976, S. 258; Frege, Grundgesetze der Arithmetik (1893, 1903), 1966, S. 253. »Die Tatsache, daß Freges System mit diesem Axiom widerspruchsvoll, das nach Entfernen dieses Axioms verbleibende Restsystem dagegen widerspruchsfrei ist, zeigt nun aber keineswegs, daß dieses Axiom falsch ist – solange nicht dazugesagt wird, daß dabei als Prädikatoren P(x) und Q(x) alle diejenigen zugelassen werden sollen, die nur den von Frege aufgestellten Bedingungen für die korrekte Bildung von Begriffsausdrücken genügen. Russells Antinomie hat gezeigt, daß Freges Forderungen an den Aufbau solcher Prädikatoren nicht streng genug waren: sie lassen die Bildung von Prädikatoren zu, für die sich auf Grund der dem Fregeschen System beigegebenen Deutungsregeln ein Sinn gar nicht ermitteln lässt. Nun muß zwar das Operieren mit sinnlosen Ausdrücken nicht unbedingt jedesmal zu einem Widerspruch führen. Aber das Auftreten der von Russell gefundenen Antinomie zeigt, daß ein sinnloser Ausdruck verwendet worden ist und diese Verwendung keineswegs harmlos war. […] Werden nun zur Ersetzung der Variablen P und Q in der Formulierung des Fregeschen Axioms V nicht mehr alle von Frege selbst als korrekt angesehenen Ausdrücke zugelassen, sondern nur solche, die noch strengere ›prädikative‹ oder ›konstruktive‹ Forderungen erfüllen, dann kann nach dieser Umdeutung der Variablen das Axiom stehenbleiben, ohne daß irgendein Widerspruch in dem neuen System ableitbar wird.« Thiel, ›Gottlob Frege: Die Abstraktion‹, 1976, S. 263, 264. 119 Kant, Logik – ein Handbuch zu Vorlesungen, 1800, I. Teil, 2. Abschnitt, § 37. 117

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Tautologie, Geltung, Extensionalität

Mensch sei.«120 Solche Begriffe werden möglich, wie Stegmüller dies im Kontext von Cantors Mengentheorie beschreibt, weil »die klassische Theorie mit ihrer Hierarchie […] die Vermessenheit begangen [hat], Ideen im kantischen Sinne zu fertigen idealen Gebilden im platonischen Sinne zu erklären und bei dieser Absolutsetzung die uns alleine zur Verfügung stehenden Möglichkeiten konstruktiven Denkens unberücksichtigt zu lassen. Die Vermessenheit rächt sich in der Form des Auftretens von Antinomien. Der voreilige Schluß [von Kant auf Platon] muß rückgängig gemacht werden; der strenge Platonismus ist zu ersetzen durch einen konstruktiven Konzeptualismus.«121 Das heißt, es macht einen Unterschied, ob über die Generierung von mathematischen Objekten oder ob über ihre Existenz und die sich daraus ergebenden Eigenschaften gesprochen wird. Sinnlose Begriffe markieren eine der Grenzen der modernen Mathematik als formale Sprache und müssen explizit ausgeschlossen werden. Selbstbezüglichkeit als widerspruchsbehaftete Rückbezüglichkeit stellt daher für eine tautologisch orientierte, geltungskonstitutionelle Sprechweise ein Problem dar.122 Paradoxerweise operiert die moderne Mathematik jedoch sehr erfolgreich mit Selbstbezüglichkeit und sinnleeren Begriffen, ohne in direkte Widersprüche zu laufen. Betrachtet man die Generierung mathematischer Objekte am Beispiel von Cantors Diagonalisierungsverfahren genauer, dann stellt man erstaunt fest, dass hier Begriffsverfahren zur Erzeugung sinnleerer Begriffe produktiv zum Einsatz kommen. Denn Cantors Diagonalbeweis funktioniert nur, wenn die neuen Zahlen (Diagonalzahlen wie Eο = (b1, b2, b3, …)), so definiert sind, dass sie sich durch aν,ν ergeben und dennoch von aν,ν verschieden sind: »Ist also aν,ν = m, dann ist bν = w, und ist aν,ν = w, dann ist bν = m.«123 Nur durch diesen Kunstgriff der Vertauschung ist Eο als imprädikativer Begriff, so Cantor, vermeidbar. Daher kritisiert Becker Cantors Verfahren zu Recht als irritierend und dennoch irgendwie ohne Widerspruch: »Das ganze Argument ist rein negativer Art und hat etwas Paradoxes an sich, obschon in ihm kein Widerspruch zu finden ist.«124 Fragt man, was ›sich durch aν,ν ergeben 120 Frege,

Grundgesetze der Arithmetik (1893, 1903), 1966, S. 253. Glauben, Wissen und Erkennen, 1965, S. 111, 112. 122 »Many working mathematicians (though by no means all) are suspicious of logicians’ apparent attempt to take over their subject by stressing its foundations. Surely one can reasonably feel that contradiction in set theory or category theory could not remotely threaten the immense corpus of mathematical results and applications discovered over more than two millennia.« Mortensen, Inconsistent Mathematics, 1995, S. 4. 123 Cantor, ›Über eine elementare Frage der Mannigfaltigkeitslehre‹ (1890/91), S. 279. 124 Becker, Größe und Grenze der Mathematischen Denkweise, 1959, S. 114. Erst die Verabsolutierung durch die klassifizierende Rede über unterschiedliche Zahlenmengen als abgeschlossene Objekte mit unterschiedlichen Eigenschaften führt zu den logischen 121 Stegmüller,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

371



372

Kapitel 15  ·  Symbolisch-operative Logik

und dennoch von aν,ν verschieden‹ logisch bedeuten soll, dann scheint hier ein eigenartiger Begriff vorzuliegen.. Noch deutlicher wird dies an Freges logischer Rekonstruktion des Schlusses von n auf n+1, die explizit mit dem widersprüchlichen Begriff »›sich selbst ungleich‹« (a ≠ a) operiert.125 Damit konstruiert Frege seine logische Definition der Anzahl 0 (kein Gegenstand erfüllt den sinnleeren Begriff). Die daraus ableitbare Aussage, dass 1 gleichzahlig ›gleich 0‹ (= 0) ist,126 ist ähnlich irritierend, aber logisch korrekt wie Cantors Verfahren, das die Eigenschaft der Nichtabzählbarkeit bestimmter Zahlen aufweisen will. ›Logisch korrekt, aber irgendwie irritierend‹ beschreibt treffend die symbolisch-operative Logik der modernen Mathematik. Solche Irritationen treten auch in Hilberts Aufweis seines transfiniten Axioms auf, indem er behauptet, es gäbe ein Objekt mit einer Eigenschaft (a) derart, dass wenn sich diese Eigenschaft für dieses eine Objekt widerlegen ließe (¬a), allen Objekten die Eigenschaft ¬a zukäme. Zu Recht kritisierten die Konstruktivisten diesen Schluss für frei werdende Wahlfolgen (ohne Ordnungsstruktur) als Prophezeiung und Becker klassifizierte Hilberts transfiniten Kalkül als fiktiv. Das Operieren mit solchen Fiktionen hat Pirmin Stekeler-Weithofer bildlich verglichen mit der Rede über Einhörner als Zusammensetzung von »Eigenschaften von Dingen, die wir kennen: […] die von Pferden (endlichen oder entscheidbaren Mengen oder durch ›Abstraktion‹ aus wahrheitssemantisch korrekt aufgebauten Satzformen erhaltenen Mengen) und […] die von Tieren mit einem Horn (auf die Existenz von Potenz- und Auswahlmengen in entsprechend ›harmlosen‹, etwa ›endlichen‹ Bereichen). Sie fügen diese Eigenschaften zusammen zum Begriff des Einhorns […]. Dessen Existenz wird historisch begründet durch den Hinweis, daß bis heute die Nicht-Existenz der Einhörner noch nicht bewiesen sei – trotz intensiver Suche.«127 Zu ergänzen wäre, dass die Eigenschaften dieser Einhörner ihnen durch die Art ihrer Generierung implizit untergeschoben werden, denn »über die Eigenschaften Antinomien. Indem sich das Erzeugungsverfahren immer wieder auf die abgeschlossenen Objekte anwenden lässt, hat dies das bekannte Nachfolgerproblem Ω + 1 inkonsistenter Vielheiten zur Folge. Die Kritik an dieser Neugründung des Transfiniten ist zweifach: Entweder wird Cantors Verwendung der klassifizierenden Redeweise als ›naiv‹ kritisiert und bedarf der Präzisierung. Oder Cantors Diagonalisierungsverfahren wird, wie von den Konstruktivisten, dahingehend kritisiert, dass es kein Aufweis neuer Zahlen und deren transfiniter Eigenschaft der Überabzählbarkeit ist, sondern nur ein Erweiterungsverfahren für Mengen, insofern sich jedes E0 wieder in das Verfahren integrieren lässt und damit abzählbar ist. Vgl. Brouwer, ›Intuitionism and Formalism‹ (1908), 1913–14. 125 Frege, Grundlagen der Arithmetik (1884), 1988, § 74. 126 Vgl. ebd., § 77. 127 Stekeler-Weithofer, Grundprobleme der Logik, 1986, S. 356.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Tautologie, Geltung, Extensionalität

von Fiktionen« kann man nur das wissen, »was wir vorher – eben fiktiv – postuliert haben«.128 Das bedeutet, dass Mathematik als formale (Zeichen-)Sprache, die von jeglicher geometrischen Anschauung wie auch Orientierung an Größen abgelöst zur Wissenschaft des rein Formalen wird, ihre Objekte, wenn auch nicht beliebig, so doch mit großer Freiheit selbst generieren und dann untersuchen kann. Diese (Nicht-)Beliebigkeit ergibt sich aus dem Umgang mit dem Erkenntnismittel ›Sprache‹ und dessen Limitationen.129 Und offensichtlich – ohne die Diskussionen des Grundlagenstreites der Mathematik wiederholen oder auf die aktuelle Debatte zum ontologischen Status abstrakter Objekte eingehen zu wollen – spielen operative Strategien zur Erzeugung sinnleerer Begriffe eine produktive Rolle dabei. Doch wenn dem so ist, dann stellt sich die Frage, ob sich die moderne Mathematik tatsächlich ausschließlich tautologisch im Satz der Identität, im Prinzip der Widerspruchsfreiheit und im Satz vom ausgeschlossenen Dritten selbstgründet. Wie Cantor und Frege deutlich machten, gilt es den Satz der Identität (A = A) durch den Satz ›a und doch ungleich a‹ zu ergänzen.130 Und wie Gödel zeigte, ist der Satz vom ausgeschlossenen Dritten (A ∨ ¬A) durch den Satz ›weder a noch ¬a‹ zu erweitern. Hilbert hingegen modifizierte den Satz vom ausgeschlossenen Dritten 128 Ebd., S. 355. Zur weiteren Diskussion über mögliche Welten vgl. Carnap, Meaning and Necessity, 1947; Saul A. Kripke: Naming and Necessity, Cambridge: Harvard University Press 1980; David Lewis: On the Plurality of Worlds, Malden: Blackwell 1986; Charles S. Chihara: The Worlds of Possibility, Oxford: Clarendon Press 1998; B. Jack Copeland: ›The Genesis of Possible Worlds Semantics‹, in: Journal of Philosophical Logic, 31 (2), 2002, 99–137. 129 Dies zeigt sich auch darin, dass es verschiedene Modelle der Mengentheorie gibt und sich ein Standardmodell nicht festlegen lässt. Jedes Modell axiomatisiert andere Eigenschaften, die Mengen zugeschrieben werden. 130 Im Unterschied zu Freges explizit eingeführtem sinnleeren Begriff basiert der Unterschied zwischen einer Zahl und E0 darin, dass Cantors Diagonalzahl E0 auf der Idee der sukzessiven Synthesis (Ordnung) plus Vertauschung (Organisation) beruht. Ohne diese Vertauschung wäre E0 ein gewöhnliches abzählbares Objekt; mit Vertauschung unterscheidet sich E0 von gewöhnlichen abzählbaren Objekten. Erst die Vertauschung (Neuorganisation der Ordnung) ermöglicht die (onto-)logische Transformation in ein transfinites Objekt. Genau dies kritisieren die Konstruktivisten, indem sie Cantors Verfahren lediglich als Erweiterungsverfahren einer geordneten Menge sehen. Dennoch gilt in der Mathematik Cantors Diagonalisierungsverfahren als Beweis der Existenz von E0 als nicht abzählbarer Zahl. Andere Objekte, die mit Ordnung und Vertauschung operieren, wären die durch (links- bzw. rechts-)Ore-Bedingungen konstruierbaren Quotientenschiefkörper. Vgl. Oystein Ore: ›Linear equations in non-commutative fields‹, in: Annals of Mathematics, 32, 1931, 463–477. Vielleicht sind solche Objekte, die komplexer sind als Zahlen, auch als ›algorithmische‹ Objekte zu verstehen, insofern sie eine Entscheidung über eine Vertauschung der Art ›wenn x, dann y, ansonsten z‹ (if, then/else) einführen.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

373



374

Kapitel 15  ·  Symbolisch-operative Logik

(A ∨ ¬A) durch seine das Transfinite begründende Forderung: ›wenn für kein x gilt: ¬A(x), dann gilt für alle x: A(x).‹131 Autologie, Erkenntnis, Operativität

Die Situation verschärft sich sogar noch. Denn vor dem Hintergrund der Selbstbegründung der Mathematik durch die rekurrierende Denkweise der sich aus sich selbst generierenden Funktionen – Dedekinds Ketten von 1888 basieren auf Selbstabbildung (φ(s); φ(φ 0(s), φ(φ(φ 0(s)), …) und Skolems primitive Rekursion von 1923 auf Selbsteinschließung (f(x1, …, xn, y+1) = h(x1, …, xn, y, f(x1, …, xn, y)))132 – erhält Selbstbezüglichkeit eine tragende Rolle in der Mathematik zugesprochen. Sich aus sich selbst generierende Funktionen verkörpern par excellence die Eigenlogik des Erkenntnismittels der rein formalen (Zeichen-)Sprache. Im Tractatus lehnt Wittgenstein Funktionen ab, die sich selbst als Argument enthalten und die er als Ursache der Russell’schen Antinomie interpretiert.133 Doch mit Beginn der Computerentwicklung werden solche Funktionen nicht nur zur Grundlage der Berechenbarkeit, sondern zur formalen Basis selbstreferentieller Systeme.134 Ende der 1960er Jahre formuliert Lars Löfgren unter dem Begriff ›Autologie‹ selbstreferentielle Funktionen als Grundlage seiner Theorie selbstreproduzierender Automaten wie folgt: 131 Darstellung nach Luitzen Brouwer. Vgl. Luitzen Brouwer: ›Begründung der Mengenlehre unabhängig vom logischen Satz vom ausgeschlossenen Dritten. Erster Teil, Allgemeine Mengenlehre‹, in: Koninklijke Akademie van Wetenschappen te Amsterdam, Verhandelingen, 1, XII, 5, 1918, 1–43. 132 Dedekinds ›Kette‹ wird von Peano bereits ein Jahr später als (aussagelogischer) Kalkül mit Induktionsaxiom axiomatisiert. Vgl. Peano, Arithmetices principia nova methodo exposita, 1889. 133 »Eine Funktion kann darum nicht ihr eigenes Argument sein, weil das Funktionszeichen bereits das Urbild seines Arguments enthält und es sich nicht selbst enthalten kann. Nehmen wir nämlich an, die Funktion F(fx) könnte ihr eigenes Argument sein; dann gäbe es also einen Satz: ›F(F(fx))‹ und in diesem müssen die äußere Funktion F und die innere Funktion F verschiedene Bedeutungen haben, denn die innere hat die Form φ(fx), die äußere die Form ψ(φ(fx)). Gemeinsam ist den beiden nur der Buchstabe ›F‹, der aber allein nichts bezeichnet. Dies wird sofort klar, wenn wir statt ›F(Fu)‹ schreiben ›(∃φ): F(φu).φu=Fu‹. Hiermit erledigt sich Russells Paradox.« Wittgenstein, Tractatus logico-philosophicus (1921), 1963, 3.333. 134 Vgl. John von Neumann: ›General and logical theory of automata‹ (1948), in: Ders., Collected Works, Bd. 5, 1963, 288–328; John von Neumann: Theory of Self-Reproducing Automata (hrsg. von Arthur Burks), Urbana: University of Illinois Press 1966; Robert Rosen: ›On a Logical Paradox Implicit in the Notion of a Self-Reproducing Automaton‹, in: Bulletin of Mathematical Biophysics, 21, 1959, 387–394; Robert Rosen: ›Self-Reproducing Automaton‹, in: Bulletin of Mathematical Biophysics, 24, 1962, 243–245.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Autologie, Erkenntnis, Operativität

»π(π) = ›π‹ [… where] the existence of an atomic π implies the existence of a function that belongs to its own domain and range. Previously, Wittgenstein […] has argued, on intuitive grounds, that no function can be its own argument. […] Indeed, we shall see that such functions really cannot be derived from ordinary logical-mathematical reasoning. They need not, however, […] imply any inconsistencies. Instead, an atomically self-reproducing entity can be axiomatized, and in this sense it really does exist.«135 Aus philosophischer Perspektive sind daran zwei Aspekte von Interesse. Erstens impliziert Selbstreproduktion (π(π) = ›π‹) den Selbstreproduktionszyklus (π ∈ {π} ∈ {{π}} ∈ π), der laut Löfgren das Axiom der Restriktion imprädikativer Begriffe negiert und damit die Unabhängigkeit des Axioms der Selbstreproduktion mengentheoretisch postuliert.136 Darüber hinaus lässt sich die Konsistenz der Selbstreproduktion (π(π) = ›π‹) aufzeigen und die Eigenschaften eines solchen sich selbstreproduzierenden Systems untersuchen: »With the automata-interpretation of self-reproduction in mind, it is natural to consider not only a single reproduction step as the normal activity of the reproducing automaton, but also a repetition of such steps. This means that not only the production sequence ›π‹ shall be associated with π(π) but also the production sequences ›π, π‹, ›π, π, π‹, etc.«137 Auf sich selbst angewendete Repetition erzeugt dabei Differentialität der Art ›π, π‹, ›π, π, π‹, …, also Heterologie durch Autologie. Zweitens geht Selbstreproduktion im Kontext der Automatentheorie mit Selbstbeschreibung einher und trägt damit der Autologie als ›Selbstrede‹ Rechnung.138 Ein Automat reproduziert sich formal gesehen selbst, wenn er eine komplette Beschreibung von sich selbst 135 Lars Löfgren: ›An axiomatic explanation of complete self-reproduction‹, in: Bulletin of Mathematical Biophysics, 30, 1968, 415–425, S. 417. Löfgren bezieht sich auf Wittgenstein, Tractatus logico-philosophicus (1921), 1963, 3.333. 136 Das bedeutet, π(π) = ›π‹ lässt sich nicht aus den mengentheoretischen Systemen ableiten, da es sonst das Axiom der Restriktion imprädikativer Begriffe verletzen würde. 137 Löfgren, ›An axiomatic explanation of complete self-reproduction‹, 1968, S. 421. Löfgren zeigt auch für ›Quine individuals‹, dass sich mit diesen Selbstreproduktion darstellen lässt. »The existence of an atomically self-reproducing (atomically self-explaining) entity […] can be consistently added as a new and independent axiom to set theory in the form of Quine’s New Foundations.« Löfgren, ›An axiomatic explanation of complete self-reproduction‹, 1968, S. 422. Vgl. Willard van Orman Quine: ›New Foundations for Mathematical Logic‹, in: American Mathematical Monthly, 44, 1937. 138 Vgl. Löfgren, ›An axiomatic explanation of complete self-reproduction‹, 1968; Löfgren, ›Autology: Metalogics of self-applicability‹, 1987; Lars Löfgren: ›Life as an Autolinguistic Phenomenon‹, in: Milan Zeleny (Hrsg.): Autopoiesis: A Theory of Living Organization, New York: North Holland 1981, 236–249.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

375



376

Kapitel 15  ·  Symbolisch-operative Logik

herstellen kann, die wiederum eine Beschreibung von sich selbst anfertigen kann, usf. In den Worten von Neumanns: »First of all, we have to draw up a complete list of elementary parts to be used. This list must contain not only a complete enumeration but also a complete operational definition of each elementary part.«139 Hatte von Neumann die tatsächliche Konstruktion von Automaten durch Automaten im Sinn,140 so ist für die Frage nach der Logik der modernen mathematischen Operativität vor allem das autologische Potenzial zur Generierung neuer, geordneter und organisierter Objekte von Interesse. Daher genügt die Version der Selbstreproduktion durch Selbstbeschreibung, wie sie sich beispielsweise im Kontext der Computerprogrammierung anhand der Frage zeigt, ob es Programmcodes gibt, die sich selbst dokumentieren: beispielsweise der Befehl ›write = ›write›‹, der das Wort write schreibt.141 Diese selbstreferentiellen Codes werden in Anlehnung an Quines Logik ›Quines‹ genannt und es lässt sich beweisen, dass solche Programme in jeder Turingvollständigen Programmiersprache formulierbar sind.142 Ein Quine ist ein Programm der Nummer q, das für alle Eingaben x die Zahl q ausgibt: q (∀x: φq (x) = q). Doch auch eine autologische Orientierung der Mathematik stößt an Grenzen. Vielleicht kann sie, wie Löfgren meint, imprädikative Begriffe eliminieren, aber die Frage ist, ob sich beispielsweise ein Quine formulieren ließe, welches eine semantische Paradoxie darstellt? Semantische Paradoxien – der zweite große Problemkreis der Mathematik als (Zeichen-)Sprache neben den logischen Antinomien einer geltungskonstitutionellen Redeweise – generieren sich durch semantische Autologien. Dies sind Aussagen oder Wörter, die sich 139

von Neumann, ›General and logical theory of automata‹ (1948), 1963, S. 315. »The constructing automata is supposed to be placed in a reservoir in which all elementary components in large numbers are floating, and it will effect is construction in that milieu.« von Neumann, ›General and logical theory of automata‹ (1948), 1963, S. 316. 141 Vgl. Georg Trogemann: ›Synthese von Maschine und Leben. Organische Maschinen und die Mechanisierung des Lebens‹, in: Gramelsberger, Bexte, Kogge, Synthesis, 2013, 171–192, S. 186 ff. 142 Vgl. Quine, ›New Foundations for Mathematical Logic‹, 1937 sowie spätere Überarbeitungen. Quines Ziel war die Rekonstruktion der Mathematik durch Logik ohne jedoch die von Whitehead und Russell eingeführte Stratifizierung in Typen zu übernehmen: »In Whitehead and Russell’s Principia Mathematica we have good evidence that all mathematics is translatable into logic. […] Thus, it is not held that every symbol or combination of symbols of mathematics, say «∇« or »d/dx«, can be equated directly to an expression of logic. […] It must be admitted that the logic which generates all this is a more powerful engine than the one provided by Aristotle.« Quine, ›New Foundations for Mathematical Logic‹, 1937, S. 70 und S. 71. 140

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Autologie, Erkenntnis, Operativität

formal wie material auf sich selbst beziehen und darüber semantisch ihre Wahrheit generieren.143 ›Dreisilbig‹, ›deutsch‹ oder ›kurz‹ sind beispielsweise semantisch-autologische Worte. Alle anderen Aussagen oder Wörter werden als semantisch-heterologisch davon unterschieden.144 Auf dieser Funktion der durch Selbstbezüglichkeit Wahrheit generierenden Bezeichnung basieren semantische Paradoxien. Bekannt wurden diese durch Kurt Grelling und Leonard Nelson. 1908 formulieren sie eine Verallgemeinerung der logischen Antinomien der Mengenlehre (Russell, Burali-Forte) und leiten daraus ihre autologische Paradoxie ab: »Sei φ(M) dasjenige Wort, das den Begriff bezeichnet, durch den M definiert ist. Dieses Wort ist entweder Element von M oder nicht. Im ersten Falle wollen wir es ›autologisch‹ nennen, im anderen ›heterologisch‹. Das Wort ›heterologisch‹ ist nun seinerseits entweder autologisch oder heterologisch. Angenommen, es sei autologisch; dann ist es Element der durch denjenigen Begriff definierten Menge, den es selbst bezeichnet, es ist mithin heterologisch, entgegen der Annahme. Angenommen aber, es sei heterologisch; dann ist es nicht Element der durch denjenigen Begriff definierten Menge, den es selbst bezeichnet, es ist mithin nicht heterologisch, wiederum entgegen der Annahme.«145 Das als Grelling-Nelson-Antinomie bezeichnete Paradox ist jedoch keine logische Antinomie wie die Russells, sondern eine 143 Davon zu unterscheiden wäre die Bedeutung der Autologie als eigentlicher Rede im Unterschied zur bildlichen Rede sowie als Bezeichnung für das Studium des Selbst respektive des Menschen in der Anthropologie der Neuzeit. 144 Die Verwandtschaft zu Homologie (ὁμολογία, homologia, ›Übereinstimmung‹) ist offensichtlich. Ein Homolog bezeichnet in der Linguistik einen Ausdruck, der durch seine Form ein Beispiel für seine Bedeutung darstellt und damit unter die Klasse der Autologen fällt. In der Biologie bezeichnet Homologie die Übereinstimmung von Organen, Strukturen, Prozessen oder Verhaltensweisen von verschiedenen Lebewesen aufgrund ihres gemeinsamen evolutionären Ursprungs. In der Mathematik spricht man von Homologie im Kontext invarianter Gruppen der algebraischen Topologie. 145 Kurt Grelling, Leonard Nelson: ›Bemerkungen zu den Paradoxien von Russell und Burali-Forti‹ (1908), in: Nelson, Beiträge zur Philosophie der Logik und Mathematik, 1959, 55–87, S. 62. Die allgemeine Herleitung lautet: »Sei M die Menge aller Mengen, M' eine ihrer Teilmengen und Φ eine zu M' äquivalente Menge. Wir wollen die Zuordnung, durch welche die Elemente von Φ denen von M' zugeordnet sind, mit φ bezeichnen. Da die Elemente von M' selbst Mengen sind, so sind folgende Fälle möglich: Wenn M ein Element von M' ist, so ist φ(M) entweder ein Element von M, dann wollen wir φ(M) in die Teilmenge von X von Φ rechnen, oder φ(M) ist nicht Element von M, dann rechnen wir es in die zu X komplementäre Teilmenge Y von Φ. Wenn nun Y selbst Element von M' ist, so existiert in Φ ein Element φ(Y). Angenommen nun, φ(Y) sei Element von Y, dann wäre es Element von X, nach der Definition von X, was mit der Annahme in Widerspruch steht. Angenommen aber, φ(Y) sei nicht Element von Y, dann wäre es Element von Y, nach der Definition von Y, was wiederum der Annahme widerspricht.« Grelling, Nelson, ›Bemerkungen zu den Paradoxien von Russell und Burali-Forti‹ (1908), 1959, S. 61.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

377



378

Kapitel 15  ·  Symbolisch-operative Logik

semantische Paradoxie, die in unzulässiger Weise einen metasprachlichen Sachverhalt auf die logische Sprachebene projiziert. Eben diesen Umstand macht sich auch Gödel zu eigen, wenn er eine Aussage, die ihre eigene Unbeweisbarkeit behauptet, formalisiert und in einen Wortkalkül abbildet. 1974 löst Uuno Saarnio das Grelling-Nelson-Paradox durch seine Unterscheidung von autologischen, heterologischen und translogischen Aussagen auf.146 Folgt man Löfgrens formaler Darstellung von Autologien, dann bieten sie den Vorteil, konsistent zu sein, insofern sie imprädikative Begriffe negieren. Zudem lässt sich die Problematik der Paradoxien für semantische Autologien nicht durch Verbote, aber durch eine differenzierte Redeweise auflösen und zeigt sich allenfalls in der von Gödel formalisierten Weise als ›weder, noch‹. Doch der eigentlich interessante Aspekt der Autologie ist die formal-operative Eigenschaft der Generierung von Heterologie (›π, π‹, ›π, π, π‹, … ) durch Autologie (π(π) = ›π‹); also die produktive Nutzbarmachung von Selbstbezüglichkeit für ›sich durch π ergebender und dennoch von π verschiedener‹ Objekte (sich aus sich selbst generierender Objekte). Alle RM-berechenbaren Objekte der Mathematik basierend auf sich selbst angewandter Repetition sind von dieser Art. Doch Heterologie durch Autologie ermöglicht weitaus mehr als RM-berechenbare Objekte. Formale (nicht semantische) Heterologie durch Autologie, so die These, charakterisiert die selbstreferentielle symbolisch-operative Logik der modernen Mathematik als formale (Zeichen-)Sprache, die sich ausschließlich in sich selbst gründet, und damit ihrer operativen Epistemologie.

146 Vgl. Uuno Saarnio: ›Die Grellingsche Paradoxie und ihre exakte Lösung‹, in: Dialectica, 28 (3/4), 1974, 243–261.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Kapitel 16 (Re-)Organisation von Erfahrung Möglichkeiten der operativen Epistemologie

Allgemein betrachtet stellt Selbstreferentialität als sich aus sich selbst generierende Funktionen für das 20. und 21. Jahrhundert ein neues Konzept dar. Daher verwundert es nicht, dass das Konzept der Selbstreferentialität neben der Automaten- und Programmierungstheorie eine explosionsartige Verbreitung erfährt und zu einem entscheidenden Impulsgeber für die Forschung wird. Umfangreiche Studien zu sich selbst steuernden und regulierenden Prozessen in Technik und Biologie etablieren das kybernetische und das systemtheoretische Paradigma, die beide bis heute eine wichtige Rolle spielen.147 Autologie zeigt sich hier in Form selbstregulierender Prozesse, die ihre Selbstgenerierung durch Optimierung auf einen Gleichgewichtszustand regulieren. Die Erkenntnismittel dafür sind mathematisch-technische Rückkopplungsmodelle wie Oszillatoren oder Homöostate, die sich mit gekoppelten Gleichungen wie auch Schaltplänen darstellen lassen. Über die Kybernetik zweiter Ordnung (Selbstbeobachtung) sowie die kognitionswissenschaftliche Interpretation durch den radikalen Konstruktivismus (AutopoiesisKonzept)148 findet das Konzept der semantischen Selbstbezüglichkeit sogar Eingang in Gesellschaftstheorien, wie von Niklas Luhmann als ›reflektierte Autologie‹ der »soziologischen Beschreibung der Gesellschaft in der Gesellschaft« beschrieben.149 147 Kybernetik und Systemtheorie spielen in der aktuellen synthetischen Biologie und Systembiologie eine entscheidende Rolle. Zur Verwendung von Oszillatoren als Modelle selbst-regulierender Prozesse in der Biologie vgl. Gabriele Gramelsberger: ›The Simulation Approach in Synthetic Biology‹, in: Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013, 150–157; Claus Pias (Hrsg.): Cybernetics | Kybernetik. The Macy-Conferences 1946–1953, 2 Bde., Zürich, Berlin: diaphanes 2003. 148 Vgl. Ernst von Glasersfeld: Wissen, Sprache und Wirklichkeit. Arbeiten zum radikalen Konstruktivismus, Braunschweig, Wiesbaden: Vieweg 1987; Heinz von Foerster: Sicht und Einsicht: Versuche zu einer operativen Erkenntnistheorie, Braunschweig: Vieweg & Sohn 1985; Francisco J. Varela, Humberto R. Maturana, Rafael Uribe: ›Autopoiesis: The organization of living systems, its characterization and a model‹, in: BioSystems, 5, 1974, 187–196. ,,Autopoietische Systeme sind operational geschlossen und selbstreferentiell; d. h.: für die Aufrechterhaltung ihrer Existenz benötigen sie keinerlei Information, die nicht in der einen oder anderen Form in ihnen selbst angelegt wäre.« Gebhard Rusch: ›Autopoiesis, Literatur, Wissenschaft‹ (1983/84), in: Siegfried J. Schmidt (Hrsg.): Der Diskurs des Radikalen Konstruktivismus, Frankfurt: Suhrkamp, 1991, S. 374–400, S. 376. 149 Niklas Luhmann: Die Gesellschaft der Gesellschaft, Frankfurt: Suhrkamp 1997, S. 512.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



380

Kapitel 16  ·  (Re-)Organisation von Erfahrung

Die Frage jedoch ist, wie sich das Potenzial der mathematischen Operativität als Heterologie durch Autologie konkret zeigt. Die Selbstbezüglichkeit eines Quines ist eine interessante Spielart, aber für die Anwendungsfrage eher sekundär.150 Interessanter für den Anwendungskontext sind selbstreproduzierende Automaten, aber vor allem selbstregulierende Prozesse. Aus epistemischer Perspektive stellt sich die Frage, ob sich verschiedene Operationsformen mathematischer Selbstbezüglichkeit unterscheiden lassen.151 Die wohl wesentlichste Operationsform ist die auf sich selbst rekurrierende Denkweise (Rekursionen), die zu berechenbaren und partiell berechenbaren Objekten führt. Damit einher geht die Iteration, die bei gleichbleibendem Rechenverfahren (Algorithmus) die Resultate als Anfangswerte für die Berechnung des nächsten Resultats nutzt. Dies ermöglicht die sukzessive Approximation, die ab den 1970er Jahren mit der gesteigerten Leistungsfähigkeit der Computer den schnell wachsenden Bereich der numerischen Simulation eröffnet.152 Rekursion und Iteration sind für die moderne Mathematik das, was die Konstruktion für die Geometrie ist. Deutlich wird dies an den modernen Operationsformen der Geometrie, die auf Selbstähnlichkeit durch Rekursion und Iteration basieren. Autologie zeigt sich in den Ähnlichkeitstransformationen als Abbildungen von Mengen (von Punkten) auf sich selbst, ohne die Struktur der Mengen zu verändern (Automorphismen). Heterologie durch Autologie dokumentiert sich vor allem in der fraktalen Geometrie, die auf der Iteration einfacher rekursiver Funktionen basiert. Dabei erzeugt die Iteration einer Funktion f auf ihre Funktionswerte eine Folge von Zahlen 150 Allerdings ist der, den Quines zugrundeliegende Fixpunktsatz, der die ­ Existenz von Fixpunkten einer Abbildung garantiert, für viele mathematische Probleme von Be­­ deu­t ung, beispielsweise für die Sicherung eindeutiger Lösungen für bestimmte gewöhnliche Differentialgleichungen (Fixpunktsatz von Stefan Banach). 151 Als klassische Operationsformen der Mathematik als formale (Zeichen-)Sprache sind Beweis, Algorithmus und Kalkül zu nennen, wie sie bereits in der Neuzeit vorliegen. Doch diese wandeln sich im Laufe der Zeit. So sind ein ›Algorithmus‹ als Rezept einer Berechnung und ein Maschinenalgorithmus mit LOOP- und WHILE-Schleifen sehr unterschiedliche Ausgestaltungen von Operationsformen. Dasselbe gilt für Beweise und formale Computerbeweise, aber auch für Leibniz’ Vorstellung von Kalkülen und Hilberts Kalkülsysteme. 152 Rekursion und Iteration sind definitorisch nicht klar voneinander unterschieden. Der Begriff der ›Iteration‹ wird hier als sich wiederholende Anwendung desselben Rechenverfahrens verwendet. Dies ist keine neue Strategie (vgl. beispielsweise das Newton-Verfahren), doch sie gewinnt erst mit der Leistungsfähigkeit der Computer ab den 1970er Jahren eine explosionsartige Verwendung in der Mathematik wie der Wissenschaft. Vgl. Gabriele Gramelsberger (Hrsg.): From Science to Computational Sciences. Studies in the History of Computing and its Influence on Today’s Society, Berlin, Zürich: Diaphanes 2011.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Möglichkeiten der operativen Epistemologie

z → f(z) → f(f(z)) → …, die in Abhängigkeit vom Startwert z ein stabiles (Fatou-Menge Ff) respektive ein chaotisches (Julia-Menge Jf) Verhalten zeigen.153 Projiziert auf eine Riemann’sche Zahlenkugel gehört jedes Ergebnis der Folge entweder der Fatou- oder der Julia-Menge an. Iteriert man nun rekursive, quadratische Funktionen der Art zn+1 = zn2 + c für komplexe Zahlen c, erhält man die Mandelbrot-Menge, welche die Menge der Werte c ist, für welche die Julia-Menge Jc zusammenhängend ist.154 Die Mandelbrot-Menge stellt eine fraktale Struktur dar, die auf (nicht strikter) Selbstähnlichkeit basiert. Jeder Zoom in die Menge präsentiert ähnliche Formen. Geometrisch betrachtet repräsentiert die Mandelbrot-Menge eine ›fraktale‹ Geometrie mit einer nicht-ganzzahligen Dimension, die im Unterschied zur euklidischen Geometrie bei Vergrößerung komplexer und nicht einfacher wird. Damit deutet sich an, was das autologische Potential der mathematischen Operativität zu leisten vermag. Es transformiert die Erkenntniskraft der Mathematik, die sich zunehmend aus den selbstbezüglichen Funktionen speist. Denn was sich mit diesen Funktionen eröffnet, ist die Dynamik der mathematischen Objekte, die »in einer einzigen Formel zusammengedrängt, eine unendliche Anzahl von Syllogismen« enthalten.155 Dadurch experimentalisiert sich die Mathematik selbst, denn die Erforschung dieser Dynamik und der darin verborgenen Strukturen ergibt sich in der Regel nur aus der Berechnung mit Computern. Der Computer wird dabei zum Experimentallabor der Mathematik.156 Die Entbergung der verborgenen Strukturen lässt sich aufgrund der rekursiven und iterativen Selbstbezüglichkeit unendlich fortsetzen. Damit eröffnet sich der komplette Möglichkeitsraum einer ein153 Vgl. Gaston Julia: ›Mémoire sur l’itération des fonctions rationnelles‹, in: Journal de Mathématiques Pures et Appliquées, 8, 1918, 47–245; Pierre Fatou: ›Sur les equations fonctionnelles‹, in: Bulletin de la Société Mathématique de France, 47, 1919, 161–271; 48, 1920, 33–94; 1920, 208–314; Paul Blanchard: ›Complex Analytic Dynamics on the Riemann Sphere‹, in: Bulletin of the American Mathematical Society, 11 (1), 1984, 85–141. 154 Vgl. Benoît Mandelbrot: ›Fractal aspects of the iteration of z → λ(1-z) for complex λ, z‹, in: Annals of the New York Academy of Sciences, 357, 1980, 249–259; Mandelbrot, Fractals: Form, Chance and Dimension (1975), 1977. Der Zusammenhang zwischen der fraktalen Geometrie und der Dynamik nicht-linearer Gleichungen (Chaos) ergibt sich durch die Grenzzyklen der logistischen Gleichung, die reellen c-Werten der Mandelbrot-Menge entsprechen. Vgl. auch zu fraktalen L-Grammatiken Aristid Lindenmayer: ›Mathematical models for cellular interaction in development‹, in: Journal for Theoretical Biology, 18, 1968, 280–315; Nina Samuel: Die Form des Chaos. Bild und Erkenntnis in der komplexen Dynamik und der fraktalen Geometrie, München: Fink 2014. 155 Poincaré, Wissenschaft und Hypothese (1902), 1904, S. 10. 156 Erst in der Verschmelzung von Symbol und Energie als medialer Wechsel in die elektrische Schaltung ist die Voraussetzung für die Experimentalisierung der Mathematik geschaffen. Vgl. Gramelsberger, Computerexperimente, 2010, S. 268 ff.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

381



382

Kapitel 16  ·  (Re-)Organisation von Erfahrung

zigen Formel in seiner gesamten Tiefendimension. Dieser neue Zoom in die Tiefe des komplexen Zahlenraums komplettiert zunehmend die Tiefenansicht der regelbasierten Erkenntnisgewissheit der mathematischen Rationalität als ›epistemisches Mikroskop‹ auf die kausalen Wirkungen und Kräfte. Doch dieser Tiefenzoom unterliegt anderen Objektivitätsmerkmalen als der In­varianz. Generiert sich Objektivität für die Prognose der Gestaltsphäre durch Permutation und Transformation aus der Invarianz, so generiert sich Objektivität für die approximativen Berechnungen, wie zuvor beschrieben, durch numerische Stabilität (Konvergenz). Doch bereits der Übergang von der Anschauung zur Invarianz sorgte für umfangreiche Diskussionen über den ontologischen Status der dadurch postulierten Objekte als »formal [and] metaphysically thin notion of objecthood«.157 Solange sich die so postulierten Objekte experimentell direkt oder indirekt nachweisen lassen, hält die Äquivalenzrelation zwischen empirisch Unbekanntem und mathematisch-formal Prognostiziertem Stand. Ob sich dies auch für die numerische Stabilität als Indiz der Konvergenz und damit als Objektivitätsmerkmal aufrechterhalten lässt, ist aufgrund der ›empirischen‹ Konstitution der Konvergenztests fraglich. Numerische Stabilität kann keinen Apriori-Status beanspruchen, wie dies Einstein und Weyl für die Invarianz beanspruchten. Ihre ›notion of objecthood‹ ist in dieser Terminologie gesprochen ›very thin‹. Eine Geometrie wie die fraktale, die sich aus den Divergenzen einer nicht-strikten Ähnlichkeit konstituiert, entfernt sich noch weiter vom Invarianten und Konvergenten. Ihr Status ist allenfalls ›very very thin‹. Dennoch findet auch die fraktale Geometrie zunehmend Verbreitung in der Anwendung.158 Was aber noch verblüffender ist, ist der Umstand, dass fraktale Objekte natürlichen Objekten wie Pflanzen wesentlich ähnlicher sehen als die Objekte der euklidischen 157 Simon Saunders: ›Are Quantum Particles Objects?‹, in: Analysis, 66 (1), 2006, 52–63, S. 55. Vgl. Willard van Orman Quine: ›Grades of Discriminability‹, in: Journal of Philosophy, 73, 1976, 113–116; Robert M. Adams: ›Primitive Thisness and Primitive Identity‹, in: Journal of Philosophy, 76, 1979, 5–26; Steven French, Michael Redhead: ›Quantum Physics and the Identity of Indiscernibles‹, in: British Journal of the Philosophy of Science, 39, 1988, 233–46; Richard Swinburne: ›Thisness‹, in: Australian Journal of Philosophy, 73, 1995, 389–400; John O’Leary-Hawthorne: ›The Bundle Theory of Substance and the Identity of Indiscernibles‹, in: Analysis, 55, 1995, 191–219; Steven French, Dean P. Rickle: ›Understanding permutation symmetry‹, in: Brading, Castellani, Symmetries in Physics, 2003, 212–238. 158 Ein Beispiel sind Fraktalantennen in Mobilfunktelefonen, aber vor allem in Visualisierungssoftware wird die fraktale Geometrie zur Generierung ›natürlicher‹ Strukturen verwendet. Mittlerweile haben multifraktale Prozesse sogar Einzug in die Ökonomie erhalten. Vgl. Zoltan Eisler, Janos Kertesz: ›Multifractal model of asset returns with leverage effect‹, in: Physica A, 343, 2004, 603–622.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der operativen Epistemologie

und deskriptiven Geometrie.159 Selbstähnlichkeit scheint dem »mathematischen Index« der Struktur des sich »real Bekundenden« näher zu kommen als eine figurativ konstruierte Ähnlichkeit.160

Grenzen der operativen Epistemologie

Dies wirft die Frage auf, ob sich die mathematische Rationalität noch weiter entwickeln wird oder ob sie als rein formalsprachliche Technik an ihre Grenzen gelangt ist. Weiter ist zu fragen – falls eine Weiterentwicklung möglich ist –, woraus diese resultieren könnte. Einen Hinweis liefern die aktuellen wissenschaftlichen Entwicklungen insbesondere die Biologie sowie die biologieaffinen Technikkonzepte (›living technologies‹).161 Denn neben den skizzierten Grenzen der prognostischen Vergegenwärtigung durch die Limitierungen der Operabilität zeigt sich eine noch viel grundlegender Grenze, nämlich die der operativen Epistemologie selbst. Damit ist nicht gemeint, dass sich viele Kontexte nicht mathematisch operationalisieren lassen, sondern die eigentlich interessante Frage ist die, wann Mathematisierung ihren Anwendungsbereich zerstört. Weiter ist zu fragen, woraus sich ein potentiell dekon­ struktives Potenzial der Mathematisierung generiert. Deutlich zeigt sich dies an der Zellbiologie, die durch experimentelle Zurichtung ihren Gegenstandsbereich zu mathematisieren in der Lage ist, aber der Preis dafür ist hoch. Die Frage wird vor dem Hintergrund der aktuellen Zellbiologie (synthetische Biologie) noch interessanter, die das autologische Potenzial der mathematischen Operativität in Form von sich selbstregulierenden biologischen Netzwerken, die zählen oder schalten, zu nutzen versucht. Ob damit der Prozessualität biologischer Phänomene tatsächlich Genüge geleistet wird, zeigt sich an den mathematischen Problemen der aktuellen Systembiologie.162 Um die angedeutete Problematik zu verstehen, ist ein Blick in die frühe Mathematisierung der Zellbiologie hilfreich. Ähnlich der Meteorologie und 159 Die euklidischen Objekte sind technischen Objekten ähnlich, was kein Zufall ist, da sich die Analogisierung aus Richtung der Geometrie auf die hergestellten Objekte ergibt – ob handwerklich oder automatisiert hergestellt. 160 Husserl, Die Krisis der europäischen Wissenschaften (1935), 1996, S. 36. 161 »Powerful properties of living systems include their abilities to autonomously act in their own interests, proliferate exponentially, and evolve and adapt on their own.« Mark Bedau: ›Living technology today and tomorrow‹, in: Technoetic Arts, 7 (2), 2009, 199–206, S. 200. 162 Vgl. Gabriele Gramelsberger: ›Simulation and Systems Understanding‹, in: Hanne Andersen, Dennis Dieks, Wenceslao J. Gonzalez, Thomas Uebel, Gregory Wheeler (Hrsg.): New Challenges to Philosophy of Science, Dordrecht: Springer, 2013, 151–161.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

383



384

Kapitel 16  ·  (Re-)Organisation von Erfahrung

Festkörperchemie generiert sich die Mathematisierung der Zellbiologie aus dem epistemisch unbefriedigenden Zustand einer rein empirisch-deskriptiven Wissenschaft, die beobachteten Phänomene theoretisch nicht deuten und prognostizieren zu können. Im Falle der Zellbiologie ist dies zu Beginn das Wachstum von Zellkulturen. Da Größe, Zusammensetzung und funktionale Charakteristik von Zellen während des Wachstums erheblich variieren, sind die qualitativen Ergebnisse schwer zu interpretieren. Bis Mitte des 20. Jahrhunderts untersuchen Biologen das Wachstum von Zellkulturen in Petrischalen und dies wird allenfalls marginal quantitativ notiert. »Indeed, prior to the 1940’s it was generally considered sufficient to record growth as being either evident (+) or not (-), with the occasional recourse to semiquantitative flight of fancy such as +++, ++, and ±!«163 Was fehlt, ist ein Verständnis der Dynamik des Zellwachstums. Vor diesem Hintergrund vollzieht sich eine erstaunliche Entwicklung. Denn bevor die Zellbiologie eine mathematische Theorie des Zellwachstums entwickeln kann, erfolgt die Zurichtung des Experimentierens auf die Möglichkeit der Mathematisierung und dies bedeutet, Zellbiologie in eine experimentell wie mathematisch beherrschbare, prozessuale Theorie zu transformieren.164 Zu eben diesem Zweck wird in den 1940er Jahren eine neue Experimentaltechnik entwickelt, »a technique which has heretofore been purely preparative in scope [… now] converted into an analytical method for studying the kinetics of cell growth«.165 Diese analytisch-experimentelle Methode zum Studium der Dynamik des Zellwachstums kultiviert Zellen unter prozessualen, statt wie in Petrischalen unter statischen Bedingungen. Die dafür nötigen Apparaturen halten Zellen in einem Nährmedium, das kontinuierlich erneuert wird (›continuous cultures techniques‹). Durch Zufluss und Abfluss des Nährmediums werden die Zellen permanent gezwungen, sich durch Teilung zu vermehren. Auf diese Weise lässt sich ein künstlicher Gleichgewichtszustand (›steady state‹) herstellen, der einer stabilen Rate zwischen Zellteilung und Zellwachstum unter gleichbleibender Konzentration an Zellen entspricht, da mit dem Abfluss des Nährmediums permanent Zellen ›ausgewaschen‹ werden. Wie Jacques Monod, Entwickler des Bactogen – neben dem Chemostat, dem Turbidostat und dem Auxanometer das klassische Experimentalsystem für die kon163

S. 2.

David W. Tempest: Dynamics of Microbial Growth, Sidney: John Wiley & Sons 1978,

164

Vgl. Gabriele Gramelsberger: ›Continuous culture techniques as simulators for standard cells: Jacques Monod’s, Aron Novick’s and Leo Szilard’s quantitative approach to microbiology‹, in: History and Philosophy of Life Science, 40 (1), 2018, 23. 165 Paul Anderson: ›Automatic recording of the growth rates of continuously cultured microorganisms‹, in: Journal for Genetic Physiology, 36, 1953, 733–737, S. 733.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der operativen Epistemologie

tinuierliche Kultivierung166 –, schreibt, ist nur in diesem Zustand die Wachstumsrate konstant. »It is in fact the only phase of the growth cycle when the properties of the cells may be considered constant and can be described by a numeric value.«167 Nur in diesem Gleichgewichtszustand wird Zellwachstum zum mathematisierbaren Prozessobjekt. Der Preis ist jedoch, Zellenkulturen dem idealen physiologischen Zustand des Gleichgewichtszustands – ideal für die Mathematisierung – und damit logarithmischem Wachstum zu unterwerfen und Zellen zu »fixed entities that can be dealt with much as a physicist deals with an atom or a molecule« zu machen.168 Erst auf Basis dieser experimentellen Voraussetzung ist eine Theorie des Zellwachstums möglich, die Ende der 1940er Jahre von Monod sowie Aron Novick und Leo Szilard formuliert wird.169 Die grundlegende Gleichung präsentieren Novick und Szilard 1951 auf dem Cold Spring Harbor Symposium on Quantitative Biology:170 dN / dt = αN – ωN. Die Differentialgleichung beschreibt die zeitliche Entwicklung (dt) der Anzahl der Zellen (dN) pro ml Nährflüssigkeit als durchschnittliche Rate der Zellteilung und des Zellwachstums (αN) abzüglich der Auswaschrate der Zellen (ωN), die sich aus dem Verhältnis der Abflussgeschwindigkeit der Nährlösung 166 Vgl. zum Bactogen Jacques Monod: ›The growth of bacterial cultures‹, in: Annual Review of Microbiology, 3, 1949, 371–394; zum Turbidostat Jack Myers, L. B. Clark: ›Culture Conditions and the Development of the Photosynthetic mechanism‹, in: Journal for Genetic Physiology, 28, 1944, 103–112; zum Chemostat Aron Novick, Leo Szilard: ›Description of the Chemostat‹, in: Science, 15, 1950, 715–716; zum Auxanometer Anderson, ›Automatic recording of the growth rates of continuously cultured microorganisms‹, 1953. 167 Monod, ›The growth of bacterial cultures‹, in: Annual Review of Microbiology, 1949, S. 382. »The design and performance of experiments with such continuous cultures is simpler, and the data are easier to obtain and more accurate than those from batch cultures. Consequently, fewer experiments need to be done to establish results.« Herbert Kubitschek: Introduction to Research with Continuous Cultures, Englewood Cliffs: PrenticeHall 1970, S. 4. 168 Thomas W. James: ›Continuous Culture of Microorganisms‹, in: Annual Review of Microbiology, 15, 1961, 27–46, S. 34. 169 Monod, ›The growth of bacterial cultures‹, 1949; Jacques Monod: ›La technique de culture continue, theorie et applications‹, in: Annales de l’Institut Pasteur, 79, 1950, 390–410; Aron Novick, Leo Szilard: ›Experiments with the Chemostat on Spontaneous Mutations of Bacteria‹, in: PNAS Proceedings of the National Academy of Sciences, 36 (12), 1950, 708–719; Aron Novick: ›Growth of bacteria‹, in: Annual Review of Microbiology, 9, 1955, 97–110. 170 Vgl. Aron Novick, Leo Szilard: ›Experiments on Spontaneous and Chemical induced Mutations of Bacteria growing in the Chemostat‹, in: Cold Spring Harbor Symposium on Quantitative Biolology, 16, 1951, 337–343.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

385



386

Kapitel 16  ·  (Re-)Organisation von Erfahrung

(w) pro ml/h und dem Volumen der Zellkultur (V) errechnet. Es wird deutlich, dass für die kontinuierliche Kultivierung die Auswaschrate der Zellen (ω) der maßgebliche Parameter ist. Sind α und ω gleich, so befindet sich die Zellkultur in einem Gleichgewichtszustand und dies technisch zu garantieren, ist die Aufgabe des Experimentaldesigns der kontinuierlichen Kultivierung.171 Auf Basis dieser Gleichung lassen sich dann drei charakteristische Wachstumsphasen als Konstanten formulieren – absolutes Wachstum, exponentielles Wachstum und Wachstumsverzögerung – und im Experiment kontrolliert herstellen und nutzen. »That these definitions [of growth phases] are not purely arbitrary and do correspond to physiologically distinct elements of the growth cycle is shown by the fact that, under appropriately chosen conditions, the value of any one of the three constants may change widely without the other two being significantly altered. The accuracy, the ease, the reproducibility of bacterial growth constant determinations is remarkable and probably unparalleled, so far as biological quantitative characteristics are concerned.«172 Die quantitative Theorie des Zellwachstums von Novick, Szilard und Monod ist die Basis molekularbiologischer Experimente bis heute, insbesondere für die aktuellen Entwicklungen der Systembiologie und der synthetischen Biologie.173 Fragt man, was die Mathematisierung von Zellen durch ein entsprechend implementiertes Experimentaldesign bedeutet, so zeigt sich, dass Zellen als Forschungsobjekte in »a model unit whose functions are invariant in time« transformiert werden.174 Invarianz widerspricht zwar den Eigenschaften lebender Zellen, ermöglicht aber das mathematische wie experimentelle Hantieren mit ihnen. Sie ergibt sich nur durch die Aufrechterhaltung des Gleichgewichtszustandes als stabiles Verhältnis von Zellteilung und Auswaschung. Zellwachstum wird unter diesen Bedingungen vorhersagbar und die Wachstumsparameter werden von außen kontrollierbar und damit 171

Es lassen sich zwei Experimentaldesigns unterscheiden. Im Turbidostat wie auch dem Auxanometer wird das Zellwachstum anhand der Trübheit der Nährflüssigkeit durch eine Photozelle kontrolliert: Je trüber die Substanz ist, desto mehr Zellen haben sich gebildet. Im Chemostat und Bactogen ist dies anders gelöst, indem ein einziger Nährstoff zum Kontrollfaktor des Wachstums über die Zellteilungsrate wird. »The flow rate is held at some fixed value below the maximum growth rate. Furthermore, the nutrient medium is composed of a large excess of all required nutrilites but one.« Novick, ›Growth of bacteria‹, 1955, S. 99. 172 Monod, ›The growth of bacterial cultures‹, 1949, S. 392. 173 Vgl. Gabriele Gramelsberger, Tarja Knuuttila, Axel Gelfert (Hrsg.): Philosophical Perspectives on Synthetic Biology, Special Issue, Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013. 174 James, ›Continuous Culture of Microorganisms‹, 1961, S. 34.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der operativen Epistemologie

dem Experimentieren zugänglich. Denn logarithmisches Wachstum operiert »at flow rates that would now classify them [continuous culture techniques] as externally controlled devices«.175 Zellen sind zwar als lebende Objekte per se dynamische Prozessobjekte, aber experimentieren bedeutet, die Dynamik der Zellen unter mathematischer Anleitung zu kontrollieren und Zellen damit in mathematisierte Prozessobjekte umzuformatieren. Doch gerade die Zellbiologie wirft die Frage auf, wie weit die Mathematisierung gehen kann. Die Antwort auf diese Frage ist zweigeteilt und markiert die Disziplinenabgrenzung zwischen synthetischer Biologie und Systembiologie.176 Die aktuelle synthetische Biologie treibt die Mathematisierung material weiter, indem sie komplexe biologische Einheiten wie Zellen oder Mikroorganismen in einzelne ›biobricks‹ zerlegt und mit Hilfe von im Labor synthetisierter DNA neu rekonstruiert: Die synthetisch hergestellten ›biobricks‹ werden zu ›parts‹, ›devices‹ und schließlich ›systems‹ zusammengesetzt.177 Ziel dieser ›brickfication‹ ist die Reduktion der Komplexität der Biologie Towards computer aided design (CAD) of useful microorganisms: »Trimming organisms genetically to optimize their productivity is therefore a key technology of immense industrial importance.«178 Dies geschieht durch die Subsumtion der Zelldynamik unter eine handhabbare technisch-mathematische Operativität wie im Falles des ›repressilators‹, ein biomolekulares Netzwerk, das oszilliert;179 des ›genetic toggle switch‹, ein biomolekulares Netzwerk, das schaltet;180 oder der ›counting gene networks‹, biomolekulare Netzwerke, die zählen.181 Diese neuen Entitäten bezeichnen Biologen als »molecular ›Borg,‹ with biological, bioderived, and nonbiological elements combined for higher efficiency and robustness«.182 Lediglich die mathematisch wie technisch175

Ebd., S. 33. Vgl. Bernadette Bensaude-Vincent: ›Discipline-building in synthetic biology‹, in: Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013, 122–129. 177 Vgl. Drew Endy: ›Foundations for engineering biology‹, in: Nature, 438, 2005, 449– 453; Kathrin Friedrich, Gabriele Gramelsberger: ›Techniken der Überschreitung. Fertigungsmechanismen ›verlässlich lebensfähiger‹ biologischer Entitäten‹, in: Zeitschrift für Medienwissenschaften, 4, 2011, 15–21. 178 Masaru Tomita: ›Towards computer aided design (CAD) of useful microorganisms‹, in: Bioinformatics, 17 (12), 2001, 1091–1092, S. 1091. 179 Vgl. Michael B. Elowitz, Stanislas Leibler: ›A synthetic oscillatory network of transcriptional regulators‹, in: Nature, 403 (6767), 2000, 335–338. 180 Timothy S. Gardner, Charles R. Cantor, James Collins: ›Construction of a genetic toggle switch in Escherichia coli‹, in: Nature, 403, 2000, 339–342. 181 Ari E. Friedland et al.: ›Synthetic gene networks that count‹, in: Science, 324, 2009, 1199–1202. 182 Petra Schwille: ›Bottom-up Synthetic Biology: Engineering in a Tinkerer’s World‹, in: Science, 333, 2011, 1252–1254, S. 1254. 176

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

387



388

Kapitel 16  ·  (Re-)Organisation von Erfahrung

experimentell beherrschbaren dynamischen Eigenschaften von Zellen und Mikroorganismen unter Ausschaltung aller ›störenden‹ Lebensaspekte wie Mutation und Adaption sind von Interesse. Dabei ist die Nähe zur Zähmung elektrischer Energie in Form von Verschaltungen kein Zufall. Oszillieren, Schalten und Zählen lassen sich nicht nur eindeutig im Experiment als Verhalten makroskopisch sichtbar machen und ermöglichen es dadurch, den Erfolg oder Misserfolg zu überprüfen. Sie sind als mathematisch wie technisch vollkommen verstandene Rückkopplungsphänomene einfacher herzustellen als genuin biologische Verhaltensphänomene. Im Falle des Repressilators beispielsweise wird eine negative Rückkopplung von drei Repressor-Proteinen im Labor synthetisiert: das erste Protein inhibiert die Transkription des zweiten Proteins, das wiederum ein drittes inhibiert, das schließlich das erste Protein inhibiert.183 Auf diese Weise lässt sich ein geschlossener (Rückkopplungs-)Schwingkreis biologisch implementieren. Um dies nun konkret zu bewerkstelligen bedarf es im Vorfeld der mathematischen Analyse, da es sich um einen nicht-linearen Oszillator handelt.184 Eine Sensitivitätsstudie des Verhaltens der Trajektorien – ähnlich Poincarés Studien – ist notwendig, um die geeigneten Parameterbereiche der Transkriptions- und Translationsrate sowie der Konzentrationen der Proteine prognostizieren zu können, für die das rückgekoppelte Drei-Protein-Problem tatsächlich zu oszillierendem Verhalten führt.185 Ein Ausprobieren im Labor würde Hunderte von Experimenten erfordern. Da die mathematische Operativität von Oszillatoren seit dem 17. Jahrhundert zu den meist untersuchten Objekten gehört, ist dies mit mathematischen Berechnungen wesentlich einfacher und schneller zu leisten.186 Doch um Zellen tatsächlich in Oszillatoren zu verwandeln, muss ihr temporales Verhalten manipuliert werden. »To increase the 183 »The first repressor protein, LacI from E.coli, inhibits the transcription of the second repressor gene, tetR from the tetracycline-resistance transposon Tn10, whose protein product in turn inhibits the expression of a third gene, cI from λ phage. Finally, CI inhibits lacI expression, completing the cycle.« Elowitz, Leibler, ›A synthetic oscillatory network of transcriptional regulators‹, 2000, S. 335. 184 Vgl. Gabriele Gramelsberger: ›The Simulation Approach in Synthetic Biology‹, in: Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013, 150–157. 185 »That such a negative feedback loop can lead to temporal oscillations in the concentrations of each of its components can be seen from a simple model of transcriptional regulation, which we used to design the repressilator and study its possible behaviours.« Elowitz, Leibler, ›A synthetic oscillatory network of transcriptional regulators‹, 2000, S. 335. 186 Harmonische Oszillatoren, die sinusförmig schwingen, werden für mechanische Federpendel bereits von Robert Hooke untersucht. Vgl. Robert Hooke: Lectures de potentia restitutiva, or, of Spring: explaining the power of springing bodies: to which are added some collections, London: John Martyn 1678.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Grenzen der operativen Epistemologie

chances that the artificial network would function in the oscillatory regime, we made two alterations to natural components.«187 Die erste Modifikation besteht in dem synthetischen Design eines starken ›promotors‹, ein DNAAbschnitt, der die Transkription eines Gens initiiert. Die zweite Modifikation erfordert das synthetische Design eines ›tags‹ basierend auf einer RNASequenz, die die Lebenszeit der Repressor-Proteine von Stunden auf Minuten reduziert. Mit einer derart mathematisch ›getunten‹ artifiziellen Temporalität zeigen immerhin vierzig Prozent der Zellen tatsächlich eine Art oszillierendes Verhalten, das sich aber nach einiger Zeit wieder auflöst. Der Repressilator wie auch die anderen synthetischen Designs modulieren biologische Dynamik als mathematisch-technische Dynamik. Der Grund dafür ist klar. Da die ›design principles‹ der Biologie nicht verstanden sind, behilft man sich mit der Implementierung bekannter operativer Prinzipien wie eben dem Rückkopplungs-, Zähl- oder Schaltmechanismus.188 Doch es ist offensichtlich, dass dies epistemisch wie biologisch an seine Grenzen stößt. Selbst wenn sich lebende Zellen auf diese Weise zu Produktionseinheiten (›borgs‹) umfunktionieren lassen – und darin wird nichts Geringeres als die Zukunft der Technologie gesehen189 –, so verlieren sie durch die Mathematisierung ihre genuin eigene Prozessualität und werden zu technischen Objekten, die von den Biologen als ›chassis‹ bezeichnet werden. In diese ›chassis‹ – genetisch bereinigte und reduzierte Organismen – lässt sich dann die gewünschte Prozessualität durch synthetisch hergestellte ›biobricks‹ ›einpluggen‹. Von den Eigenschaften lebender Organismen – Mutation, Adaptivität, Selbsterhaltung, etc. – bleibt allenfalls Selbsterhaltung als Motor übrig, um Zellen als Produktionseinheiten nutzen zu können.190

187 Elowitz, Leibler, ›A synthetic oscillatory network of transcriptional regulators‹, 2000, S. 335. 188 »The ›design principles‹ underlying the functioning of such intracellular networks remain poorly understood. [… Therefore] we present a complementary approach to this problem: the design and construction of a synthetic network to implement a particular function.« Elowitz, Leibler, ›A synthetic oscillatory network of transcriptional regulators‹, 2000, S. 335. 189 Zellen sollen die chemische und landwirtschaftliche Produktion langfristig ersetzen. Vgl. Robert H. Carlson: Biology Is Technology: The Promise, Peril, and New Business of Engineering Life, Cambridge: Harvard University Press 2011 190 So designten beispielsweise Kinga Umenhoffer et al. ein minimiertes E-coli-Chassis, bei dem die Fähigkeit zur Mutation ausgeschaltet wurde. Vgl. Kinga Umenhoffer, et al.: ›Reduced evolvability of Escherichia coli MDS42, an IS-lesscellular chassis for molecular and synthetic biology applications‹, in: Microbial Cell Factories, 9, 2010, 38.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

389



390

Kapitel 16  ·  (Re-)Organisation von Erfahrung

Plastizität der Mathematik

Aus Perspektive der operativen Epistemologie stellt sich die abschließende Frage, ob die Mathematik hier epistemisch an ihre Grenzen kommt, und wenn ja, warum. Eine Antwort sucht die Systembiologie. Sie versteht Zellen als komplexe Systeme interagierender Einheiten. Neben Experimenten zur Aufklärung biomolekularer Strukturen und Zusammenhänge hat sich in der Systembiologie die Computersimulation als umfassendes Analysewerkzeug etabliert, mit dem Ziel, »to illuminate the principles underlying biology at a genetic, molecular, cellular and even organismal level [… with] mathematical concepts«.191 Projekte wie die ›virtual self-surviving cell‹ oder ›e-cell‹ versuchen Zellen in hinreichender Komplexität zu modellieren, um dann ›insilico‹-Experimente mit diesen virtuellen Zellen durchzuführen.192 Der Grund ist folgender: Aufgrund der Komplexität biologischer Abläufe sind experimentelle Resultate äußerst vage. Zwar lässt sich die Struktur von Entitäten wie Genen, Proteinen oder Metaboliten aufklären (qualitative Daten), doch deren Wirkzusammenhänge und kinetische Parameter (quantitative Daten) sind nur schwer zu ermitteln. Virtuelle Zellen dienen daher dem Verständnis innerzellulärer Prozesse wie im Falle der ›virtual self-surviving cell‹, die Nährstoffe aufnimmt und verarbeitet.193 Indem Gene ab- und angeschaltet oder die Nährstoffe verändert werden, lässt sich das Verhalten der simulierten Zelle studieren. Dabei zeigt sich der Vorteil, dass die komplexen Interaktionen mit Netzwerkdiagrammen visualisierbar werden. 191 Christopher Surridge: ›Nature inside: Computational Biology‹, in: Nature, 420, 2002, 205–206, S. 205. 192 Vgl. Masaru Tomita: ›Whole-cell Simulation: A Grand Challenge of the 21st Century‹, in: TRENDS in Biotechnology, 19 (6), 2001, 205–210. »Our E-Cell project aims to develop the theories, techniques, and software platforms necessary for whole-cell-scale modeling, simulation, and analysis.« Kouichi Takahashi, et al.: ›Computational Challenges in Cell Simulation: A Software Engineering Approach‹, in: IEEE Intelligent Systems, 5, 2002, 64–71, S. 64. 193 »This virtual self-surviving cell (SSC) model takes up glucose into the cytoplasm, metabolizes the glucose through the glycolysis pathway and produces ATP as an energy source. The ATP is consumed mainly for protein synthesis; the 127 genes are transcribed by RNA polymerase into mRNAs, and then translated into proteins by ribosome. Proteins are modeled to degrade spontaneously over time and so the cell has to constantly produce protein to sustain life. The membrane structure of the cell is also modeled to degrade over time; thus, the cell has a phospholipid biosynthesis pathway for biosynthesis of the cell membrane, uptaking fatty acid and glycerol, consuming ATP and generating a phospholipid bilayer, which forms a cell membrane. A constant supply of energy (ATP) is required to maintain protein and membrane synthesis, and thus glucose is essential for the survival of the virtual cell.« Tomita, ›Whole-cell Simulation‹, 2001, S. 206.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Plastizität der Mathematik

Die mathematischen Strategien, die dabei zum Einsatz kommen, sind vielfältig: Stochastische Algorithmen, Differentialgleichungen, objektorientierte Modellierung, Flux-Balance-Analyse, etc.194 Indem diese Vielzahl bekannter mathematischer Strategien hierarchisch organisiert wird, lässt sich damit eine virtuelle Zelle kompilieren. Die Leistungsfähigkeit der Maschinenalgorithmen und Computer macht es möglich, auf diese Weise biologisch komplexe Prozessualität zu ›imitieren‹. Das Problem ist jedoch, dass die Komplexität biologischer Simulationen zwar weit über die physikalischer Simulationen hinausgeht. »Numerous uniform components and a limited number of simple principles characterize most traditional computational science fields, such as computational physics. Cell simulation, in contrast, involves many different components interacting in diverse and complicated ways.«195 Dennoch ist die Simulation kein Versuch, biologisch komplexe Prozessualität mathematischoperativ tatsächlich zu erfassen. Die verwendeten mathematischen Strategien entstammen allesamt einer ausschließlich an der Physik orientierten Mathematik. Wie die historische Entwicklung deutlich machte, ist das Anwendungsverhältnis kein einseitiges. Nicht nur Mathematik wird auf Wissenschaft, sondern Wissenschaft wird auch auf Mathematik angewandt. Bislang war dies die Physik, die sich in einem Koevolutionsverhältnis mit der Mathematik entwickelte. Der Vergleich der antiken und neuzeitlichen Mathematik zeigte, dass es der physikalische Bewegungsbegriff war, der neue Prinzipien in die Mathematik einführte. In den Worten von Felix Klein: »Indes ist der Geist, aus dem die moderne Mathematik geboren wurde, ein ganz anderer. Von der Naturbeobachtung ausgehend, auf Naturerklärung gerichtet, hat er ein philosophisches Prinzip, das Prinzip der Stetigkeit an die Spitze gestellt.«196 Doch es dauerte mehr als dreihundert Jahre, bis der Bewegungsbegriff des Infinitesimalkalküls als formal fundierter und streng axiomatisierter Begriff durch die Gruppentheorie sowie Dedekinds Arithmetisierungsprogramm mathematisch erfasst war. Dies führte zum einen zum Transformations- und Permutationsbegriff der abstrakten Gruppentheorie, zum anderen zum arithmetisch begründeten Stetigkeitsbegriff.197 Die Integration eines empirischen Begriffs in die Mathematik – initiiert durch das Rückkopplungsverhältnis von Mathematik und Physik seit der Neuzeit – dokumentiert die Plastizität 194 Vgl. Takahashi, et al., ›Computational Challenges in Cell Simulation‹, 2002; Gramelsberger, ›Simulation and Systems Understanding‹, 2013. 195 Takahashi, et al., ›Computational Challenges in Cell Simulation‹, 2002, S. 66, 67. 196 Klein, ›Über die Arithmetisierung der Mathematik‹ (1895), 1922, S. 232. 197 Vgl. Wußing, Die Genesis des abstrakten Gruppenbegriffes, 1969; Klein, ›Über die Arithmetisierung der Mathematik‹ (1895), 1922.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

391



392

Kapitel 16  ·  (Re-)Organisation von Erfahrung

der Mathematik. Dies bedeutet, dass sich mathematischer Erkenntnisfortschritt nicht nur im Ausloten mathematischer Theorien sowie in der innermathematischen Anwendung erschöpft, sondern nicht unerheblich aus der Inkludierung empirischer Begriffe resultiert, die zu neuen mathematischen Erkenntnisformen und Erkenntnismitteln führen.198 Insofern sich eine Disziplin in ihrer Prozessualität an diesen inhärenten Bewegungs- und damit Ordnungsbegriff der physikaffinen Mathematik anpassen kann, ist sie problemlos mathematisierbar, wie dies die Meteorologie als Physik der Atmosphäre dokumentiert. Doch an eben diesem Bewegungs- und Ordnungsbegriff laboriert die Biologie, der ein wesentlich komplexerer Prozess- und Ordnungsbegriff wie auch Identitätsbegriff zugrunde liegt. Der biologische Identitätsbegriff fordert die grundlegende Annahme der physikaffinen Mathematik heraus, dass sich zwar der Wert, aber nicht die ontologische Zuschreibung der Variablen ändern kann (Identitätsprinzip). Ohne diese Annahme wären weder ein mathematisch erfassbarer Ordnungsbegriff noch ein Strukturbegriff denkbar. Für die Physik bedeutete dies, dass die Anpassungsleistung an die Mathematik in der Abstraktion ihrer Entitäten als homogene Entitäten beruhte. Nur indem die Heterogenität derart abstrahiert wurde, ließ sich die Physik unter das Identitätsprinzip der Mathematik subsumieren. Bernadette Bensaude-Vincent hat diesen Anpassungsprozess der Physik als Materials as machines beschrieben: »Historically the construction of an abstract and general concept of matter conditioned the science of nature in general. Otherwise physics would be a ›zoology‹ of materials. Moving beyond the multiplicity and the variety of individual and phenomenological substances was the key to ›modern science‹.«199 Die Prozessualisierung eines solchen abstrakten Materiebegriffs durch den physikalisch orientierten Bewegungsbegriff, wie von Kant in den Metaphysischen Anfangsgründen der Naturwissenschaft dargestellt, ermöglicht die Mathematisierung.200 Dementsprechend generiert sich die physikalische Komplexität aus der Transformation homogenisierter Raum-Zeit-Materiepunkte (Koordinaten) sowie aus der (nicht-)linearen Inter198 Ein weiteres Beispiel wäre der Zufalls- und Häufigkeitsbegriff durch Würfelspiele und die sich daraus entwickelnde Statistik und Stochastik. Vgl. Stephen M. Stigler: The History of Statistics. The Measurement of Uncertainty before 1900, Cambridge: Harvard University Press 1986. 199 Bernadette Bensaude-Vincent: ›Materials as machines‹, in: Martin Carrier, Alfred Nordmann (Hrsg.): Science in the Context of Application, Heidelberg: Springer, 2011, 101–113, S. 103, Fn. 8. 200 Der physikalische Bewegungsbegriff ist dabei ein rein phänomenologischer Begriff, denn nur durch Bewegung werden die Sinne affiziert. Vgl. Kant, Metaphysische Anfangsgründe der Naturwissenschaft (1786), 1983, A XVII.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Plastizität der Mathematik

aktion homogener Entitäten, die sich als Variablen für Zustandsgrößen eines Systems fassen und quantifizieren lassen. Aus Perspektive der Biologie hat Ludwig von Bertalanffy dies in den 1960er Jahren als ›summative‹ Logik physikalischer Prozessualität charakterisiert. »Summative characteristics of an element are those which are the same within and outside the complex; they may therefore be obtained by means of summation of characteristics and behavior of elements as known in isolation.«201 Aufgrund dieser Anpassungsleistung der Elemente der Physik an die Elemente des Mathematischen ist das Unbekannte mit Hilfe von Gleichungen überhaupt erschließbar. Eben diese enorme Abstraktionsleistung und ihre Homogenitätsannahmen werden durch die Konstitution der Entitäten der Biologie herausgefordert. Denn die Logik biologischer Prozessualität basiert auf heterogenen Entitäten, die komplex organisiert sind. Von Bertalanffy bezeichnet die Logik biologischer Prozessualität im Unterschied zur physikalischen als ›konstitutiv‹. »Constitutive characteristics are those which are dependent on the specific relations within the complex; for understanding such characteristics we therefore must know not only the parts, but also their relations.«202 Die biologische Komplexität resultiert also nicht wie die physikalische aus der linear oder nicht-linear geordneten Interaktion homogener Entitäten oder Koordinaten, sondern aus der Komplexität der Relationen zwischen biologischen Entitäten, die extrem vielgestaltig, funktional divers sowie kausal bidirektional sind. Das maßgebliche Problem dabei ist, dass die Relationen, in welche die biologischen Entitäten eingebunden sind, auf diese rückwirken können und sich dadurch die Funktion der Entitäten verändert.203 Diese sind 201 Ludwig von Bertalanffy: General System Theory. Foundations, Development, Applications, New York: Braziller 1968, S. 54. 202 Ebd., S. 55. »Unlike […] complex systems of simple elements, in which functions emerge from the properties of the networks they form rather than from any specific element, functions in biological systems rely on a combination of the network and the specific elements involved. […] In this way, biological systems might be better characterized as symbiotic systems.« Hiroaki Kitano: ›Computational systems biology‹, in: Nature, 420, 2002, 206–210, S. 206. Vgl. Hiroaki Kitano: ›Systems Biology: Toward System-level Understanding of Biological Systems‹, in: Ders. (Hrsg.): Foundations of Systems Biology, Cambridge: MIT Press 2001, 1–28. 203 Besonders deutlich wird dies in der Epigenetik, die die unterschiedlichen Funktionen desselben Gens in verschiedenen Individuen einer Art untersucht. »In general, genetics today deals with the transmission and processing of information in DNA, whereas epigenetics deals with its interpretation and integration with information from other sources. Epigenetics is therefore concerned with the systems of interactions that lead to predictable and usually functional phenotypic outcomes; it includes processes of spontaneous self-organization that depend on the physical and chemical properties of

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

393



394

Kapitel 16  ·  (Re-)Organisation von Erfahrung

nicht mehr als homogen, sondern als multifunktional zu verstehen. Die Logik biologischer Prozessualität ist daher durch ihre multifunktionale Reaktivität auf permanenten Wechsel geprägt und ihre Elemente agieren nie isoliert, sondern immer selektiv in gekoppelten und nicht-linearen Netzwerken.204 Zudem sind Organismen offene Systeme, die von außen Energie und Materie aufnehmen und abgeben, während die physikalischen Modelle in der Regel von der Geschlossenheit ausgehen (Massen-, Impuls-, Energieerhaltung, etc.). Dies bedeutet für die Logik der biologischen Prozessualität Folgendes: »The opensystem model is basically nonmechanistic, and transcends not only conventional thermodynamics, but also one-way causality as is basic in conventional physical theory. […] Ultimately, [it] is a modern expression of the ancient antithesis of ›process‹ and ›structure’; it will eventually have to be solved dialectically in some new synthesis.«205 Der Biologie liegt also ein wesentlich komplexerer Typ von Prozessualität zugrunde als der Physik. Doch diese Prozesskomplexität theoretisch wie mathematisch zu erfassen, ist alles andere als einfach.206 Entweder wird biologische Prozesskomplexität, wie dies die aktuelle synthetische Biologie versucht, Stück für Stück auf eine mathematisch-technisch beherrschbare Prozessualität reduziert und Zellen werden zu ›fixed entities‹. Oder biologische Prozesskomplexität wird durch Computersimulationen imitiert, wie dies die aktuelle Systembiologie versucht. Beide Strategien sind jedoch keine Versuthe internal and external environments, as well as on evolved gene-dependent mechanisms.« Eva Jablonka, Marion J. Lamb: ›The Changing Concept of Epigenetics‹, in: Annals of the New York Academy of Sciences, 981, 2002, 82–96, S. 88. 204 »For example, p53 (a 393-amino-acid protein sometimes called ›the guardian of genome‹) acts as tumour suppressor because of its position within a network of transcription factors. However, p53 is activated, inhibited and degraded by modifications such as phosphorylation, dephosphorylation and proteolytic degradation, while its targets are selected by the different modification patterns that exist; these are properties that reflect the complexity of the element itself. Neither p53 nor the network functions as a tumour suppressor in isolation. In this way, biological systems might be better characterized as symbiotic systems.« Kitano, ›Computational systems biology‹, 2002, S. 206. 205 von Bertalanffy, General System Theory, 1986, S. 163. 206 »The complexity of biological organisms cannot as yet be captured by attempting to characterize the dynamics of all their underlying processes. Instead, biological complexity measures refer either to form, function, or the sequence that codes for it.« Christoph Adami: ›What is complexity?‹, in: BioEssays, 24, 2002, 1085–1094, S. 1086. Strategien wie zelluläre Automaten werden dieser Komplexität nicht gerecht, wie sich dies beispielsweise Stephen Wolfram für seine ›new science‹ erhofft. Vgl. Stephen Wolfram: ›Random sequence generation by cellular automata‹, in: Advances in Applied Mathematics, 7, 1986, 123–169; Stephen Wolfram: A New Kind of Science, Champaign: Wolfram Media 2002.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Plastizität der Mathematik

che, der biologischen Prozesskomplexität gerecht zu werden, um der Physikalisierung durch Mathematisierung zu entgehen. Auch Rechenverfahren, die sich an der Biologie orientieren und unter dem Begriff des ›natural computing‹ subsumiert werden – dazu gehören zelluläre Automaten, evolutionäre Algorithmen, Schwarmintelligenz, ›artificial life‹, ›membrane computing‹ oder ›amorphous computing‹ – erweitern die symbolisch-operative Logik nicht, solange sie in die klassische RM-Berechenbarkeit implementierbar sind.207 Denn RM-Berechenbarkeit bewegt sich im Paradigma der Repetition, also der basalsten Umsetzung des Bewegungs- und Ordnungsbegriffes der physikaffinen Mathematik, und kann daher allenfalls eine komplexe Organisation nur imitieren. Das heißt, ein Wechsel von der formalen (Zeichen-)Sprache in die elektrische Schaltung liefert keine neue Art von Operativität. Wie ein ›biologischer Calculus‹ aussehen könnte, darüber kann nur spekuliert werden.208 Er müsste zum einen den wesentlich komplexeren Prozessund Organisationsbegriff der Biologie in die Mathematik integrieren, zum anderen der kontextabhängigen Multifunktionalität der biologischen Entitäten Rechnung tragen.209 Doch gerade Letzteres würde der tautologischen Axiomatik der Mathematik in Form des Prinzips der Identität wie auch der Anwendbarkeit im Sinne von Ununterscheidbarkeit und Invarianz zuwiderlaufen. Denn mit der Selbstreferentialität der Formalsprachlichkeit stößt die Mathematik als Sprache zwar an ihre äußerste Grenze, sie kann jedoch die tautologische Axiomatik nur aufgrund des Umstandes erweitern, auf sich selbst angewandte formale (Zeichen-)Sprache zu sein. Ob dies genügt, um den komplexen Prozess- und Organisationsbegriff sowie Identitätsbegriff der Biologie mathematisch zu operationalisieren, ist fraglich. Daher behilft man sich in der Systembiologie damit, kontextabhängige Multifunktionali207 »All these are computational techniques that, while inspired by nature, have been implemented until now mostly on traditional electronic hardware.« Lila Kari, Grzegorz Rozenberg: ›The Many Facets of Natural Computing‹, in: Communications of the ACM, 51, 2008, 72–83, S. 77. 208 Vgl. Bernd Sturmfels: ›Can biology lead to new theorems?‹, in: 2005 Annual Report, Oxford: Clay Mathematics Institute 2005,13–26; Joel E. Cohen: ›Mathematics Is Biology’s Next Microscope, Only Better; Biology Is Mathematics’ Next Physics, Only Better‹, in: PLoS Biology, 2 (12), 2017, e439. 209 Dies ist von der Unbestimmtheit wie sie die Fuzzy-Logik formalisiert oder von mehrwertigen Logiken zu unterscheiden. Vgl. Lotfi A. Zadeh,: ›Fuzzy sets‹, in: Information and Control, 8, 1965, 338–353; Joseph A. Goguen: ›The logic of inexact concepts‹, in: Synthese, 19 (3/4), 1969, 325–373; Jan Lukasiewicz: ›On three-valued logic‹ (1920), in: Ludwig Borkowski (Hrsg.): Selected works by Jan Lukasiewicz, Amsterdam: North Holland 1970, 87–88.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

395



396

Kapitel 16  ·  (Re-)Organisation von Erfahrung

tät durch kontextdefinierte Funktionszuweisungen in Einzelfälle zerlegt zu imitieren. Die Schnelligkeit heutiger Computer erlaubt es problemlos, Listen von kontextdefinierten Funktionszuweisungen während des Simulierens abzufragen und zu evaluieren. Prozessualität wird durch Datenabfragen kontextualisiert und dadurch spezifiziert. Dies entspricht epistemisch in etwa der Situation, die Stokes für die mit spezifischen Messungen statt formalen Ableitungen arbeitende Strömungsdynamik des 19.  Jahrhunderts und ihre unzähligen empirischen Formeln – wie bereits zitiert – kritisierte: »But such formulae, although fulfilling well enough the purposes for which they were constructed, can hardly be considered as affording us any material insight into the laws of nature.«210 Extrapoliert man die Entwicklung der neuzeitlichen zur modernen mathematischen Rationalität von der Linearität in die Nicht-Linearität, von der Gegebenheit in die Prognostizität sowie von der figurativen Bezüglichkeit und ihrer Ähnlichkeitsäquivalenz in die formale Selbstbezüglichkeit und ihre Äquivalenzrelation weiter, so scheint – aber das ist pure Spekulation – allein die Orientierung an der Äquivalenzrelation noch Spielraum offenzulegen. Bislang (re-)organisiert die mathematische Rationalität durch die symbolische und apparative Anschauung das Neue und Unbekannte und damit wissenschaftlich-technische Erfahrung. Diese unidirektionale Orientierung wurde als hypothetisch-deduktive Forschungslogik beschrieben und bestand maßgeblich in der epistemischen Formkraft der Mathematik als Umformatierung wissenschaftlicher Theorie und in der materialen Formkraft der Mathematik als Implementierung mathematischer Ordnungsstrukturen in reorganisierte Objekte, Apparate und Materialien. Die Frage ist daher nicht nur, ob die Biologie durch einen komplexeren Prozess- und Ordnungsbegriff sowie Identitätsbegriff eine Umgestaltung der mathematischen Rationalität inspiriert – falls dies im Paradigma des rein Formalsprachlichen und seiner Realisierung in der elektrischen Schaltung überhaupt möglich ist –, sondern, ob mathematische Operativität durch die biologische Materialität im Sinne einer bidirektionalen Orientierung der mathematischen Gleichsetzungsleistung komplettiert werden kann, um eben diese komplexeren Begriffe zu realisieren. Damit würde eine neue Form von Medialität in die Mathematik integriert werden, die sich weder an der statischen geometrischen Figur noch an der einfachen Repetition der RMBerechenbarkeit orientiert, sondern an der komplexen Organisation eines neuen Mediums. Interessanter Weise deuten erste Versuche tatsächlich in diese Richtung, indem biologische Medien direkt für eine solche materiale 210

Stokes, ›On the theories of the internal friction of fluids in motion‹, 1880, S. 76.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



Plastizität der Mathematik

Bezüglichkeit erforscht werden – wie beispielsweise im Falle des DNA-Computing, des neuromorphen Rechnens für die Rechenverfahren des maschinellen Lernens mit neuronalen Netzen oder der ›rechnenden‹ Organismen. Doch wieweit diese Versuche über das klassische Berechenbarkeitsideal hinausgehen, ist fraglich.211 Daher scheint es so, dass »the old vocabulary of sequential equations […] symbolic numbers, and the formulation of universal laws« nicht so einfach zu überwinden ist wie erhofft212 und man sich mit verschiedenen Tricks behelfen muss, um mit der Erkenntnis- und Formkraft der Mathematik als Sprache neue Zukünfte zu erschließen.213

211 Ob

ein Wechsel der Operativität zur Quantenlogik dies leisten könnte, entzieht sich dem vorliegenden Kenntnisstand. 212 James Bailey: After Thought. The Computer Challenge to Human Intelligence, New York: Basic Books 1996, S. 4. 213 Als erfolgversprechendste Strategie bleibt also vorläufig nur die, die menschliche Denkleistung selbst in Kombination mit Computern symbiotisch zu nutzen, um die Grenzen der mathematischen Operativität auszuweiten. ›Games with a purpose‹ integrieren bereits erfolgreich die menschliche Fähigkeit, gestalterisch sinnvolle Kombinationen für die Optimierung und Konstruktion von synthetischer RNA erkennen zu können, die bislang nicht mathematisch operationalisierbar sind. Vgl. Kathrin Friedrich: ›Synthesis Candidates. Spielen mit Zweck in der Molekularbiologie‹, in: Gramelsberger, Bexte, Kogge, Synthesis, 2014, 193–208. Oder noch direkter, indem für mathematisch nicht operationalisierbare Aufgaben das im funktionellen Magnetresonanztomographen liegende Gehirn – nicht der wahrnehmende Mensch – genutzt wird. Vgl. Klaus W. Bielefeld: Consumer Neuroscience: Neurowissenschaftliche Grundlagen für den Markenerfolg, Wiesbaden: Springer Fachmedien 2012. Denn noch ist eine direkte Schnittstelle zwischen elektrischen Schaltungen und Neuronen, obwohl technisch möglich, wenig hilfreich, solange die Sprachaxiomatik der Neuronen unbekannt ist. Vgl. Peter Fromherz, Stefan Eick, Boris Hofmann: ›Neuroelectronic Interfacing with Semiconductor Chips‹, in: Rainer Waser (Hrsg.): Nanoelectronics and Information Technology, Weinheim: Wiley-VCH 2012, 847–868; Henry Markram: ›The Blue Brain Project‹, in: Nature Neuroscience Review, 7, 2006, 153–160.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

397

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis

Abel, Nils H.: ›Beweis der Unmöglichkeit algebraische Gleichungen von höheren Graden als dem vierten allgemein aufzulösen‹ (1824), in: Journal für die reine und angewandte Mathematik (Crelles Journal), 1, 1826, 65 – 84. Ackermann, Wilhelm: ›Zum Hilbertschen Aufbau der reellen Zahlen‹, in: Mathema­ tische Annalen, 99, 1928, 118 – 133. Adamatzky, Andrew: Physarum Machines: Computers from Slime Mould, Singapur: World Scientific Publishing Company 2010. Adami, Christoph: ›What is complexity?‹, in: BioEssays, 24, 2002, 1085 – 1094. Adams, Robert M.: ›Primitive Thisness and Primitive Identity‹, in: Journal of Philosophy, 76, 1979, 5 – 26. Alberti, Leon Battista: De picture, Florenz 1435. Anderson, Paul: ›Automatic recording of the growth rates of continuously cultured microorganisms‹, in: Journal for Genetic Physiology, 36, 1953, 733 – 737. Andronov, Alexander A.: ›Mathematical problems of the theory of self-oscillations‹ (1933), in: Ders.: Andronov’s Collected Works, Moskau: Izvestija Akademii Nauk SSSR 1956, 85 – 124. Ansmann, Albert: Advances in atmospheric remote sensing with lidar, Berlin: Springer 1997. Appel, Kenneth; Haken, Wolfgang: ›Every map is four colourable‹, in: Bulletin of the American Mathematical Society, 82, 1976, 711 – 712. Aristoteles: Organon I–IV, Philosophische Schriften, 1. Bd., Hamburg: Meiner 1995. — Metaphysik, Philosophische Schriften, 5. Bd., Hamburg: Meiner 1995. — Meteorologie. Über die Welt, Darmstadt: Wissenschaftliche Buchgesellschaft 1970. Auerbach, Erich: ›Figura‹, in: Archivum Romanicum, 22, 1938, 436 – 489. Azzouni, Jody: Metaphysical Myths, Mathematical Practice: The Ontology and Epistemology of the Exact Sciences, Cambridge: Cambridge University Press 1994. — ›Applying Mathematics: An Attempt to design a philosophical problem‹, in: The Monist, 83 (2), 2000, 209 – 227. — Knowledge and Reference in Empirical Science, London: Routledge 2000. — Deflating Existential Consequences. A Case for Nominalism, Oxford: Oxford University Press 2004. Bachelard, Gaston: Der neue wissenschaftliche Geist (1934), Frankfurt: Suhrkamp 1988. — Die Bildung des wissenschaftlichen Geistes. Beitrag zu einer Psychoanalyse der objektiven Erkenntnis (1938), Frankfurt: Suhrkamp 1987. — Die Philosophie des Nein. Versuch einer Philosophie des neuen wissenschaftlichen Geistes (1944), Frankfurt: Suhrkamp 1980. Backus, John; Herrick, Harlan: ›IBM 701 Speedcomputing and other automatic-programming-systems‹, in: Proceedings of the Symposium Automatic Programming Digital Computers, Washington: Office of Naval Research, Department of the Navy 1954, 106 – 113. Bacon, Francis: Neu-Atlantis (1627), Stuttgart: Reclam 1982.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



400

Literaturverzeichnis

Bailey, James: After Thought. The Computer Challenge to Human Intelligence, New York: Basic Books 1996. Balaguer, Mark: Platonism and Anti-Platonism in Mathematics, New York: Oxford University Press 1998. Bammé, Arno; Berger, Wilhelm; Kotzmann, Ernst (Hrsg.): Technologische Zivilisation, München: Profil 1987. Bangu, Sorin: ›Wigner’s Puzzle for Mathematical Naturalism‹, in: International Studies in Philosophy of Science, 23 (3), 2009, 245 – 263. — ›Steiner on Applicability of Mathematics and Naturalism‹, in: The British Journal for the Philosophy of Science, 14 (1), 2006, 26 – 43. Barrow, Isaac: Lectiones geometricae, London: Godbid 1670. Bardeen, John; et al.: Three-electrode circuit element utilizing semiconductive materials, USPatent 2.524.035, eingereicht am 17. Juni 1948, patentiert am 30. Oktober 1950. Becker, Oskar: Mathematische Existenz. Untersuchungen zur Logik und Ontologie mathematischer Phänomene (1927), Tübingen: Max Niemeyer Verlag 1973. — Größe und Grenze der Mathematischen Denkweise, Freiburg, München: Karl Alber 1959. Bedau, Mark: ›Living technology today and tomorrow‹, in: Technoetic Arts, 7 (2), 2009, 199 – 206. Beller, Mara: ›The Rhetoric of Antirealism and the Copenhagen Spirit‹, in: Philosophy of Science, 63, 1996, 183 – 204. Benacerraf, Paul; Putnam, Hilary (Hrsg.): Philosophy of Mathematics, Englewood Cliffs: Prentice-Hall 1964. Benacerraf, Paul: ›Mathematical truth‹ (1973), in: Benacerraf, Putnam, Philosophy of Mathematics, 1983, 403 – 420. Bennett, Jim: ›Practical Geometry and Operative Knowledge‹, in: Configurations, 6 (2), 1998, 195 – 222. Bensaude-Vincent, Bernadette: ›Materials as machines‹, in: Martin Carrier, Alfred Nordmann (Hrsg.): Science in the Context of Application, Heidelberg: Springer, 2011, 101 – 113. — ›Discipline-building in synthetic biology‹, in: Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013, 122 – 129. Bergmann, Ludwig, et al.: Lehrbuch der Experimentalphysik: Mechanik, Relativität, Wärme, Berlin: de Gruyter 1998. Berkeley, George: A Treatise Concerning the Principles of Human Knowledge (1710), Menston: Scolar Press 1971. Bernays, Paul: ›Über den Platonismus in der Mathematik‹ (1935), in: Ders.: Abhandlungen zur Philosophie der Mathematik, Darmstadt: Wissenschaftliche Buchgesellschaft 1976, 62 – 78. Bernoulli, Jakob; Bernoulli, Jean; Goldstine, Herman H.; Radelet-de Grave, Patricia (Hrsg.): Die Streitschriften von Jacob und Johann Bernoulli: Variationsrechnung, Basel: Birkhäuser 1991. Bertalanffy, Ludwig von: General System Theory. Foundations, Development, Applications, New York: Braziller 1968. Beth, Evert Willem: ›Über Lockes ›Allgemeines Dreieck‹, in: Kant-Studien, 48, 1956/57, 361 – 380.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 401

Bielefeld, Klaus W.: Consumer Neuroscience: Neurowissenschaftliche Grundlagen für den Markenerfolg, Wiesbaden: Springer Fachmedien 2012. Bigelow, John: The Reality of Numbers: A Physicalist’s Philosophy of Mathematics, Oxford: Clarendon 1988. Birkhoff, George D.; Vandiver, Harry S.: ›Quelques théorèmes sur le mouvement des systèmes dynamiques‹, in: Bulletin de la Société Mathématique de France, 40, 1912, 303 – 323. Birkhoff, George D.: Dynamical Systems, New York: American Mathematical Society 1927. Bjerknes, Vilhelm: ›Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und Physik‹, in: Meteorologische Zeitschrift, 21 (1), 1904, 1 – 7. Blackburn, Simon: ›Realism: Deconstructing the Debate‹, in: Ratio, 15, 2002, 111 – 133. Blanchard, Paul: ›Complex Analytic Dynamics on the Riemann Sphere‹, in: Bulletin of the American Mathematical Society, 11 (1), 1984, 85 – 141. Blechmann, Ilja; Myskis, A.D.; Panovko, J.G.: Angewandte Mathematik. Gegenstand, Logik, Besonderheiten, VEB Deutscher Verlag der Wissenschaften: Ost-Berlin 1984. Boegehold, Hans: ›Die Lehre von der Beugung bis zu Fresnel und Fraunhofer‹, in: Die Naturwissenschaften, 14 (23), 1926, 523 – 533. Böhme, Gernot; van den Daele, Wolfgang, Krohn, Wolfgang: Experimentelle Philosophie. Ursprünge autonomer Wissenschaftsentwicklung, Frankfurt: Suhrkamp 1977. Böhme, Gernot; van den Daele, Wolfgang: ›Erfahrung als Programm – Über Strukturen vorparadigmatischer Wissenschaft‹, in: Böhme, van den Daele, Krohn, Experimentelle Philosophie, 1977, 183 – 236. Boole, George: The Mathematical Analysis of Logic: Being an Essay towards a Calculus of Deductive Reasoning, Cambridge: Macmillan 1847. — An Investigation of The Laws of Thought, London: Walton & Maberly 1854. Boolos, George: ›The Standard of Equality of Numbers‹, in: Demopoulos, Frege`s Philosophy of Mathematics, 1995, 234 – 254. Boone, Gary W.: Computing Systems CPU, US-Patent 3.757.306, eingereicht am 31. August 1971, patentiert am 4. September 1973. Born, Max; Heisenberg, Werner; Jordan, Pascual: Zur Begründung der Matrizenrechnung (hrsg. von Armin Hermann), Stuttgart: Battenberg 1962. Born, Max; Jordan, Pascual: ›Zur Quantenmechanik‹ (1925), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 46 – 76. Born, Max: ›Die statistische Deutung der Quantenmechanik‹ (Nobelvortrag gehalten am 11.12.1954), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 1 – 12. Born, Max; Heisenberg, Werner; Jordan, Pascual: ›Zur Quantenmechanik II‹ (1925), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 77 – 135. Born, Max; Wiener, Norbert: ›A new formulation of the laws of quantization of periodic and aperiodic phenomena‹, in: Journal of Mathematics and Physics, 5, 1925 – 26, 84 – 98. Brading, Kathrine; Castellani, Elena (Hrsg.): Symmetries in Physics: Philosophical Reflections, Cambridge: Cambridge University Press 2003. Braun, Ferdinand: ›Versuche über Abweichungen vom Ohmschen Gesetz in metallisch leitenden Körpern‹ (1876), in: Annalen der Physik und Chemie (Neue Folge), 1. Bd., 1877, 95 – 110.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



402

Literaturverzeichnis

— ›Electrische Schwingungen und drahtlose Telegraphie‹ (1909), in: Les Prix Nobel 1908 – 1010, 2. Teil, 2. Abschnitt, Stockholm: Norstedt 1910, 1 – 18. Bravais, Auguste: Abhandlung über die Systeme von regelmässig auf einer Ebene oder Raum vertheilten Punkten (1850) (hrsg. von Eugen Blasius) Leipzig: Engelmann 1897. Bremer, Manuel: Universality in Set Theories: A Study in Formal Ontology, Heusenstamm bei Frankfurt: Ontos 2010. Brewster, David: The Edinburgh Encyclopedia. The American Edition, 14. Bd., 2. Teil, Philadelphia: Joseph and Edward Parker 1832. Bridgman, Percy W.: The Logic of Modern Physics, New York: Macmillan 1927. — ›Operational Analysis‹, in: Philosophy of Science, 5, 1955, 114 – 131. — Reflections of a Physicist, New York: Philosophical Library 1955. Brittan, Gordon G.: Kants Theory of Science, Princeton: Princeton University Press 1978. Brouwer, Luitzen E. J.: ›Intuitionism and Formalism‹ (1908), in: Bulletin of the American Mathematical Society, 20, 1913 – 14, 81 – 96. — ›Begründung der Mengenlehre unabhängig vom logischen Satz vom ausgeschlossenen Dritten. Erster Teil, Allgemeine Mengenlehre‹, in: Koninklijke Akademie van Wetenschappen te Amsterdam, Verhandelingen, 1, XII, 5, 1918, 1 – 43. Brown, James R.: ›The Miracle of Science‹, in: Philosophical Quarterly, 32, 1982, 232 – 244. Bueno, Otávio: ›Dirac and the dispensability of mathematics‹, in: Studies in the History and Philosophy of Modern Physics, 36, 2005, 465 – 490. Burali-Forti, Cesare: ›A question on transfinite numbers‹ (1897), in: Jean van Heijenoort (Hrsg.): From Frege to Gödel. A Source Book in Mathematical Logic, Cambridge: Harvard University Press 1967, 104 – 112. Burks, Arthur W.; Goldstine, Herman H.; Neumann, John von: ›Preliminary Discussions of the Logical Design of an Electronic Computing Instrument‹, in: Datamation (28.6.1946), Institute for Advanced Study: Princeton 1946. Burnside, William: Theory of Groups of Finite Order, Cambridge: Cambridge University Press 1897. Busch, Jacob: ›No New Miracles, Same Old Tricks‹, in: Theoria, 74, 2008, 102 – 114. Bush, Vannevar: ›Instrumental Analysis‹, in: Bulletin of the American Mathematical Society, 42, 1936, 649 – 669 Bynum, Terell Ward: ›The Evolution of Frege’s Logicism‹, in: Schirn, Studien zu Frege I, 1976, 279 – 286. Campe, Joachim Heinrich (Hrsg.): Wörterbuch der deutschen Sprache, 5 Bde., Braunschweig: Schulbuchhandlung 1807 – 1811. Cantor, Georg: Gesammelte Abhandlungen mathematischen und philosophischen Inhalts (hrsg. von Ernst Zermelo 1932), Berlin u. a.: Springer 1990. — ›Über die Ausdehnung eines Satzes aus der Theorie der trigonometrischen Reihen‹, in: Mathematische Annalen, 5, 1872, 123 – 132. — ›Über eine Eigenschaft des Inbegriffs aller reellen algebraischen Zahlen‹ (1874), in: Cantor, Gesammelte Abhandlungen, 1990, 115 – 118. — ›Grundlagen einer allgemeinen Mannigfaltigkeitslehre‹ (1883), in: Cantor, Gesammelte Abhandlungen, 1990, 165 – 246. — ›Über eine elementare Frage der Mannigfaltigkeitslehre‹ (1890/91), in: Cantor, Gesammelte Abhandlungen, 1990, 278 – 281.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 403

— ›Beiträge zur Begründung der transfiniten Mengenlehre‹ (1895, 1897), in: Cantor, Gesammelte Abhandlungen, 1990, 282 – 356. — Brief an Dedekind vom 28. Juli 1899, in: Cantor, Gesammelte Abhandlungen, 1990, 443 – 44. Cantor, Moritz: ›Über die Porismen des Euclid und deren Divinatoren‹, in: Zeitschrift für Mathematik und Physik, 2, 1857, 17 – 27. — Vorlesungen über Geschichte der Mathematik, 4. Bd., Leipzig: Teubner 1908. Carlson, Robert H.: Biology Is Technology: The Promise, Peril, and New Business of Engineering Life, Cambridge: Harvard University Press 2011. Carnap, Rudolf: Scheinprobleme in der Philosophie. Das Fremdpsychische und der Realismusstreit, Berlin-Schlachtensee: Weltkreis-Verlag 1928. — ›Die logizistische Grundlegung der Mathematik‹, in: Erkenntnis, 2, 1931, 91 – 105. — ›Überwindung der Metaphysik durch logische Analyse der Sprache‹, in: Erkenntnis, 2, 1931/32, 219 – 241. — Meaning and Necessity: A Study in Semantics and Modal Logic, Chicago: Chicago University Press 1947. — Einführung in die symbolische Logik (1954), Wien: Springer 1968. Cassirer, Ernst: Leibniz’ System in seinen wissenschaftlichen Grundlegungen, Marburg: Elwertsche Verlagsbuchhandlung 1902. — ›Kant und die moderne Mathematik. Mit Bezug auf Bertrand Russells und Luis Couturats Werke über die Prinzipien der Mathematik‹, in: Kant-Studien, 12, 1907, 1 – 40. — Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik, Berlin: Verlag Bruno Cassirer 1910. — Das Erkenntnisproblem in der Philosophie und Wissenschaft der neueren Zeit (1906, 1907), 2 Bde., Berlin: Verlag Bruno Cassirer 1911, 1922. — ›Einleitung‹ (1915), in: Leibniz. Neue Abhandlungen über den menschlichen Verstand (1765), 1971, S. IX–XXIV. — Philosophie der symbolischen Formen (1923, 1924, 1929), 3 Bde., Darmstadt: Wissenschaftliche Buchgesellschaft 1988, 1987, 1990. Cauchy, Augustin Louis: Mémoire sur les intégrales définies (1814), Paris: De Bure frères 1825. Cayley, Arthur: The Collected Mathematical Papers (hrsg. von Andrew R. Forsyth), 13 Bde., Cambridge: Cambridge University Press 1889 – 1897. — ›On Linear Transformations‹ (1846), in: Cayley, Collected Mathematical Papers, 1. Bd., 1889, 95 – 112. — ›An Introductory Memoir on Quantics‹ (1854), in: Cayley, Collected Mathematical Papers, 2. Bd., 1889, 221 – 234. — ›A Sixth Memoir upon Quantics‹ (1895), in: Cayley, Collected Mathematical Papers, 2. Bd., 1889, 561 – 592. — ›Recherches sur les matrices dont les termes sont des fonctions linèaires d’une seule indéterminée‹ (1855), in: Cayley, Collected Mathematical Papers, 2. Bd., 1889, 217 – 220. Ceruzzi, Paul E.: A History of Modern Computing, Cambridge: MIT Press 2003. Chang, Hasok: Inventing temperature: Measurement and scientific progress, Oxford: Oxford University Press 2004.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



404

Literaturverzeichnis

— ›Operationalism‹, in: Stanford Encyclopedia of Philosophy, 2009. URL: https://plato. stanford.edu/entries/operationalism/ (letzter Zugriff: 26.2.2020). Chihara, Charles S.: The Worlds of Possibility, Oxford: Clarendon Press 1998. Church, Alonzo: ›An unsolvable Problem of Elementary Number Theory‹, in: American Journal of Mathematics, 58 (2), 1936, 345 – 363. — ›A note on the Entscheidungsproblem‹, in: The Journal of Symbolic Logic, 1 (1), 1936, 40 – 41. Churchland, Paul; Hooker, Clifford A. (Hrsg.): Images of Science: Essays on Realism and Empiricism, Chicago: University of Chicago Press 1985. Cicovacki, Predrag: ›Locke on Mathematical Knowledge‹, in: Journal of History of Philosophy, 28 (4), 1990, 511 – 524. Clausius, Rudolf: Die Potentialfunction und das Potential, Leipzig: Barth 1859. Cohen, Joel E.: ›Mathematics Is Biology’s Next Microscope, Only Better; Biology Is Mathematics’ Next Physics, Only Better‹, in: PLoS Biology, 2 (12), 2017, e439. Collier, Kenneth W.: ›Contra the Causal Theory of Knowing‹, in: Philosophical Studies: An International Journal for Philosophy in the Analytic Tradition, 24 (5), 1973, 350 – 352. Collins, Harry: Changing Order. Replication and Induction in Scientific Practice, Chicago: University of Chicago Press 1985. Colpitts, Edwin: Oscillation Generator, US-Patent 1.624.537, patentiert am 12. April 1927. Colyvan, Mark: The Indispensability of Mathematics, Oxford: Oxford University Press 2001. Copeland, B. Jack: ›The Genesis of Possible Worlds Semantics‹, in: Journal of Philosophical Logic, 31 (2), 2002, 99 – 137. Corfield, David: Towards a Philosophy of Real Mathematics, Cambridge: Cambridge University Press 2003. Cornelsen, Scott S.: Electronics Desgin of the AGLITE-LIDAR Instrument, Master Thesis in Electrical Engineering, Utah State University 2005. Couturat, Luis: Les Principles des Mathématiques, avec un appendice sur la philosophie des Mathématiques de Kant, Paris: Alcan 1905. Crombie, Alistair C.: Styles of Scientific Thinking in the European Tradition. The history of argument and explanation especially in the mathematical and biomedical sciences and arts, 2. Bd., Duckworth: London 1994. Crutchfield, James P.; Farmer, J. Doyne; Packard, Norman H.; Shaw, Robert S.: ›Chaos‹, in: Scientific American, 254, 1986, 46 – 57. D’Alembert, Jean-Babtiste: ›Éclaircissemens sur différrens endriots des Élements de Philosophie‹, in: Ders.: Mélanges de littérature, d’histoire, et de philosophie, 5. Bd., Amsterdam: Chatelain 1767, 3 – 274. Daston, Lorraine: Wunder, Beweise und Tatsachen. Zur Geschichte der Rationalität, Frankfurt: Fischer 2001. Dawson, Andrew: ›PC-based digitizers empower modern optical spectroscopy‹, in: Laser Focus World, 41 (3), 03/01/2005. Dear, Peter: Disciplines & Experience. The Mathematical Way in the Scientific Revolution, Chicago: Chicago University Press 1995. Dedekind, Richard: Stetigkeit und irrationale Zahlen (1872), Braunschweig: Vieweg & Sohn 1912.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 405

— ›Was sind und was sollen die Zahlen?‹ (1888), in: Ders.: Gesammelte mathematische Werke, Braunschweig: Vieweg 1930, 335 – 391. Deiser, Oliver: Einführung in die Mengenlehre: Die Mengenlehre Georg Cantors und ihre Axiomatisierung durch Ernst Zermelo, Berlin, Heidelberg: Springer 2004. Demopoulos, William (Hrsg.): Frege’s Philosophy of Mathematics, Cambridge: Harvard University Press 1995. Dennhardt, Robert: Die Flipflop-Legende und das Digitale, Berlin: Kadmos 2009. Derben, Burton; Floyd, Juliet: ›Tautology: How to not use a word‹, in: Synthesis, 87, 1991, 23 – 49. Derrida, Jacques: Husserls Weg in die Geschichte am Leitfaden der Geometrie: ein Kommentar zur Beilage III der ›Krisis‹ (1962), München: Fink 1987. Descartes, René: Regeln zur Ausrichtung der Erkenntniskraft (1619 ff.) (hrsg. von Lüder Gäbe), Hamburg: Meiner 1972. — Von der Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung (1637) (hrsg. von Lüder Gäbe), Hamburg: Meiner 1960. — Geometrie (1637) (hrsg. von Ludwig Schlesinger), Darmstadt: Wissenschaftliche Buchgesellschaft 1981. — Meditationes de prima philosophia. Meditationen über die Grundlagen der Philosophie (1641) (hrsg. von Christian Wohlers), Hamburg: Meiner 2008. Devitt, Michael: Realism and Truth, Oxford: Blackwell 1991. Dieudonné, Jean: History of Functional Analysis, Amsterdam u. a.: North-Holland Publishing Company 1981. Dijkstra, Edsger W.: ›Letters to the editor: Go To Statement Considered Harmful‹, in: Communications of the ACM, 11 (3), 1968, 147 – 148. Dingler, Hugo: Über Geschichte und Wesen des Experiments, München: Eidos 1952. Dirac, Paul: ›The Fundamental Equations of Quantum Mechanics‹, in: Proceedings of the Royal Society, 109, 1925, 642 – 653. — ›The Quantum Theory of the Emission and Absorption of Radiation‹, in: Proceedings of the Royal Society London, A, 114, 1927, 243 – 365. — The Principles of Quantum Mechanics (1930), Oxford: Claredon Press 1958. Dirichlet, J.P.G. Lejeune: Über die Darstellung ganz willkürlicher Funktionen durch Sinusund Cosinusreihen (1837), Leipzig: W. Engelmann 1900. Dove, Heinrich Wilhelm: Über Maass und Messen oder Darstellung der bei Zeit-, Raum- und Gewichts-Bestimmungen üblichen Maasse, Messinstrumente und Messmethoden: nebst Reductionstafeln, Berlin: Sander 1835. — Meteorologische Untersuchungen, Berlin: Sander 1837. Dürer, Albrecht: Underweysung der Messung mit dem Zirckel und Richtscheyt (1525), Nürnberg: Verlag A. Wofsy 1981. Duhem, Pierre M.: Ziel und Struktur der physikalischen Theorien (1906) (hrsg. von Lothar Schäfer), Hamburg: Meiner 1998. Dummett, Michael: Frege: Philosophy of Mathematics, Cambridge: Harvard University Press 1991. Duschek, Adalbert: ›Der Tensorbegriff und seine Bedeutung für die Physik: Die geometrischen Grundlagen‹, in: Physikalische Blätter, 10 (9), 1954, 389 – 395.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



406

Literaturverzeichnis

Eccles, William Henry: ›A method of using two triod valves in parallel for generating oscillations‹, in: The Electrician, 83, 1919, 299. Eckert Jr., J. Presper; Mauchly, John W.; Goldstine, Herman H.; Brainerd, John G.: Description of the ENIAC and Comments on Electronic Digital Computing Machines, Moore School of Electrical Engineering, University of Pennsylvania, Bericht vom 30. November 1945. Eckert, Michael: The Dawn of Fluid Dynamics. A Discipline between Science and Technology, Weinheim: Wiley-Vch 2006. Edel, Geert: Hypothesis versus Linguistic Turn: Zur Kritik der sprachanalytischen Philosophie, Waldkirch: Edition Gorz 2010. Edison, Thomas Alva: Electrical indicator, US-Patent 307.031, eingereicht am 15. November 1883, patentiert am 21. Oktober 1884. Ehrenfels, Christian: ›Über Gestaltqualitäten‹, in: Vierteljahresschrift für wissenschaftliche Philosophie, 14, 1890, 249 – 292. Einstein, Albert: Geometrie und Erfahrung (Erweiterte Fassung des Festvortrages gehalten an der Preußischen Akademie der Wissenschaften zu Berlin am 27. Januar 1921), Berlin: Julius Springer 1921. — ›Zur Elektrodynamik bewegter Körper‹, in: Annalen der Physik, 17, 1905, 891 – 921. — Brief an Karl Popper (1935), in: Popper, Logik der Forschung, 1989, 412 – 418. — ›Die Grundlage der allgemeinen Relativitätstheorie‹, in: Annalen der Physik, 49, 1916, 769 – 822. Eisler, Zoltan; Kertesz, Janos: ›Multifractal model of asset returns with leverage effect‹, in: Physica A, 343, 2004, 603 – 622. Elowitz, Michael B.; Leibler, Stanislas: ›A synthetic oscillatory network of transcriptional regulators‹, in: Nature, 403 (6767), 2000, 335 – 338. El-Rewini, Hesham; Abd-El-Barr, Mostafa: Advanced computer architecture and parallel processing, Hoboken, NJ: John Wiley & Sons 2005. Endy, Drew: ›Foundations for engineering biology‹, in: Nature, 438, 2005, 449 – 453. Engel, Friedrich; Stäckel, Paul (Hrsg.): Die Theorie der Parallellinien von Euklid bis Gauß. Urkunden zur Geschichte der Nichteuklidischen Geometrie, Leipzig: Teubner 1895. Engfer, Hans-Jürgen: Studien zur Entwicklung philosophischer Analysiskonzepte unter dem Einfluß mathematischer Methodenmodelle im 17. und frühen 18. Jahrhundert, StuttgartBad Cannstatt: Frommann-Holzboog 1982. Erdmann, Benno: Logische Elementarlehre, 1. Bd. Halle: Niemeyer 1892. Erné, Marcel: Einführung in die Ordnungstheorie, Mannheim: Bibliographisches Institut 1982. Esfeld, Michael: ›Regelfolgen 20 Jahre nach Kripkes Wittgenstein‹, in: Zeitschrift für philosophische Forschung, 57, 2003, 128 – 138. Euklid: Die Elemente: Buch I – XIII (hrsg. von Clemens Thaer), Darmstadt: Wissenschaftliche Buchgesellschaft 1971. Euler, Leonhard: Introductio in analysin infinitorum (1748) (hrsg. von Wolfgang Walter), Berlin u. a.: Springer 1983. — ›Subsidium calculi sinuum‹ (1754,/1755), in: Ders.: Opera Omnia, 1. Reihe, 14. Bd., Leipzig: Teubner 1925, 542 – 584.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 407

— ›Principes géneraux du mouvement des fluides‹ (1755), in: Ders.: Opera mathematica, II. Reihe, 12. Bd., Basel: Birkäuser 1954, 54 – 91. Europäische Union: FP7 Flagship Initiative, EU: Brüssel 2013. Fatou, Pierre: ›Sur les equations fonctionnelles‹, in: Bulletin de la Société Mathématique de France, 47, 1919, 161 – 271; 48, 1920, 33 – 94; 1920, 208 – 314. Feigenbaum, Mitchell J.: ›The universal metric properties of nonlinear transformations‹, in: Journal of Statistical Physics, 21, 1979, 669 – 706. Ferrel, William: ›The influence of the Earth’s rotation upon the relative motion of bodies near its surface‹, in: Astronomical Journal, 109 (5), 1858, 97 – 100. Feyerabend, Paul K.: Problems of Empiricism, Cambridge: Cambridge University Press 1970. Field, Hartry: Science without Numbers, Oxford: Blackwell 1980. — Realism, Mathematics and Modality, Oxford: Blackwell 1989. Fine, Arthur: ›Unnatural Attitudes: Realist and Antirealist Attachments to Science‹, in: Mind, 95, 1986, 149 – 177. Fiocco, Giorgio; Smullin, L. D.: ›Detection of Scattering Layers in the Upper Atmosphere (60–140 km) by Optical Radar‹, in: Nature, 199, 1963, 1275 – 1276. Flasch, Kurt: Das philosophische Denken im Mittelalter, Stuttgart: Reclam 1995. Fleck, Ludwik: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv (1935), Frankfurt: Suhrkamp 1994. Flemming, John: Improvements in Instruments for Detecting and Measuring Alternating Electric Currents, GB-Patent 190.424.850, eingereicht am 16. November 1904, patentiert am 21. November 1905. Floyd, Juliet: ›Wittgenstein on Aspect-Perception, Logic, and Mathematics‹, in: William Day, Victor J. Krebs (Hrsg.): Seeing Wittgenstein Anew, Cambridge: Cambridge University Press 2010, 314 – 337. Foerster, Heinz von: Sicht und Einsicht: Versuche zu einer operativen Erkenntnistheorie, Braunschweig: Vieweg & Sohn 1985. Forest, Lee De: Device for Amplifying Feeble Electrical Currents, US-Patent 841.387, eingereicht am 25. Oktober 1906, patentiert am 15. Januar 1907. Fourier, Jean B. J.: Théorie analytique de la chaleur, Paris: Chez Firmin Didot 1822. Francesca, Piero della: De prospectiva pingendi, ca. 1475. Fraassen, Bas van: The Scientific Image, Oxford: Oxford University Press 1980. — The Empirical Stance, New Haven: Yale University Press 2002 Fraunhofer, Joseph: ›Über die Construktion des so eben vollendeten großen Refractor‹ (1824), in: Astronomische Nachrichten, 4, 1825, 17 – 24. Frege, Gottlob: Gottlob Freges Briefwechsel mit D. Hilbert, E, Husserl, B. Russell, sowie ausgewählte Einzelbriefe Freges (hrsg. von Gottfried Gabriel, Friedrich Kambartel und Christian Thiel), Hamburg: Meiner 1980. — Logische Untersuchungen (hrsg. von Günther Patzig), Göttingen: Vandenhoeck & Rupprecht 1993. — Funktion, Begriff, Bedeutung (hrsg. von Günther Patzig), Göttingen: Vanderhoeck & Rupprecht 1994. — Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle: Luis Nebert 1879.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



408

Literaturverzeichnis

— Die Grundlagen der Arithmetik. Eine logisch mathematische Untersuchung über den Begriff der Zahl (1884) (hrsg. von Christian Thiel), Hamburg: Meiner 1988. — ›Funktion und Begriff‹ (1891), in: Frege, Funktion, Begriff, Bedeutung, 1994, 17 – 39. — Grundgesetze der Arithmetik (1893, 1903), Hildesheim, New York: Georg Olms 1966. — Brief an David Hilbert vom 1. Oktober 1895, in: Frege, Gottlob Freges Briefwechsel, 1980, 5. — ›Kritische Beleuchtung einiger Punkte in E. Schröders Vorlesungen über die Algebra der Logik‹ (1895), in: Frege, Logische Untersuchungen, 1993, 92 – 112. — Brief an David Hilbert vom 27. Dezember 1899, in: Frege, Gottlob Freges Briefwechsel, 1980, 6 – 10. — Brief an Bertrand Russell am 22. Juni 1902, in: Frege, Gottlob Freges Briefwechsel, 1980, 60 – 63. French, Steven: ›The Reasonable Effectiveness of Mathematics: Partial Structures and the Application of Group Theory to Physics‹, in: Synthese, 125, 2000, 103 – 120. French, Steven; Redhead, Michael: ›Quantum Physics and the Identity of Indiscernibles‹, in: The British Journal of the Philosophy of Science, 39, 1988, 233 – 46. French, Steven; Rickle, Dean P.: ›Understanding permutation symmetry‹, in: Brading, Castellani, Symmetries in Physics, 2003, 212 – 238. Friedman, Michael: Kant and the Exact Sciences, Cambridge: Harvard University Press 1992. Friedman, Robert M.: Appropriating the Weather. Vilhelm Bjerknes and the Construction of a Modern Meteorology, Ithaca, London: Cornell University Press 1989. Friedland, Ari E.; et al.: ›Synthetic gene networks that count‹, in: Science, 324, 2009, 1199 – 1202. Friedrich, Alexander; Höhne, Stefan: ›Frischeregime: Biopolitik im Zeitalter der kryogenen Kultur‹, in: Glocalism: Journal of Culture, Politics and Innovation, 1 – 2, 2014, 44 S., doi: 10.12893/ gjcpi.2014.1 – 2.3. Friedrich, Kathrin; Gramelsberger, Gabriele: ›Techniken der Überschreitung. Fertigungsmechanismen ›verlässlich lebensfähiger‹ biologischer Entitäten‹, in: Zeitschrift für Medienwissenschaften, 4, 2011, 15 – 21. Friedrich, Kathrin: ›Synthesis Candidates. Spielen mit Zweck in der Molekularbiologie‹, in: Gramelsberger, Bexte, Kogge, Synthesis, 2014, 193 – 208. Friedrich, Walter; Knipping, Paul; Laue, Max von: ›Interferenzerscheinungen bei Röntgenstrahlen‹, in: Annalen der Physik, 346 (10), 1913, 971 – 988. Fries, Jakob F.: Die mathematische Naturphilosophie nach philosophischer Methode bearbeitet. Ein Versuch (1822), Sämtliche Schriften, 1. Bd., Aalen: Scientia Verlag 1979. Fritz, Kurt von: Grundprobleme der Geschichte der antiken Wissenschaft, Berlin: de Gruyter 1971. — Platon, Theaetet und die antike Mathematik, Darmstadt: Wissenschaftliche Buchgesellschaft 1969. Fromherz, Peter; Eick, Stefan; Hofmann, Boris: ›Neuroelectronic Interfacing with Semiconductor Chips‹, in: Rainer Waser (Hrsg.): Nanoelectronics and Information Technology, Wiley-VCH: Weinheim 2012, 847 – 868. Fuhrmann, Frederik; Kleis, Uwe; Mackens, Wolfgang: ›Partielle Differentialgleichungen

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 409

und Numerische Software‹, in: Nagel, Partielle Differentialgleichungen, Numerik und Anwendung, 1996, 119 – 130. Gadamer, Hans-Georg: ›Heidegger und die Geschichte der Philosophie‹, in: The Monist, 64 (4), 1981, 423 – 433. Galilei, Galileo: Brief (3494) vom 5. Juni 1637 an Pietro Carcavy, in: Ders.: Le opera de Galilei. Nuova ristampa della edizione nazionale, XVII. Bd., Florenz: Barbèra 1966, 68 – 71. — Dialog über die beiden hauptsächlichsten Weltsysteme, das Ptolemäische und das Kopernikanische (1632), Leipzig: Teubner 1891. Galison, Peter: ›Computer Simulations and the Trading Zone‹, in: Peter Galison, David J. Stump (Hrsg.): The Disunity of Science. Boundaries, Contexts, and Power, Stanford: Stanford University Press 1996, S. 118 – 157. Garbe, Annette: Die partiell konventional, partiell empirisch bestimmte Realität physikalischer RaumZeiten, Würzburg: Königshausen & Neumann 2001. Gardner, Timothy S.; Cantor, Charles R.; Collins, James: ›Construction of a genetic toggle switch in Escherichia coli‹, in: Nature, 403, 2000, 339 – 342. Gauß, Carl Friedrich: ›Disquisitiones generales circa superficies curvas‹ (1827), in: Commentationes Societatis Regiae Scientiarum Gottingensis recentiores, 6 (Mathematische Klasse), 1828, 99 – 146. — Brief an Bessel vom 27. Januar 1829, in: Engel, Stäckel, Die Theorie der Parallellinien von Euklid bis Gauß, 1895, 226. — Brief an Schumacher vom 12. Juli 1831, abgedruckt in: Engel, Stäckel, Die Theorie der Parallellinien von Euklid bis Gauß, 1895, 232 – 234. — ›Das in den Beobachtungsterminen anzuwendende Verfahren‹ (1836), in: Ders.: Werke (hrsg. von der Königlichen Gesellschaft der Wissenschaften zu Göttingen), 5. Bd., Berlin: Springer 1867, 541 – 55. Gelfert, Axel: ›Applicability, Indispensability, and Underdetermination: Puzzling Over Wigner’s ›Unreasonable Effectiveness of Mathematics‹«, in: Science & Education, Juni 2013, doi: 10.1007/s11191 – 013 – 9606 – 5. Gentzen, Gerhard: ›Die Widerspruchsfreiheit der reinen Zahlentheorie‹, in: Mathematische Annalen, 112, 493 – 565. Gerlach, Dieter: Geschichte der Mikroskopie, Frankfurt: Harri Deutsch 2009. Gettier, Edmund: ›Is justified true belief knowledge?‹, in: Analysis, 23, 1963, 121 – 123. Glasersfeld, Ernst von: Wissen, Sprache und Wirklichkeit. Arbeiten zum radikalen Konstruktivismus, Braunschweig, Wiesbaden: Vieweg 1987. Glass, Leon; Mackey, Michael C.: From Clocks to Chaos: The Rhythms of Life, Princeton: Princeton University Press 1988. Gödel, Kurt: Collected Works, 3 Bde. (hrsg. von Solomon Feferman), New York, Oxford: Oxford University Press 1986 – 1995. — ›Die Vollständigkeit der Axiome des Funktionskalküls‹ (1930), in: Ders., Collected Works, 1. Bd., 1986, 102 – 123. — ›Über unentscheidbare Sätze‹ (1931), in: Ders., Collected Works, 3. Bd., 1995, 30 – 34. — ›Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme I‹ (1931), in: Ders., Collected Works, 1. Bd., 1986, 144 – 194.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



410

Literaturverzeichnis

— ›The modern development of the foundations of mathematics in the light of philosophy‹ (1961), in: Ders., Collected Works, 3. Bd., 1995, 374 – 386. Goguen, Joseph A.: ›The logic of inexact concepts‹, in: Synthese, 19 (3/4), 1969, 325 – 373. Goldman, Alvin I.: ›A Causal Theory of Knowing‹, in: The Journal of Philosophy, 64 (12), 1967, 357 – 372. Goldstine, Herman H.; Neumann, John von: ›Planning and Coding Problems for an Electronic Computing Instrument, Part II, Vol 1‹ (1947), in: von Neumann, Collected Works, 5. Bd., 1963, 80 – 151. — ›On the Principles of Large Scale Computing Machines‹ (1946), in: von Neumann, Collected Works, 5. Bd., 1963, 1 – 32. Goodman, Nelson: Weisen der Welterzeugung (1978), Frankfurt: Suhrkamp 1990. Gramelsberger, Gabriele: Computersimulationen in den Wissenschaften. Neue Instrumente der Wissensproduktion: Schnittstellen zwischen Theorie und Experiment (Studie im Auftrag der Berlin-Brandenburgischen Akademie der Wissenschaften und des Bundesministeriums für Bildung und Forschung im Rahmen der Initiative ›Science Policy Studies‹), Berlin: Berlin-Brandenburgische Akademie der Wissenschaften 2004. — ›Conceiving meteorology as the exact science of the atmosphere – Vilhelm Bjerknes revolutionary paper from 1904‹, in: Meteorologische Zeitschrift, 18 (6), 2009, 663 – 667. — ›Story Telling with Code‹, in: Andrea Gleininger, Georg Vrachliotis (Hrsg.): Code. Zwischen Operation und Narration, Basel: Birkhäuser 2010, 29 – 40. — »Conceiving processes in atmospheric models – General equations, subscale parameterizations, and ›superparameterizations‹«, in: Studies in History and Philosophy of Modern Physics, 41 (3), 2010, 233 – 241. — (Hrsg.): From Science to Computational Sciences. Studies in the History of Computing and its Influence on Today’s Society, Berlin, Zürich: diaphanes 2011 / Chicago: The Chicago University Press 2015. — ›Generizität von Forschungs-Technologien – Mathematische und algorithmische Bedingungen‹, in: Klaus Hentschel (Hrsg.): Zur Geschichte von Forschungstechnologien Generizität, Interstitialität und Transfer, Berlin u. a.: GNT-Verlag 2012, 161 – 183. — ›Simulation and Systems Understanding‹, in: Hanne Andersen, Dennis Dieks, Wenceslao J. Gonzalez, Thomas Uebel, Gregory Wheeler (Hrsg.): New Challenges to Philosophy of Science, Dordrecht: Springer, 2013, 151 – 161. — ›The Simulation Approach in Synthetic Biology‹, in: Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013, 150 – 157. — ›Figurationen des Phänomenotechnischen‹, in: Jahrbuch Technikphilosophie 2016 (hrsg. von Gerhard Gamm, Petra Gehring, Andreas Kaminski, Alfred Nordmann, Christoph Hubig), Zürich, Berlin: diaphanes 2016, 157 – 168. — ›Calculating the weather – Emerging cultures of prediction in late 19th- and early 20th-century Europe‹, in: Matthias Heymann, Gabriele Gramelsberger, Martin Mahony (Hrsg.): Cultures of Prediction in Atmospheric and Climate Science. Epistemic and Cultural Shifts in Computer-based Modelling and Simulation (Routledge Environmental Humanities), London: Routledge 2017, 45 – 67. — ›Climate and Simulation‹, in: Oxford Research Encyclopedia Climate Science, New York: Oxford University Press 2018. — ›Continuous culture techniques as simulators for standard cells: Jacques Monod’s,

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 411

Aron Novick’s and Leo Szilard’s quantitative approach to microbiology‹, in: History and Philosophy of Life Science, 40 (1), 2018, 23. Gramelsberger, Gabriele; Feichter, Johann (Hrsg.): Climate Change and Policy. The Calculability of Climate Change and the Challenge of Uncertainty, Heidelberg u. a.: Springer 2011. Gramelsberger, Gabriele; Knuuttila, Tarja; Gelfert, Axel (Hrsg.): Philosophical Perspectives on Synthetic Biology, Special Issue, Studies in History and Philosophy of Biological and Biomedical Sciences, 44 (2), 2013. Gramelsberger, Gabriele; Bexte, Peter; Kogge, Werner (Hrsg.): Synthesis. Zur Konjunktur eines philosophischen Begriffs in Wissenschaft und Technik, Transcript: Bielefeld 2014. Graßmann, Hermann G.: Geometrische Analyse geknüpft an die von Leibniz erfundene geometrische Charakteristik. Gekrönte Preisschrift, Leipzig: Weidmannsche Buchhandlung 1847. Grattan-Guinness, Ivor: ›Notes on the fate of Logicism from Principia Mathematica to Gödels Incompletability Theorem‹, in: History and Philosophy of Logic, 5, 1984, 67 – 78. Green, George: An Essay on the Application of Mathematical Analysis to the Theories of Electricity and Magnetism, Nottingham: Wheelhous 1828. Greenleaf, Newcomb: ›Algorithmics: A New Paradigm for Mathematics‹, in: Leslie Burkholder (Hrsg.): Philosophy and the Computer, Boulder: Westview Press 1992, 195 – 210. Gregory, Duncan F.: ›On the real nature of symbolical algebra‹ (1838), in: Transaction of the Royal Society of Edinburgh, 14, 1840, 208 – 216. Grelling, Kurt; Nelson, Leonard: ›Bemerkungen zu den Paradoxien von Russell und Burali-Forti‹ (1908), in: Nelson, Beiträge zur Philosophie der Logik und Mathematik, 1959, 55 – 87. Grier, David A.: When Computers Where Human, Princeton: Princeton University Press 2005. Grimm, Jacob; Grimm Wilhelm: Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm, Leipzig: Hirzel 1893. Grossmann, Siegfried; Thomae, Stefan: ›Invariant distributions and stationary correlation function of one-dimensional discrete processes‹, in: Zeitschrift für Naturforschung, 32, 1977, 1353 – 1363. Günther, Gotthard: Idee und Grundriss einer nicht-Aristotelischen Logik (1959), Hamburg: Meiner 1979. — Beiträge zur Grundlegung einer operationsfähigen Dialektik, 3 Bde., Hamburg: Meiner 1976, 1979, 1980. Guicciardini, Niccolò: ›Newtons Methode und Leibniz’ Kalkül‹, in: Jahnke, Geschichte der Analysis, 1999, 89 – 130. Guthrie, Frederick: ›Note on the Colouring of Maps‹, in: Proceedings of the Royal Society of Edinburgh, 10, 1878–1880, 727 – 728. Gutzwiller, Martin C.: ›Chaos and Symmetry in the History of Mechanics‹, in: Il Nouvo Cimento, 11 (1 – 2), 1989, 1 – 17. Hacking, Ian: ›Experimentation and Scientific Realism‹, in: Philosophical Topics, 13, 1982, 71–87. — Einführung in die Philosophie der Naturwissenschaften (1983), Stuttgart: Reclam 1996.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



412

Literaturverzeichnis

— ›What Do We See Through a Microscope?‹, in: Churchland, Hooker, Images of Science, 1985, 132 – 152. Hadley, George: ›The cause of the general Trade-Wind‹, in: Philosophical Transactions of the Royal Society of London, 34, 1735, 58 – 62. Hales, Thomas C.: ›Formal Proof‹, in: Notices of the American Mathematical Society, 55 (11), 2008, 1370 – 1380. Halley, Edmund: ›An historical account of the Trade-Winds and Monsoons observable in the seas between and near the Tropick, with an attempt to assign the physical cause of said Winds‹, in: Philosophical Transactions of the Royal Society of London, 183, 1686, 153 – 168. Hamilton, William Rowan: ›On a general method in dynamics‹, in: Philosophical Transactions of the Royal Society, 124, 1834, 247 – 308. — ›Second Essay On a General Method in Dynamics‹, in: Philosophical Transactions of the Royal Society of London, 125, 1835, 95 – 144. Hanson, Norwood R.: Patterns of Discovery, Cambridge: Cambridge University Press 1958. Hardy, Godfrey H.: A Mathematicians’s Apology, Cambridge: Cambridge University Press 1967. Hartley, Ralph V.L.: Oscillation Generator, US-Patent 1.356.763, patentiert am 26. Oktober 1920. — ›Transmission of Information‹, in: Bell System Technical, 7, 1928, 535 – 563. Hartmanis, Juris; Stearns, Richard Edwin: ›On the computational complexity of algorithms‹, in: Transactions of the American Mathematical Society, 117, 1965, 285 – 306. Hebb, Donald O.: The Organization of Behaviour, New York: Wiley & Sons 1949. Hedrich, Reiner: Die Entdeckung der Komplexität. Skizzen zu einer strukturwissenschaftlichen Revolution, Frankfurt: Harri Deutsch 1994. — Von der Physik zur Metaphysik: Physikalische Vereinheitlichung und Stringansatz, Ontos: Heusenstamm 2007. Heidegger, Martin: Kant und das Problem der Metaphysik (1929), Frankfurt: Klostermann 1998. — ›Die Zeit des Weltbildes‹ (1938), in: Ders.: Holzwege, Frankfurt: Vittorio Klostermann 1963, 75 – 114. — ›Die Frage nach der Technik‹ (1949), in: Ders.: Die Technik und die Kehre, Stuttgart: Cottasche Buchhandlung 1962. — ›Das Ende der Philosophie und die Aufgabe des Denkens‹, in: Ders.: Zur Sache des Denkens, Tübingen: Niemeyer 1969, 61 – 79. Heintz, Bettina: Die Innenwelt der Mathematik, Wien: Springer 2005 Heisenberg, Werner: ›Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen‹ (1925), in: Born, Heisenberg, Jordan, Zur Begründung der Matrizenrechnung, 1962, 31 – 45. — ›Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik‹, in: Zeitschrift für Physik, 43, 1927, 172 – 198. — ›Über den Bau der Atomkerne‹, in: Zeitschrift für Physik, 77, 1932, 1 – 11. — ›Die ›beobachtbaren Größen‹ in der Theorie der Elementarteilchen‹, in: Zeitschrift für Physik, 120 (7 – 10), 1943, 513 – 538. Held, Carsten: ›Analytizität‹, in: Volker Gerhardt, Rolf-Peter Horstmann, Ralph Schu-

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 413

macher (Hrsg.): Kant und die Berliner Aufklärung, Akten des IX. Internationalen Kantkongresses, 5. Bd., Berlin: de Gruyter 2001, 28 – 36. Helmholtz, Hermann von: ›Ueber die Thatsachen, die der Geometrie zu Grunde liegen‹, in: Nachrichten der Königlichen Gesellschaft der Wissenschaften zu Göttingen und der Georg-Augusts-Universität zu Göttingen, 9. Bd., Göttingen: Diertichsche Buchhandlung 1868, 193 – 221. — ›Über den Ursprung und die Bedeutung der geometrischen Axiome‹ (1870), in: Ders.: Vorträge und Reden, 2. Bd., Braunschweig: Vieweg 1883, 1 – 31. Hempel, Carl G.: Aspects of Scientific Explanation, New York: The Free Press 1965. Hentschel, Klaus: Interpretationen und Fehlinterpretationen der speziellen und der allgemeinen Relativitätstheorie durch Zeitgenossen Albert Einsteins, Basel: Birkhäuser 1990. Herbrand, Jacques: ›On the consistency of arithmetic‹ (1931), in: Jacques Herbrand, Jean van Heijenoort, Warren D. Goldfarb (Hrsg.): Logical Writings, Cambridge: Harvard University Press 1971, 282 – 298. Hermes, Hans: Aufzählbarkeit, Entscheidbarkeit, Berechenbarkeit. Einführung in die Theorie der rekursiven Funktion, Berlin u. a.: Springer 1978. Hermite, Charles: ›Sur la résolution de l’équation du cinquième degré‹ (1858), in: Ders.: Œuvres de Charles Hermite, 2. Bd., Paris: Gauthier-Villars, 1908, 5 – 21. Herschel, John F. W.: ›On the alterations of compound lenses and object-glasses‹, in: Philosophical Transactions of the Royal Society of London, 111, 1821, 221 – 268. Hertz, Heinrich: Ueber die Beziehung zwischen Licht und Electricität (1889), Bonn: Emil Strauß 1889. — Untersuchungen über die Ausbreitung der elektrischen Kraft, Leipzig: Barth 1894. Heyting, Arend: ›Die intuitionistische Grundlegung der Mathematik‹, in: Erkenntnis, 2, 1931, 106 – 115. Hilbert, David: Gesammelte Abhandlungen, 3 Bde., Berlin: Springer 1932 – 1935. — Grundlagen der Geometrie (1899), Leipzig: Teubner 1903. — Brief an Gottlob Frege vom 29. Dezember 1899, in: Frege, Gottlob Freges Briefwechsel, 1980, 11 – 13. — Brief an Gottlob Frege vom 22. September 1900, in: Frege, Gottlob Freges Briefwechsel, 1980, 23. — ›Über den Zahlbegriff‹, in: Jahresbericht der Deutschen Mathematiker-Vereinigung, 8, 1900, 180 – 184. — ›Mathematische Probleme‹ (1900), in: Hilbert, Gesammelte Abhandlungen, 1. Bd., 1932, 290 – 329. — ›Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen (Erste Mitteilung)‹, in: Nachrichten der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1904, 1904, Berlin: Weidmannsche Buchhandlung, 49 – 91. — Grundzüge einer allgemeinen Theorie der Linearen Integralgleichungen, Leipzig: Teubner 1912. — ›Axiomatisches Denken‹, in: Mathematische Annalen, 78, 1917, 405 – 415. — ›Die Grundlagen der Physik (Erste Mitteilung)‹, in: Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1917, Berlin: Weidmannsche Buchhandlung 1917, 395 – 408.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



414

Literaturverzeichnis

— ›Die Grundlagen der Physik (Zweite Mitteilung)‹, in: Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1917, Berlin: Weidmannsche Buchhandlung 1917, 53 – 76. — ›Die logischen Grundlagen der Mathematik‹ (1922), in: Mathematische Annalen, 88, 1923, 151 – 165. — ›Über das Unendliche‹, in: Mathematische Annalen, 95, 1926, 161 – 190. Hinterwaldner, Inge: ›Simulationsmodelle. Zur Verhältnisbestimmung von Modellierung und Bildgebung in Echtzeitsimulationen‹, in: Ingeborg Reichle, Steffen Siegel, Achim Spelten (Hrsg.): Visuelle Modelle, München: Fink 2008, 301 – 314. — Das systemische Bild. Ikonizität im Rahmen computerbasierter Echtzeitsimulationen, München: Fink 2010. Hinterwaldner, Inge, Markus Buschhaus (Hrsg.): The Picture’s Image. Wissenschaftliche Visualisierung als Komposit, München: Fink 2006. Hogrebe, Wolfram: Ahnung und Erkenntnis. Brouillon zu einer Theorie des natürlichen Erkennens, Frankfurt: Suhrkamp 1996. Hoffmann, Jörg: Taschenbuch der Messtechnik, Leipzig: Hanser 2004. Hoffmann, Michael: ›Axiomatisierung bei Platon und Aristoteles‹, in: Zeitschrift für philosophische Forschung, 58 (2), 2004, 224 – 245. — Erkenntnisentwicklung, Frankfurt: Vittorio Klostermann 2005. Hon, Giora; Goldstein, Bernard R.: ›How Einstein Made Asymmetry Disappear: Symmetry and Relativity in 1905‹, in: Archive of the History of the Exact Sciences, 59, 2005, 437 – 544. Hooke, Robert: Lectures de potentia restitutiva, or, of Spring: explaining the power of springing bodies: to which are added some collections, London: John Martyn 1678. Hopf, Eberhard: ›Abzweigungen einer periodischen Lösung einer stationären Lösung eines Differentialgleichungssystems‹, in: Berichte der Verhandlungen der Sächsischen Akademie der Wissenschaften Leipzig, Mathematisch-Physische Klasse, 94, 1942, 1 – 32. Hoppe, Hansgeorg: Synthesis bei Kant. Das Problem der Verbindung von Vorstellungen und ihre Gegenstandsbeziehung in der ›Kritik der reinen Vernunft‹, Berlin, New York: de Gruyter 1983. Hubig, Christoph: Technologische Kultur (Leipziger Schriften zur Philosophie 3), Leipzig: Leipziger Universitätsverlag 1997. — Die Kunst des Möglichen: Grundlinien einer dialektischen Philosophie der Technik, 2 Bde., Bielefeld: Transcript 2006, 2007. Hume, David: A Treatise of Human Nature: Being an Attempt to introduce the experimental Method of Reasoning into Moral Subjects (1739 – 40), Oxford: Oxford University Press 2002. — An Enquiry concerning Human Understanding (1748), La Salle, Ill: Open Court Publisher 1949. Humphreys, Paul: Extending Ourselves. Computational Sciences, Empiricism, and Scientific Method, Oxford: Oxford University Press 2004. Husserl, Edmund: Philosophie der Arithmetik (1891) (hrsg. von Elisabeth Ströker), Gesammelte Schriften, 1. Bd., Hamburg: Meiner 1992. — Logische Untersuchungen. 2. Theil: Untersuchungen zur Phänomenologie und Theorie des Erkennens, Halle: Niemeyer 1901.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 415

— Vorlesungen zur Phänomenologie des inneren Zeitbewusstseins (hrsg. von Martin Heidegger), Halle: Niemeyer 1928. — Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie (1935), Hamburg: Meiner 1996. — ›Die Frage nach dem Ursprung der Geometrie als intentional-historisches Problem‹, in: Revue Internationale de Philosophie, 1 (2), 1939, 203 – 225 respektive als ›Beilage III zu § 9a‹ (1936), 1976. — ›Beilage III zu § 9a‹ (1936), in: Ders.: Husserliana, 6. Bd. (hrsg. von Walter Biemel), Den Haag: Martinus Nijhoff 1976, 365 – 386. International Centre for Unconventional Computing: Homepage, University of the West of England, Bristol, URL: http://uncomp.uwe. ac.uk/ (letzter Zugriff: 26.2.2020). IPCC Intergovernmental Panel on Climate Change: Guidance Notes for Lead Authors of the IPCC Fourth Assessment Report on Addressing Uncertainties, Genf: IPCC 2005. Iseli, Rebecca: Kants Philosophie der Mathematik. Rekonstruktion – Kritik – Verteidigung, Bern u. a.: Verlag Paul Haupt 2001. Jablonka,Eva; Lamb, Marion J.: ›The Changing Concept of Epigenetics‹, in: Annals of the New York Academy of Sciences, 981, 2002, 82 – 96. Jackson, Myles: Spectrum of Belief. Joseph von Fraunhofer and the Craft of Precision Optics, MIT Press: Boston 2000. — ›From theodolite to spectral apparatus: Joseph von Fraunhofer and the invention of a German optical research-technology‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 17 – 28. Jacobi, Carl Gustav: ›Über die Figur des Gleichgewichts‹, in: Poggendorf Annalen der Physik und Chemie, 33, 1834, 29 – 33. Jacobs, Konrad (Hrsg.): Selecta Mathematica II, Berlin u. a.: Springer 1970. Jahnke, Hans Niels (Hrsg.): Geschichte der Analysis, Heidelberg, Berlin: Spektrum Akademischer Verlag 1999. — ›Die algebraische Analysis des 18. Jahrhunderts‹, in: Jahnke, Geschichte der Analysis, 1999, 131 – 170. James, Thomas W.: ›Continuous Culture of Microorganisms‹, in: Annual Review of Microbiology, 15, 1961, 27 – 46. Jammer, Max: The Conceptual Development of Quantum Mechanics, New York u. a.: McGraw-Hill 1966. Jansen, Martin: ›Ein Konzept zur Syntheseplanung in der Festkörperchemie‹, in: Angewandte Chemie, 114, 2002, 3896 – 3917. — ›The Deductive Approach to Chemistry, a Paradigm Shift‹, in: Kenneth M. Harris, Peter P. Edwards (Hrsg.): Turning points in Solid-State, Materials and Surface Science, Cambridge: RSC Publishing, 2008, 22 – 50 Jansen, Martin; Schön, J. Christian: ››Design‹ in der chemischen Synthese – eine Fiktion?‹, in: Angewandte Chemie, 118 (21), 2006, 3484 – 3490. Jasinowski, Bogumil: Die analytische Urteilslehre Leibnizens in ihrem Verhältnis zu seiner Metaphysik, Wien: Chr. Reißers Söhne 1918. Jevons, William S.: Pure Logic: Or, The Logic of Quality Apart from Quantity, London: E. Stanford 1864.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



416

Literaturverzeichnis

Joerges, Bernward; Shinn, Terry (Hrsg.): Instrumentation Between Science, State and Industry, Dordrecht u. a.: Kluver Academic Publishers 2001. Johnston, Sean F.: ›In search of space: Fourier spectroscopy, 1950 – 1970‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 121 – 141. Jordan, Camille: ›Sur les groupes de mouvements‹, in: Annali di Matematica pura et applicata, 2 (2), 1868, 167 – 215 — ›Commentaire sur Galois‹, in: Mathematische Annalen, 1, 1869, 141 – 184. — Traité des substitutions et des équations algébriques, Paris: Gauthier-Villars 1870. Julia, Gaston: ›Mémoire sur l’itération des fonctions rationnelles‹, in: Journal de Mathématiques Pures et Appliquées, 8, 1918, 47 – 245. Kant, Immanuel: Kritik der reinen Vernunft (1781, 1787) (hrsg. von Raymund Schmidt), Hamburg: Meiner 1993. — Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können (1783) (hrsg. von Konstantin Pollok), Hamburg: Meiner 2001. — Metaphysische Anfangsgründe der Naturwissenschaft (1786) (hrsg. von Wilhelm Weischedel), Meiner: Hamburg 1983. — Kritik der Urteilskraft (1790, 1793, 1799) (hrsg. von Karl Vorländer), Hamburg: Meiner 1993. — ›Über das Organ der Seele‹, in: Samuel T. Sömmerring: Über das Organ der Seele, Königsberg: Friedrich Nicolovius 1796, 81 – 86. — Logik – ein Handbuch zu Vorlesungen (hrsg. von Gottlob Benjamin Jäsche), Königsberg: Nicolovius 1800. Kanterian, Edward: Analytische Philosophie, Frankfurt: Campus 2004. Kari, Lila; Rozenberg, Grzegorz: ›The Many Facets of Natural Computing‹, in: Communications of the ACM, 51, 2008, 72 – 83. Karplus, Walter J.: Analog Simulation: Solution of Field Problems, New York: McGrawHill 1959. Kepler, Johannes: Gesammelte Werke (hrsg. von Max Caspar, Walther von Dyck, Franz Hammer), 25 Bde., München: Beck 1938 ff. — Mysterium Cosmographicum. De stella nova (1596), Gesammelte Werke, 1. Bd., 1938. — Harmonice mundi (1619), Gesammelte Werke, 2. Bd., München: Beck 1940. — Chilias logarithmorum, Marburg 1624. Kerr, Roy Patrick: ›Gravitational field of a spinning mass as an example of algebraically special metrics‹, in: Physical Review Letters, 11 (5), 1963, 237 – 238. Kester, Walt A. (Hrsg.): The Data Conversion Handbook, Burlington: Newnes 2005. Kilby, Jack S.: ›Invention of the integrated circuit‹, in: IEEE Transactions on Electron Devices, 23 (7), 1976, 648 – 654. Kirby, Vicki: »Enumerating Language: ›The Unreasonable Effectiveness of Mathematics‹«, in: Configurations, 11, 2003, 417 – 439. Kitano, Hiroaki: ›Systems Biology: Toward System-level Understanding of Biological Systems‹, in: Ders. (Hrsg.): Foundations of Systems Biology, Cambridge: MIT Press 2001, 1 – 28. — ›Computational systems biology‹, in: Nature, 420, 2002, 206 – 210. Kitcher, Philip: ›Kant and the Foundations of Mathematics‹, in: The Philosophical Review, 84 (1), 1975, 23 – 50.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 417

— »How Kant Almost Wrote ›Tow Dogmas of Empiricism‹«, in: Philosophical Topics, 12 (2), 1981, 217 – 249. — The Nature of Mathematical Knowledge, New York, Oxford: Oxford University Press 1984. Kitcher, Philip; Salmon, Wesley: ›Van Fraassen on Explanation‹, in: Journal of Philosophy, 84 (6), 1987, 315 – 330. Kjeldsen, Tinne Hoff; Pedersen, Stig Andur; Sonne-Hansen, Lise Mariane (Hrsg.): New Trends in History and Philosophy of Mathematics, Odense: Syddansk Universitetsforlag 2004. Klagenfurt, Kurt: Technologische Zivilisation und transklassische Logik. Eine Einführung in die Technikphilosophie Gotthard Günthers, Frankfurt: Suhrkamp 1995. Kleene, Stephen C.: ›A theory of positive integers in formal logic‹, in: American Journal of Mathematics, 57, 1935, 153 – 173 und 219 – 244. — ›General recursive functions of natural numbers‹, in: Mathematische Annalen, 112, 1936, 727 – 742. — ›On notation for ordinal numbers‹, in: Journal Symbolic Logic, 3, 1938, 150 – 155. Klein, Felix: Gesammelte mathematische Abhandlungen, 3 Bde., Berlin: Springer 1921 – 1923. — ›Über die sogenannte Nicht-Euklidische Geometrie (erster Aufsatz)‹ (1872), in: Klein, Gesammelte mathematische Abhandlungen, 3. Bd., 1923, 254 – 305. — ›Über die sogenannte Nicht-Euklidische Geometrie (zweiter Aufsatz)‹ (1873), in: Klein, Gesammelte mathematischen Abhandlungen, 1. Bd., 1921, 311 – 343. — ›Vergleichende Betrachtungen über neuere geometrische Forschungen‹ (1872), in: Mathematische Annalen, 43, 1893, 63 – 100. — ›Riemann und seine Bedeutung für die Entwicklung der modernen Mathematik‹ (1894), in: Jahresbericht der Deutschen Mathematikervereinigung, 4, 1894/95 (1897), 71 – 87. — ›Über die Arithmetisierung der Mathematik‹ (1895), in: Klein, Gesammelte mathematischen Abhandlungen, 2. Bd., 1922, 232 – 240. — ›Über die geometrischen Grundlagen der Lorentzgruppe‹, in: Jahresbericht der Deutschen Mathematiker-Vereinigung, 19, 1910, 533 – 554. — ›Über die Differentialgesetze für Erhaltung von Impuls und Energie in der Einsteinschen Gravitationstheorie‹, in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1918, Berlin: Weidmannsche Buchhandlung 1918, 171 – 189. — Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert, 2 Bde., Springer: Berlin 1926, 1927. Klein, Ursula: Verbindung und Affinität: Die Grundlegung der neuzeitlichen Chemie an der Wende vom 17. zum 18. Jahrhundert, Basel u. a.: Birkhäuser 1994. Klett, James D.: ›Stable analytical inversion solution for processing lidar returns‹, in: Applied Optics, 20, 1981, 211 – 220. — ›Lidar inversion with variable backscatter/extinction ratios‹, in: Applied Optics, 24, 1985, 1638 – 1643. Klitzing, Klaus von; Dorda, Gerhard; Pepper, Michael: ›New Method for High-Accuracy Determination of the Fine-Structure Constant Based on Quantized Hall Resistance‹, in: Physical Review Letters, 45, 1980, 494 – 497.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



418

Literaturverzeichnis

— Grenzen der Mikroelektronik: Quantenphänomene in mikrostrukturierten Halbleitern, Jena: Universitätsverlag 1995. Klügel, Simon: Analytische Trigonometrie, Braunschweig: Fürstliche Waisenhausbuchhandlung 1770. — Analytische Dioptrik, Leipzig: Junius 1778. Kneale, William; Kneale, Martha: The Development of Logic, Oxford: Clarendon 1962. Knauss, Gerhard: ›Extensional and intensional Interpretation of Synthetic Propositions a priori‹ (Proceedings of the Third International Kant Congress), in: Synthese Historical Library, 4, 1971, 356 – 361. Kneser, Adolf: ›Kleinste Wirkung und Galileische Relativität‹, in: Mathematische Zeitschrift, 2, 1918, 326 – 349. Knorr Cetina, Karin: Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft (1981), Frankfurt: Suhrkamp 2002 Kogge, Werner: ›Technologie des 21. Jahrhunderts – Perspektiven der Technikphilosophie‹, in: Deutsche Zeitschrift für Philosophie, 6, 2008, 935 – 956. Kolmogorov, Andrej: ›General Theory of Dynamical Systems and Classical Mechanics‹ (1954), in: Mathematics and Its Applications (Soviet Series), 25, 1991, 355 – 374. Korth, Georg: ›Zum Problem der geometrischen Methode. Eine Stellungnahme zu E. W. Beths Abhandlung »Über Lockes ›allgemeines Dreieck‹«, in: Kant-Studien, 50, 1958/59, 461 – 478. Kosso, Peter: ›The Empirical Status of Symmetries in Physics‹, in: The British Journal of Philosophy of Science, 51, 2000, 81 – 98. Kowol, Gerhard: Projektive Geometrie und Cayley-Klein Geometrien der Ebene, Basel u. a.: Birkhäuser 2009. Koyré, Alexandre: ›Du monde de la peu près à l‹univers de la précision‹, in: Critique, 4 (28), 1948, 809 – 825. — Von der geschlossenen Welt zum unendlichen Universum (1957), Frankfurt: Suhrkamp 1969. Krämer, Sybille: Symbolische Maschinen. Die Geschichte der Formalisierung in historischem Abriß, Darmstadt: Wiss. Buchgesellschaft 1988. — Berechenbare Vernunft. Kalkül und Rationalisierung im 17. Jahrhundert, Berlin, New York: de Gruyter 1991. Kragh, Helge: ›The most philosophically of all the sciences: Karl Popper and physical cosmology‹, in: Preprint PhilSci Archive, 2012. URL: http://philsci-archive.pitt. edu/9062/ (letzter Zugriff: 26.2.2020). Kramers, Hendrik; Heisenberg, Werner: ›Über die Streuung von Strahlung durch Atome‹, in: Zeitschrift für Physik A, 31 (1), 1924, 681 – 708. Krause, Egon: ›Einige grundsätzliche Aspekte numerischer Strömungssimulationen‹, in: Nagel, Partielle Differentialgleichungen, Numerik und Anwendung, 1996, 13 – 24. Kripke, Saul A.: Naming and Necessity, Cambridge: Harvard University Press 1980. — Wittgenstein on Rules and Private Language, Oxford: Blackwell 1982. Kubitschek, Herbert: Introduction to Research with Continuous Cultures, Englewood Cliffs: Prentice-Hall 1970. Kuhn, Thomas S.: The Structure of Scientific Revolutions, Chicago: University of Chicago Press 1962.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 419

Kuipers, Theo: From Instrumentalism to Constructive Realism, Dordrecht: Reidel 2000. Kukla, André: Studies in Scientific Realism, Oxford: Oxford University Press 1998. Lagrange, Joseph-Louis: Oeuvres des Lagrange (hrsg. von Joseph Serret, Gaston Darboux, Ludovic Lalanne), 14 Bde., Paris: Gauthier-Villars 1867 – 1892. — ›Réflexions sur la théorie algébrique des equations‹ (1770/71), in: Lagrange, Oeuvres des Lagrange, 3. Bd., 1869, 203 – 421. — ›Sur la méthode des variations‹ (1766 – 1769), in: Lagrange, Oeuvres des Lagrange, 2. Bd., 1881, 37 – 63. — Mécanique analytique (1788), in: Lagrange, Oeuvres des Lagrange, 11. Bd., 1888. Lakatos, Imre: ›Falsification and the Methodology of Scientific Research Programmes‹, in: Imre Lakatos, Alan Musgrave (Hrsg.): Criticism and the Growth of Knowledge, Cambridge: Cambridge University Press 1970, 91 – 196. Lambert, Heinrich J.: ›Abhandlung vom ›Cirterium Veritatis‹ (1761) (hrsg. von Karl Bopp), in: Kant-Studien, 36, 1915. — ›Theorie der Parallellinien‹ (1766), in: Engel, Stäckel, Urkunden zur Geschichte der Nichteuklidischen Geometrie, 1895, 152 – 208. Laplace, Pierre-Simon de: Traité de mécanique céleste, 2 Bde., Paris: Duprat 1798 – 1825. Latour, Bruno; Woolgar, Steve: Laboratory Life. The Social Construction of Scientific Facts, Beverly Hills: Sage Publications 1979. Lee, Henry D. P.: ›Geometrical Method and Aristotle’s account of first principles‹, in: Classical Quarterly, 29, 1935, 113 – 124. Legendre, Adrien-Marie: Éléments de géométrie, Paris: Didot 1794. Leibniz, Gottfried W.: Œuvres philosophiques latines et françaises de feu Mr de Leibnitz (hrsg. von Eric Raspe), Amsterdam, Leipzig: Jean Schreuder 1765. — Opera omnia (hrsg. von Ludovici Dutens), 6 Bde., Genf: Fratres de Tournes 1768. — Opera Philosophica (hrsg. von Johann Eduard Erdmann), 2 Bde., Berlin: G. Eichleri 1840. — Die philosophischen Schriften von Gottfried Wilhelm Leibniz (hrsg. von Carl Immanuel Gerhardt), 7 Bde., Berlin: Weidmann 1875 – 1890. — Philosophische Werke (hrsg. von Artur Buchenau, Ernst Cassirer), 4 Bde., Meiner: Hamburg 1996 – 2000. — Sämtliche Schriften und Briefe (hrsg. von der Berlin-Brandenburgischen Akademie der Wissenschaften), Berlin: de Gruyter 1932 ff. — Mathematische Schriften (hrsg. von der Berlin-Brandenburgischen Akademie der Wissenschaften), VII. Reihe, 4. Bd., Berlin: Akademie-Verlag 2008. — Neue Abhandlungen über den menschlichen Verstand (1765) (hrsg. von Ernst Cassirer), Hamburg: Meiner 1971. — ›Entwurf der geometrischen Charakteristik‹ (aus einem Brief an Huyghens vom 8. September 1679), in: Leibniz, Philosophische Werke, 1. Bd., 1996, 77 – 83. — ›Betrachtungen über die Erkenntnis, die Wahrheit und die Ideen‹ (1684), in: Ders.: Fünf Schriften zur Logik und Metaphysik (hrsg. von Herbert Herring), Stuttgart: Reclam 1995, 9 – 16. — ›Machina arithmetica in qua non additio tantum et subtractio sed et multiplicatio nullo, divisio vero paene nullo animi labore peragantur‹ (1685), übersetzt in: David

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



420

Literaturverzeichnis

Eugene Smith (Hrsg.): A Source Book in Mathematics, 3. Bd, Mineola: Courier Dover Publications 1959, 173 – 181. — Allgemeine Untersuchungen über die Analyse der Begriffe und Wahrheiten (1686) (hrsg. von Franz Schupp), Hamburg: Meiner 1993. — ›Discours de mètaphysique‹ (1686), in: Leibniz, Die philosophischen Schriften von Gottfried Wilhelm Leibniz, 4. Bd., 1880, 427 – 463. — ›De analysi situs‹ (1693), in: Leibniz, Philosophische Werke, 1. Bd., 1996, 69 – 76. — Briefwechsel mit Johann Bernoulli (1694), in: Leibniz, Sämtliche Schriften und Briefe, III. Reihe, 6. Bd., 2004, 35, 88, 120, 165, 239. — ›De rerum originale radicali‹ (1697), in: Leibniz, Die philosophischen Schriften von Gottfried Wilhelm Leibniz, 7. Bd., 1890, 306 – 307. — Brief an Varigon vom 2. Februar 1702, in: Leibniz, Philosophische Werke, 1. Bd., 1996, 96 – 100. — ›Systeme nouveau de la nature et de la communicacion des substances‹ (1704), in: Leibniz, Die philosophischen Schriften von Gottfried Wilhelm Leibniz, 4. Bd., 1880, 471 – 530. — Opuscules et fragments inédits (hrsg. von Louis Couturat), Paris: F. Alcan 1903. — Fragmente zur Logik (hrsg. von Franz Schmidt), Berlin: Akademie Verlag 1960. Lenders, Winfried: Die analytische Begriffs- und Urteilstheorie von G.W. Leibniz und Chr. Wolff, Hildesheim, New York: Georg Olms Verlag 1971. Leng, Mary: ›Platonism and Anti-Platonism: Why Worry?‹, in: International Studies in the Philosophy of Science, 19, 2005, 65 – 84. — Mathematics & Reality, Oxford, New York: Oxford University Press 2010. Lewis, Clarence I.: An Analysis of Knowledge and Valuation, La Salle, IL: Open Court 1946. Lewis, David: On the Plurality of Worlds, Malden: Blackwell 1986. Liapunov, Aleksandr: ›Problème général de la stabilité du mouvement‹ (1892), in: Annales de la faculté des sciences de Toulouse, 9, 1907, 203 – 474. — The general problem of the stability of motion (1892), London: Taylor & Francis 1992. Lie, Sophus: ›Über Gruppen von Transformationen‹ (1874), in: Ders.: Gesammelte Abhandlungen, 5. Bd., Leipzig: Teubner 1924, 1 – 8. — Theorie der Transformationsgruppen, 3 Bde., Leipzig: Teubner 1888, 1890, 1893. Lilienfeld, Pedro: ›A Blue Sky History‹, in: Optics & Photonics News, 6, 2004, 32 – 39. Lindenmayer, Aristid: ›Mathematical models for cellular interaction in development‹, in: Journal for Theoretical Biology, 18, 1968, 280 – 315. Lindsay, Robert K.; Buchdnan, Bruce G.; Feigenbaum, Edward A.; Lederberg, Joshua: Applications of Artificial Intelligence for Organic Chemistry. The DENDRAL Project, New York: McGraw-Hill Book Company 1980. Lissajous, Jules Antoine: ›Note sur un moyen nouveau de mettre en évidence le mouvement vibratoire des corps‹, in: Comptes rendus, 41, 1855, 93 – 95. Locke, John: An Essay concerning Human Understanding (1690), Oxford: Oxford University Press 2008. — ›Mr. Locke’s reply to the right reverend the Lord Bishop of Worchester’s answer to his second letter‹ (1696), in: Ders.: The Works of John Locke, 3. Bd., London: Rivington 1824.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 421

Löfgren, Lars: ›An axiomatic explanation of complete self-reproduction‹, in: Bulletin of Mathematical Biophysics, 30, 1968, 415 – 425. — ›Autology: Metalogics of self-applicability‹, in: Madan G. Singh (Hrsg.): Systems and Control Encyclopedia, Oxford: Pergamon 1987, 326 – 333. — ›Life as an Autolinguistic Phenomenon‹, in: Milan Zeleny (Hrsg.): Autopoiesis: A Theory of Living Organization, New York: North Holland 1981, 236 – 249. Löhrer, Guido: ›Gibt es analytische Urteile?‹, in: Internationale Zeitschrift für Philosophie, 1, 2002, 60 – 84. Lombardo-Radice, Lucio: ›Eine Bemerkung über die Antinomie von Richard‹, in: Archiv der Mathematik, 13 (1), 1962, 166 – 168. Lorentz, Hendrik Antoon: Versuch einer Theorie der electrischen und optischen Erscheinungen in bewegten Körpern, Leiden: E.J. Brill 1895. — ›Elektromagnetische Erscheinungen in einem System, das sich mit beliebiger, die des Lichtes nicht erreichender Geschwindigkeit bewegt‹ (1904), in: Lorentz, Einstein, Minkowski, Das Relativitätsprinzip, 1913, 6 – 26. Lorentz, Hendrik Antoon; Einstein, Albert; Minkowski, Herbert: Das Relativitätsprinzip. Eine Sammlung von Abhandlungen, Berlin, Leipzig: Teubner 1913. Lorenz, Edward N.: ›Deterministic Nonperiodic Flow‹, in: Journal of the Atmospheric Sciences, 20 (2), 1963, 130 – 141. Losee, John: Wissenschaftstheorie. Eine historische Einführung, München: Beck 1977. Lotka, Alfred: Elements of Physical Biology, Baltimore: Williams & Wilkins 1925. Luhmann, Niklas: Die Gesellschaft der Gesellschaft, Frankfurt: Suhrkamp 1997. Lukasiewicz, Jan: ›On three-valued logic‹ (1920), in: Ludwig Borkowski (Hrsg.): Selected works by Jan Lukasiewicz, Amsterdam: North Holland 1970, 87 – 88. Lyre, Holger: ›The Principles of Gauging‹, in: arXiv:quant-ph/0101047, 2001. — Lokale Symmetrien und Wirklichkeit. Eine naturphilosophische Studie über Eichtheorien und Strukturenrealismus, Mentis: Paderborn 2004. Maanen, Jan van: ›Vorläufer der Differential- und Integralrechnung‹, in: Jahnke, Geschichte der Analysis, 1999, 43 – 88. MacColl, Hugh: ›The Calculus of Equivalent Statements‹, in: Proceedings of the London Mathematical Society, 28, 1896, 156 – 183. Mach, Ernst: Die Mechanik in ihrer Entwicklung (1883), Frankfurt: Minerva 1982. — Erkenntnis und Irrtum. Skizzen zur Psychologie der Forschung, Leipzig: Barth 1905. MacKenzie, Donald: Mechanizing Proof, Cambridge: MIT Press 2001. Maddy, Penelope: Realism in Mathematics, Oxford: Clarendon 1990. — Naturalism in Mathematics, Oxford: Clarendon 1997. — Defending the Axioms: On the Philosophical Foundations of Set Theory, Oxford: Oxford University Press 2011. Mahr, Bernd: ›Womit können wir rechnen?‹, in: Spektrum der Wissenschaft (Spezial: Ist das Universum ein Computer?), 2007, 27 – 35. Klaus Mainzer, Walter Schirmacher (Hrsg.): Quanten, Chaos und Dämonen. Erkenntnistheoretische Aspekte der modernen Physik, Leipzig u. a.: BI Wissenschaftsverlag 1994. Mainzer, Klaus: Geschichte der Geometrie, Zürich: BI Wissenschaftsverlag 1980. — Symmetrien der Natur. Ein Handbuch zur Natur- und Wissenschaftsphilosophie, Berlin, New York: de Gruyter 1988.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



422

Literaturverzeichnis

— Computer – Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin New York: de Gruyter 1995. Malament, David D.: ›Review of Science without Numbers: A Defense of Nominalism‹, in: Journal of Philosophy, 79, 1982, 523 – 534. Malthus, Thomas Robert: Essay on the Principle of Population, London: Johnson 1798. Mandelbrot, Benoît: Fractals: Form, Chance and Dimension (1975), San Francisco: Freeman & Co 1977. — ›Fractal aspects of the iteration of z → λ(1-z) for complex λ, z‹, in: Annals of the New York Academy of Sciences, 357, 1980, 249 – 259. Manzinius, Celsus: De cognitione hominis, quae lumine naturali haberi potest, Ravenna 1586. Marchant, Christian C.: Algorithm Development of the AGLITE-LIDAR Instrument, Master Thesis in Electrical Engineering, Utah State University 2008. Markram, Henry: ›The Blue Brain Project‹, in: Nature Neuroscience Review, 7, 2006, 153 – 160. Marliere, Philippe: ›The farther, the safer: a manifesto for securely navigating synthetic species away from the old living world‹, in: Systems and Synthetic Biology, 3, 2009, 77 – 84. Marliere, Philippe; et al.: ›Chemical Evolution of a Bacterium’s Genom‹, in: Angewandte Chemie (Internationale Edition), 50, 2011, 7109 – 7114. Marsonet, Michele (Hrsg.): The Problem of Realism, London: Ashgate 2002. Martin, Christopher A.: ›On continuous symmetries and the foundations of modern physics‹, in: Brading, Castellani, Symmetries in Physics, 2003, 29 – 60. Martin, Gottfried: Leibniz: Logik und Metaphysik, Köln: Kölner Universitätsverlag 1960. — Immanuel Kant. Ontologie und Wissenschaftstheorie, Köln: Kölner Universitätsverlag 1950 Matijassewitsch, Juri W.: ›Diophantine representation of the set of prime numbers‹, in: Soviet Mathematics Doklady, 12 (4), 1971, 249 – 254. Maxwell, James C.: ›A Dynamical Theory of the Electromagnetic Field‹, in: Philosophical Transactions of the Royal Society, 155, 1865, 459 – 512. — Lehrbuch der Electricität und des Magnetismus (1873), 1. Bd., Berlin: Springer 1883. — Scientific Papers of James Clerk Maxwell (hrsg. von W.D. Niven), 2 Bde., Cambridge: Cambridge University Press 1890. May, Robert M.: ›Simple mathematical models with very complicated dynamics‹, in: Nature, 261, 1976, 459 – 467. Mayer, Eugen: Das Rechnen in der Technik und seine Hilfsmittel, Leipzig Göschen 1908. Mehrtens, Herbert: Moderne Sprache Mathematik: Eine Geschichte des Streits um die Grundlagen der Disziplin und des Subjekts formaler Systeme, Frankfurt: Suhrkamp 1990. Meißner, Alexander: Einrichtung zur Erzeugung elektrischer Schwingungen, DE-Patent 291.604, angemeldet am 13. April 1913, patentiert am 23 Juni 1919. Meli, Domenico B.: Thinking with Objects: The Transformation of Mechanics in the Seventeenth Century, Baltimore: John Hopkins University Press 2006. Merleau-Ponty, Maurice: Phénoménologie de la perception, Paris: Gallimard 1945. Metropolis, Nicholas; Howlett, Jack; Rota, Gian-Carlo (Hrsg.): A History of Computing in the Twentieth Century, New York u. a.: Academic Press 1980.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 423

Meyers, Robert G.: ›Locke, analyticity and trifling propositions‹, in: The Locke Newsletter, 10, 1979, 83 – 96. Mie, Gustav: ›Beiträge zur Optik trüber Medien, speziell kolloidaler Metalllösungen‹, in: Annalen der Physik, 25, 1908, 377 – 445. Mill, John Stuart: A System of Logic, London: Longman Green 1843. Minkowski, Hermann: ›Das Relativitätsprinzip‹ (1907), in: Annalen der Physik, 35, 1915, 927 – 938. — ›Raum und Zeit‹ (Vortrag 1908), in: Physikalische Zeitschrift, 10, 1909, 75 – 88. Minsky, Marvin: ›Recursive unsolvability of Post’s problem of ›tag‹ and other topics in the theory of Turing machines‹, in: Annals of Mathematics, 74, 1961, 437 – 454. Mittelstaedt, Peter: Philosophische Probleme der modernen Physik, Mannheim: B.I. Wissenschaftsverlag 1981. Mittelstraß, Jürgen: ›Vom Nutzen des Irrtums in der Wissenschaft‹, in: Die Naturwissenschaften, 84 (7), 1997, 291 – 299. Möbius, August: Der barycentrische Calcül, Leipzig: Barth 1827. Monge, Gaspard: Géométrie descriptive (1794), Paris: Bachelier 1847. Monod, Jacques: ›The growth of bacterial cultures‹, in: Annual Review of Microbiology, 3, 1949, 371 – 394. — ›La technique de culture continue, theorie et applications‹, in: Annales de l’Institut Pasteur, 79, 1950, 390 – 410. Morgan, Augustus de: Formal Logic: or The Calculus of Inference, Necessary and Probable, London: Taylor 1847. — The Elements of Arithmetic, London: Taylor 1830. Mortensen, Chris: Inconsistent Mathematics, Dordrecht: Kluwer Academic Publishers 1995. Müller, Marion: Polare Stratosphärenwolken und Mesoskalige Dynamik am Polarwirbelrand, Dissertation im Fachbereich Physik der Freien Universität Berlin, 2001, S. 57. URL: http://webdoc.sub. gwdg.de/ebook/diss/2003/fu-berlin/2001/94/ (letzter Zugriff: 26.2.2020). Myers, Jack; Clark, L. B.: ›Culture Conditions and the Development of the Photosynthetic mechanism‹, in: Journal for Genetic Physiology, 28, 1944, 103 – 112. Nagel, Wolfgang E. (Hrsg.): Partielle Differentialgleichungen, Numerik und Anwendung (Manuskripte der Vorlesungen der Sommerschule vom 2. bis 6. September 1996), Jülich: Forschungszentrum Jülich 1996. Nash, Stephen: A History of Computing, New York: ACM Press 1990. Natorp, Paul: Die logischen Grundlagen der exakten Wissenschaften, Leipzig: Teubner 1910. Navier, Claude M.: ›Memoire sur les lois du mouvement des fluides‹, in: Mémoires de l’Académie des Sciences, 6, 1822, 389 – 440. Nebeker, Frederik: Calculating the Weather. Meteorology in the 20th Century, San Diego u. a.: Academic Press 1995. Nelson, Leonard: Beiträge zur Philosophie der Logik und Mathematik, Frankfurt: Verlag Öffentliches Leben 1959. — ›Kritische Philosophie und mathematische Axiomatik‹, in: Nelson, Beiträge zur Philosophie der Logik und Mathematik, 1959, 91 – 124.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



424

Literaturverzeichnis

Netto, Eugen: Die Substitutionentheorie und ihre Anwendung auf die Algebra, Leipzig: Teubner 1882. Neumann, John von: Collected Works: Design of Computers, Theory of Automata and Numerical Analysis, 5. Bd. (hrsg. von Abraham H. Taub), Oxford: Pergamon Press 1963. — ›Die formalistische Grundlegung der Mathematik‹, in: Erkenntnis, 2, 1931, 116 – 121. — Mathematische Grundlagen der Quantenmechanik, Berlin: Springer 1932. — ›First Draft of a Report on the EDVAC‹ (1945), in: IEEE Annals of the History of Computing Archive, 15 (4), 1993, 27 – 75. — ›General and logical theory of automata‹ (1948), in: von Neumann, Collected Works, 5. Bd., 1963, 288 – 328. — Theory of Self-Reproducing Automata (hrsg. von Arthur Burks), Urbana: University of Illinois Press 1966. Newton, Isaac: Mathematical Principles of Natural Philosophy and His System of the World (1687) (hrsg. von Florian Cajori), 1. Bd., Berkeley, Los Angeles: University of California Press 1974. Nicolai, Friedrich: ›Bemerkungen über den logischen Regressus, nach dem Begriffe der alten Kommentatoren des Aristoteles‹, in: Sammlung der deutschen Abhandlungen, welche in der Königlichen Akademie der Wissenschaften zu Berlin vorgelesen worden in den Jahren 1803, Berlin: Decker 1806, 168 – 180. Noether, Emmy: ›Invariante Variationsprobleme‹, in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1918, Berlin: Weidmannsche Buchhandlung 1918, 235 – 257. — ›Invarianten beliebiger Differentialausdrücke‹, in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse 1918, Berlin: Weidmannsche Buchhandlung 1918, 37 – 44. Nola, Robert (Hrsg.): Relativism and Realism in Sciences, Dordrecht: Kluwer 1988. Nordmann, Alfred: ›Collapse of Distance: Epistemic Strategies of Science and Technoscience‹, in: Danish Yearbook of Philosophy, 41, 2006, 7 – 34. — ›Mit der Natur über die Natur hinaus?‹, in: Kristian Köchy, Martin Norwig, Georg Hofmeister (Hrsg.): Nanobiotechnologien: Philosophische, anthropologische und ethische Fragen, München: Karl Alber 2009, 131 – 147. Nordström, Gunnar: ›On the Energy of the Gravitational Field in Einstein’s Theory‹, in: Verhandelingen der Koninklijke Nederlandse Akademie van Wetenschappen Amsterdam, Natuurkundige Afdeeling, 26, 1918, 1201 – 1208. Novick, Aron; Szilard, Leo: ›Experiments with the Chemostat on Spontaneous Mutations of Bacteria‹, in: PNAS Proceedings of the National Academy of Sciences, 36 (12), 1950, 708 – 719. — ›Description of the Chemostat‹, in: Science, 15, 1950, 715 – 716. — ›Experiments on Spontaneous and Chemical induced Mutations of Bacteria growing in the Chemostat‹, in: Cold Spring Harbor Symposium on Quantitative Biolology, 16, 1951, 337 – 343. Novick, Aron: ›Growth of bacteria‹, in: Annual Review of Microbiology, 9, 1955, 97 – 110. Nyquist, Harry: ›Certain Topics in Telegraph Transmission Theory‹, in: Transactions of the American Institute of Electrical Engineers, 47 (2), 1928, 617 – 644.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 425

Obergfell, Frank: Begriff und Gegenstand bei Kant, Würzburg: Epistema Würzburger Schriftenreihe 1985. Öllien, Frank: Algorithmen und Applikationen zur interaktiven Visualisierung und Analyse chemiespezifischer Datensätze, Dissertation, Friedrich-Alexander-Universität Erlangen-Nürnberg, 2002. O’Leary-Hawthorne, John: ›The Bundle Theory of Substance and the Identity of Indiscernibles‹, in: Analysis, 55, 1995, 191 – 219. O’Raifeartaigh, Lochlainn: The Dawning of Gauge Theory, Princeton: Princeton University Press 1995. Oystein, Ore: ›Linear equations in non-commutative fields‹, in: Annals of Mathematics, 32, 1931, 463 – 477. Panofsky, Erwin: »Die Perspektive als ›symbolische Form‹« (1927), in: Ders.: Aufsätze zu Grundfragen der Kunstwissenschaft (hrsg. von Hariolf Oberer und Egon Verheyen), Berlin: Verlag Volker Spiess 1980, 99 – 167. Pappos von Alexandria: Pappi Alexandrini mathematicae collectionis (hrsg. von Fredericus Hultsch), 3 Bde., Berlin: Weidmann 1875 – 1878. Parsons, Charles: ›Some Remarks on Frege’s Concept of Extension‹, in: Schirn, Studien zu Frege I, 1976, 265 – 278. Pasch, Moritz: Vorlesungen über neuere Geometrie, Leipzig: Teubner 1882. Patzig, Günther: ›Einleitung‹, in: Frege, Logische Untersuchungen, 1993, 5 – 29. Peacock, George: Treaties on Algebra, Cambridge: Deighton 1830. Peano, Giuseppe: Arithmetices principia nova methodo exposita, Rom: F. Bocca 1889. Peckhaus, Volker: Hilbertprogramm und Kritische Philosophie, Göttingen: Vandenhoeck und Ruprecht 1990. — Logik, Mathesis universalis und allgemeine Wissenschaft. Leibniz und die Wiederentdeckung der formalen Logik im 19. Jahrhundert, Berlin: Akademie Verlag 1997. Peirce, Charles Sanders: Collected Papers of Charles Sanders Peirce, I-VI (hrsg. von Charles Hartshorne und Paul Weiss), VII-VIII (hrsg. von Arthur W. Burke), Cambridge: Harvard University Press 1931 – 1958. — ›Description of a Notation for the Logic of Relatives, Resulting from an Amplification of the Conceptions of Boole’s Calculus of Logic‹, in: Memoirs of the American Academy of Sciences, 9, 1870, 317 – 378. — ›On the Algebra of Logic‹, in: American Journal of Mathematics, 7 (2),1885, 180 – 196. — Letter, Peirce to A. Marquand (1886), in: Ders.: Writings of Charles S. Peirce, 5. Bd., Indianapolis: Indiana University Press 1993, 541 – 543. Peressini, Anthony: ›Applying Pure Mathematics‹, in: Philosophy of Science, 66, 1999, S1-S13. Péter, Rózsa: ›Über den Zusammenhang der verschiedenen Begriffe der rekursiven Funktionen‹, in: Mathematische Annalen, 110, 1934, 612 – 632. — ›Probleme der Hilbertschen Theorie der höheren Stufen von rekursiven Funktionen‹, in: Acta Mathematica Academiae Scientiarum Hungarica, 2 (3 – 4), 1951, 247 – 274. Pfarr, Joachim: Protophysik und Relativitätstheorie, Mannheim: Bibliographisches Institut 1981. Pias, Claus (Hrsg.): Cybernetics / Kybernetik. The Macy-Conferences 1946 – 1953, 2 Bde., Zürich, Berlin: diaphanes 2003.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



426

Literaturverzeichnis

Pieront, Florian: Scattering theories from Rayleigh to Dirac: the development of scientific method seen through the work of Gaston Bachelard (Hausarbeit des Physik-Bachelorstudenten Florian Pieront im Seminar 16033 ›Cassirer, Bachelard, Heidegger: Philosophische Positionen zu Wissenschaft und Technik in der ersten Hälfte‹ von Gabriele Gramelsberger), Institut für Philosophie, Freie Universität Berlin, Wintersemester 2011/2012. Planck, Max: Sinn und Grenzen der exakten Wissenschaft (1941), Leipzig: Barth 1947. — Wege zur physikalischen Erkenntnis: Reden und Vorträge, Leipzig: Hirzel 1944. Platon: Menon (hrsg. von Klaus Reich), Hamburg: Meiner 1982. — Timaios (hrsg. von Hans Günter Zekl), Hamburg: Meiner 1992. Plaaß, Peter: Kants Theorie der Naturwissenschaft. Eine Untersuchung zur Vorrede von Kants ›Metaphysischen Anfangsgründen der Naturwissenschaft‹, Hamburg: Vandenhoeck und Ruprecht 1965. Plücker, Julius: System der analytischen Geometrie, Berlin: Duncker & Humblot 1835. Poincaré, Henri: ›Sur le problème des trois corps et les équations de la dynamique‹, in: Acta Mathematica, 13, 1890, 1 – 270. — Les méthodes nouvelles de la mécanique céleste, 3 Bde., Paris: Gauthier-Villars 1892. — Wissenschaft und Hypothese (1902), Leipzig: Teubner 1904. Pollok, Konstantin: Kants ›Metaphysische Anfangsgründe der Naturwissenschaft‹: Ein kritischer Kommentar, Hamburg: Meiner 2001. Poncelet, Jean-Victor: Traité des propriétés projectives des figures, Paris: Gauthier-Villars 1822. Popper, Karl: Logik der Forschung (1935), Tübingen: Mohr 1989. — Vermutungen und Widerlegungen (1963), Tübingen: Mohr 2009. Porter, Theodore M.: Trust in Numbers. The Pursuit of Objectivity in Science and Public Life, Princeton: Princeton University Press 1996. Post, Emil L.: ›Introduction to a general theory of elementary propositions‹, in: American Journal of Mathematics, 43, 1921, 163 – 185. — ›Finite combinatory processes, formulation I‹, in: The Journal of Symbolic Logic, 1 (1), 1936, 103 – 105. Potter, Michael: Set Theory and its Philosophy, Oxford. Oxford University Press 2004. Proklus Diadochus: Kommentar zum ersten Buch von Euklids ›Elementen‹ (hrsg. von Emil Abderhalden), Halle: Kaiserlich Leopoldinisch-Carolinische Deutsche Akademie der Naturforscher 1945. Psillos, Stathis: ›Scientific Realism: Between Platonism and Nominalism‹, in: Philosophy of Science, 77 (5), 2010, 947 – 958. — Scientific Realism: How Science Tracks Truth, London: Routledge 1999. Putnam, Hilary: Mathematics, Matter and Method, Cambridge: Cambridge University Press 1975. Queisser, Hans: Kristallene Krisen. Mikroelektronik, München: Pieper 1987. Quine, Willard van Orman: ›New Foundations for Mathematical Logic‹, in: American Mathematical Monthly, 44, 1937, 70 – 80. — ›On what there is‹, in: Review of Metaphysics, 2, 1948/49, 21 – 38. — ›Two dogmas of empiricism‹ (1951), in: Ders.: From a Logical Point of View, Cambridge: Harvard University 1961, 20 – 46.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 427

— ›Grades of Discriminability‹, in: Journal of Philosophy, 73, 1976, 113–116. Rainey, Paul M.: Facsimile Telegraph System, US-Patent 1.608.527, eingereicht am 20. Juli 1921, patentiert am 30. November 1926. Randall, John H.: The School of Padua and the emergence of modern science, Padua: Editrice Antenore 1961. Redecker, Christine: Wittgensteins Philosophie der Mathematik. Eine Neubewertung im Ausgang von der Kritik an Cantors Beweis der Überabzählbarkeit der reellen Zahlen, Heusenstamm: Ontos-Verlag 2006. Reeves, Alec Harley: Electric Signaling System, US-Patent 2.272.070, eingereicht am 22. November 1939, patentiert am 3. Februar 1942 Regt, Henk de: ›Erwin Schrödinger, Anschaulichkeit, and Quantum Theory‹, in: Studies in the History and Philosophy of Modern Physics, 28 (4), 1997, 461 – 481. Reissner, Hans: ›Über die Eigengravitation des elektrischen Feldes nach der Einsteinschen Theorie‹, in: Annalen der Physik, 50, 1916, 106 – 120. Reitebuch, Oliver: Lidar measurements: No observation without algoritms, Vortrag am Institut für Physik der Atmosphäre des Deutschen Luft- und Raumfahrtzentrums Oberpfaffenhofen, 14. Oktober 2011. Resnik, Michael D.: ›Die Frege-Hilbert Kontroverse‹, in: Schirn, Studien zu Frege I, 1976, 193 – 214. — ›Scientific and mathematical realism: The indispensability argument‹, in: Philosophia Mathematica, 3, 1995, 166 – 174 — (Hrsg.): Mathematical Objects and Mathematical Knowledge, Aldershot: Dartmouth 1995. Reynolds, Osborn: ›On Vortex Motion‹ (1877), in: Ders.: Papers on Mechanical and Physical Subjects, 1. Bd., Cambridge: Cambridge University Press 1900, 184 – 192. Rheinberger, Hans-Jörg: ›Putting isotopes to work: liquid scintillation counters, 1950 – 1970‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 143 – 174. — Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen: Wallenstein 2002. — ›Gaston Bachelard and the Notion of ›Phenomenotechnique‹‹, in: Perspectives on Science, 13 (3), 2005, 313 – 328. Richard, Jules: ›Les Principes des mathématiques et le problème des ensembles‹, in: Revue générale des sciences pures et appliquées, 12 (16), 1905, 541 – 543. Riemann, Bernhard: ›Ueber die Hypothesen, welche der Geometrie zu Grunde liegen‹ (Habilitationsvortrag vom 10. Juni 1854), in: Abhandlungen der Königlichen Gesellschaft der Wissenschaften zu Göttingen 1866/1867, 13. Bd., Göttingen: Dietrichsche Buchhandlung 1868, 133 – 150. Robertson, Howard P.: ›Postulate versus Observation in the Special Theory of Relativity‹, in: Reviews of Modern Physics, 21 (3), 1949, 378 – 382. Roche, John: The Mathematics of Measurement. A Critical History, London: Athlone Press 1998. Rosen, Gideon: ›Nominalism, Naturalism, Epistemic Relativism‹, in: Philosophical Perspectives, 15, 2001, 69 – 91.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



428

Literaturverzeichnis

Rosen, Joe: ›Fundamental Manifestation of Symmetry in Physics‹, in: Foundations of Physics, 20 (3), 1990, 283 – 307. Rosen, Robert: ›On a Logical Paradox Implicit in the Notion of a Self-Reproducing Automaton‹, in: Bulletin of Mathematical Biophysics, 21, 1959, 387 – 394. — ›Self-Reproducing Automaton‹, in: Bulletin of Mathematical Biophysics, 24, 1962, 243 – 245. Rusch, Gebhard: ›Autopoiesis, Literatur, Wissenschaft‹ (1983/84), in: Siegfried J. Schmidt (Hrsg.): Der Diskurs des Radikalen Konstruktivismus, Frankfurt: Suhrkamp, 1991, 374 – 400. Russell, Bertrand: A critical exposition of the philosophy of Leibniz, Cambridge: Cambridge University Press 1900. — ›Die Mathematik und die Metaphysik‹ (1901), in: Ders., Mystik und Logik. Philosophische Essays, 1952. — Brief an Frege vom 16. Juni 1902, in: Frege, Gottlob Freges Briefwechsel, 1980, 59 – 60. — ›Mathematical logic as based on the theory of types‹, in: American Journal of Mathematics, 30, 1908, 222 – 262. — Mystik und Logik. Philosophische Essays, Wien: Humboldt Verlag 1952. Saarnio, Uuno: ›Die Grellingsche Paradoxie und ihre exakte Lösung‹, in: Dialectica, 28 (3/4), 1974, 243 – 261. Sakurai, Jun John: Modern Quantum Mechanics, Boston: Addison-Wesley 1993. Samuel, Nina: Die Form des Chaos. Bild und Erkenntnis in der komplexen Dynamik und der fraktalen Geometrie, München: Fink 2014. Satura, Vladimir: Kants Erkenntnispsychologie in den Nachschriften seiner Vorlesungen über empirische Psychologie, in: Kant-Studien, 101, 1971. Saunders, Simon: ›Are Quantum Particles Objects?‹, in: Analysis, 66 (1), 2006, 52 – 63. Scarfò, Leonardo: Philosophie als Wissenschaft reiner Idealitäten. Zur Spätphilosophie Husserls in besonderer Berücksichtigung der Beilage III zur Krisis-Schrift, München: Herbert Utz Verlag 2006. Schauer, Helmut: Computersysteme – Aufbau und Funktionsweise, Wien, New York: Springer 1976. Schick, Stefan: Contradictio est regula veri: Die Grundsätze des Denkens in der formalen, transzendentalen und spekulativen Logik, Hamburg: Meiner 2011. Schiff, Leonard I.: ›On Experimental Tests of the General Theory of Relativity‹, in: American Journal of Physics, 28 (4), 1960, 340 – 343. Schirn, Matthias (Hrsg.): Studien zu Frege I. Logik und Philosophie der Mathematik, Stuttgart-Bad Cannstatt: Frommann-Holzboog 1976. Schmid, Keil; et al.: Lidar 101: An Introduction to Lidar Technology, Data, and Applications, Charleston, SC: National Oceanic and Atmospheric Administration (NOAA), Costal Service Center 2008. Schönbeck, Jürgen: Euklid, Basel: Birkhäuser 2003. Schönberger, Rolf: ›Evidenz und Erkenntnis. Zu mittelalterlichen Diskussionen um das erste Prinzip‹, in: Philosophisches Jahrbuch, 102, 1995, 4 – 19. Scholz, Heinrich: Mathesis Universalis. Abhandlungen zur Philosophie als strenger Wissenschaft, Benno Basel, Stuttgart: Schwabe & Co 1961.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 429

Schröder, Ernst: Lehrbuch der Arithmetik und Algebra für Lehrer und Studierende. Die sieben algebraischen Operationen, Leipzig: Teubner 1873. — Über die formalen Elemente der absoluten Algebra, Stuttgart: Schweizerbartsche Buchdruckerei 1874. — Der Operationskreis des Logikkalküls, Leipzig: Teubner 1877. — ›Über Pasigraphie, ihren gegenwärtigen Stand und die pasigraphische Bewegung in Italien‹, in: Verhandlungen des ersten internationalen Mathematiker-Kongresses in Zürich 1897, Leipzig: Teubner 1898, 147 – 162. — Vorlesungen über die Algebra der Logik, Leipzig: Teubner 1890. Schrödinger, Erwin: ›Quantisierung als Eigenwertproblem‹ (I), in: Annalen der Physik, 79, 1926, 361 – 376. — ›Quantisierung als Eigenwertproblem‹ (II), in: Annalen der Physik, 79, 1926, 489 – 527. — ›Quantisierung als Eigenwertproblem‹ (III), in: Annalen der Physik, 80, 1926, 734 – 756. — ›Quantisierung als Eigenwertproblem‹ (IV), in: Annalen der Physik, 81, 1926, 109 – 139. — ›Über das Verhältnis der Heisenberg-Born-Jordanschen Quantenmechanik zu der meinen‹, in: Annalen der Physik, 79 (4), 1926, 734 – 756. — ›Die gegenwärtige Situation in der Quantenmechanik (Teil 1)‹, in: Die Naturwissenschaften, 23 (48), 1935, 807 – 812. Schüling, Hermann: Die Geschichte der axiomatischen Methode im 16. und 17. Jahrhundert. Wandlung der Wissenschaftsauffassung, Hildesheim, New York: Georg Olms Verlag 1969. Schüssler, Ingeborg: Philosophie und Wissenschaftspositivismus. Die mathematischen Grundsätze in Kants Kritik der reinen Vernunft und die Verselbständigung der Wissenschaften, Frankfurt: Vittorio Klostermann 1979. Schwarzschild, Karl: ›Über das Gravitationsfeld eines Massenpunktes nach der Einstein’schen Theorie‹, in: Sitzungsberichte der Königlich-Preussischen Akademie der Wissenschaften, Berlin: Reimer 1916. — ›Über das Gravitationsfeld einer Kugel aus inkompressibler Flüssigkeit‹, in: Sitzungsberichte der Königlich-Preussischen Akademie der Wissenschaften, Berlin: Reimer 1916, 424 – 434. Schwille, Petra: ›Bottom-up Synthetic Biology: Engineering in a Tinkerer’s World‹, in: Science, 333, 2011, 1252 – 1254. Shannon, Claude: ›A Symbolic Analysis of Relay and Switching Circuits‹, in: Transactions of the American Institute of Electrical Engineers, 57, 1938, 38 – 80. — ›A Mathematical Theory of Communication‹, in: Bell System Technical Journal, 27, 1948, 379 – 423 und 623 – 656. Shifman, Mikhail: ›Reflections and Impressionistic Portrait at the Conference Frontiers Beyond the Standard Model, FTPI, Oct. 2012‹, in: arXiv.org, 2012, doi: arXiv:1211.0004v1. Shinn, Terry; Joerges, Bernward: ›The Transverse Science and Technology Culture: Dynamics and Roles of Research-Technology‹, in: Social Science Information, 41 (2), 2002, 207 – 251. Shinn, Terry: Research-Technology and Cultural Change, Oxford: The Bardwell Press 2008. — ›The research-technology matrix: German origins, 1860 – 1900‹, in: Joerges, Shinn, Instrumentation Between Science, State and Industry, 2001, 29 – 48.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



430

Literaturverzeichnis

Shockley, William: Circuit element utilizing semiconductive material, US-Patent 2.569.347, eingereicht am 26. Juni 1948, patentiert am 25. September 1951. Skirbekk, Gunnar (Hrsg.): Wahrheitstheorien. Eine Auswahl aus den Diskussionen über Wahrheit im 20. Jahrhundert, Frankfurt: Suhrkamp 1977. Skolem, Thoralf: ›Begründung der elementaren Arithmetik durch die rekurrierende Denkweise ohne Anwendung scheinbarer Veränderlicher mit unendlichem Ausdehnungsbereich‹, in: Skrifter utgit. av Videnskapsselskapet i Kristiania, 1. Mat.-nat. kl, 6, 1923, 1 – 38. Smale, Stephen: ›What is Global Analysis‹, in: The American Mathematical Monthly, 76 (1), 1969, 4 – 9. — ›On Dynamical Systems‹, in: Bulletin of the Mathematical Society Mexicana, 5, 1960, 195 – 198. — ›Differentiable dynamical systems‹, in: Bulletin of the American Mathematical Society, 73, 1967, 747 – 817. Smolin, Lee: The Trouble with Physics. The Rise of String Theory, the Fall of a Science, and What Comes Next, Boston, New York: Mariner Book 2007. Solmsen, Friedrich: ›Platons Einfluß auf die Bildung der mathematischen Methode‹, in: Quellen und Studien zur Geschichte der Mathematik, 1 (1), 1929, 93 – 107. Staudt, Christian von: Geometrie der Lage, Nürnberg: F. Korn 1847. Stegmüller, Wolfgang: Glauben, Wissen und Erkennen. Das Universalienproblem Einst und Jetzt, Darmstadt: Wissenschaftliche Buchgesellschaft 1965. — Unvollständigkeit und Unentscheidbarkeit: Die metamathematischen Resultate von Gödel, Church, Kleene, Rosser und ihre erkenntnistheoretische Bedeutung, Wien, New York: Springer 1973. — Theorie und Erfahrung, Teil D: Logische Analyse der Struktur ausgereifter physikalischer Theorien. ›Non-statement view‹ von Theorien, (Probleme und Resultate der Wissenschaftstheorie und der Analytischen Philosophie), 2. Bd., Berlin u. a.: Springer 1985. Steinborn, Dirk: Symmetrie und Struktur in der Chemie, Weinheim: Wiley-VCH 1993. Steiner, Mark: ›Platonism and the causal theory of knowledge‹, in: Journal of Philosophy, 70, 1973, 57 – 66. — The Applicability of Mathematics as a Philosophical Problem, Cambridge: Harvard University Press 1998. Stekeler-Weithofer, Pirmin: Grundprobleme der Logik. Elemente der Kritik der formalen Vernunft, Berlin, New York: de Gruyter 1986. — ›Sind die Urteile der Arithmetik synthetisch a priori? Zur sprachanalytischen Interpretation einer vernunftkritischen Überlegung‹, in: Zeitschrift für allgemeine Wissenschaftstheorie, 18 (1 – 2), 1987, 215 – 238. Stichweh, Rudolf: Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen: Physik in Deutschland 1740 – 1890, Frankfurt: Suhrkamp 1984. Stigler, Stephen M.: The History of Statistics. The Measurement of Uncertainty before 1900, Cambridge: Harvard University Press 1986. Stöltzner, Michael: ›Das Prinzip der kleinsten Wirkung als Angelpunkt der Planckschen Epistemologie‹, in: Dieter Hoffmann (Hrsg.): Max Planck und die moderne Physik, Berlin, Heidelberg; Springer 2010, 167 – 183.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 431

Stojanovic, Milan N.; Mitchell, Tiffany E.; Stefanovic, Darko: ›Deoxyribozyme-Based Logic Gates‹, in: Journal of the American Chemical Society, 124, 3555 – 3561. Stokes, George G.: ›On the theories of the internal friction of fluids in motion‹ (1845), in: Ders.: Mathematical and Physical Papers, 1. Bd., Cambridge: Cambridge University Press 1880, 75 – 115. — ›On the Effect of the Internal Friction of Fluids on the Motion of Pendulums‹, in: Transactions of the Cambridge Philosophical Society, 9, 1851, 8 – 106. Straumann, Norbert: ›Zum Ursprung der Eichtheorien bei Hermann Weyl‹, in: Physikalische Blätter, 43 (11), 1987, 414 – 421. Strawson, Peter F.: The Bounds of Sense. An Essay on Kant’s Critique of Pure Reason, London: Methuen & Co 1966. Strutt, John (Lord Rayleigh): ›On the light from the sky, its polarization and colour‹, in: Philosophical Magazine, 41, 1871, 107 – 120 und 274 – 279. — ›On the Scattering of Light by small Particles‹ (1971), in: Ders.: Scientific papers (1869– 1881), 1. Bd. Cambridge: Cambridge University Press 1899, 104 – 111. — ›On the Transmission of Light through an Atmosphere containing Small Particles in Suspension, and on the Origin of the Blue of the Sky‹, in: Philosophical Magazine, 47, 1899, 375 – 384. Sturlese, Loris: Die deutsche Philosophie im Mittelalter. Von Bonifatius bis zu Albert dem Großen (748 – 1280), München: Beck 1993. Sturmfels, Bernd: ›Can biology lead to new theorems?‹, in: 2005 Annual Report, Oxford: Clay Mathematics Institute 2005,13 – 26. Surridge, Christopher: ›Nature inside: Computational Biology‹, in: Nature, 420, 2002, 205 – 206. Swart, Robert, et al.: ›Agreeing to disagree: uncertainty management in assessing climate change, impacts and responses by the IPCC‹, in: Climatic Change, 92, 2009, 1 – 29. Swinburne, Richard: ›Thisness‹, in: Australian Journal of Philosophy, 73, 1995, 389 – 400. Takahashi, Kouichi; et al.: ›Computational Challenges in Cell Simulation: A Software Engineering Approach‹, in: IEEE Intelligent Systems, 5, 2002, 64 – 71. Tannery, Jules (Hrsg.): Manuscrits de Évariste Galois, Paris: Gauthier-Villars 1908. Tarski, Alfred: ›Die semantische Konzeption der Wahrheit und die Grundlagen der Semantik‹ (1931), in: Skirbekk, Wahrheitstheorien, 1977, 140 – 188. — ›Wahrscheinlichkeitslehre und mehrwertige Logik‹, in: Erkenntnis, 5, 1935, 174 – 175. Tempest, David W.: Dynamics of Microbial Growth, Sidney: John Wiley & Sons 1978. Tetens, Holm: Experimentelle Erfahrung: Eine wissenschaftstheoretische Studie über die Rolle des Experiments in der Begriffs- und Theoriebildung der Physik, Hamburg: Meiner 1987. Tharakan, Jacob: Metaphysische Anfangsgründe der Naturwissenschaft: zur Kantischen Arbeit an der Theorie des Übergangs von der Metaphysik zur Physik, Stuttgart: Steiner 1993. Thiel, Christian: Grundlagenkrise und Grundlagenstreit. Studie über das normative Fundament der Wissenschaften am Beispiel von Mathematik und Sozialwissenschaft, Meisenheim am Glan: Hain 1972. — (Hrsg.): Frege und die moderne Grundlagenforschung, Meisenheim am Glan: Verlag Anton Hain 1975.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



432

Literaturverzeichnis

— ›Gottlob Frege: Die Abstraktion‹, in: Schirn, Studien zu Frege I, 1976, 243 – 264. — (Hrsg.): Erkenntnistheoretische Grundlagen der Mathematik, Hildesheim: Gerstenberg 1982, 9 – 18. Thue, Axel: ›Problem über Veränderungen von Zeichenreihen nach gegebenen Regeln‹, in: Skrifter utgit. av Videnskapsselskapet i Kristiania, 1. Mat.-nat. kl, 10, 1914, 1 – 34. Tiles, Mary: The Philosophy of Set Theory: An Historical Introduction to Cantor’s Paradise, Oxford. Blackwell 1989. Toepell, Michael-Markus: Über die Entstehung von David Hilberts ›Grundlagen der Geometrie‹, Göttingen: Vandenhoek & Ruprecht 1986. Toeplitz, Otto: Die Entwicklung der Infinitesimalrechnung, 1. Bd., Darmstadt: Wissenschaftliche Buchgesellschaft 1972. Tomita, Masaru: ›Towards computer aided design (CAD) of useful microorganisms‹, in: Bioinformatics, 17 (12), 2001, 1091 – 1092. — ›Whole-cell Simulation: A Grand Challenge of the 21st Century‹, in: TRENDS in Biotechnology, 19 (6), 2001, 205 – 210. TOP500: Top 500 List, November 2019. URL: https://www.top500. org/ (letzter Zugriff: 26.2.2020). Trendelenburg, Adolf: ›Über Leibnizens Entwurf einer allgemeinen Charakteristik‹, in: Ders.: Historische Beiträge zur Philosophie, 3. Bd., Berlin: Bethge 1867. Trogemann, Georg: ›Synthese von Maschine und Leben. Organische Maschinen und die Mechanisierung des Lebens‹, in: Gabriele Gramelsberger, Peter Bexte, Werner Kogge (Hrsg.): Synthesis. Zur Konjunktur eines philosophischen Begriffs in Wissenschaft und Technik, Bielefeld: Transcript 2013, 171 – 192. Tugendhat, Ernst: ›Tarskis semantische Wahrheitstheorie und ihre Stellung innerhalb der Geschichte des Wahrheitsproblems im logischen Positivismus‹ (1960), in: Skirbekk, Wahrheitstheorien, 1977, 189 – 223. Turing, Alan: ›On Computable Numbers, with an Application to the Entscheidungsproblem‹, in: Proceedings of the London Mathematical Society, 42 (2), 1936/37, 230 – 265 und 544 – 546. Tuschling, Burkhard: »Kants ›Metaphysische Anfangsgründe der Naturwissenschaft und das opus postumum‹«, in: Gerold Prauss (Hrsg.): Kant. Zur Deutung seiner Theorie von Erkennen und Handeln, Köln, Berlin: Kiepenheuer und Witsch 1973, 175 – 191. Ugi, Ivar; et al.: ›Chemie und logische Strukturen‹, in: Angewandte Chemie, 82 (18), 1970, 741 – 771. — ›Die computerunterstützte Lösung chemischer Probleme – eine neue Disziplin der Chemie‹, in: Angewandte Chemie, 105, 1993, 210 – 239. Ulam, Stanislav: ›Random Processes and Transformations‹, in: Proceedings of the International Congress of Mathematics, Bd. 2, 1950, 264 – 275. Umenhoffer, Kinga; et al.: ›Reduced evolvability of Escherichia coli MDS42, an IS-lesscellular chassis for molecular and synthetic biology applications‹, in: Microbial Cell Factories, 9, 2010, 38. Varela, Francisco J.; Maturana, Humberto R.; Uribe, Rafael: ›Autopoiesis: The organization of living systems, its characterization and a model‹, in: BioSystems, 5, 1974, 187 – 196.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 433

Viète, Francois: Opera mathematica, in unum volumen congesta, ac recognita, opera atque studio Francisci Schooten, Leiden: Elsevier 1646. Vogl, Sebastian: Die Physik des Roger Bacons, Erlangen: Junge & Sohn 1904. Volterra, Vito: Leçons sur la théorie mathématique de la lutte pour la vie, Paris: Gauthier-Villars 1931. Wagner, Johann J.: Mathematische Philosophie, Erlangen: Palm 1811. Wagner-Döbler, Roland: ›Perspektiven der Wissenschaftsforschung über die Mathematik‹, in: Klaus Puhl (Hrsg.): Wittgensteins Philosophie der Mathematik (Akten des 15. Internationalen Wittgenstein-Symposiums 1992), Wien: Hölder-Pichler-Tempsky 1993, 417 – 426. Waldenfels, Bernhard: Bruchlinien der Erfahrung: Phänomenologie, Psychoanalyse, Phänomenotechnik, Frankfurt: Suhrkamp 2002. Wang, Hao: ›The Formalization of Mathematics‹, in: Journal of Symbolic Logic, 19, 1954, 241 – 266. Wang, Zhongrui, Joshi, Saumil, Savel’ev, Sergey E., et al.: ›Memristors with diffusive dynamics as synaptic emulators for neuromorphic computing‹, in: Nature Materials, 16, 2017, 101 – 108. Wang, Lei; Schultz, Peter G.: ›Die Erweiterung des genetischen Codes‹, in: Angewandte Chemie, 117 (1), 2005, 34 – 68. Wang, Qiaoyan; Parrish, Alan R.; Wang, Lei: ›Expanding the genetic code for biological studies‹, in: Chemistry & Biolology, 16 (3), 2009, 323 – 336. Warren, Nicolas de: ›The Significance of Stern’s ›Präsenzzeit‹ for Husserl’s Phenomenology of Inner Time-Consciousness‹, in: New Yearbook for Phenomenology and Phenomenological Philosophy, 5, 2005, 81 – 122. Weber, Marcel: ›Über die Vergleichbarkeit metaphysischer Systeme: Der Fall Leibniz kontra Locke‹, in: Zeitschrift für philosophische Forschung, 59 (2), 2005, 202 – 222. Weierstraß, Karl: Abhandlungen aus der Functionenlehre (1876 – 1881), Berlin: Springer 1886. Weitkamp, Claus (Hrsg.): Lidar – Range-resolved optical remote sensing of the atmosphere, New York: Springer 2005. Weyl, Hermann: Raum. Zeit. Materie. Vorlesungen über allgemeine Relativitätstheorie (1918), Berlin: Springer 1919. — ›Gravitation und Elektrizität‹, in: Sitzungsberichte der Preussischen Akademie der Wissenschaften, Berlin: Deutsche Akademie der Wissenschaften zu Berlin, 1918, 465 – 480. — Das Kontinuum. Kritische Untersuchungen über die Grundlagen der Analysis, Leipzig: Veit & Co 1918. — ›Eine neue Erweiterung der Relativitätstheorie‹, in: Annalen der Physik, 59, 1919, 101 – 133. — ›Über die neue Grundlagenkrise der Mathematik‹, in: Mathematische Zeitschrift, 10, 1921, 39 – 79. — Gruppentheorie und Quantenmechanik (1928), Darmstadt: Wissenschaftliche Buchgesellschaft 1977. — Philosophie der Mathematik und Naturwissenschaft (1928), München: Leibniz Verlag 1949. — Symmetrie, Basel: Birkhäuser 1955.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/



434

Literaturverzeichnis

Whitehead, Alfred North; Russell, Bertrand: Principia Mathematica, 2. Bde., Cambridge: Cambridge University Press 1910. Wiener, Norbert: ›The Operational Calculus‹, in: Mathematische Annalen, 95, 1926, 557 – 584. Wigner, Eugene: ›On the consequences of the symmetry of the nuclear Hamiltonian on the spectroscopy of nuclei‹, in: Physical Review, 51, 1937, 1 – 24. — Symmetries and Reflections. Scientific Essays of Eugene P. Wigner, Bloomington: Indiana University Press 1967. — ›The Unreasonable Effectiveness of Mathematics in the Natural Sciences‹ (1960), in: Wigner, Symmetries and Reflections, 1967, 222 – 237. Wilczek, Frank: ›Anyons‹, in: Scientific American, 264, 1991, 58 – 65 — ›From electronics to anyonics‹, in: Physics World, 2006, 22 – 23. — Fractional Statistics and Anyon Superconductivity, Singapur: World Scientific Publishing Company 1990. Wilde, Emil: Geschichte der Optik: vom Ursprunge dieser Wissenschaft bis auf die gegenwärtige Zeit, 2 Bde., Berlin: Rücker und Püchler 1838. Wilholt, Torsten: Zahl und Wirklichkeit. Eine philosophische Untersuchung über die Anwendbarkeit der Mathematik, Paderborn: Mentis 2004. — ›Lost on the Way from Frege zu Carnap: How the Philosophy of Science Forgot the Applicability Problem‹, in: Grazer philosophische Studien, 73, 2006, 69 – 82. Williamson, Cynthia K.; De Young, Russell J.: Characterization of a 16-Bit Digitizer for Lidar Data Acquisition, Hampton, WV: National Aeronautics and Space Administration (NASA), Langley Research Center, 2002. Wittgenstein, Ludwig: Werkausgabe, 8 Bde., Frankfurt: Suhrkamp 1984. — Tractatus logico-philosophicus. Logisch-philosophische Abhandlung (1921), Frankfurt: Suhrkamp 1963. — Philosophische Untersuchungen (1929 – 1933), in: Wittgenstein, Werkausgabe, 1. Bd., 1984, 225 – 580. — Bemerkungen über die Grundlagen der Mathematik, in: Wittgenstein, Werkausgabe, 6. Bd., 1984. Wöpking, Jan: ›Die synthetische Kraft der Mathematik‹, in: Gramelsberger, Bexte, Kogge, Synthesis, 2013, 61 – 76. — Raum und Erkenntnis. Elemente einer Theorie epistemischen Diagrammgebrauchs, Berlin: De Gruyter 2016. Wolchover, Natalie: ›Supersymmetry Fails Test, Forcing Physics to Seek New Ideas‹, in: Scientific American, 29.11.2012. Wolff-Metternich, Brigitta-Sophie von: Die Überwindung des mathematischen Erkenntnisideals. Kants Grenzbestimmung von Mathematik und Philosophie, Berlin, New York: Walter de Gruyter 1995. Wolfram, Stephen: ›Random sequence generation by cellular automata‹, in: Advances in Applied Mathematics, 7, 1986, 123 – 169. — A New Kind of Science, Champaign: Wolfram Media 2002. Wolfram, Sybil: Philosophical Logic: An Introduction, London: Routledge 1989. — ›On the Mistake of Identifying Locke’s Trifling-Instructive Distinction with the Analytic-Synthetic Distinction‹, in: The Locke Newsletter, 9, 1978, 27 – 53.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/

Literaturverzeichnis 435

— ›Locke’s Trifling-Instructive Distinction – a Reply‹, in: The Locke Newsletter, 11, 1980. Wright, Crispin: Freges Conception of Numers as Objects, Aberdeen: Aberdeen University Press 1983. Wundt, Wilhelm: Allgemeine Methodenlehre, Stuttgart: Enke 1894. Wunsch, Matthias: Einbildungskraft und Erfahrung bei Kant, Berlin, New York: de Gruyter 2007. Wußing, Hans: Die Genesis des abstrakten Gruppenbegriffes. Ein Beitrag zur Entstehung der abstrakten Gruppentheorie, Ost-Berlin: VEB Deutscher Verlag der Wissenschaften 1969. — Vorlesungen zur Geschichte der Mathematik, Ost-Berlin: VEB Deutscher Verlag der Wissenschaften 1989. Zabarella, Giacomo: ›De methodis‹, in: Ders.: Opera logica (1578) (hrsg. von Wilhelm Risse), Hildesheim, New York: Georg Olms Verlag 1966, 133 – 332. Zadeh, Lotfi A.: ›Fuzzy sets‹, in: Information and Control, 8, 1965, 338 – 353. Zermelo, Ernst: ›Über Grenzzahlen und Mengenbereiche‹, in: Fundamenta Mathematicae, 16, 1930, 29 – 47. — ›Beweis, daß jede Menge wohlgeordnet werden kann‹, in: Mathematische Annalen, 59, 1904, 514 – 516. — ›Neuer Beweis für die Möglichkeit einer Wohlordnung‹, in: Mathematische Annalen, 65, 1908, 107 – 128. Zeuthen, Hieronymus G.: Die Lehre von den Kegelschnitten im Altertum, Hildesheim: Olms 1886.

DOI https://doi.org/10.28937/978-3-7873-3900-6 | Generated on 2023-09-18 10:59:43 OPEN ACCESS | Licensed under | https://creativecommons.org/about/cclicenses/