139 65 30MB
German Pages 305 Year 1998
SELBSTORGANISATION
Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften BandS
SELBSTORGANISATION Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften
Band 8 1997
Evolution und Irreversibilität Herausgegeben von Hans-Jürgen Krug und Ludwig Pohlmann
Duncker & Humblot · Berlin
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Selbstorganisation : Jahrbuch für Komplexität in den Natur-, Sozialund Geisteswissenschaften. - Berlin : Duncker und Humblot Früher Schriftenreihe Bd. 8. Evolution und Irreversibilität. - 1998 Evolution und Irreversibilität I hrsg. von Hans-Jürgen Krug und Ludwig Pohlmann. - Berlin : Duncker und Humblot, 1998 (Selbstorganisation ; Bd. 8) ISBN 3-428-09441-7
Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 1998 Duncker & Humblot GmbH, Berlin Fremddatenübemahme und Druck: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISSN 0939-0952 ISBN 3-428-09441-7 Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706@
Inhaltsverzeichnis Einführung ............................................................................
7
Aufsätze llya Prigogine: Zeit, Chaos und die zwei Kulturen .....................................
13
Wolfgang Muschik: Irreversibilität und Zweiter Hauptsatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
H. Dieter Zeh: Über die ,,zeit in der Natur" ............................................
41
Hans-Jürgen Krug: Irreversibilität und Zeit als Fiktion und Erfahrung .................
57
Wemer Ebeling: Physikalische Grundlagen und Evolution der Infonnation .............
81
Rainer Feistel: Evolution im Eigenschaftsraum ..................... . ..................
97
Frank Schweitzer: Wege und Agenten: Reduktion und Konstruktion in der Selbstorganisationstheorie .................................................................... 113 Lars-G. Lundin: Gen-Paralogien und die Makroevolution der Vielzeller. . . . . . . . . . . . . . . . 137 J. Michael Köhler: Evolution in Hierarchien........................................... 171 Peter Kajka: Das sogenannte Energieproblem .......................................... 185
Edition Raphael Eduard Liesegang: Und doch! (Hans-Jürgen Krug) ........................... 215
Buchbesprechungen
Rechenberg, Ingo: Evolutionsstrategie '94 (Hans-Jürgen Krug)
297
Rechenberg, Ingo: Photobiologische Wasserstoffproduktion in der Sahara (Hans-JÜfgen Krug) .............................................................................. 299
6
Inhaltsverzeichnis
Hahn, W. und Weibel, P. (Hrsg.): Evolutionäre Symmetrietheorie (Ludwig Pohlmann) .. 301 Wassermann, G. D.: Keys to Life. Philosophy and New Mechanisms of Evolution and Development (Ludwig Pohlmann) .................................................. 303
Autorenverzeichnis .................................................................... 305
Einführung Irreversibilität und Zeit, Evolution und Fortschritt Fragen der Evolution wurden vornehmlich in Wissenschaftszweigen außerhalb der Physik behandelt, in denen langfristige Veränderungen und damit Geschichtlichkeit augenfällig sind. Diese sind die Biologie, speziell die Paläontologie, die Geologie und - sehr viel älter - die Geschichtsschreibung des Menschen. Das Bewußtwerden von Geschichtlichkeit von. Zuständen ist an die Überlieferung von Zeugnissen, aber auch an den Wunsch der in eine Richtung führenden Zeitreihe von Ereignissen gebunden. Dieses setzte in der Geschichte der abendländischen .Menschen bereits mit dem Alten Testament ein. Naturgeschichtliche Fossilien als Beweis für eine Evolution der Natur weit über den von der Theologie vorgegeben zeitlichen Rahmen hinaus wurden hingegen erst mit dem Beginn des 19. Jahrhunderts beachtet. So ist das Evolutionsdenken in den Naturwissenschaften noch relativ jung, strahlte aber bereits Ende des 19. Jahrhunderts auch auf die Geistes- und Sozialwissenschaften aus. Ebenfalls in dieser Periode begann man in der Physik auf das Phänomen der Irreversibilität aufmerksam zu werden, das wie die Evolution geeignet ist, einen ,Zeitpfeil ' zu konstruieren. Zunächst auf die reine Wärmelehre bezogen, wurde die Irreversibilität nach und nach als empirische Tatsache in praktisch allen Naturphänomenen konstatiert. Der Streit um die Begründung dieser Erfahrungstatsache, begonnen durch Ludwig Boltzmann (1844-1906) und Wilhelm Ostwald (1853 -1932), hält bis heute unvermindert an. Es lassen sich in dieser Frage wohl drei Grundpositionen unterscheiden: Boltzmann zeigte am Modell des idealen Gases, daß sich trotz einer reversiblen mikroskopischen Dynamik auf Grund eines entsprechend präparierten ,unwahrscheinlichen' Anfangszustandes eine Folge von Zuständen entwickelt, die den Ausgangszustand praktisch nicht mehr erreicht. Damit verbunden ist die monotone Zunahme der Entropie.! Boltzmann's Zeitgenosse Wilhelm Ostwald hingegen postulierte die Irreversibilität in dissipativen Prozessen lediglich als Erfahrungstatsache, die er auf Grund seines ,materiefreien ' Energetikkonzeptes nicht weiter hinterfragte. 2 1 Ludwig Boltzmann, Weitere Untersuchungen über das thermische Gleichgewicht zwischen Gasmolekülen, in: Sitzungsber. Math.-Naturwiss. K!. Kaiser!. Akad. Wiss. Wien 66 (1872), S. 275. 2 Wilhelm Ostwald, Das Problem der Zeit (1898), in: Abhandlungen und Vorträge allgemeinen Inhalts, Leipzig 1904, S. 241- 257.
8
Einführung
Vor etwa zwei Jahrzehnten versuchte nun Prigogine, die mikroskopische Reversibilität der statistischen Mechanik durch die Aufbebung der klassischen Trajektorien im Makrobereich - analog zur Quantenmechanik - zu beseitigen. Da durch ist die Irreversibilität allen Geschehens nicht mehr von einer passend gewählten Anfangsbedingung abhängig. 3 Die Evolution erweist sich als zusammengesetztes Phänomen aus stetigen Veränderungen, qualitativen Sprüngen und vor allem Verzweigungen. Lange Zeit war die Physik auf die Beschreibung kontinuierlicher Veränderungen beschränkt. Die heutige Physik der Selbstorganisationsprozesse ermöglicht es nun, Diskontinuitäten in Form ,spontaner' Strukturbildungsvorgänge, die in Form einer Kette aufeinanderfolgen können, zu beschreiben. Ein Modell der Evolution bestünde also in der Aufeinanderfolge von Selbstorganisationsvorgängen in offenen Systemen, die zu den thermodynamischen Voraussetzungen der Evolution zählen. Ein hinreichendes Angebot an freier Energie ist also die causa efficiens der Evolution. Ein Schwerpunkt des vorliegenden Jahrbuches liegt auf der Wechselbeziehung zwischen der biologischen Evolutionstheorie einerseits und der naturwissenschaftlichen Selbstorganisationstheorie andererseits. Die Untersuchung dieser Beziehung kann ein erhebliches Erkenntnispotential enthalten, da beide Theoriekomplexe voneinander Anregungen erhalten können. Lange Zeit existierte der Widerspruch zwischen dem Zweiten Hauptsatz der Thermodynamik, welcher das Anwachsen der Entropie im geschlossenen System forderte, und der Tatsache der biologischen Evolution, welche zu immer größerer Komplexität führte. Anfang der siebziger Jahre formulierte Prigogine einen Ansatz zur Lösung dieses Widerspruchs, indem er erstens feststellte, daß der Zweite Hauptsatz eben nur für geschlossene Systeme gilt - während alle Lebewesen offene Systeme darstellen - und zweitens den prinzipiellen Weg wies, wie sich Ordnung und Komplexität in offenen Systemen erhöhen können: Entropieexport kann zu spontaner Selbstorganisation führen. 4 Erstaunlicherweise wurde diese neue Entwicklung aber von der Seite der Evolutionsbiologen kaum wahrgenommen. So werden Schlüsselvorgänge der Evolution, wie z. B. die Artbildung, weiterhin als Resultat einer Fremdorganisation angesehen (nur die geographische oder ökologische Trennung von Subpopulationen einer Art führt nach Mayr5 zur Speziation). Andererseits sind alle bisher untersuchten physikalischen und chemischen Modelle und Modellsysteme der Selbstorganisationslehre in vielen Punkten zu ein3 Ilya Prigogine, Vom Sein zum Werden, München 1979, Kap. VIII, S. 186ff. Zur aktuellen Diskussion dieses Konzeptes vgl. J. Bricmont, Science of Chaos of Chaos of Science? In: P.R. Gross, N. Levitt, and M.W. Lewis (Eds.), The Flight from Seience and Reason, (Ann. New York Acad. Sei.), New York 1.996, S. 131-175. 4 Paul Glansdorffl Ilya Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations, London 1971. 5 E. Mayr, Anima1 Species and Evolution, Cambridge/Mass. 1963; ders., Artbegriff und Evolution, Hamburg / Ber1in 1967.
Einführung
9
fach, um die Komplexität der biologischen Evolution und der Entwicklungsprozesse adäquat beschreiben zu können. Das trifft auch auf das dynamische Chaos zu. Erste Ansätze zu komplexeren Modellen zeigen sich aber mittlerweile in der sogenannten "Komplexitätstheorie,,6 - die allerdings noch weit davon entfernt ist, eine geschlossene Theorie zu sein, und die häufig mit zu abstrakten mathematischen Modellen arbeitet. Es wäre demzufolge von Interesse, durch die Konfrontation mit den Begriffen der Selbstorganisationstheorie (und der Komplexitätsforschung) viele Positionen der biologischen Evolutionstheorie zu hinterfragen. Denn eine aktuelle Analyse des Diskussion innerhalb der biologischen Evolutionstheorie zeigt, daß die sogenannte "Moderne Synthese" des Darwinismus keineswegs alle grundlegenden Phänomene der biologischen Evolution zu erklären vermag. Obwohl viele Grundpositionen von Darwin und der modernen Genetik wohl immer Bestandteil einer seriösen Evolutionstheorie bleiben werden, gibt es auch strittige Fragen. Da ist zum Beispiel die Theorie der sprunghaften Evolution von Gould und Eldredge 7 , welche viele paläontologische Daten besser zu beschreiben vermag und zudem mit den Bifurkationsprozessen in der Selbstorganisationstheorie leicht in Einklang zu bringen ist. Oder andererseits gibt es die sehr populäre Theorie der Soziobiologie, welche (besonders in ihren populärwissenschaftlichen Veröffentlichungen) nichts anderes zu sein scheint als die Wiedergeburt des alten Sozialdarwinismus mit Hilfe der modernen Genetik. Dabei würde eine kritische Analyse der Dynamik von Vererbungsprozessen, welche nur unter Zuhilfenahme von Ideen der Selbstorganisationstheorie möglich wäre, mit aller Wahrscheinlichkeit zeigen, daß die Vererbung selbst viel komplexer abläuft, als es uns die Soziobiologie glauben machen will. Historisch gesehen zeigt sich allerdings, daß es natürlich schon lange alternative wissenschaftliche Erklärungen der biologischen Evolution gab, welche man als Vorläufer der Selbstorganisationsidee betrachten könnte. Da ist vor allem der kybernetische Ansatz von Schmalhausen 8 zu nennen, oder die Ideen zur Evolutionstheorie von Wolkenstein 9 . Möglicherweise wird sich zeigen, daß die Idee von der Koevolution von verschiedenen Arten und ihrer gemeinsamen Umwelt ein Erklärungspotential in sich birgt, welches einerseits die etwas zu lineare und zu "blinde" Evolutionstheorie 6 Vgl. M. Mitchell Waldrop, Inseln im Chaos. Die Erforschung komplexer Systeme, Reinbek 1993; Roger Lewin, Die KompIexitätstheorie. Wissenschaft nach der Chaosforschung, Hamburg 1993. 7 Niles Eldredge/Stephen J. Gould, Punctuated Equilibria: An Alternative to Phyletic Gradualism. in: T.J.M. Schopf (Ed.), Models in Paleobiology, San Francisco 1972, S. 82115; Stephen J. Gould/ Niles Eldredge, Punctuated equilibria: the tempo and mode of evolution reconsidered, in: Paleobiology 3 (1977), S. 115 -151. 8 Ivan I. Schmalhausen: Factors of Evolution. The Theory of Stabilizing Selection, Philadelphia 1949. 9 Mikhail V. Volkenstein, Physical Approaches to Biological Evolution, Berlin u. a. 1994.
10
Einführung
durch eine komplexere Theorie zu ersetzen vermag, andererseits aber einen Weg zu einer mehr biologischen Selbstorganisationstheorie zu weisen verspricht. Bereits bei der physikalischen Beschreibung von Evolutionsvorgängen, mehr aber noch bei der Anwendung von Methoden der Selbstorganisationstheorie auf die biologische Evolution, tritt eine Reihe von offenen Fragen auf, die in diesem Band thematisiert werden. Sie lassen sich zwei großen Themenkomplexen zuordnen: I. Reversibilität, Irreversibilität und Fortschritt
11. Modeme Entwicklungen der biologischen Evolutionstheorie. Selbstorganisation und Evolution Folgende Fragenkomplexe seien an dieser Stelle genannt: 1. Die Frage nach der Richtung jeglichen Geschehens. Die im 19. Jahrhundert bei vielen Naturphänomenen entdeckte Irreversibilität war ein Fortschritt gegenüber dem reversiblen Denken der klassischen Mechanik. Beispiele für solche ,nichtklassischen' Phänomene sind chemische Reaktionen, Reibungs- und Wärmeleitungsvorgänge. Entscheidend war die Verallgemeinerung auf alle Naturvorgänge, die als irreversibel gedacht wurden. Die nächste Stufe der Verallgemeinerung war die Konstruktion eines Zeitpfeils, der von der Irreversibilität aller Naturphänomene getragen wird. Dies war eine unabhängige Konstruktion im Gegensatz zu der in sich fließenden Zeit, die von Isaac Newton lO (16431727) als Rahmen aller ,darin' ablaufenden Prozesse postuliert worden war. Diskussionen in der neueren Zeit zeigen, daß die Suche nach dem irreversiblen ,Urphänomen' etwa auf der Ebene der nichtlinearen Dynamik noch nicht abgeschlossen ist. 11 Andererseits ist auch die These denkbar, daß die Gerichtetheit der Prozesse nur eine subjektive Erfahrungstatsache ist, die sich aus einzelnen, voneinander durchaus unabhängigen Phänomenen speist und sich daraus als Konstrukt aufbaut. So ist es nach Teilhard de Chardin (1881-1955) der Blick des Menschen, der aus einer zusammenhangslosen Folge von Ereignissen eine allgemeine Richtung zu erkennen vermag. 12 In der theoretischen und mathematischen Physik wird schon seit langem versucht, im Rahmen der sogenannten "Begründungsproblematik der statistischen Physik,,13 eine definitive Antwort auf diese Frage zu finden. 2. Auch bei der Evolution ist es oftmals schwierig, über längere Zeiträume eine Richtung zu erkennen. Etwas populärer formuliert, handelt es sich um die Frage des Fortschritts im Sinne einer allgemeinen Höherentwicklung, einer allgemeiIsaac Newton, Philosophiae naturalis principia mathematica, Ed. lIla, London 1726. V gl. J. Bricmont (FN 3). 12 Pierre Teilhard de Chardin, Der Mensch im Kosmos, Berlin 1966, S. 15 ff. 13 Vgl. Michael C. Mackey, Time's Arrow: The Origins of Thermodynamic Bahavior, New York 1992. \0
11
Einführung
11
nen Verbesserung. Bei sozialen Phänomenen ist diese Frage ganz offensichtlich nichttrivial und von subjektiven, ja ideologischen Bewertungsmaßstäben abhängig. Auch in der Biologie und Physik gibt es kaum einheitliche oder nichtanthropogene Maßstäbe für die Bewertung einer Entwicklung. Bei linearen Wachstumsprozessen, etwa beim Wachsen einer osmotischen Zelle oder der Zunahme einer Populationszahl können wir einfache numerische oder geometrische Parameter gegen die ,Zeit' verfolgen. Schwieriger wird es bei der Bewertung mit abstrakteren Größen, etwa ,Komplexität' oder ,Einfachheit' oder gar ästhetische Qualität eines anorganischen Gebildes oder Lebewesens. Ein weites Feld ist die Definition von Entropiegrößen als Maß für Komplexität. 3. Evolution ist oftmals durch gleichzeitig ablaufende, offenbar gegenläufige Prozesse gekennzeichnet. In der Biologie scheint der Zeitpfeil der Evolution durch eine stetig zunehmende Artenvielfalt und Komplexität der Organismen gekennzeichnet zu sein. Gleichzeitig beobachten wir aber in der heutigen Zeit eine rapide Abnahme der Artenanzahl auf der Erde. Und dies bei unverminderter Zufuhr an freier Energie zum Ökosystem Erde. Generell lassen sich in der Entwicklungsgeschichte der Lebewesen verschiedene Phasen unterscheiden, die in unregelmäßiger Folge einander abwechseln: Neben der Phase der "normalen" Evolution gibt es explosionsartige Phasen, bei denen in geologisch kurzer Zeit eine ungeheure Anzahl neuer Arten entstanden ist, und daneben Phasen des katastrophenmäßigen Aussterbens ganzer biologischer Taxa. Ist die Selbstorganisationsidee in der Lage, hier zu neuen Erklärungsmöglichkeiten zu verhelfen? 4. Evolution ist einerseits durch Diskontinuitäten gekennzeichnet, indem sie als Folge von Evolutionssprüngen - abgegrenzt durch dynamische oder strukturelle Instabilitäten - aufgefaßt wird. Damit ist die ,Richtung' der Evolution im Sinne zunehmender Komplexität oder Vielfalt noch nicht eingeschränkt. Diskontinuitäten können aber auch als interne Katastrophen im Sinne einer rapiden Abnahme von Komplexität und Vielfalt auftreten, ohne daß sich die äußeren Bedingungen - infolge äußerer Katastrophen - dramatisch ändern müssen. Ein einfaches Analogbeispiel hierfür sind die Fenster im Chaos. Mechanismen solcher interner Katastrophen, die mit dramatischen Strukturvereinfachungen einhergehen, sind bislang noch wenig untersucht. Bei der Konzeption dieses Bandes wurden die eben genannten Fragen ,rhetorisch' an die beteiligten Autoren gerichtet. Der Leser wird erkennen, wie in den vorliegenden Beiträgen eine Koinzidenz zwischen den von uns gestellten Fragen und den von den Autoren ohnedies bearbeiteten Problemen vorliegt. Die ersten vier Aufsätze des Bandes widmen sich dem Komplex ,Irreversibilität und Zeit', die folgenden dem Thema ,Evolution und Fortschritt'. Als Edition erscheint die Autobiographie eines Pioniers der Selbstorganisationsforschung, Raphae1 Eduard Liesegang (1869 -1947), aus dem Jahre 1945, die uns einen Einblick in die Wissenschaftsgeschichte des bald hinter uns liegenden Doppe1jahrhunderts gewährt. Hans-Jürgen Krug und Ludwig Pohlmann
Zeit, Chaos und die zwei Kulturen* Von [lya Prigogine. Austin (Texas) und Brüssel
Die zentrale Größe der Nichtgleichgewichtsthermodynamik - die Zeit - ist keinesfalls ein neuer Forschungsgegenstand. Schon vor etwa 2500 Jahren betonte Heraklit das Werden und die Veränderung. Parmenides dagegen legte besonders auf das Sein Wert und sah die Wirklichkeit als statisch an, wobei er behauptete, daß alle Veränderung nur ein scheinbares Phänomen ist. Diese Debatte hat das westliche Denken dominiert und hält immer noch an. Das Problem der Zeit bildet die Trennungslinie zwischen den "zwei Kulturen", wie man es heute nennt. Karl Popper schrieb in seinem schönen Buch "The Open Universe: An Argument for Indeterminism": "Die Realität von Zeit und Veränderung scheint mir die Crux des Realismus zu sein." Die Zeit ist eines der immer wiederkehrenden Themen der Philosophie des 20. Jahrhunderts. Man findet sie bei Henri Bergson, Karl Popper, Alfred Whitehead und Martin Heidegger. Ich finde einen kurzen Artikel von Bergson ("Le Possible et le Reel") besonders prophetisch, in dem er fragt: Warum fließt die Realität? Was ist der Zweck der Zeit? Trotzdem sage ich mir ,,zeit ist irgend etwas". Sie wirkt in einer bestimmten Weise. Was kann sie tun? Die einfache Antwort des gesunden Menschenverstandes ist, daß die Zeit etwas ist, was verhindert, daß etwas auf einem Schlag passiert. Es verlangsamt die Dinge, oder besser, es ist die Essenz der Verzögerung. Ist es nicht das Medium der Schöpfung und der Entscheidung? Beweist nicht die Existenz der Zeit, daß es eine Unbestimmtheit in den Dingen gibt? Ist nicht die Zeit selbst synonym mit dem Indeterminismus?
Nach Bergson folgt aus der Existenz der Zeit, daß die "Dinge noch nicht fertig sind". Aber wenn die Dinge noch nicht fertig sind, dann befinden wir uns in einer Art Vorbereitungszustand. Die Zukunft ist nicht vorgegeben, was bedeutet, daß es in der Natur so etwas wie Indeterminiertheit geben muß. Diese Schlußfolgerung, wie auch ähnliche Aussagen von Heidegger und Whitehead, stießen mit der Ansicht des größten Physikers unseres Jahrhunderts, Albert
* Vortrag "Time, Chaos and the Two Cultures" aus dem Band: Martin Moskovits (Hrsg.), Science and Society, Ontario 1995. Übersetzung aus dem Englischen von Ludwig Pohlmann mit der freundlichen Genehmigung von Ilya Prigogine. Copyright © 1995 by House of Anansi Press Limited. Veröffentlichung mit Genehmigung Nr. 56583 der Paul & Peter Fritz AG in Zürich.
14
Ilya Prigogine
Einstein, zusammen, welcher wiederholt behauptete, daß die Zeit als Evolution nur eine Illusion ist. Dieser Konflikt zwischen der philosophischen und der wissenschaftlichen Sichtweise ist eine der Grundlagen für die postmoderne Kritik an der Wissenschaft durch Amelie Rorty und andere Philosophen. Diese schlossen, daß, wenn die Wissenschaft so wenig über eine so wichtige menschliche Dimension sagen kann, sie dann kaum von großem Interesse sein kann, mit Ausnahme für die Wissenschaftler selbst. Es ist interessant, den Ursprung dieser Kontroverse zu untersuchen, denn er liegt in einer der grundlegenden Eigenschaften der westlichen Wissenschaft begründet: in der Fonnulierung der Naturgesetze. Die Naturgesetze, wie die Newtonschen Gesetze, die Schrödinger-Gleichung oder die Einsteinschen Gesetze, sind deterministisch und zeitlich reversibel. Mit anderen Worten, wenn man die Zeitrichtung ändern könnte, so würden alle Gleichungen immer noch gültige Beobachtungen beschreiben können. Sie sind deterministisch, da man bei Kenntnis der Anfangsbedingungen vorhersagen kann, was geschehen wird oder was in der Vergangenheit passiert ist. Betrachten wir unsere gegenwärtigen Vorstellungen vom Universum. Im Oktober 1994 kam eine interessante Ausgabe des "Scientific American" mit dem Titel "Life in the Uni verse" heraus. Darin finden sich Artikel von earl Sagan, Stephen Jay Gould, Marvin Minsky und anderen, welche evolutionäre Strukturen auf allen Größenebenen beschreiben: in der Kosmologie, der Biologie, den menschlichen Gesellschaften und so weiter. Dabei ist es interessant zu lesen, was so ein großer Physiker wie Steven Weinberg über diesen Gegenstand zu sagen hat: "So sehr wir auch bemüht sind, eine einheitliche Sicht auf die Natur zu bekommen, stoßen wir immer wieder auf die hartnäckige Dualität der Rolle des intelligenten Lebens im Universum als gleichzeitig Subjekt und Beobachter zu sein." Er fährt fort: Auf der einen Seite gibt es die Schrödingergleichung, welche auf eine vollkommen deterministische Weise beschreibt, wie sich die Wellenfunktion irgend eines Systems mit der Zeit ändert. Daneben aber gibt es eine Anzahl von Regeln, welche uns vorschreiben, wie man unter Verwendung der Wellenfunktion die Wahrscheinlichkeiten der möglichen Ergebnisse berechnen kann, wenn irgend jemand eine Messung am System durchführt.
Ich habe Schwierigkeiten, diese Sichtweise zu akzeptieren. Denn nach ihr wären die evolutionären Strukturen des Universums alle nur die Ergebnisse von Messungen. Wir sind aber Kinder der Zeit und bestimmt nicht ihr Vater oder ihre Mutter. Es ist aber interessant, noch einen Schritt weiterzugehen und die Frage zu stellen, wie die Gesetze der Physik in einem sich entwickelnden Universum aussehen könnten. Dazu ist zu bemerken, daß wir vom 19. Jahrhundert zwei sich widersprechende Sichtweisen auf das Universum geerbt haben. Eine ist die statische Sichtweise, welche durch die Naturgesetze (Newton, Schrödinger, Einstein) ausgedrückt wird. Die andere ist der zweite Hauptsatz der Thennodynamik, die Idee von der Entropie als Pfeil der Zeit, welcher ein evolutionäres Weltall beschreibt. Wir haben es hier mit einem echten Widerspruch zu tun. Ich habe viele Jahre lang die Thermodynamik gelehrt und die besten meiner Studenten waren immer jene, welche zu mir sagten: "Was erzählen sie uns? Wir haben Vorlesungen über klassische
Zeit, Chaos und die zwei Kulturen
15
Dynamik, Quantenmechanik und so weiter gehört. Wir haben dort nichts gefunden, was der Entropie ähnelt. Was ist eigentlich die Entropie?". Das ist ein immer wiederkehrendes Thema. Wenn man sich aktuelle Bücher anschaut, z. B. Stephen Hawkings "A Brief History of Time" oder Murray Gell-Manns "The Quark and the Jaguar", so wird man feststellen, daß sie das Problem zu lösen versuchen, indem sie die Entropie trivialisieren. Gell-Mann geht sogar so weit zu sagen: "Entropie ist Unwissenheit". Und in dem Film, welcher auf der Grundlage des Buches von Hawking gedreht wurde, fragt jemand: "Was ist Entropie?". Daraufhin nimmt Hawkings Assistent ein Glas und wirft es auf den Boden. Das Glas zerbricht, und er sagt: "Das ist die Entropie. Es ist wahrscheinlicher, daß das Glas in viele Stücke zerbricht, als daß es ganz bleibt." Das ist eine sehr seltsame Sicht auf die Entropie. Denn wenn es nur möglich wäre, Gläser zu zerbrechen, dann würden wir jedes Mal, wenn wir ein Glas herstellten, den zweiten Hauptsatz verletzen! Den zweiten Haupsatz würde es nicht mehr geben. Ich möchte darüber sprechen, warum diese Aussage, wonach Entropie nur Unwissenheit ist, nicht mehr länger haltbar ist. Ich werde für die konstruktive Rolle der Zeit eintreten und zeigen, daß die Irreversibilität in Wirklichkeit ein wesentliches Element bei der Bildung der komplexen Strukturen ist, die es in der uns umgebenden Welt gibt. Danach will ich auf die fundamentale Frage eingehen, was die Wurzeln der Zeit sind. Ich werde einen Überblick über einige aktuelle Arbeiten geben, welche sich mit Instabilitäten, Chaos und einer speziellen Form von Chaos, welches mit den sogenannten Poincare-Resonanzen verbunden ist, beschäftigen. Diese Resonanzen sind die Grundlage der Irreversibilität. Wenn sie in die klassische oder in die Quantenmechanik eingebaut werden, so führt dies zu einer Neuformulierung dieser Gesetze, so daß sie jetzt die Wahrscheinlichkeit und den Pfeil der Zeit beinhalten. Mit anderen Worten drücken die Naturgesetze in dieser Form nicht mehr eine Bestimmtheit aus, sondern vielmehr Wahrscheinlichkeiten über Dinge, welche stattfinden können oder auch nicht. Genau diese Form von physikalischen Gesetzen ist aber geeignet, die sich entwickelnde Welt, in der wir leben, zu beschreiben. Zuerst ein paar Worte über die Thermodynamik. Ein wichtiger Schritt auf dem Wege war die Einführung der Nichtgleichgewichtsthermodynamik vor etwa vierzig Jahren. Dadurch verstanden wir erst, daß wir uns zu sehr auf die Gleichgewichtsthermodynamik konzentriert hatten. In der Thermodynamik des Gleichgewichtes ist jedes System, was sich im Gleichgewicht befindet, stabil. Mit anderen Worten hat es ein Maximum der Entropie oder ein Minimum der Freien Energie erreicht. Wenn wir das System etwas stören und die Freie Energie damit erhöhen, so wird es sich danach wieder zum Minimum hinbewegen. Ein Gleichgewichtssystem ist immun gegenüber den eigenen Fluktuationen. Als ich begann, auf diesem Gebiet zu arbeiten, studierte ich zuerst lineare Nichtgleichgewichtssituationen, bei denen man noch nicht weit vom Gleichgewicht entfernt ist. Hier herrscht wieder eine Art von Stabilität. Wenn das System gestört wird, so geht es danach wieder in den Ausgangszustand zurück, der durch ein Minimum in der Entropieproduktion
16
Ilya Prigogine
gekennzeichnet ist. Die Überraschung kam jedoch erst später, als ich versuchte, diese Ergebnisse auch auf Systeme zu übertragen, die sich fern vom Gleichgewicht befinden. Da passierte etwas unerwartetes. Wir fanden heraus, daß es unter diesen Bedingungen kein Potential mehr gibt, welches ein Minimum besitzt. Wenn wir hier das System stören, so gibt es keine Garantie mehr, daß es in den Ausgangszustand zurückkehrt. Im Gegenteil, das System beginnt neue Strukturen zu erforschen, neue Formen der raumzeitlichen Organisation, welche ich dissipative Strukturen nannte. Es war klar, daß solche Systeme fern vom Gleichgewicht eine große Bedeutung haben mußten, denn sie führten zu neuen strukturellen Aspekten der Materie. Diese neuen Strukturen setzen eine neue Form der Kohärenz voraus, welche z. B. zu wellenartigen Strukturen führen kann. Jeder hat wohl schon von den oszillierenden chemischen Reaktionen gehört, bei welchen alle Moleküle gleichzeitig blau werden, danach alle wieder rot werden und so weiter. Das ist erstaunlich, denn um solch eine Farbänderung sehen zu können, bedarf es eines kohärenten Phänomens, welches Billionen von Teilchen erfaßt. Ein anderes Beispiel ist die Entstehung von Strömungen und Wirbeln, wieder fern vom Gleichgewicht, wo man sieht, wie Billionen von Teilchen zusammenarbeiten, wenn ich diesen Ausdruck verwenden darf. Das war wirklich eine große Überraschung. Ich beschrieb dieses Verhalten, indem ich sagte, daß die Materie in Gleichgewichtsnähe blind ist, da jedes Molekül nur seine nächsten Nachbarn sehen kann. Fern vom Gleichgewicht jedoch treten langreichweitige Korrelationen der Teilchen auf, welche notwendig sind, um neue Strukturen zu erzeugen. Heutzutage ist die Erforschung der dissipativen Strukturen sehr populär geworden, und viele Laboratorien auf der ganzen Welt beschäftigen sich mit diesem Thema. Neue Strukturen, räumliche Muster, sich selbst reproduzierende Strukturen und ähnliche Dinge werden ständig neu entdeckt. Die Idee der Selbstorganisation ist ebenfalls sehr populär geworden. Das aber ist auch wieder ein Beispiel für Selbstorganisation, denn wenn wir uns fern vom Gleichgewicht befinden, so hat das System die Wahl zwischen vielen verschiedenen Strukturen, von denen, um in anthropomorpher Sprache zu sprechen, genau eine ausgewählt wird. Als ich jung war, so waren meine Lehrer stolz darauf, wenn sie zeigen konnten, daß ein gegebenes Problem nur eine einzige Lösung besaß. Aber fern vom Gleichgewicht haben die Gleichungen, welche das System beschreiben, viele gleich gute Lösungen, und es ist dann eine Fluktuation, die letztlich entscheidet, welche Lösung sich durchsetzt. Heute wissen wir, unter welchen Bedingungen sich bestimmte Arten von dissipativen Strukturen herausbilden. Wir wissen, daß hier autokatalytische Reaktionen eine Rolle spielen. Das sind Reaktionen, welche einen der Reaktanden als Reaktionsprodukt erzeugen, so daß die Konzentration des Reaktanden während der Reaktion weiter anwächst. Wir wissen heute auch, daß die chemischen Reaktionen nichtlinear sein müssen. Wie muß dann die Thermodynamik beurteilt werden? Was ist die Beziehung zwischen der Thermodynamik und den Grundgesetzen der Natur, wie sie von Newton aufgestellt wurden? Dazu sei hier eine Bemerkung von Henri Poincare zitiert. Poincare bewies in einem kur-
Zeit, Chaos und die zwei Kulturen
17
zem Aufsatz, daß die klassische Mechanik und die Thermodynamik inkompatibel sind. Das führte ihn zu folgender Aussage: Zusammenfassend kann verbal ausgedrückt werden, daß das Prinzip von Clausius, d. h. der zweite Haupsatz, nur dann sinnvoll sein kann, wenn es eine Eigenschaft ist, die allen Möglichkeiten gleichermaßen zukommt. Entsprechend der deterministischen Hypothese gibt es jedoch nur eine einzige Möglichkeit, und der zweite Haupsatz verliert seinen Sinn. Nach der indeterministischen Hypothese jedoch wird der zweite Hauptsatz selbst dann noch bedeutungsvoll sein, wenn er in einem absolutem Sinn verstanden wird. Dann wird er als eine Begrenzung auftreten, die der absoluten Freiheit auferlegt wird. Aber diese Bemerkungen erinnern mich daran, daß ich abschweife und dabei bin, die Gebiete der Mathematik und Physik zu verlassen. Ich fand diese Aussage bemerkenswert, da Poincare natürlich verstanden hat, daß wir einen gewissen Indeterminismus, bestimmte statistische Aspekte in den Grundlagen der Physik, benötigen, um die Thermodynamik nicht ausschließen zu müssen. Aber er schreckte vor dieser Idee zurück, da sie ihm zu revolutionär erschien. Auch Bergson kam unabhängig davon durch philosophische Überlegungen zu der gleichen Schlußfolgerung. Ich habe mich immer gefragt, ob Bergson Poincare gelesen hat und was Poincare von Bergson gehalten hat. Heute können wir Poincares Vorschlag ernst nehmen. Wir können heute zeigen, daß die Instabilität wirklich zu einer Modifikation der Grundgesetze der Natur führen kann. Ich will dies zuerst am Beispiel eines sehr einfachen Typs von Instabilität, am sogenannten deterministischen Chaos, erklären. Im deterministischen Chaos sind die Grundgesetze selbst rein deterministisch. Die Mathematiker haben einige sehr einfach Systeme, sogenannte Abbildungen, entwickelt, welche die verschiedenen Formen des Chaos zu illustrieren vermögen. In einer solchen Abbildung liegen alle Zahlen zwischen 0 und 1. Wenn irgend eine Operation mit der Zahl ausgeführt wird, welche sie über Eins wachsen läßt, so kann man sie wieder in das erlaubte Intervall zurückbringen, indem man den ganzen Teil der Zahl abzieht. Wenn also z. B. 0.6 mit 2 multipliziert wird, so gibt das 1.2. Nach der Subtraktion von 1 erhält man dann 0.2. Diese Situation erinnert an den Minutenzeiger einer Uhr, welcher immer nur eine Zahl zwischen 0 und 60 anzeigen kann, ganz gleich, wieviel Zeit bereits vergangen ist. Es gibt zwei unterschiedliche Typen von Abbildungen: stabile periodische und instabile chaotische Abbildungen. Man kann eine stabile Abbildung konstruieren, wenn man eine Zahl zwischen Null und Eins nimmt und in jedem Schritt 1/2 addiert. Wenn man z. B. mit 1/4 beginnt, so erhält man erst 3/4, dann 5/4 - aber das ist nach Abzug von Eins wieder 1/4. Damit wiederholt sich dieses Muster und produziert eine Periodizität. Andererseits erhält man eine chaotische Abbildung, wenn man, wie bei der berühmten BernoulliAbbildung, eine Zahl zwischen Null und Eins nimmt, diese mit Zwei multipliziert und, wenn das Ergebnis Eins überschreitet, durch Abzug von Eins wieder in das Intervall zurückbringt. Man kann zeigen, daß man, wenn man eine beliebige irrationale Zahl nimmt, durch diese Abbildung eine Folge von Zahlen produzieren wird, welche wild zwischen Null und Eins hin- und herschwanken wird. Das ist 2 Selbstorganisation, Bd. 8
18
Ilya Prigogine
eine Eigenschaft des Chaos. Mit anderen Worten ist das Chaos dadurch definiert, daß man, wenn man mit zwei sehr nahe liegenden irrationalen Zahlen beginnt, die beiden entstehenden Folgen von Zahlen divergieren werden. Die Mathematiker haben bewiesen, daß diese Divergenz mit exponentieller Geschwindigkeit erfolgt: Der Abstand zwischen den Trajektorien wächst mit der Anzahl der Rechenschritte hoch einer Zahl, welche als Lyapunov-Exponent bezeichnet wird. Viele Computerwissenschaftler haben bemerkt, daß sich die Situation ändert, wenn man anstelle eines einzigen Startpunktes eine Wahrscheinlichkeitsverteilung von Punkten nimmt und so ein Bündel von Trajektorien erhält. Das bedeutet, daß man genauer gesagt mit einer stetigen Funktion startet, welche viele Trajektorien beschreibt. In diesem Fall ist, im Unterschied zum Start mit nur einer Trajektorie, die Evolution der Wahrscheinlichkeitsverteilung sehr glatt und konvergiert schnell zu einer endgültigen stabilen Verteilung. Im Falle der Bernoulli-Abbildung ist es die Gleichverteilung, welche als Grenzwert erreicht wird. Das ist sehr rätselhaft: Wenn man eine einzelne Trajektorie betrachtet, so kann man unmöglich ihre zukünftige Entwicklung voraussagen. Wenn man jedoch die Wahrscheinlichkeiten zugrunde legt, so kann man ohne weiteres ihre Zukunft voraussagen. Das ist eine wirklich interessante Situation, da man gewissermaßen mehr Information aus den Wahrscheinlichkeiten als aus den individuellen Daten gewinnen kann. Das führte zu einer mathematischen Theorie, welche einige meiner jungen Mitarbeiter entwickeln. In dieser Theorie geht man nicht mehr von deterministischen Gleichungen aus, sondern von einem Operator, dem Perron-Frobenius-Operator, welcher auf die Evolution der Wahrscheinlichkeit in der Zeit wirkt. Das erinnert stark an die Quantenmechanik, da es dort auch keine Trajektorien sondern nur Wellenfunktionen und Operatoren, welche auf diese wirken, gibt. Mathematisch gibt es aber sehr große Unterschiede zwischen beiden Theorien. Die Quantenmechanik ist innerhalb eines sogenannten Hilbert-Raumes definiert. Dieser kann aber nicht verwendet werden, um Wahrscheinlichkeitsverteilungen von chaotischen Trajektorien zu beschreiben, weil die hierbei verwendeten Funktionen höchst singulär sind. Sie sind nicht differenzierbar und verhalten sich in einer verrückten Weise: es sind Fraktale. Folglich muß die Funktionalanalysis verallgemeinert werden, um auch solche Situationen erfassen zu können. Erst dann kann das Problem gelöst werden. Wobei nochmals betont werden soll, daß das Problem nur für die Wahrscheinlichkeitsverteilungen gelöst wird, nicht für die einzelnen Trajektorien. Individuelle Trajektorien fluktuieren sehr wild. Man kann keinerlei Ordnung oder Muster erkennen. Dieser Unterschied zwischen den Verteilungen und den einzelnen Trajektorien ist auch vom philosophischen Standpunkt her äußerst interessant, da wir gezwungen sind, bei der Beschreibung von Bewegungen die begriffliche Ebene der Punkte zu verlassen. Die klassische Physik und die Relativitätstheorie gehen davon aus, daß das fundamentale Objekt der Punkt ist. Jetzt aber müssen wir die Wahrscheinlichkeit als fundamentales Objekt verwenden. Die entsprechende klassische Vorstellung war dagegen, daß Wahrscheinlichkeit immer nur Unwissen bedeutet, daß man mit der Einführung von Wahrscheinlichkeiten in die Beschreibung alle
Zeit, Chaos und die zwei Kulturen
19
Möglichkeiten einer exakten Vorhersage zerstört. In einem chaotischen System ist die Situation völlig umgekehrt. Nur wenn man Wahrscheinlichkeiten verwendet, kann man vorhersagen, wie sich diese Funktion in der Zeit entwickelt und welchen asymptotischen Endzustand sie erreichen wird. Ich denke, daß dies das erste Beispiel einer objektiven Theorie ist, welche auf Wahrscheinlichkeiten aufbaut, jedoch nicht auf Wahrscheinlichkeiten als Ausdruck unserer Unwissenheit, sondern auf objektiven Wahrscheinlichkeiten. Denn die Wahrscheinlichkeit ist die natürliche Variable, welche der Komplexität der Situation angemessen ist. Dagegen gibt es keinen Sinn über Punkte zu sprechen. Welchen Punkt sollte man auswählen? Einer geht nach links, ein benachbarter Punkt geht nach rechts. Ein Punkt kann nicht das Ensemble repräsentieren. Wenn man unmittelbar auf Wahrscheinlichkeits verteilungen aufbaut, so erhält man eine Theorie, welche probabilistisch und zeitlich irreversibel ist. Das erinnert an die Situation, welche in der Populationsdynamik herrscht, beispielsweise in der Darwinschen Evolutionstheorie, welche nur auf der Ebene der Populationen, nicht auf der der Individuen gültig ist. Ich möchte hier noch ein zweites und bedeutsameres Beispiel vorstellen, welches sich auf ein reales System bezieht, und nicht auf chaotische Abbildungen, die letztlich nur simplifizierte Modelle chaotischer Systeme sind. Jetzt will ich mich mit der realen physikalischen Welt beschäftigen. Hier gibt es auch zwei verschiedene Typen von Beschreibungen: eine in Form von Trajektorien oder Wellenfunktionen - d. h. eine individuelle Beschreibung - und eine statistische Beschreibung, in welcher wieder die Wahrscheinlichkeiten als Grundelemente verwendet werden. Die Frage ist, welche Beziehung zwischen diesen beiden Ebenen der Beschreibung, der probabilistischen und der individuellen, existiert? Für sehr einfache Systeme, wie für harmonische Oszillatoren, Rotoren, das Zweikörperproblem u.ä., kann man leicht zeigen, daß beide Beschreibungsarten äquivalent sind. Mit anderen Worten, man kann bei allen stabilen Systemen mit der statistischen Beschreibung beginnen und danach zur individuellen Ebene zurückkehren und umgekehrt. Wenn sich das individuelle Problem lösen läßt, so kann man auch das probabilistische lösen. Es gibt da keinen Unterschied. Wenn man aber sogenannte nichtintegrable dynamische Systeme betrachtet, wie Poincare sie nannte, so gibt es einen radikalen Unterschied zwischen beiden Beschreibungsarten, da diese Systeme sich wieder chaotisch verhalten. Worin besteht die Grundidee der Nichtintegrabilität im Poincareschen Sinn? Poincare ging von dynamischen Systemen aus. Diese besitzen kinetische und potentielle Energie. Deshalb stellte es sich folgende Frage: "Gibt es irgend eine raffinierte Transformation, welche die Wechselwirkung, wie sie durch die potentielle Energie beschrieben wird, eliminiert, so daß sich das System wie eine Menge unabhängiger Teilchen verhalten würde?" In einem solchen Fall ist die Integration sehr einfach. Er zeigte aber, daß dies im allgemeinen Fall nicht möglich ist. Glücklicherweise ist es so, denn andernfalls würde es nicht die Möglichkeit der Existenz 2*
20
Ilya Prigogine
von Kohärenz, von Organisation und von Leben geben. Wechselwirkungen sind im allgemeinen Fall irreduzibel. Man kann sie nicht eliminieren. Und Poincare zeigte uns auch, warum. Wechselwirkungen sind irreduzibel, weil zwischen den verschiedenen Freiheitsgraden Resonanzen auftreten. Ich möchte nicht auf die Mathematik, die dahinter steht, eingehen. Dafür will ich eine vage Analogie zwischen diesem Problem und dem Klavierspiel herstellen. Wenn man Klavier spielt, so spielt man einen Grundton, kann aber nicht verhindern, daß gleichzeitig auch andere Töne und Harmonien erklingen. Etwas ähnliches passiert in der Dynamik. Die Nichtintegrabilität ist hier eine Konsequenz von Resonanzen, welche verschiedene dynamische Ereignisse miteinander verkoppeln. Das führt zu einer komplexen Entwicklung der Ereignisse, weil die individuellen Ereignisse nicht mehr getrennt werden können. Wir müssen im Gegenteil von Ensemblen von Ereignissen ausgehen, welche durch Resonanzen miteinander verbunden sind. Als Ergebnis erhalten wir, wie beim deterministischen Chaos, irreduzible Beschreibungen auf dem Niveau der Wahrscheinlichkeiten. Wir erhalten eine Formulierung der Naturgesetze, welche, wenn sie Poincares Nichtintegrabilität einschließen soll, nicht mehr mit den Begriffen der Trajektorie oder der Wellenfunktion arbeiten kann. Das kommt von der Verkopplung der Ereignisse, welches wiederum zu einem diffusionsartigen Verhalten führt. Die Diffusion wird im allgemeinen durch eine räumliche Differentialgleichung der zweiten Ordnung beschrieben. Diese Differentialgleichung entsteht auch, wenn man die Kopplung der Ereignisse durch Resonanzen beschreiben will. Dies ist ein äußerst wichtiges Ergebnis. Es zeigt, daß chaotische Systeme im Sinne von Poincare nicht deterministisch sein können, da die grundlegende Gleichung jetzt einen diffusiven Prozeß beschreibt. Wenn ich mit einem bestimmten Punkt beginne, so werde ich nicht voraussagen können, wohin er sich bewegen wird. Oder wenn ich mit einer bestimmten Wellenfunktion starte, so werde ich nicht wissen können, wie sie sich weiter entwickeln wird. Denn Trajektorien und Wellenfunktionen können durch Resonanzen zerstört werden. Jede mikroskopische Beschreibung würde dann so etwas wie das molekulare Chaos, das mit der Brownschen Bewegung verbunden ist, reproduzieren. Die grundlegende Beschreibung muß daher mit Wahrscheinlichkeits verteilungen operieren, während die Trajektorien, Wellenfunktionen oder Felder, die traditionellen Objekte der Physik, nur dann als sinnvolle Approximationen verwendet werden können, wenn die diffusive Bewegung vernächlässigbar klein wird. Wo können nun Effekte dieser Art auftreten? Es ist anzunehmen, daß sie in vielen Fällen vernachlässigbar sind. Immerhin wurden die Quantenmechanik und die klassische Mechanik in Millionen von Situationen bestätigt. Aber andererseits sind die Vorhersagen der kinetischen Theorie - z. B. die Berechnung der Wärmeleitfähigkeit mit Hilfe der Boltzmanngleichung aus den intermolekularen Wechsel wirkungen - auch in Millionen von Fällen verifiziert worden. Folglich muß es Situationen geben, in denen der eine Typ von Theorie anwendbar ist, und andere Situationen, in denen der andere Typ gültig ist. Kurz gesagt ist der neue Theorietyp, welcher Resonanzen, Dissipation und Indeterminismus enthält, dann gültig, wenn
Zeit, Chaos und die zwei Kulturen
21
wir es mit andauernden Wechsel wirkungen zu tun haben. Andauernde Wechselwirkungen treten zum Beispiel in Flüssigkeiten oder in der Kosmologie auf. Es gibt sie aber nicht im normalen Streuexperiment, in welchem man ein Wellen paket präpariert, auf ein Ziel schießt und alles in einem Zeitmaßstab beobachtet, der viel größer als die Dauer des Prozesses ist. Andererseits finden die Zusammenstöße zwischen den Molekülen in einem gasgefüllten Raum immerfort statt. Die Wechsei wirkungen sind andauernd. In kosmologischen Systemen hat man es ebenfalls mit andauernden Wechselwirkungen zu tun. In all diesen Fällen werden die diffusiven Terme bedeutsam. Das ist auch nicht anders zu erwarten gewesen, denn hier haben wir es mit thermodynamischen Systemen zu tun. Es sind gerade diese Systeme, für welche unsere neuen Ergebnisse gültig sind. Diese Ergebnisse wurden schon in vielen Computerexperimenten bestätigt. Ich glaube, daß es heute mögliche wird, den Widerspruch zwischen den beiden Sichtweisen auf die Zeit und die Natur, der statischen und der evolutionären Sicht, aufzulösen. Dieser Gegensatz kann nämlich genau dann aufgehoben werden, wenn die Instabilität in die Grundgesetze eingefügt wird. Denn nach allem scheint es, daß die evolutionären Muster in unserem Universum fundamentale Eigenschaften der Natur sind. Aus dem oben erwähnten Heft des Scientific American ist zu ersehen, daß solche evolutionären Musterbildungen auf allen Größenebenen im Universum vorkommen. In gewisser Hinsicht wurden uns diese Muster durch die experimentellen Funde aufgezwungen. Denn die Existenz solcher Strukturen war nicht immer anerkannt, ähnlich wir die Knochen der Neandertaler, welche bei ihrer Entdeckung Monstern und nicht den Vorfahren der Menschen zugeschrieben wurden. In diesem Sinne wurde uns die Idee der Zeit mehr durch unsere experimentellen Entdeckungen aufgezwungen, als daß sie aus Überlegungen apriori entstanden wäre. Heutzutage ist die theoretische Physik zu einer Ausnahme geworden, zu einer Insel, auf welcher die Naturgesetze immer noch als zeitlich reversibel angenommen werden. Das erscheint mir unvereinbar mit dem zeitlich irreversiblen Universum zu sein, welches wir beobachten. Dieser neue Zugang zur Physik und zur Zeit, der auf Wahrscheinlichkeiten beruht, löst auch andere alte Probleme, so das Quantenparadoxon. Für dieses Paradoxon, welches mit dem sogenannten Kollaps der Wellenfunktion verbunden ist, gibt es eine ganze Reihe von Lösungsvorschlägen. Einige, wie die "Viele-Welten-Interpretation" oder jener über die Rolle des Bewußtseins, sind ziemlich absurd. All diese Interpretationen aber sind rein verbal und haben keinerlei prädiktive Potenz. All dies läßt mich schlußfolgern, daß wir langsam dabei sind, etwas zu überwinden, was man als den Cartesianischen Dualismus bezeichnen kann. In ihm gibt es auf der einen Seite die Natur als einen Automaten und auf der anderen Seite den menschlichen Beobachter, der sich außerhalb der Natur befindet. Einstein war sich dieses Problems sehr wohl bewußt. Er ging aber zu weit, als er postulierte, daß die Lösung darin besteht, anzunehmen, daß auch die menschlichen Wesen Automaten sind, auch wenn sie es selbst nicht wissen. Ich erinnere mich daran, daß ich mit viel Amüsement einen Brief an Tagore gelesen habe, in
22
Ilya Prigogine
dem Einstein die Frage stellte, was der Mond wohl antworten würde, wenn man ihn fragte, warum er sich bewege. Und er sagte darauf, "Der Mond wird wahrscheinlich antworten, daß er sich bewegt, weil es Ihm Spaß macht, durch die frische Luft zu spazieren", oder irgend etwas ähnliches. Wir lächeln, wenn wir so etwas hören, weil wir wissen, daß sich der Mond auf Grund von Newtons Gesetzen bewegt. Wir sollten dann auch lächeln, wenn menschliche Wesen so anmaßend sind zu glauben, daß sie Dinge tun, weil sie Willensfreiheit haben. Wir wissen, daß die Grundgesetze deterministisch sind und daß es keinen Grund gibt, warum der Determinismus aufhören soll, wenn er den menschlichen Geist erreicht. Dies ist natürlich eine Extremposition. Es läuft darauf hinaus anzunehmen, daß alles determiniert ist, und daß also auch dieser Beitrag seit dem Moment des Urknalls vor etwa 15 Milliarden Jahren vorherbestimmt gewesen ist. Das erscheint mir äußerst unwahrscheinlich. Chaos und Instabilität führen zu einer anderen Sicht der Dinge. Bis zu einem gewissen Grade spielen sie dieselbe Rolle für die Physik, wie es die natürliche Auslese für die Biologie tut. Die natürliche Auslese ist eine notwendige, aber keine hinreichende Bedingung für die biologische Evolution. Wie Gould im Heft des Scientific American sagt, gibt es Bakterien, welche sich seit dreieinhalb Milliarden Jahren nicht mehr weiter entwickelt haben. Ich bin kein Biologe, aber ich nehme an, daß Gould recht hat und daß es in Abhängigkeit von den Umständen einige Aspekte des Lebens gibt, welche sich entwickeln, und andere, welche dies nicht tun. Analog dazu sehen wir in der uns umgebenden Welt, daß es bestimmte Aspekte der Materie gibt, welche sich seit dem Anfang des Universums nicht mehr entwickelt haben. Jedermann hat schon von der kosmischen Hintergrundstrahlung gehört, welche uns noch im selben Zustand umgibt, in dem sie sich schon vor 15 Milliarden Jahren befunden hat. Diese Hintergrundstrahlung enthält übrigens den Hauptanteil der Entropie des Universums, da auf jedes Materieteilchen eine Milliarde Photonen dieser Strahlung kommen. Andererseits aber gibt es Atome und Moleküle, welche sich entwickelt haben und die Grundlage für die Bausteine des Lebens bilden. Ich glaube, daß der Wechsel von einer deterministischen Sicht zu einer, welche die zentrale Rolle von Wahrscheinlichkeit und Irreversibiltät anerkennt, mit einem optimistischeren Blick auf die Natur und auf die Rolle der menschlichen Wesen verbunden ist. Ich habe schon ein paar mal Einstein zitiert. An einer Stelle stellt er die faszinierende Frage: "Wer sollte Wissenschaft betreiben?" Er antwortet: "Menschen, welche nicht gern in der Menschenmenge leben, welche gerne hohe Berge besteigen, um die frische Luft zu atmen und in Harmonie mit der Natur zu sein." Für Einstein, welcher der größte Repräsentant der klassischen Wissenschaft als Mittel zur Erkenntnis der Natur ist, war die Wissenschaft eine Möglichkeit, um die Tragödie der Zeit zu transzendieren. Einstein lebte in eine schwierigen Zeit, welche von Kriegen und Antisemitismus gekennzeichnet gewesen war. Für ihn war die Wissenschaft ein Weg, den Mißgeschicken der Geschichte zu entfliehen. Ist dies aber noch immer die Rolle der Wissenschaft? Ist es heute nicht eher ihre Aufgabe, die verschmutzten Städte zu säubern, als in die Berge zu entfliehen?
Zeit, Chaos und die zwei Kulturen
23
Was ist dann die Rolle der heutigen Wissenschaft? Ich möchte mit einer sehr utopischen und auch sehr persönlichen Bemerkung schließen. Ich interessierte mich schon immer für die neolithische Zivilisation. Als sich die neolithische Zivilisation in die historische Zivilisation entwickelte, so wurden nicht nur große Kunstwerke geschaffen. Es entstand auch die Arbeitsteilung und Gewalt und Ungleichheit nahmen zu. Das kann man an der Art der Gräber ablesen. Im Neolithikum waren die Gräber für jeden gleich. Dem stehen die Pyramiden der Pharaonen und die Grabkammern der Herrscher von China in historischer Zeit gegenüber. In einem gewissen Sinn ist die Zivilisation immer durch einen doppelten Aspekt gekennzeichnet gewesen: Sie schuf nutzbringende Werte, die aber andererseits nur durch die Etablierung eines Systems von systematischer Gewalt möglich geworden sind. Dieses Problem ist auch heute noch nicht gelöst. Es ist meine Hoffnung, daß wir dank der Wissenschaft (aber das wird nicht von der Wissenschaft allein abhängen), dank der verbesserten Kommunikationsmöglichkeiten eine Welt errichten können, welche weniger Ungleichheit, weniger inhärente Gewalt besitzt und gleichzeitig die nützlichen Seiten der Zivilisation bewahren wird.
Irreversibilität und Zweiter Hauptsatz* Von Wolfgang Muschik, Berlin
I. Einleitung
Das alltägliche Leben zeigt, daß es Vorgänge gibt, die unumkehrbar sind: Eine Blume verblüht, ein Glas zerbricht, ein Stein fällt ins Wasser, ein Mensch wird alt. Ovid sagt: Alles zernagt die Zeit. So wie im täglichen Leben gibt es auch in der Physik unumkehrbare Vorgänge: Ein Kasten ist durch einen Schieber in zwei Teilkästen geteilt. In einem der beiden Teilkästen befindet sich ein Gas, in dem anderen sei Vakuum. Wird nun der Schieber gezogen, so diffundiert das Gas in das Vakuum und wird sich nach einer Zeit, von Schwankungen abgesehen, gleichmäßig im Kasten verteilen. Wird nun ein kinematografischer Film dieser Diffusion einem Beobachter rückwärts vorgeführt, so sieht dieser, wie das zunächst gleichmäßig im gesamten Kasten verteilte Gas sich ohne ersichtlichen Anlaß in einen der Teilkästen begibt und wie dann der Schieber geschlossen wird. Der Beobachter wird sogleich versichern, daß er einen solchen Vorgang noch nicht beobachtet habe, und daß er vermute, ihm werde wohl ein Film versehentlich rückwärts vorgeführt. Diese Erfahrung des Beobachters soll nun zu einer Definition für unumkehrbare Vorgänge ausgenutzt werden. Zunächst muß zwischen dem Originalvorgang und seinem rückwärts vorgeführten kinematografischen Bild unterschieden werden: Der Originalvorgang soll von nun an als Prozeß bezeichnet werden, während das, was man im rückwärts laufenden Film sieht, bewegungsgekehrter Prozeß genannt werden soll. Weiterhin soll zwischen möglichen und unmöglichen Prozessen unterschieden werden. ,Möglich' meint, daß ein solcher Prozeß auch in der Natur beobachtet werden kann; ,unmöglich' heißt, daß ein solcher Prozeß bisher nicht beobachtet wurde und vermutet wird, daß er auch nicht in der Natur vorkommt. In den Begriffen ,möglich' und ,unmöglich' steckt die Naturerfahrung des Beobachters. Nun läßt sich eine Definition für ,unumkehrbar' (irreversibel) leicht angeben: Definition: Ein möglicher Prozeß heißt irreversibel, falls sein bewegungsgekehrter Prozeß unmöglich ist, d. h. in der Natur nicht vorkommt.
*
Dem Förderer unserer Arbeitsgruppe, Herrn Dr. Gerald Paul, zum 7. März 1997.
26
Wolfgang Muschik
Ob also ein Prozeß nun irreversibel ist oder nicht, hängt nach dieser Definition von der Erfahrung des Beobachters ab. Dies ist eine mißliche Situation, weil doch die Erfahrungen verschiedener Beobachter durchaus verschieden sein können. Daher benötigt man ein allgemeines Kriterium für die Irreversibilität eines Prozesses. Ein solches Kriterium wird durch den Zweiten Hauptsatz in seinen unterschiedlichen Formulierungen gegeben, die in den nächsten Abschnitten behandelt werden. Dabei beschränken wir uns hier auf die phänomenologische Beschreibung von Systemen, also auf Thermodynamik ohne statistischen oder transporttheoretischen Hintergrund. Bevor jedoch die formalen Kriterien für Irreversibilität besprochen werden, soll die Frage aufgeworfen werden, warum denn der eingangs erwähnte Prozeß, die Diffusion ins Vakuum, irreversibel ist, d. h. warum also sein bewegungsgekehrter Prozeß nicht in der Natur beobachtet wird. Um ihn zu beobachten, müßte zu einem Zeitpunkt eine Bewegungsumkehr hergestellt werden, d. h. die Impulse aller Teilchen müßten augenblicklich invertiert werden. Eine solche Präparation eines Systems ist für ein Vielteilchensystem nicht möglich. Daher lassen sich keine Anfangsbedingungen herstellen, so daß der bewegungsgekehrte Prozeß ablaufen könnte. Eigen' nennt diese Ursache für Irreversibilität, nämlich die Unmöglichkeit bestimmte Anfangsbedingungen herzustellen, schwache Zeitlichkeit. Im Gegensatz dazu steht die starke Zeitlichkeit, die im Abschnitt IV besprochen wird.
11. Die Clausiussche Ungleichung Wie in der Einleitung ausgeführt, gibt es in der Natur keine bewegungsgekehrten Prozesse zu irreversiblen Prozessen, weil die Anfangsbedingungen, die zu solchen Prozessen führen würden, nicht präparierbar sind. Diese Tatsache wird in der Thermodynamik durch den Zweiten Hauptsatz ausgedrückt, den es in unterschiedlichen Formulierungen gibt. 2 Um eine verbale Formulierung des Zweiten Hauptsatzes niederschreiben zu können, benötigen wir zwei Begriffe, den des Perpetuum mobile 2. Art und den des Reibungsprozesses. Diese beiden Begriffe sollen nun erläutert werden. Um ein spezielles Perpetuum mobile 2. Art handelt es sich bei den im folgenden beschriebenen Prozeß: Ein Schiff besitzt eine Maschine, die die Energie für den Antrieb des Schiffes dem Meer entzieht, das sich durch den Entzug dieser Energie abkühlt. Obwohl der Energieerhaltungssatz nicht verletzt ist - die Antriebsenergie wird ja dem Meer entzogen - gibt es eine solche Maschine, genannt KelvinMaschine, nicht: Sie wäre ein Perpetuum mobile 2. Art, das Wärme, dem Meere 1 M. Eigen, Evolution und Zeitlichkeit, Die Zeit, in: Schriften der Carl Friedrich von Siemens Stiftung, Bd. 6, Oldenbourg 1983, S. 45. 2 W. Muschik, Formulations of the Second Law - Recent Developments, in: J. Phys. Chem. Solids 49 (1988), S. 709 -720.
Irreversibilität und Zweiter Hauptsatz
27
entzogen, total in Arbeit verwandeln würde. Wohl aber gibt es in der Natur den inversen Prozeß: Arbeit läßt sich, z. B. durch Reibung, total in Wärme umwandeln, was als Reibungsprozeß bezeichnet wird. Nun läßt sich eine verbale Formulierung des Zweiten Hauptsatzes angeben:
2. Hauptsatz I: Es gibt kein Perpetuum mobile 2. Art, wohl aber existiert der Reibungsprozeß· Sowohl der Reibungsprozeß als auch der nichtexistierende Kelvin-Prozeß lassen sich durch thermodynamische Diagramme darstellen, 3 die eine übersichtliche Herleitung der Clausiusschen Ungleichung aus der verbalen Formulierung I des Zweiten Hauptsatzes gestatten. Diese Ungleichung stellt nun die analytische Formulierung des Zweiten Hauptsatzes, hier für geschlossene Systeme4 , dar:
2. Hauptsatz 11: Alle möglichen Kreisprozesse in geschlossenen Systemen erfüllen die Clausiussche Ungleichung (1 )
f
Q(t) dt< O.
T*(t)
-
Hierbei ist f das Wegintegral längs eines Kreisprozesses 5 , Q(t) ist die zwischen dem System und seiner Umgebung ausgetauschte Wärmemenge pro Zeiteinheit zum Zeitpunkt t und T*(t) ist die absolute Temperatur der Umgebung, die stets als im Gleichgewicht vorausgesetzt wird. Dabei ist Gleichgewicht wie folgt definiert:
Definition: Zeitunabhängige Zustände isolierter Systeme heißen Gleichgewichtszustände. In ihrer Gesamtheit bilden sie den Gleichgewichtsteilraum. Diese Definition verlangt ebenso wie das Wegintegral (1), daß ein Zustandsraum für das betrachtete System gewählt wurde,6 was hier nicht genauer ausgeführt werden kann. Der oben besprochene Kelvin-Prozeß widerspricht der Clausiusschen Ungleichung (1) deshalb, weil der Wärmeübergang Q(t) auf die Kelvin-Maschine, sowie die absolute Temperatur T* (t) zu allen Zeiten positiv sind. Daß der bewegungs gekehrte Diffusionsprozeß, der die Clausiussche Ungleichung verletzt, in der Natur nicht vorkommt, wurde schon erörtert. 3 Vgl. W Muschik, Therrnodynamical Algebra, Second Law, and Clausius' Inequality at Negative Absolute Temperatures, in: J. Non-Equilib. Therrnodyn. 14 (1989), S. 173 -198. 4 Das sind Systeme, die keinen Stoff mit ihrer Umgebung austauschen. 5 Genauer ist f längs eines Kreisprozesses zu erstrecken, der mindestens einen Gleichgewiehtszustand enthält: Vgl. hierzu W Muschik, Aspects of Non-Equilibrium Therrnodynamies, Singapore 1990, Sect. 5.4. 6 Vgl. hierzu W MuschikIR. Dominguez-Cascante, On extended therrnodynamics of discrete systems, in: Physica A 233 (1996), S. 523 - 550.
28
Wolfgang Muschik
Ist ein System im Gleichgewicht, so ist es definitionsgemäß zeitunabhängig und abgeschlossen. Daher folgt für das Gleichgewicht Q(t) = 0, und in der Clausiussehen Ungleichung steht das Gleichheitszeichen für Gleichgewichtszustände. Betrachtet man eine Trajektorie, die nur aus Gleichgewichtszuständen besteht, so gibt es diese in der Natur als Prozeß in Strenge nicht, da kein realer Prozeß nur aus Gleichgewichtszuständen bestehen kann: Er würde dann nicht laufen. Diese Gleichgewichtstrajektorien haben aber eine wichtige Bedeutung: Sie sind als Grenzelemente in der Clausiusschen Ungleichung enthalten, nämlich für den Fall des Gleichheitszeichens, und als Gleichgewichtstrajektorien besitzen sie keinen ausgezeichneten Durchlaufungssinn, wie etwa ein möglicher Prozeß. Daher wird definiert: Definition: Gleichgewichtstrajektorien heißen reversible Prozesse.
Aus der Clausiusschen Ungleichung folgen andere Formulierungen des Zweiten Hauptsatzes, die nun besprochen werden. III. Entropieproduktion
Die Clausiussche Ungleichung (1) wird nun in eine Gleichung umgeschrieben, indem die über den Kreisprozeß aufintegrierte Entropieproduktion E hinzugefügt wird: (2)
f[
Q(t) T*(t)
+ E(t)]dt = 0
,
f
E(t)dt
~ O.
Für den bewegungsgekehrten Kreisprozeß gilt f Edt ::; 0, weil die Entropieproduktion E eine auf die Zeiteinheit bezogene Größe ist. Daher gilt nach den Definitionen für irreversible und reversible Prozesse (3) (4)
f f
Edt>O
für irreversible Prozesse,
Edt=O
für reversible Prozesse.
Somit ergibt sich die zu (1) gleichwertige Aussage
Irreversibilität und Zweiter Hauptsatz
29
2. Hauptsatz 111: Alle möglichen Prozesse in geschlossenen Systemen erfüllen die Dissipationsungleichung
f
(5)
Edt 2 0,
die das Vorzeichen von I; nicht festlegt. Die mit (3) und (4) verträgliche Wahl des Vorzeichens von I; verlangt eine verschärfte Formulierung des Zweiten Hauptsatzes, weil vom Vorzeichen eines Integrals nicht auf das Vorzeichen des Integranden geschlossen werden kann. Diese verschärfte zeitlich lokale Formulierung lautet: 2. Hauptsatz IV: Zu allen Zeiten t gilt die verschärfte Dissipationsungleichung (6)
E(t) > 0,
(7)
E(t)
= 0,
längs irreversibler Prozesse, längs reversibler Prozesse.
Die Verschärfung der Dissipationsungleichung (5) besteht darin, daß eine definite Entropieproduktion anstelle von (5) so eingeführt wird, daß zu jedem möglichen Nichtgleichgewichtszustand eine strikt positive Entropieproduktion gehört, während Gleichgewichtszustände durch eine verschwindende Entropieproduktion gekennzeichnet sind. Der Integrand von (2) wird als Entropierate bezeichnet (8)
. S(t)
Q(t)
:= - ()
T*
t
+ E(t).
Ob die Entropierate die Zeitableitung einer Zustandsfunktion S ist, hängt von der Interpretation von (2) ab. Wird (2) für beliebige Kreisprozesse angenommen, so ist die Entropierate S tatsächlich die Zeitableitung der Entropie S. Ob aber (2) für beliebige Kreisprozesse gilt, hängt von der Wahl des Zustandsraums ab. Im allgemeinen gilt (2) nicht für beliebige Kreisprozesse, sondern nur für solche, die mindestens einen Gleichgewichtszustand enthalten. 7 Dann ist die Entropierate auch keine Zeitableitung einer Zustandsfunktion, sondern ein Funktional der Prozeßgeschichte 8 , d. h. die Eigenschaften des betrachteten Systems hängen von seiner Vorgeschichte ab. Beispiele für eine solche Prozeßabhängigkeit der MaterialeiVgl. FN 5. Ein Funktional stellt eine Abbildung dar, die auf Prozessen definiert ist, d. h. der Wert des Funktionals wird auch durch Zustände, die das System in der Vergangenheit durchlaufen hat, beeinflußt. Eine Funktion dagegen ist auf dem Zustandsraum definiert und nicht auf Trajektorien in ihm: Vgl. W Muschik, Fundamentals of Non-Equilibrium Therrnodynamics, in: W Muschik (Ed.) Non-Equilibrium Therrnodynamics with Application to Solids, Wien 1993, Sect. 2. 7
8
30
Wolfgang Muschik
genschaften des Systems sind Hysterese-Effekte, z. B. in Ferromagneten (siehe Abb. 1), oder Nachwirkungseffekte beim Altem von Stoffen, wie z. B. das Kriechen von Beton. In jedem Fall folgt aber aus (8) und (2) das sogenannte Einbettungsaxiom für die Entropierate
f
(9)
S(t)dt
= 0,
das für Zeitableitungen und Funktionale gilt. Mit der verschärften Dissipationsungleichung (6) ergibt sich aus (8) eine weitere Formulierung des Zweiten Hauptsatzes für die Entropierate: 2. Hauptsatz V:
(10)
S(t) > Q(t) . - P(t)
Daraus folgt unmittelbar die spezielle Formulierung 2. Hauptsatz Va: Längs irreversibler adiabatischer 9 Prozesse ist die Entropierate positiv (11 )
IV. Starke Zeitlichkeit
Bevor wir das Einbettungsaxiom (9) auswerten, wollen wir am Beispiel einer Hysterese eine zweite Ursache für Irreversibilität diskutieren. Falls Materialeigenschaften durch Funktionale dargestellt werden, falls also Materialeigenschaften von der Prozeßgeschichte abhängen, ergibt sich die Möglichkeit der Verzweigung (siehe Abb. 1). Ein System befinde sich im Zustand A und entwickle sich über Bund C nach D. Hier nun findet in der Materialeigenschaft M ein Sprung von D nach E statt, und das System erreicht den Zustand F. Nun sei angenommen, daß die Zeitentwicklung der Variablen H invertierbar ist. Dies entspricht nicht der Bewegungsurnkehr, denn es werden nicht die Impulse (Geschwindigkeiten) aller Teilchen gekehrt, sondern nur die Zeitableitungen eines Satzes von Variablen werden invertiert. Diese Annahme ist auch realistisch, denn es gibt solche Variable, wie z. B. ein äußeres Magnetfeld. Nach Inversion der Zeitableitungen dieser Variablen läuft das System zurück nach E. Von F kommend gibt es in E für das System keine Ursache, den 9
Adiabatisch heißt ohne Wärrneübergang:
Q = O.
Irreversibilität und Zweiter Hauptsatz
31
Sprung nach D zu vollziehen. Vielmehr durchläuft das System die Zustände G und I auf dem ,unteren' Blatt des Materialfunktionals M, das mehrdeutig ist. So gehören G und C zum gleichen Zustand H = 0, G auf dem unteren Blatt, C auf dem oberen. Wird in I der Wert von H weiter erhöht, so springt das System vom unteren Blatt auf das obere nach B. Bei weiterer Erhöhung von H kommt das System in seinen Ausgangszustand A zurück. Der Weg von A,B,C, ... ,/,B,A beschreibt eine Hysterese. Je nach Vorgeschichte gehören zum Zustand H = 0 verschiedene M-Werte.
Abbildung 1: Darstellung eines Materialfunktionals M, das auf dem Zustandsraum H definiert ist. Der Wert des Funktionals ist geschichtsabhängig: So gehören zu M = 0 je nach Vorgeschichte verschiedene Werte von M, hier C und G.
Aufgrund der Verzweigungen in Bund E liegt Irreversibilität vor: Das System läuft bei Kehrung von H nicht auf dem gleichen Weg zurück, weil z. B. bei E der ,richtige' Wert von H vorliegt, so daß ein Sprung nach D nicht stattfindet. Die orientierten Sprünge D -+ E und I -+ B sind Katastrophen im Thomschen Sinne. 10 Eigen nennt die Irreversibilität, die aufgrund von Katastrophen entsteht, die starke Zeitlichkeit eines Prozesses. 11 Wie schon erläutert, liegt bei starker Zeitlichkeit Irreversibilität vor. Darüber hinaus sind die Prozesse, obgleich determiniert, unvorhersagbar: Wird das System z. B. in die Nähe des Zustands D gebracht, so kann es bei festgehaltenen äußeren Bedingungen durch thermische Schwankungen nach E übergehen. Ob es dies wirklich tut und wie lange man auf den Sprung zu warten hat, ist für das spezielle System unvorhersagbar und nur im Mittel über viele Systeme berechenbar. Hat aber das System den Sprung nach E vollführt, so kann es durch Schwankungen aufgrund der Irreversibilität nicht nach D zurückspringen. Starke Zeitlichkeit ist also durch Unvorhersagbarkeit und Irreversibilität gekennzeichnet. \0 II
Vgl. R. Thom, Structural Stability and Morphogenesis, London 1975. Vgl. M. Eigen (FN 1).
32
Wolfgang Muschik
Die Irreversibilität natürlicher Prozesse wird häufig durch Zeitpfeile beschrieben. Diese Sprechweise soll andeuten, daß Prozesse in der Zeit gerichtet, also irreversibel sind. So werden je nach Phänomen verschiedenartige Zeitpfeile unterschieden: 12 Der thermodynamische Zeitpfeil, der Strahlungs-Zeitpfeil, der quantenmechanische Zeitpfeil und der Zeitpfeil der Raum-Zeit-Struktur. Alle diese Zeitpfeile stehen für verschiedenartige irreversible Prozesse. Im hier interessierenden Zusammenhang erhebt sich nun die Frage, ob durch den Zweiten Hauptsatz ein thermodynamischer Zeitpfeil begründbar ist. Seiner Natur nach ist der Zweite Hauptsatz ein no-ga-Theorem, d. h. er stellt gemäß Formulierung I fest, daß Kelvin-Prozesse in der Natur nicht vorkommen, wohl aber deren Kehrung. Eine Begründung, weshalb Kelvin-Prozesse unmöglich sind, wird durch den Zweiten Hauptsatz nicht gegeben. Dagegen machen schwache und starke Zeitlichkeit Aussagen darüber, weshalb eine Kehrung von Prozessen unmöglich ist. Jede von ihnen gibt also eine, wenn auch im Vergleich unterschiedliche Begründung für Irreversibilität. Da die schwache Zeitlichkeit eine mehr technische Aussage über die Herstellbarkeit von Anfangsbedingungen macht, ist zunächst die starke Zeitlichkeit als Begründung für Irreversibilität anzusehen. Nun gibt es aber Stoffe, die keine Hysterese zeigen, deren Materialeigenschaften also nicht der starken Zeitlichkeit gehorchen. Prozesse in solchen Stoffen sind im allgemeinen aber auch irreversibel. Diese Irreversibilität, weil nicht durch starke Zeitlichkeit erzeugt, wird durch schwache Zeitlichkeit verursacht. Somit läßt sich die folgende Aussage machen: Der thermodynamische Zeitpfeil wird entweder durch Materialeigenschaften verursacht, die Prozeßverzweigungen erzeugen, oder/und er entsteht durch die Unmöglichkeit der Präparation beliebiger Anfangsbedingungen.
V. Entropie Nun soll das Einbettungsaxiom (9) ausgewertet werden. Dazu betrachten wir einen reversiblen Kreisprozeß K, der definitionsgemäß ganz im Gleichgewichtsteilraum verläuft. Aus (9) wird dann ( 12)
K
f
Sdt
= 0,
für alle K aus dem Gleichgewichtsteilraum.
Da (12) für alle Kreisprozesse im Gleichgewichtsteilraum gilt, ist S die Zeitableitung einer auf dem Gleichgewichtsteilraum definierten, und bis auf eine Konstante eindeutigen Funktion, genannt Gleichgewichtsentropie seq. Für Kreisprozesse außerhalb des Gleichgewichtsteilraums trifft diese Argumentation nicht zu, weil (9) wie (2) nicht für beliebige Kreisprozesse gilt, sondern nur für solche, die mindestens einen Gleichgewichtszustand enthalten. 13 Die Gleichgewichtsentropie ist 12
Vgl. H.D. Zeh. Die Physik der Zeitrichtung. Lecture Notes in Physics 200. Berlin u. a.
13
Vgl. FN 5.
1984.
Irreversibilität und Zweiter Hauptsatz
33
nicht prozeßabhängig, also kein Funktional der Prozeßgeschichte. Deshalb gilt für einen reversiblen Prozeß C zwischen den Gleichgewichtszuständen B(eq) und A(eq) (13)
Nun betrachten wir einen adiabatischen irreversiblen Prozeß (14)
F: A(eq) ~B(eq),
Q(t)
= 0,
der von einem Gleichgewichtszustand A startet und in einem solchen B endet. Von B nach A wird eine Gleichgewichtstrajektorie, d. h. also ein reversibler Prozeß betrachtet (15)
R: B(eq)
~A(eq),
~(t)
= O.
Die Aneinanderreihung beider Prozesse ergibt einen Kreisprozeß, für den (9) unter Berücksichtigung von (14) angeschrieben wird: (16)
0=
f
S(t)dt = F
J~(t)dt + J R
Sdt.
Daraus ergibt sich wegen (6) und (13) eine weitere Formulierung des Zweiten Hauptsatzes: 2. Hauptsatz VI: Verläuft ein irreversibler Prozeß zwischen zwei Gleichgewichtszuständen eines Systems von A(eq) nach B(eq), so nimmt die Gleichgewichtsentropie des Systems zu:
Aus (8) werden wir nun eine Nichtgleichgewichtsentropie herleiten. Dazu wird ein irreversibler Prozeß T in einem isolierten System betrachtet (18)
T:C~D(eq),
Q=O,
und (8) wird längs Taufintegriert (19)
T
[D S(t)dt = T [D ~(t)dt = S'J - Sc.
Mit (6) folgt daraus eine weitere Formulierung des Zweiten Hauptsatzes 3 Selbstorganisation, Bd. 8
34
Wolfgang Muschik
2. Hauptsatz VII: Die Gleichgewichtsentropie isolierter Systeme ist stets größer als die Entropie eines jeden Nichtgleichgewichtszustands des gleichen Systems:
Bemerkenswert ist, daß sich aus (19) die Existenz einer Funktion Nichtgleichgewichtsentropie ergibt, falls die Entropieproduktion geschichtsunabhängig ist (21)
Sc
= ~d -
T
i
D
~(t)dt,
und falls im Verlaufe von T keine Verzweigungen auftreten, so daß gemäß (18) aus C stets D{eq) im isolierten System eindeutig folgt.
VI. Feldformulierung
Die sieben besprochenen Formulierungen des Zweiten Hauptsatzes beziehen sich ausnahmslos auf diskrete Systeme. Das sind Systeme, die sich über einen Raumbereich erstrecken, sich von einer Umgebung abgrenzen, und die durch Größen beschrieben werden, die zum gesamten System gehören. Diese Größen wie ~,S, seq , Sc sind keine Felder, d. h. sie hängen nicht vom Ort ab, sondern beziehen sich auf das gesamte diskrete System. Will man ein System genauer beschreiben als dies durch das Konzept des diskreten Systems möglich ist, so müssen die physikalischen Größen durch Felder beschrieben werden. Man erhält eine Feldformulierung der Thermodynamik, 14 die die Bilanzgleichungen für Masse, Impuls, Drehimpuls, Gesamtenergie, innere Energie und Entropie und die Materialgleichungen enthält. Hier ist im Zusammenhang mit dem Zweiten Hauptsatz nur die Entropiebilanz von Interesse. Sie lautet: (22)
ß,(ps)
+ V . [psv + iP] - , =
a.
Die in (22) auftretenden Felder haben die folgende Bedeutung:
= Massendichte,
(23)
p(x, t)
(24) (25)
s(x, t) = spezifische 15 Entropie, v(x, t) = materielle Geschwindigkeit,
14 15
Siehe W. Muschik (FN 8), Sect. 6. Auf die Masse bezogene.
Irreversibilität und Zweiter Hauptsatz
(26)
111.
(33)
Ebenso folgt V (11) mit (8) direkt aus IV (34)
IV
----->
V -----> Va,
und ebenso ist aus dem Übergang von (19) nach (20) ist die Aussage IV
(35)
----->
VII
abzulesen. Weiter folgen aus der Definition der Entropierate (8) und dem Einbettungsaxiom (E-Ax) (9) durch Integration und Einsetzen die beiden Aussagen (36)
11
E-Ax
1\
----->
111,
111
1\
E-Ax -----> 11.
Aus dem Übergang von (16) nach (17) ist die Aussage IV
(37)
E-Ax
1\
----->
VI
abzulesen. Die sieben Aussagen (31) bis (37) müssen nun ausgewertet werden. Zunächst muß man erkennen, daß das Einbettungsaxiom (9) wegen seines axiomatischen Charakters als Forderung an die Entropierate eine immer richtige Aussage ist: Es gibt keine Entropierate, die (9) nicht erfüllt. Damit stellt in (36) und (37) E-Ax keine Einschränkung in den logischen Aussagen dar, und wir erhalten: (38)
11
----->
111,
111
----->
11,
IV -----> VI.
Aus den beiden ersten Aussagen folgt sofort 11
(39)
111.
Als Ergebnis erhalten wir das folgende Diagramm, das wir im nächsten Abschnitt erörtern werden.
20
Vgl. W. Muschik (FN 3).
Irreversibilität und Zweiter Hauptsatz
Iv
VI
VII
37
1111
!
[TI] !
W VIII. Diskussion Die logische Struktur des Diagramms nach (39) zeigt folgendes: Auf seiner rechten Seite stehen die Fonnulierungen I, 11 und 111 des Zweiten Hauptsatzes, die zeitlich integrale Aussagen darstellen. Auf der linken Seite finden wir die zeitlich lokalen Fonnulierungen IV bis VIII. Die Inklusionspfeile zeigen an, in welcher Richtung die verschiedenen Aussagen auseinander folgen. So sind die verbale Formulierung I, die Clausiussche Ungleichung 11 und die Dissipationsungleichung 111 gleichwertige zeitlich integrale Fassungen des Zweiten Hauptsatzes. Sie sind allgemeiner als die zeitlich lokalen Fonnulierungen, die - wie die Pfeile zeigen - sich nicht aus den zeitlich globalen herleiten lassen. Die speziellste Fassung zeigt der Zweite Hauptsatz in der Feldfonnulierung VIII, aus der alle anderen hergeleitet werden können. Nun erhebt sich jedoch die Frage, ob man durch die verschärften Fonnulierungen VIII und IV, die ja für weniger Prozesse als 111 gelten, nicht solche in der Natur vorkommenden Prozesse verlieren kann, die (J ~ 0 oder E ~ 0 nicht zu allen Zeiten und an allen Orten erfüllen, wohl aber das zeitlich integrale Kriterium 111. Wie das folgende Beispiel zeigt, ist das immer dann der Fall, wenn Felder schnell genug geschaltet werden können: Wir betrachten ein Sedimentationsgleichgewicht in einem starken Beschleunigungsfeld, das in sehr kurzer Zeit abgeschaltet wird. Dann bewegen sich die Teilchen in dem nun feldfreien Raum in einem irreversiblen Prozeß auf eine bis auf Schwankungen gleichmäßige Verteilung zu. Wird nun das gleiche Feld, bevor Gleichgewicht erreicht wird, schnell wieder eingeschaltet, so bewegen sich die Teilchen infolge ihrer Trägheit gegen das eingeschaltete Feld, bis dieses die Teilchenbewegung invertiert. Dieser sehr kurzfristige Teilprozeß sieht wie ein unmöglicher Prozeß aus, da für ihn E < 0 gilt. Natürlich ist dieser Teilprozeß ein möglicher, weil seine Anfangsbedingungen durch Schalten des äußeren Feldes herstellbar sind. Daher trifft für diesen Prozeß das zeitlich differentielle Kriterium IV nicht zu, wohl aber gilt das zeitlich integrale Kriterium 111, falls das ursprüngliche Sedimentationsgleichgewicht wieder hergestellt wird, d. h. der Kreisprozeß geschlos-
38
Wolfgang Muschik
sen wird. Daß dies,er Prozeß ein irreversibler ist, erkennt man an seinem bewegungsgekehrten Prozeß, der erfahrungsgemäß unmöglich ist und für den auch 111 nicht zutrifft. Das Fazit aus diesem Beispiel ist, daß zeitlich lokale Kriterien für Irreversibilität nur für gealterte Zustände zutreffen, das sind solche, für die Eingriffe in das System, z. B. das Schalten eines Feldes, hinreichend lange zurückliegen. Selbst wenn man sich auf gealterte Zustände von Systemen einschränkt, erhebt sich die folgende Frage21 : Was bewirkt die verschärfte Formulierung VIII des Zweiten Hauptsatzes? Ist sie prozeß-selektierend, d. h. werden Prozesse verboten, die VIII verletzen, oder ist sie material-selektierend, d. h. es gibt in der Natur nur Stoffe, die VIII erfüllen. Diese Frage läßt sich aus (28) nicht eindeutig beantworten, weil VIII keine Aussage für den Fall macht, in dem a < O. Das bedeutet aber, daß der Zweite Hauptsatz in der verschärften Formulierung VIII nicht volls,tändig ist, d. h. VIII ist nicht ausreichend, um die Frage nach der Einschränkung der Prozesse oder des Materials zu beantworten. Daher benötigt man einen Zusatz zum Zweiten Hauptsatz, falls die Formulierung VIII benutzt wird. Dieser Zusatz lautet: 22 Außer im Gleichgewicht gibt es keine reversiblen Prozeßrichtungen im Zustandsraum. Dies Axiom ist leicht zu interpretieren: Ist das betrachtete System in einem Nichtgleichgewichtszustand, so kann es diesen nicht reversibel verlassen. Wäre also VIII prozeß-selektierend, so gäbe es Prozesse, die durch VIII ausgeschlossen sein würden, d. h. für die irgendwo im System zu einer Zeit die Entropieproduktionsdichte negativ sein würde. In diesem Falle gäbe es aber mindestens eine reversible Prozeßrichtung 23 , die nach dem Zusatz-Axiom verboten ist. Daher ist VIII mit dem Zusatz-Axiom material-selektierend: Die Gleichungen, die das Material beschreiben, müssen so beschaffen sein, daß VIII stets erfüllt ist. Weiter läßt sich zeigen 24 , daß die Entropieproduktionsdichte in großen Zustandsräumen 25 eine Zustandsfunktion ist. IX. Zusammenfassung
Nach Eigen gibt es zwei Ursachen für Irreversibilität: die schwache und die starke Zeitlichkeit. Die schwache Zeitlichkeit der Irreversibilität beruht auf der Tatsache, daß sich beliebige Anfangsbedingungen für Vielteilchensysteme nicht präparieren lassen. Daher sind Prozesse, die solche nicht präparierbaren Zustände als 21 Vgl. W Muschik/H. Ehrentraut, An Amendment to the Second Law, in: J. Non-Equilib. Thennodyn.21 (1996),S. 175-192 22 Vgl. FN 21. 23 Vgl. FN21. 24 Vgl. FN 21. 25 Das sind solche Zustandsräume, auf denen die Materialeigenschaften keine Funktionale sind, vgl. FN 8.
Irreversibilität und Zweiter Hauptsatz
39
Anfangszustände hätten, in der Natur nicht zu beobachten, d. h. es gibt in diesem Sinne unmögliche Prozesse. Nun sind bewegungsgekehrte Prozesse von in der Natur vorkommenden Prozessen im allgemeinen unmögliche Prozesse. Wenn also der bewegungsgekehrte Prozeß unmöglich ist, dann wird der Originalprozeß als irreversibel bezeichnet. Die starke Zeitlichkeit der Irreversibilität beruht darauf, daß Prozeßtrajektorien Verzweigungen besitzen können, so daß der bewegungsgekehrte Prozeß unmöglich, und damit der Originalprozeß irreversibel ist. Phänomenologisch definierte Maße für Irreversibilität sind durch verschiedene Formulierungen des Zweiten Hauptsatzes gegeben. Diese zerfallen in zwei Klassen: die allgemeineren zeitlich integralen Formulierungen, wie die Clausiussche Ungleichung oder die Dissipationsungleichung, und die zeitlich lokalen Formulierungen wie die Nichtnegativität des Feldes der Entropieproduktionsdichte. Die logischen Abhängigkeiten der unterschiedlichen Formulierungen wurden erörtert. Dabei ergab sich folgendes: I. Durch unterschiedliche Formulierungen des Zweiten Hauptsatzes werden unterschiedliche Irreversibilitätsmaße eingeführt. 2. Die zeitlich lokalen Formulierungen des Zweiten Hauptsatzes sind in zweierlei Hinsicht nicht vollständig: Sie gelten nur für hinreichend gealterte Systeme, und sie geben keine Auskunft darüber, ob durch den Zweiten Hauptsatz Prozesse oder Stoffeigenschaften eingeschränkt werden. 3. Deshalb sind auch für die Beschreibung gealterter Systeme die zeitlich lokalen Formulierungen unvollständig und müssen durch einen Zusatz ergänzt werden. 4. Dieser Zusatz zur lokalen Formulierung des Zweiten Hauptsatzes sagt aus, daß Nichtgleichgewichtszustände nicht reversibel verlassen werden können. 5. Die zeitlich integralen Formulierungen des Zweiten Hauptsatzes sind im Gegensatz zu den zeitlich lokalen untereinander äquivalent. 6. Mit der Entropieproduktion ist auch stets eine Nichtgleichgewichtsentropie definiert, deren zeitliche Änderung dem Einbettungsaxiom genügt. *
* Für Bemerkungen und Hinweise zu dieser Arbeit danke ich Dr. H. Ehrentraut und Dr. C. Papenfuß, der Draloric GmbH, D-95 100 Selb, für finanzielle Unterstützung unserer Arbeitsgruppe.
Über die "Zeit in der Natur" Von H. D. Zeh, Heidelberg I. Vorbemerkungen
Der Begriff der Zeit ist den philosophierenden Menschen von jeher rätselhaft erschienen. Einige dieser Rätsel mögen vorwiegend auf der Verwendung traditioneller Vorurteile, Sprechweisen und unangebrachter Analogien oder auf unangemessenen Erwartungen an diesen Begriff beruhen. Falsche Erwartungen kommen häufig durch ein traditionsbehaftetes Vokabular zustande. Sie sollten sich dann bei sorgfältiger Argumentation eliminieren lassen. Andere Probleme sind dagegen erst im Rahmen einer wissenschaftlichen Diskussion der Zeit sichtbar geworden. Wieder andere betreffen, wie sich bei genauerer Betrachtung zeigt, gar nicht den Begriff der Zeit selbst. Einige Scheinprobleme, die in der historischen Entwicklung des Zeitbegriffs oftmals in die Irre geführt haben, beruhen auf einer mangelhaften Unterscheidung zwischen der "Zeit in der Natur" und der Art, wie diese uns ("in der Seele") bewußt wird. Nach Flasch I geht eine solche Trennung und damit der Begriff einer Zeit in der Natur erst auf Albertus Magnus zurück ("Ergo esse temporis non dependet ad anima, sed temporis perceptio"), was bei ersterem aber wohl eher eine Fragwürdigkeit dieser Trennung andeuten soll. Sie mag sich vielleicht einmal als unzureichend herausstellen - aber davon kann beim derzeitigen Stand der Erkenntnis über die Zeit keine Rede sein. Die Zeit erscheint uns unmittelbar (ohne ein offensichtliches Sinnesorgan) gegeben - und wir ihrem "Fluß" absolut unterworfen. Dieser subjektiv empfundene Aspekt der Zeit gibt ihr epistemologisch einen fundamentalen Charakter, während unser "objektives Weltbild" grundsätzlich fiktiv bleiben muß - auch wenn diese Fiktion keineswegs willkürlich, sondern heuristisch und damit empirisch begründet ist. (Merkwürdigerweise haben außer unkritischen Menschen gerade Philosophen die größten Schwierigkeiten, sich ein für allemal mit dieser grundsätzlich hypothetischen Natur unseres Bildes der Realität abzufinden.) Doch verstehen wir innerhalb des fiktiven Weltbildes, das uns die Naturwissenschaft bietet, zumindest ansatzweise, wie das Zeitempfinden durch dynamische Prozesse (also Bewegungsabläufe) im Gehirn kontrolliert wird. Solche zu formulieren setzt natürlich einen in ebendie sem Sinne fiktiven physikalischen Zeitbegriff voraus. I
K. Flasch, Was ist Zeit? Frankfurt a. M. 1993.
42
H. D.Zeh
Das soll keineswegs die Ansicht zum Ausdruck bringen, daß wir das Bewußtsein selbst erklären (aus physikalischen Phänomenen und Gesetzen ableiten) könnten, sondern lediglich, daß der Begriff der ,,zeit in der Natur" ebensowenig in der Art ihrer Wahrnehmung begründet ist, wie etwa der Begriff des Lichtes in dem der Farbe oder der der Temperatur in dem eines Wärmeempfindens. Die wahrgenommene Farbe ist weder eine Eigenschaft des Lichtes noch eine solche reflektierender Objekte. Zwar läßt sich neurobiologisch (also innerhalb des fiktiven Bildes der Realität) weitgehend verstehen, warum etwa bestimmte Frequenzmischungen für das Auge oder das Sehzentrum ununterscheidbar sind, aber nicht, wie oder warum daraus der subjektive Eindruck der Farbe "rot" entsteht. Ähnlich ist die Gegenwart (und somit auch ihr vermeintliches "fließen" in Richtung auf die dadurch definierte Zukunft) offenbar keine Eigenschaft der Zeit selbst, soweit diese als ein die Natur charakterisierender Begriff verstanden werden kann. Dagegen läßt sich neurobiologisch nachweisen, daß über Zeiträume von Zehntelsekunden oder gar Sekunden getrennte Vorgänge im Gehirn zu "Wahrnehmungspaketen" zusammengefaßt werden (also vor ihrer Wahrnehmung ein physikalisch zu interpretierender Informationsverlust über die zeitliche Einordnung stattfindet)? Insofern ist auch das ,,reale" Zeitkontinuum genauso fiktiv wie das (eben nicht von violett zu rot zusammenhängende) kontinuierliche Spektrum des Lichts. Aber es sei noch einmal betont, daß dieser fiktive Charakter keine Zweitrangigkeit gegenüber etwas Fundamentalerem oder (vom rein Subjektiven abgesehen) besser Begründbarem bedeutet. Dieser Beitrag eines Physikers soll sich ausschließlich mit dem Begriff der Zeit in der Natur (und insbesondere deren "Richtung") beschäftigen, aber eine Abgrenzung von anderen (möglicherweise auch weitergehenden) Begriffen oder Begriffsversuchen erscheint angebracht. Ob und inwieweit das eine Einschränkung des Zeitbegriffes bedeutet, mag zunächst offen bleiben. Dagegen müßte ein direkt auf dem bewußten Erleben beruhender Zeitbegriff qualitativ bleiben und sich auf unsere vermutlich sehr spezielle "Situation in der Welt" beschränken (auch in der Zeit - sofern dieser Begriff dann noch Sinn macht). Empirische (also heuristische) Begriffe werden dadurch in ihrem Wahrheitsanspruch gerechtfertigt, daß sie zum Zwecke einer ökonomischen Beschreibung der Natur "funktionieren". Das Empirische wird gewöhnlich im Sinne von Erfahrung mit der Zeit, also als eine Zeitrichtung voraussetzend, verstanden. Das ist zwar in der Welt in der wir leben zutreffend, aber es ist keineswegs eine unumgängliche Voraussetzung für empirische Erkenntnis. So hat Price3 erst kürzlich über durchaus denkbare Einflüsse aus der Zukunft spekuliert. Zusammenhänge zwischen der Natur und deren partizipierendem Beobachter wären aber selbst unter viel allgemei2 E. Pöppel/ K. Schill / N. v. Steinbüchel, Sensory integration within temporally neutral system states, in: Naturwiss. 77 (1990), S. 89. 3 H. Price, Time's Arrow & Archirnedes' Point: A View from Nowhen, Oxford 1996.
Über die "Zeit in der Natur"
43
neren Zeitkonzepten (verstanden nur als Aufteilungen einer "überzeitlichen" Realität in mögliche Träger von physikalischen Zuständen der Beobachter - wie etwa im konkreten Fall einer "Foliation" der vierdimensionalen Raumzeit der Relativitätstheorie in raumartige Hyperflächen) möglich. Eine Extrapolation aus unserer spezifischen Situation mit Hilfe empirisch erschlossener und im üblichen Sinne hypothetisch konsequent fortgesetzter Gesetzmäßigkeiten in gänzlich andere Situationen ist nicht nur möglich, sondern im Rahmen moderner kosmologischer Modelle durchaus üblich (wenn auch oft unter Einwänden von Traditionalisten).
11. Zeit und Bewegung
Ein enger begrifflicher Zusammenhang von Zeit und Bewegung wurde bereits von Aristoteles betont. Dieser bezeichnete Zeit als ein Maß für Bewegung, während Newton eher Bewegung als ein Maß für die von ihm postulierte absolute Zeit ansah. Der Zusammenhang zwischen Bewegung und Zeit erschien Aristoteles jedoch problematisch - vor allem, weil er das Messen (oder quantitative Erfassen) als eine Aufgabe der "Seele" ansah, das er sich nur als ein Abzählen von periodischen Vorgängen mit Hilfe der natürlichen Zahlen vorstellen konnte. Die reellen Zahlen als Grundlage der kontinuierlichen räumlichen Bewegung galten ihm noch als unfaßbar - ein Problem, das auch zu einigen der Zenonschen Paradoxien Anlaß gab. Erstaunlicherweise findet man diesen Einwand gegen die formale Beschreibbarkeit einer kontinuierlichen Zeit gelegentlich auch heute noch, obwohl er gar nicht auf die Zeit beschränkt, rein mathematischer Natur und insofern längst überwunden ist. Leibniz scheint als erster die Zeit konsequent durch die Bewegung des ganzen Universums definiert zu haben, wie es später Mach als Programm für die Mechanik gefordert hat. 4 Der gleiche Zustand der Welt würde dann dieselbe Zeit bedeuten. Eine zeitliche Verschiebung oder Umkehr des gesamten Weltablaufes sind danach inhaltsleere begriffliche Konstruktionen, weil sie eine anderweitig definierte ("absolute") Zeit voraussetzen. In der Tat würde ein sich wiederholender Zustand der Welt nicht nur dieselben Uhrenstände, sondern auch dieselben Gedächtnisinhalte implizieren. Mit dieser relationalen Auffassung verpaßte Leibniz allerdings Newtons Bewegungsgleichungen, die ebenfalls eine absolute Zeit voraussetzen. Mach griff die Leibnizsche Motivation wieder auf, wobei er wichtige begriffliche Vorarbeit zur Allgemeinen Relativitätstheorie leistete. Leibniz war also konsequenter als Newton in der Verwendung eines mechanistischen Zeitkonzeptes, auch wenn Newton zunächst Erfolg hatte und rein logisch hätte recht behalten können. Es bleibt aber die Frage, ob die empirisch gefundenen Naturgesetze die Wiederholung eines Zustandes (also nach Leibniz eine Wiederkehr derselben Zeit) erlauben oder nur ein irreversibles Geschehen zulassen. 4
J.B. Barbourl H. Pfister, Mach's Principle, Basel 1995.
44
H. D.Zeh
Diese "mechanistische" Definition der Zeit durch Bewegung im Sinne von Leibniz und Mach wird oft als deren Elimination aus der Naturbeschreibung angesehen, was aber nur für eine absolute Zeit zutrifft. Wenn wir etwa die Zeitvariable aus der Bewegungsbeschreibung r(t), cp(t) eines Planeten eliminieren, bleibt nur seine zeitlose Bahn r( cp). Systeme, die nicht einem einzelnen Massenpunkt äquivalent sind, wie reale Planeten, auf denen komplexe Vorgänge ablaufen, beschreiben Bahnen in hochdimensionalen Konfigurationsräumen. Fügen wir etwa vor dem obigen Eliminieren der Zeit noch den Zeiger einer geeigneten Uhr als dynamische Variable im Konfigurationsraum hinzu (wobei eine Uhr immer einen hinreichend umfangreichen Kalender einschließen soll), so bleibt die durch sie definierte ,,zeit" als eine physikalisch realisierte Größe bei der Elimination der absoluten Zeit erhalten. Nach Leibniz müßte man für diesen Zweck alle physikalischen Uhren (also Bewegungsvorgänge) im Universum berücksichtigen, während sich nach Mach auch Newtons scheinbar absolute Zeit aus den globalen Bewegungsvorgängen des Universums (etwa seiner Expansion) ergeben sollte. Ein nichtrelativistisches Modell solcher Art wurde erst in jüngerer Zeit von Barbour und Bertotti konstruiert. 5 Dieses begriffliche Vorgehen zur Definition zeitloser Bahnen setzt aber eine Zuordnung der Werte verschiedener Variablen voraus, die wir als ihre "Gleichzeitigkeit" interpretieren. Das ist sicher auch ohne die zur Relativitätstheorie führenden Konsequenzen einer universellen Lichtgeschwindigkeit ein nichttrivialer Teilaspekt des Zeitbegriffs, der somit nicht eliminiert wird. Er bleibt im Normalfall auch nach den durch die Relativitätstheorie erzwungenen Modifikationen zur Definition von globalen ,,zuständen" oder "Konfigurationen" (auf willkürlich gewählten raumartigen Hyperflächen in der Raumzeit) möglich. Das soll aber nicht das Thema dieses Beitrags sein. Es muß unser Mißtrauen erwecken, daß Uhren nicht immer "genau" gehen denn welche Uhr entscheidet über diese Genauigkeit? Auch astronomische Bewegungen sind Störungen unterworfen. Erst das Universum als Ganzes kann nicht gestört werden; es definiert seine eigene Zeit. Bahnen in einem Konfigurationsraum der möglichen Zustände, die in diesem Fall alle (mehr oder weniger genauen) physikalischen Uhren einschließen, lassen sich rein formal durch willkürliche Bahnparameter ..\ in der Form qi(..\) beschreiben. Gleiche ..\ drücken hier nur die Gleichzeitigkeit aus, aber weder ein Zeitmaß noch eine Richtung. In den fundamentalen Bewegungsgesetzen dürfte die Wahl eines solchen Parameters dann aber keine Rolle spielen. Das wird in modernem Sprachgebrauch als "Reparametrisierungsinvarianz" (der Gesetze) bezeichnet. Newton postulierte jedoch gerade einen bis auf lineare Transformationen definierten Zeitparameter, den er als absolute Zeit interpretieren mußte. Diese absolute Zeit "kontrolliert" laut Newtons Gesetzen alle Bewegungsvorgänge. Diese Tatsache bildete also den Ansatzpunkt für Machs Kritik als Konsequenz aus Leibnizschen Begriffen. Newtons funktionale Definition der 5 1.B. Barbour, Leibnizian time, Machian dynamics and quantum gravity, in: R. Penrosel C.J. Isham (Hrsg.), Quantum Concepts in Space and Time, London 1986.
Über die "Zeit in der Natur"
45
Zeit entspricht nach Poincare einer heuristischen Fiktion zur Vereinfachung der Bewegungsgesetze, die bis zur Entdeckung der Relativitätstheorie auch allgemein gerechtfertigt erschien. Sie ist heute in der Tat nur noch als Näherung begründbar. IH. Fluß der Zeit und Irreversibilität
Das formal Wesentlichste an dem empirisch begründeten mechanistischen Zeitbegriff (sei er nun absolut oder relativ) ist seine Eindimensionalität. Die Zeit ist ebenso durch die reellen Zahlen darstellbar, wie eine einzelne Raumdimension. Das wird oft dazu benutzt, N-dimensionale Bewegungsvorgänge in (N+l}-dimensionalen Räumen bequem "statisch" darzustellen (etwa eindimensionale Vorgänge auf dem zweidimensionalen Papier). Natürlich ist dabei nur die Darstellung, nicht aber das Dargestellte, statisch. Die Vorstellung, Kurven in diesem (N+ I )-dimensionalen Raum würden "durchlaufen", wäre der unsinnigen und überflüssigen Einführung einer unabhängigen zweiten Zeitvariablen äquivalent. Ähnliches gilt für die in der Science-Fiction-Literatur beliebten "Zeitreisen", soweit sie nicht nur Konsequenzen der wegabhängigen Eigenzeiten (auch für Personen) in der Relativitätstheorie beschreiben. Es gilt aber auch für die Metapher eines "Zeitflusses", die daher nur eine Tautologie ausdrücken kann. Denn Fluß, wie jede Bewegung, bedeutet funktionale Abhängigkeit von (d. h. Korrelation mit) der Zeit. Somit kann auch die Richtung der Zeit entgegen allen metaphorisch begründeten Vorurteilen nur eine Asymmetrie des Geschehens in der Zeit bedeuten. Die Weylsche Formulierung, daß die Welt "sei" und nicht "werde", drückt nur die Möglichkeit einer statischen Darstellung aus (oder betrifft sprachliche Konventionen). Darüber hinaus ist sie genau so leer wie ihr Gegenteil. Sie bedarf weder der relativistischen Raumzeit, auf die sie sich bezog, noch eines D~terminismus. Das Fehlen eines Flusses im Zeitkonzept wird leider auch von manchen Physikern, die es besser wissen sollten, als ein Mangel dieses Konzepts hingestellt. Den logischen Fehler einer solchen Kritik zu erkennen bedarf es nicht eines Wissenschaftlers, denn: "Time goes, you say? Ab no! Alas, time stays, we go." (Austin Dobson). Was wir beobachten ist nur die als "Gleichzeitigkeit" verstandene Korrelation von momentanen Zuständen verschiedener Bewegungsvorgänge - beim subjektiven Zeitgefühl auch mit denen einer (recht ungenauen) "inneren Uhr" als Teil des neurophysiologischen Bewußtseinsträgers. Eine solche (zeitlich asymmetrische) innere Uhr mag sich zwar im allgemeinen schwer dokumentieren lassen, ihre Existenz ist aber innerhalb des fiktiven wissenschaftlichen Weltbildes kaum anzuzweifeln (ohne dabei die Funktion des "kleinen Männchens im Gehirn", das seine eigene Armbanduhr dabei hat, zu übernehmen). Als Newton seine Gesetze postulierte, welche die absolute Zeit funktional definieren, sah er Reibungskräfte noch als fundamental an. Dazu mußte die absolute Zeit auch eine absolute Richtung haben. Das entsprach seiner Vorstellung, daß sie "vermöge ihrer Natur dahinfließt", ebenso wie dem traditionellen, zeitgerichteten
46
H. D. Zeh
Konzept von Kausalität, nach dem unterschiedliche Ereignisse verschiedene Ursachen haben müssen - aber nicht notwendigerweise umgekehrt. So könnnen verschiedene Bewegungsvorgänge bei Anwesenheit von Reibung zum selben Haltepunkt führen. Heute nennt man solche Punkte im Zustandsraum Attraktoren. , Erst nach der statistisch-thermodynamischen Interpretation der Reibungskräfte empfand man eine Diskrepanz zwischen den zeitumkehrsymmetrischen Naturgesetzen und den zeitgerichteten Phänomenen, die in dieser Welt dominieren. Im Gegensatz zu der von der "Physik des Werdens,,6 häufig vertretenen Position handelt es sich bei dieser Diskrepanz aber nicht um einen Widerspruch. Die Asymmetrie der Phänomene ist, wie Boltzmann und seine Zeitgenossen und Nachfolger gezeigt haben, mit den symmetrischen dynamischen Gesetzen (und mit einem den reellen Zahlen entsprechenden Zeitkonzept) im Einklang. Sie verlangen nur einen durch die Gesetze der Mechanik und ähnlicher Theorien nicht weiter erklärbaren (aber mit ihnen vereinbaren) sehr unwahrscheinlichen kosmischen Anfangszustand. Wegen ihrer kosmischen Natur hat diese Anfangsbedingung einen nahezu naturgesetzlichen Charakter. Sie unterscheidet sich von den Gesetzen nur aufgrund der Aufteilung der formalen Bewegungsbeschreibung in Differentialgleichungen (Gesetze) und Integrationskonstanten, die im wesentlichen erst auf Newton zurückgeht. Es gibt andere Güngere) empirisch begründete Erkenntnisse, die vielleicht eine naturgesetzliche Asymmetrie (oder gar eine Revision des formalen Zeitbegriffes) andeuten könnten. Solche Konsequenzen aus Experimenten oder den sie beschreibenden Theorien sind bisher nur teilweise verstanden und insoweit hypothetisch. Gerade deshalb sollten sie nicht durch unzutreffende oder schlicht falsche Argumente, die vielleicht aus einem antirationalen Wunschdenken stammen, verschleiert werden. Einige der oft benutzten unzureichenden Argumente werden daher im folgenden erwähnt. Die Vereinbarkeit der beobachteten Asymmetrie in der Zeit mit der Symmetrie der Begriffe und Gesetze beruht also darauf, daß die Naturgesetze in der Form von Differentialgleichungen das Geschehen in der Natur keineswegs festlegen. Sie schränken es lediglich ein, wobei sie die Anfangs- (und End-)bedingungen im wesentlichen frei lassen. Insbesondere besitzen die den Gesetzen genügenden Vorgänge nur in Ausnahmefällen die Symmetrien der Gesetze selber. Zum Beispiel wird ein rotationssymmetrisches Bewegungsgesetz nicht nur Kreisbahnen erlauben. Dieses Argument ist ausreichend, um den angeblichen Widerspruch zwischen der Symmetrie der Gesetze unter Zeitumkehr und der Asymmetrie des kosmischen Geschehens zu widerlegen. Entgegengesetzt verlaufende Prozesse werden in dynamisch isolierten Systemen in der Tat beobachtet, wenn immer man den erforderlichen Anfangszustand präparieren kann. Das asymmetrische kosmische Gesamtgeschehen erklärt überdies, warum das in den meisten Fällen schwierig ist. Normalerweise müßte der benötigte Anfangszustand eine astronomische Umgebung einschließen, da sich ein makroskopisches System niemals ausreichend isolieren 6
l. Prigogine, Vom Sein zum Werden, München 1979.
Über die "Zeit in der Natur"
47
läßt. Trotz des unerklärten und unwahrscheinlichen Anfangszustandes ist das eine befriedigende und konsistente Darstellung der Situation. Ein Detenninismus der (also prinzipiell "fiktiven") dynamischen Gesetze ist dabei ganz unabhängig von seiner Anwendbarkeit zum Zwecke einer praktischen Vorhersage definiert. 7 Das im Rahmen der Chaostheorie vieldiskutierte exponentielle Anwachsen anfänglicher Ungenauigkeiten gilt im übrigen in jeder Zeitrichtung gleichermaßen: Rechenoperationen müssen nicht in Richtung des Bewegungsablaufs durchgeführt werden. Nur wird gewöhnlich angenommen, daß über die makroskopische Vergangenheit verwertbare Dokumente vorliegen oder vorliegen könnten, so daß diese in einem operationellen Sinne "fixiert" ist. Umgekehrt erlaubt die Abwesenheit entsprechender Dokumente über die Zukunft das praktische Konzept der Willensfreiheit lokaler Experimentatoren. Das verlangt jedoch ein zeitlich asymmetrisches Verhalten der physikalischen Dokumente in Relation zu ihrer Quelle, welches wiederum Teil der Asymmetrie des kosmischen Geschehens in der Zeit ist. Es entspricht der traditionellen, zeitgerichteten Kausalität, nach der alle nicht zufälligen Korrelationen eine gemeinsame lokale Ursache haben müssen. 8 Diese Form der Kausalität wird auch für Boltzmanns Stoßzahlansatz benötigt. Sie muß sich daher aus der kosmischen Anfangsbedingung ergeben - eine Forderung, die erfüllbar erscheint. Poincare hat darauf hingewiesen, daß die meisten mechanischen Systeme näherungsweise periodisch sein müssen und deswegen nicht allgemein durch Boltzmanns statistisch-mechanische Gleichungen beschrieben werden können. Das ist zwar mathematisch korrekt, aber wie viele mathematische Theoreme für die betrachtete Physik völlig irrelevant. Die Betonung liegt nämlich auf "nicht allgemein". Unter den erwähnten (letztendlich kosmischen) Anfangsbedingungen sind Boltzmanns dynamische Gleichungen zwar nur für beschränkte Zeit eine Näherung, jedoch in Grenzen, die sehr, sehr viel größer als das derzeitige Weltalter sind. Das ist schon sehr lange bekannt. Das Argument trotzdem immer wieder gegen Boltzmann in die Debatte zu werfen grenzt schon an Scharlatanerie. Die Asymmetrie des zeitlichen Verlaufs der Naturvorgänge allein bietet also keinerlei Hinweise darauf, daß eine Asymmetrie des Zeitkonzeptes selbst zu ihrer Darstellung nötig wäre. Die Naturgesetze zur Beschreibung aller ohne Einflußnahme ablaufenden Naturvorgänge benötigen ebenfalls keine Asymmetrie unter Zeitumkehr, die thermodynamisch relevant sein könnte. Stark asymmetrisch ist allein das faktisch vorliegende Naturgeschehen, das durch eine angemessene Anfangsbedingung im Einklang mit den Naturgesetzen beschreibbar ist. Der Anfang der kosmischen Historie wird dabei allein durch die (hier diskutierten) Konsequenzen dieser Bedingung von ihrem "Ende" unterschieden, während die Allgemeine Re1ativi7 J. Bricmont, Science of chaos or chaos in science?, in: P.R. Gross/N. Levitt/M.W. Lewis (Hrsg.), The Flight from Science and Reason, New York 1996, S. 131- 175. 8 H.D. Zeh, The Physical Basis of the Direction of Time, Heidelberg 1992 - erweiterte dritte Auflage in Vorbereitung.
48
H.D.Zeh
tätstheorie uns sagt, daß eine formale Fortsetzung der dynamischen Beschreibung über eine allem Anschein nach durch die Anfangsbedingung verlangte "singuläre" Zeit hinaus im Rahmen ihrer Begriffe nicht existiert und somit sinnlos wäre. (Ob auch die Zukunft begrenzt ist, ist noch nicht empirisch entschieden. Möglicherweise verschwimmt der Unterschied im Rahmen der quantenmechanischen Unschärfe.) Ob das in der Zeit asymmetrische Geschehen auch das Erleben (oder den Eindruck) der fortschreitenden Zeit erkären kann, muß einer Theorie des Zusammenhangs von Natur und Bewußtsein (die sicher grundsätzlich neue Begriffe einführen muß) vorbehalten bleiben. Der von Philosophen oft erhobene Vorwurf einer "Verräumlichung" der Zeit durch ihre formale Darstellung kann jedenfalls nicht den Begriff der Zeit in der Natur treffen; er umschreibt eher eine Enttäuschung über nicht bestätigte Erwartungen und Vorurteile. Was hier zur Debatte steht, ist nur die Asymmetrie der Vorgänge in der Zeit (die Asymmetrie der Historie allen Geschehens, einschließlich allen "Werdens"). Wie gesagt, kann diese aber sehr wohl durch deterministische und symmetrische Gesetze beschrieben werden. Statistische Argumente erweisen sich dabei wegen der speziellen Anfangsbedingung als äußerst nützlich, stehen allerdings in Kontrast zu dieser extrem unwahrscheinlichen Bedingung. Die Asymmetrie durch ihr (zeitliches) Zustandekommen (ein "Werden") zu begründen wäre der dynamischen (gegebenenfalls auch stochastischen) Beschreibung inhaltlich gleich. Es verbleiben höchstens (wenn auch mit Traditionen belastete) sprachliche Unterschiede. Die Asymmetrie physikalischer Vorgänge in der Zeit wird quantitativ durch das Anwachsen der Entropie beschrieben. Auch chemische, biologische und physiologische Vorgänge stehen mit dem Zweiten Hauptsatz der Wärmelehre, der in angemessen erweiterter Form auch auf soziales und kulturelles Geschehen anwendbar ist, im Einklang. Boltzmann verstand bereits sehr gut, wie dieses globale Gesetz auch eine lokale Entropieabnahme durch Wärmeabgabe an die Umgebung offener Systeme beschreiben, und ansatzweise, wie das (insbesondere durch den Wärmefluß von der Sonne ins kalte Weltall) zur Entstehung von Ordnung (hier auf der Erde) führen kann. Die Theorien zur Selbstorganisation unserer Tage gehen sicher im Detail viel weiter, bleiben dabei aber oftmals phänomenologisch (was angemessen sein kann) oder behaupten fundamental neue Physik zu beschreiben (was nicht gerechtfertigt ist). Ob diese im wesentlichen thermodynamische Beschreibung auch allen zukünftigen Erkenntnissen gerecht werden kann, bleibt natürlich offen. Der statistische Entropiebegriff ist aber nicht eindeutig definiert. 9 Er hängt vielmehr von einer etwas willkürlichen makroskopischen Betrachtungsweise ab, bei der nur die verbleibenden ("irrelevanten") mikroskopischen Vorgänge statistisch behandelt werden. Diese Flexibilität des Entropie-Konzeptes erlaubt es gerade, die große Vielfalt von irreversiblen Prozessen zu beschreiben, die in verschiedenen Si9 V gl. FN 8 und H. Grad, The many faces of entropy, in: Comm. Pure Appl. Math. XIV (1961), S. 323.
Über die "Zeit in der Natur"
49
tuationen auftreten. Sowohl sehr einfache wie sehr komplexe Zustände können niedrige Entropie besitzen, und ein allgemeines (vorurteilsfreies) Maß für Komplexität existiert kaum. Es liegt in der Natur der Komplexität, daß sie schwer faßbar ist. Wenn "der Herr bösartig sein" wollte,1O hätte er hier reichlich Gelegenheit dazu. Allein die Undurchschaubarkeit des Komplexen ist jedoch kein Grund, irrationale Wunder für erwiesen zu halten oder sich auf einen modischen Wissenschaftspessimismus zurückzuziehen. Andererseits sind wohl kaum bedeutende Physiker jemals dem Irrtum von Marx und Freud erlegen, hochkomplexe Systeme für determinierbar zu halten. Der im Prinzip unpräzise und zum Teil willkürliche Charakter der Entropiedefinition kann sich etwa bei Fluktuationen der verschiedensten Art bemerkbar machen. Das "Auftreten" eines bestimmten Fluktuationszustands und seine (dabei verminderte) Entropie sind nur beobachterabhängig zu begründen, auch wenn das Resultat objektivierbar ist. 11 Dagegen sollte die erwähnte kosmische Anfangsbedingung niedriger Entropie objektiv und eindeutig definiert (und offenbar vom Typ "einfach") sein. Wie noch zu diskutieren sein wird, scheint sie eng mit der Gravitation und der zu dieser diskrepanten Homogenität des Universums zusammenzuhängen. IV. Die Zeit in der "neueren" Physik
Hinweise auf notwendig werdende Modifikationen der für den mechanistischen Zeitbegriff relevanten Grundbegriffe und Naturgesetze ergeben sich erst aus neueren empirischen Erkenntnissen oder den daraus gewonnenen Theorien - also nicht aus einer logischen Kritik an der Boltzmannschen oder Laplaceschen Sicht der Dinge. Dazu gehört in erster Linie die Quantentheorie, die in ungezählten Anwendungen immer wieder bestätigt wurde, deren Interpretation aber trotzdem noch umstritten ist. Die Problematik der Quantentheorie kann hier nicht angemessen dargestellt werden, aber sicher wäre es ganz unzureichend, sie auf einen reinen Indeterminismus in der Natur zu reduzieren, wie es häufig (auch unter Physikern) geschieht. Sie verlangt vor allem neue Begriffe zur Darstellung von Zuständen physikalischer Systeme, die "nichtlokal" in dem eigentümlichen Sinn sein müssen, daß sie sich nicht aus lokalen Eigenschaften zusammensetzen lassen (so wie sich etwa auch eine ausgedehnte Dichteverteilung aus den Dichten an allen Raumpunkten ergäbe). Bei bestimmten Vorgängen ist zudem ein fundamental indeterministisches Verhalten zu berücksichtigen, das aber möglicherweise gar nicht das System selbst, sondern seine potentiellen Beobachter (also uns) betrifft. Ob dieser Indeterminismus eine absolute Zeitrichtung auszeichnet oder wieder durch die kosmische Anfangsbedingung geprägt wird, ist interpretationsabhängig. 10 Einstein hat seine Bewunderung für die Großartigkeit und Erfaßbarkeit der Natur ausgedrückt mit den Worten: "Raffiniert ist der Herr - aber bösartig ist er nicht." 11 Vgl. FN 8.
4 Selbstorganisation. Bd. 8
50
H. D. Zeh
Beispielsweise kann nach der Quantenmechanik ein "Teilchen" (so nennt man es jedenfalls noch) gleichzeitig verschiedenen Wegen folgen. Obwohl diese verschiedenen Wege allgemein durch den Konfigurationsraum, also den Raum der klassischen Möglichkeiten verlaufen, tragen sie alle in Form einer gemeinsamen "Superposition" zum beobachteten Ergebnis bei, wenn sie wieder zusammengeführt werden können. Sie müssen dann also im üblichen Wortsinn auch alle existieren (denn eine reine Möglichkeit kann ihrer Definition nach keinen realen Einfluß ausüben). Wenn man diese Konsequenz auf makroskopische Objekte überträgt, führt das auf offensichtliche Absurditäten, von denen Schrödingers Katze, die nach diesem Formalismus in einer Superposition von gleichzeitig tot und lebendig sein kann (ebenfalls zwei Möglichkeiten in ihrem klassischen Konfigurationsraum), die bekannteste ist. Erst in den letzten ein oder zwei Jahrzehnten hat man verstanden, daß makroskopische Objekte (im Gegensatz zu mikroskopischen) ständig und unvermeidbar ihre natürliche Umgebung derart beeinflussen, daß die verschiedenen Wege im gesamten Konfigurationsraum praktisch niemals wieder zur lokalen Beobachtung zusammengeführt werden können; sie werden praktisch irreversibel getrennt. Die Art dieser Wirkung auf die Umgebung ist kausal ähnlich dem Boltzmannschen Stoßzahlansatz mit den dabei entstehenden, aber für alle Zukunft irrelevanten, Korrelationen. Obwohl stetig, läuft sie so schnell ab, daß sie spontane Quantensprünge vortäuscht. Bei "mesoskopischen Objekten" (die aber noch im atomaren Bereich liegen) ist die Stetigkeit eines solchen, als "Dekohärenz" 12 bezeichneten Vorgangs kürzlich experimentell nachgewiesen worden. 13 Dekohärenz führt dazu, daß jeweils nur ein einziger, nicht im voraus determinierter Weg (oder dabei erreichter Zustand) zu existieren scheint. Sie tritt zum Beispiel immer auf, wenn eine mikroskopische Größe durch ihre Messung mit einer makroskopischen "Zeigerstellung" (z. B. einem Schwärzungs-Kom auf der Fotoplatte) korreliert wurde. In diesem Sinne erklärt die Dekohärenz auch Heisenbergs oft zitierte, in einem konkreten Idealismus begründete Bemerkung, wonach "die Bahn des Teilchens erst durch ihre Beobachtung zustandekommt", auf objektive dynamische Weise. Legt man oben die Betonung auf "scheint", so verwendet man bereits die Interpretation der Vielweltentheorie, nach der alle möglichen Wege - auch wenn sie sich irreversibel getrennt haben - als pseudoklassische Zustände der Welt weiterexistieren (genauer aber: ihre Superposition als eine einzige und dynamisch determinierte Quantenwelt). Da sich das Wort "scheint" auf die Wahrnehmung der Situation bezieht, zu deren physikalisch vollständiger Beschreibung die "Wege" den Zustand der Beobachter einschließen müssen, hat man auch zutreffender von einer Theorie des multiplen Bewußtseins gesprochen. Bevorzugt man dagegen die An12 D. Giulinil E. loos / C. Kiefer / 1. KupschlI.-O. Stamatescu/ H.D. Zeh, Decoherence and the Appearance of a Classical World in Quantum Theory, Berlin 1996. 13 M. Brune/E. Hagley/1. Dreyer/X. Maftre/Y. Maali/C. Wunderlich/1.M. Raimond/S. Haroche, Observing the Progressive Decoherence of the "Meter" in a Quantum Measurement, in: Phys. Rev. Lett. 77 (1996), S. 4887.
Über die "Zeit in der Natur"
51
sicht, daß nur jeweils einer, nämlich der schließlich beobachtete Zustand der Welt nach dem Ablaufen des Dekohärenzprozesses noch existiert, so postuliert man einen fundamental stochastischen, in der Zeit asymmetrischen dynamischen Vorgang. Er wird im Gegensatz zur Schrödinger-Dynamik durch eine nichtlineare Gleichung beschrieben, die wieder eine absolute Zeitrichtung voraussetzt. Da seine Existenz aber nie nachgewiesen werden konnte (die Linearität der Dynamik ist bisher mit enormer Genauigkeit immer bestätigt worden), kann er auch nicht genauer lokalisiert werden. Die überwiegende Mehrheit der Physiker bevorzugt trotzdem diese zweite, pragmatische Interpretation - meistens aber reichlich inkonsequent unter Vernachlässigung ihrer (normalerweise geringfügigen, aber prinzipiell wesentlichen) Auswirkungen auf die Dynamik der Entropie (nicht nur bei Fluktuationen und Messungen). Hier besteht noch reichlich Bedarf für fundierte Untersuchungen. Es mag für den Nichtphysiker überraschend sein, daß die Gravitation eine wichtige Rolle für den Begriff der Zeit spielt. Sie zeigt sich schon darin, daß Gravitation im Rahmen der Relativitätstheorie durch die Krümmung der vierdimensionalen Raumzeit beschrieben wird. Während die spezielle Relativitätstheorie die Begriffe von Raum und Zeit in dem neuen Begriff einer vierdimensionalen Raumzeit vereint, behält sie das Konzept einer im dynamischen Sinne absoluten Zeit (zu unterscheiden von dem aufzugebenden Begriff einer absoluten Gleichzeitigkeit) in Form von Eigenzeiten längs Weltlinien, also Bahnen punktförrniger Objekte in der Raumzeit, noch bei. Denn ihrzufolge sind die Eigenzeiten auch in Abwesenheit materieller "Uhren" durch die vorgegebene Metrik absolut definiert und wie bei Newton durch Bewegungsvorgänge nur zu messen, d. h. materiell sichtbar zu machen. Die Sonderrolle der Zeit (im Vergleich zu den räumlichen Dimensionen der Raumzeit), die uns als ihr unvermeidbares Fortschreiten erscheint, ist mathematisch durch den "hyperbolischen" Charakter der die Materiefelder beschreibenden Differentialgleichungen auf der Raumzeit bedingt. Obwohl er sich nur in einem Vorzeichen ausdrückt, ist er verantwortlich für die Existenz aller (exakten und approximativen) Erhaltungssätze und somit letztendlich auch für die kausal verstandene "Identität" einer Person zu verschiedenen Zeiten. Er ist also im Rahmen der raumzeitlichen Dynamik der Grund, warum wir in der Zeit nicht eine ähnliche Freiheit haben wie im Raum. Erst in der allgemeinen Relativitätstheorie wird die räumliche "Metrik" (welche die Krümmung bestimmt) zu einer dynamischen Größe. Das zeigt sich etwa im Auftreten von Gravitationswellen. Diese Dynamik wird durch Einsteins Gleichungen unabhängig von der Wahl einer absoluten Zeit (also ,,reparametrisierungsinvariant") beschrieben. Aber dynamische Größen können selber als "Uhrzeiger" verstanden werden. Weder muß die durch sie definierte Zeit im Prinzip erst gemessen werden, noch kann Zeit in einem abgeschlossenen Universum unabhängig von der Raumkrümmung definiert sein: Die heutige Krümmung bestimmt die "vielfingrige Zeit" (d. h. die Eigenzeiten längs aller raumzeitlichen Wege, die heute enden); sie kann daher nicht die Krümmung von morgen sein! Die Konsequenzen der Relativitätstheorie bezüglich der physikalischen Zeit sind vielfach und unzweifelhaft nach4*
52
H. D.Zeh
gewiesen. Sie müssen aus Konsistenzgründen natürlich auch für physiologische Vorgänge und somit sicher auch für die subjektiv wahrgenommene Zeit gelten. Bekannt ist das "Zwillings-Paradoxon", welches besagt, daß sich wiederbegegnende Zwillinge mit unterschiedlicher Bewegungsgeschichte im allgemeinen verschieden alt sein müssen. Nur wegen der Beschränkung unserer Alltagserfahrungen auf die uns zugängliche Winzecke des Universums sowie die be~chränkte Genauigkeit unserer Sinne haben wir uns offenbar unzureichende Begriffe von Raum und Zeit angeeignet. Die Einsteinsehen Gleichungen, die die Dynamik der Raumkrümmung erfolgreich beschreiben, zeichnen aber, genau wie Newtons Gleichungen, keine Richtung der Zeit aus. Auch wenn die Gravitation anziehend wirkt, erlaubt si~ Expansion ebenso wie Kontraktion (abhängig nur von der Anfangs- oder Endgeschwindigkeit). Ein verbreiteter Denkfehler besteht darin, dynamische Betrachtungen nur auf die Zukunft anzuwenden. Die Symmetrie gilt auch für den Extremfall Schwarzer Löcher, deren Gravitation nichts mehr entkommen kann. Innerhalb ihres raumzeitlichen Sichtbarkeitshorizontes, der als solcher für einen äußeren Beobachter existiert, läuft die Zeit selbst auf das Symmetriezentrum zu. Der Abstand davon wird zur negativen Zeit, der Mittelpunkt zu deren Ende für jedes ins Innere gelangte Objekt. Schwarze Löcher sind somit zwar zeit-asymmetrische Gebilde, aber Einsteins Theorie (wie jede ähnliche Theorie der Gravitation) erlaubt ebenso Objekte, aus denen umgekehrt nur etwas herauskommen kann, bei denen der Abstand vom Zentrum also zur positiven Zeit wird, und die manchmal (nicht besonders sinnvoll) als "Weiße Löcher" bezeichnet werden. Was hat das nun mit der durch die Thermodynamik definierten Richtung in der Zeit zu tun, die uns als Irreversibilität erscheint? Zwar ist auch der Gravitationskollaps, der zu einem Schwarzen Loch führt, ein irreversibler Vorgang, aber erstaunlicherweise scheinen Schwarze Löcher echte thermodynamische Eigenschaften zu besitzen, nämlich (eine sehr große) Entropie und eine (normalerweise sehr kleine) Temperatur. Das ergibt sich jedenfalls recht zwingend aus theoretischen Überlegungen von Bekenstein und Hawking, womit wir allerdings das Gebiet der experimentell direkt bestätigten Physik verlassen. Für hinreichend große Massen überwiegt diese Entropie Schwarzer Löcher jede anderweitig realisierbare Entropie. 14 Das gibt uns eine Möglichkeit, der genauen Natur der gesuchten unwahrscheinlichen kosmischen Anfangsbedingung auf die Spur zu kommen. Die Unwahrscheinlichkeit des heutigen Kosmos besteht in seiner (trotz der Existenz von Sternen und Galaxien) approximativen Homogenität - insbesondere in der weitgehenden Abwesenheit Schwarzer oder Weißer Löcher. Penrose hat daher die völlige Abwesenheit solcher Löcher als kosmische Anfangsbedingung postuliert und die Unwahrscheinlichkeit dieser Hypothese abgeschätzt. Sie ergibt sich für ein Standardmodell des Universums endlicher Größe als die unvorstellbar kleine Zahl von 14 C. Kiefer, Quanteneigenschaften Schwarzer Löcher, in: Physik in unserer Zeit 28 (1997), S. 22.
Über die "Zeit in der Natur"
53
exp{ _10123}. Das ist sehr, sehr viel unwahrscheinlicher als jede Form von Komplexität auf der Erde oder auf anderen Planeten im Universum, die in diesem Fall eine immer noch sehr kleine Wahrscheinlichkeit von jeweils etwa exp{ _1088} im Vergleich zu allen möglichen anderen Zuständen besitzen. Wir sind danach nur Zwischenprodukte auf dem langen Marsch des Universums in einen thermodynamisch wahrscheinlichen inhomogenen Zustand, mit einem zunehmenden Anteil von Materie in Schwarzen Löchern.
V. Die verlorene Zeit Auch an diesen noch vorwiegend theoretischen Betrachtungen ist vermutlich das meiste im Wesentlichen zutreffend, obwohl zu erwarten ist, daß unsere Grundbegriffe, mit denen wir bisher die Welt erfolgreich beschrieben haben, nicht für alle Zeit ausreichen können. Solches deutet sich in der Tat bereits aus Konsistenzbetrachtungen im Rahmen des uns bisher empirisch Bekannten an, also unabhängig von einer stets zu erwartenden Entdeckung völlig neuer Dinge und Gesetzmäßigkeiten, über die die theoretische Physik zuvor (selten erfolgreich) nur spekulieren kann. So muß die Quantentheorie nach bisherigem Wissen auf alle anderen Theorien angewandt (ihnen als eine "Quantisierung" übergestülpt) werden. Das gilt dann auch für die Gravitation, obwohl die sich daraus ergebenden direkt beobachtbaren Konsequenzen (z. B. Gravitonen) mit den derzeit vorstellbaren experimentellen Methoden kaum jemals nachzuweisen sind. Die Quantengravitation hat aber fundamentale begriffliche Konsequenzen, die bei kosmologischen Betrachtungen sehr zu beachten sind. Die wichtigsten davon lassen sich vielleicht ansatzweise auch anschaulich darstellen. Wie schon erwähnt, kann die Einsteinsche Theorie als die Dynamik (das bedeutet hier die Abhängigkeit von einer frei wählbaren, also auch reparametrisierbaren Zeitkoordinate) der räumlichen Krümmung von Hyperflächen in der Raumzeit verstanden werden. Die sich daraus ergebenden "zeitlosen" Bahnen durch den Konfigurationsraum dieser Krümmungen (also die kontinuierlichen Folgen von gekrümmten dreidimensionalen Hyperflächen) definieren dann die Krümmung der vierdimensionalen Raumzeit, die ihrerseits alle materiellen Uhren dynamisch kontrolliert. Diese dynamische Interpretation der allgemeinen Relativitätstheorie wurde übrigens erst lange nach Einstein entwickelt, während man früher fast ausschließlich das "statische Bild" der Raumzeit bevorzugte. Nun verlangt aber die Quantentheorie, wie schon erwähnt, daß Bahnen grundsätzlich nicht mehr existieren. Dann kann es auch keinen Bahnparameter, der die Rolle der Zeit übernimmt, und keine mit ihm formulierte Dynamik mehr geben. Für eine allgemeine (zeitabhängige) Schrödinger-Gleichung der Gravitation, wie sie bei der Quantisierung zu erwarten wäre, müßte man dagegen wieder einen absoluten (äußeren) Zeitparameter voraussetzen. Wie ist dieses Dilemma zu lösen?
54
H. D.Zeh
Es gehört für mich zu den erstaunlichsten Ergebnissen der jüngeren theoretischen Physik, daß tatsächlich die "Schrödinger-Gleichung der allgemeinen Relativitätstheorie" (bekannt als Wheeler-DeWitt-Gleichung) einerseits zwangsläufig die Form einer stationären Schrödinger-Gleichung, H'Ij; = 0, annimmt (eine äußere Zeit also nicht mehr vorkommt), diese aber andererseits und im Gegensatz zur normalen stationären Schrödinger-Gleichung von der oben erwähnten hyperbolischen Form ist. Dabei spielt der Logarithmus des kosmischen Expansionsparameters, der die Ausdehnung des Universums mißt, die Rolle der zeitartigen Koordinate im Konfigurationsraum. Er bestimmt somit eine "innere Dynamik" des zunächst zeitlos erscheinenden Quantenuniversums. Die fundamentale Bedeutung dieser formalen Konsequenz ist sicher nicht ohne Weiteres zu würdigen. Ein Zeitparameter, der ohnehin keine physikalische Rolle mehr spielen würde, aber wenigstens noch die Darstellung einer zeitlichen Sukzession (einer Bahn oder Trajektorie ohne absolutes Zeitmaß) erlauben würde, existiert als fundamentaler Begriff überhaupt nicht mehr. Stattdessen wird die Ausdehnung des Universums, also eine physikalische "Variable", zu einem Parameter der inneren Dynamik, die zumindest formal ein deterministisches "Anfangswertproblem" für die Wellenfunktion definiert. Die hyperbolische Natur dieser formal zeitlosen Wheeler-DeWitt-Gleichung bedingt eine Stetigkeit allen Geschehens, die dessen begriffliche Erfaßbarkeit überhaupt erst ermöglicht. Die zeitartige Variable besitzt dabei in der durch ihre Interpretation bedingten Form ihrer potentiellen Energie eine fundamentale dynamische Vorzeichen-Asymmetrie, die sogar mit der Asymmetrie Scharzer Löcher und der ihres Auftretens (im Gegensatz zu dem Weißer Löcher) korreliert zu sein scheint. 15 Man kann sagen, daß die formal zeitlose Wheeler-DeWitt-Wellenfunktion des Universums über dem hochdimensionalen Konfigurationsraum an die Stelle der Zeit als einer nur eindimensionalen Kette von globalen Zuständen (einer Trajektorie) tritt. Sie kann somit als eine neue Art "diffuser Dynamik" verstanden werden und führt nur im Rahmen der sogenannten WKB-Näherung (oder geometrischen Optik) und unter Berücksichtigung der erwähnten Dekohärenz auf die uns vertrauten eindimensionalen kausalen Verknüpfungen längs Trajektorien (für jede der sich dabei immer weiter verzweigenden "vielen Welten"). Für diese approximativen kausalen Zusammenhänge ergibt sich die dem Physiker vertraute Form einer zeitabhängigen Schrödinger-Gleichung für die Materie: die verlorene Zeit findet sich unter diesen Umständen als Näherung wieder. 16 Auf diese Weise erhalten alle Konfigurationen mit nicht vemachlässigbaren Werten der Wellenfunktion eine "Erinnerung" an eine praktisch eindimensionale Historie. Barbour hat solche Zustände als ,,zeitkapseln" bezeichnet. 17 Nach dieser neuartigen Interpretation der Wellen15 C. Kiefer / H.D. Zeh, Arrow of time in a recollapsing quantum uni verse, in: Phys. Rev. D51 (1995), S. 4145. 16 C. Kiefer, The semic1assical approximation to quantum gravity, in: J. Ehlers/H. Friedrich (Hrsg.), Canonical Gravity: From Classical to Quantum, Berlin 1994.
Über die "Zeit in der Natur"
55
funktion als dynamisches Instrument vermeinen wir mikroskopische Systeme auf Grund des diffusen Charakters der kausalen Historien im Zustand einer Wellenfunktion zu beobachten. Diese zum Schluß angedeuteten Konsequenzen gehen sicher sehr weit und über alles in absehbarer Zeit Nachprüfbare hinaus. Auch die meisten Physiker schrekken daher vor ihnen zurück und versuchen sich auf traditionelle Vorstellungen (insbesondere die Beibehaltung eines fundamentalen Zeitkonzeptes) zurückzuziehen, was aber Eingriffe in die bekannten Theorie erfordert. Es sei daher noch einmal betont, daß es sich bei diesen Konsequenzen um solche aus einer Kombination der beiden derzeit bestbestätigten fundamentalen Theorien der Physik (nämlich Quantentheorie und allgemeine Relativitätstheorie) handelt, wenn auch vielleicht nicht völlig unabhängig von Interpretationsfragen. Selbst Stephen Hawking 18 der viel zur Quantisierung der Gravitation beigetragen hat, bleibt hier halbherzig, indem er den Begiff von Bahnen (oder parametrisierbaren "Pfaden") noch ganz wesentlich für seine Interpretation der Quantengravitation beibehält. 19 Die Erforschung der Natur ist alles andere als abgeschlossen. Unsere Kenntnis der Grundbegriffe, die sie uns zugänglich macht, ist vorläufig. Aber die Welt weiterhin mit Begriffen aus unserer beschränkten Alltagserfahrung beschreiben zu wollen, wäre naiv. Ihre Anpassung an die weitestgehenden Erkenntnisse über die Natur mag uns einen kleinen Schritt weiterbringen, der uns aber aus der Perspektive unserer alltäglichen Welt riesig und ungewohnt - vielleicht sogar absurd - erscheint.
17 J.B. Barbour, The Emergence of Time and Its Arrow from Timelessness, in: J.J. Halliwell/J. perez-Mercader/W.H. Zurek (Hrsg.), Physical Origins of Time Asymmetry, Cambridge 1994. 18 s. W. Hawking, ABrief History of Time, London 1988. 19 Siehe die Diskussion im Anschluß an: H.D. Zeh, Time (A-)Symmetry in a Recollapsing Quantum Uni verse, in: J.J. Halliwell / J .P. Perez-Mercader / W.H. Zurek (Hrsg.), Physical Origins of Time Asymmetry, Cambridge 1994.
Irreversibilität und Zeit als Fiktion und Erfahrung Von Hans-Jürgen Krug, Berlin*
"Ich sehe keinerlei Unterschied zwischen den Mädchen aus meiner Jugendzeit und den Mädchen heute. Sie sehen ihn." Antoni Slonimsky (1895 -1976)1
I. Einleitung Die Frage nach dem Vorhandensein von Irreversibilität ist letztlich eine Glaubensfrage. Irreversibilität ist, wie viele Begriffe aus der Physik, aus der menschlichen Erfahrung gespeist, wenngleich später dieser empirische Ursprung verdrängt worden ist. Mit ihr ist eng verbunden die Vorstellung von Geschichtlichkeit, der Gedanke an eine fortschreitenden Zeit, die sich auf eine lineare räumliche Achse abbilden läßt. Vergangenheit erscheint unwiederbringlich, die Zukunft im guten Sinne als Chance zum Ergreifen heute noch nicht vorhandener Möglichkeiten. Wie sich bei der Individualentwicklung des Kindes das Zeitbewußtsein erst allmählich entwickelt, 2 so sind auch die verschiedenen Formen des heutigen Zeitbewußtseins historisch entstanden. So betont der Alttestamentler Gerhard von Rad (19011971), daß die Zeitvorstellung des alten Israel, das später im Vergleich zu seinen Nachbarvölkem als erstes das Bewußtsein seiner herausgehobenen Geschichtlichkeit entwickelte, 3 ein ganz anderes war als unser heutiges: "Die älteren Ausleger haben ... naiv ihr abendländich-christliches Zeitverständnis auch bei Israel vorausgesetzt. ... Die Vorstellung von der Zeit, in der der Abendländer mehr oder weniger naiv lebt, ist linear; die Zeit gleicht einer unendlich langen Strecke, auf die er alle Ereignisse, die vergangenen und die zukünftigen, soweit sie ihm als sicher feststehen, eintragen kann. ,,4
* Herrn Ludwig Pohlmann (Berlin) danke ich herzlich für die kritische Durchsicht des Manuskripts. 1 Aus: Denkspiele. Polnische Aphorismen des 20. Jahrhunderts, Berlin 31977, S. 41. 2 Vgl. Jean Piaget, Die Bildung des Zeitbegriffs beim Kinde (1946), Frankfurt a.M. 1974. 3 Vgl. Gerhard von Rad, Theologie des Alten Testaments. Band 2. Die Theologie der prophetischen Überlieferung Israels, München 91987, S. 108 ff. 4 G. von Rad (FN 3), S. 108.
58
Hans-Jürgen Krug
Das alte Israel kannte jedoch keine abstrakte lineare Zeit, sondern nur - eigentlich recht modem - eine gefüllte Zeit, die an einzelne Ereignisse, wie der religiösen Feste, des Gebärens, des Werdens und des Sterbens oder auch des agrarischen Lebens gebunden war. Die häufige Pluralverwendung von ,Zeiten' im AT entsprach nicht, wie man meinen könnte, einer rhetorischen Hyperbolik, sondern dem Bezug auf eben verschiedene Ereignisse. Im Gegensatz zu heute fanden religiöse Feste nicht abhängig von der Zeit eines Kalenders statt, sondern waren von Gott gesetzt; in diese traten die Menschen wie in einen ontisch realen Raum ein. Erst später hat man die ,historischen' Ereignisse, die diesen Festen, etwa dem Auszug aus Ägypten, zugrundelagen und die lange Zeit ohne jeden ,kausalen' Bezug zueinander begangen wurden, in eine Reihenfolge gebracht, die einem göttlichen Heilsplan und der Erwählung Israels unter anderen Völkern entsprach. In diesem Sinne heißt es bei von Rad: "Damit hatte Israel die Konzeption von einer linearen Geschichtsstrecke gewonnen, aber nicht aus einer philosophischen oder mythologischen Deduktion heraus; vielmehr hatte sich diese Zeitstrecke langsam aufgebaut durch eine Addition der göttlichen Heilstaten, deren man sich da und dort erinnerte .... Es hatte begreifen gelernt, daß Jahwe einen Plan verfolgt hat und daß er mit den Ahnen Israels einen langen Weg gegangen ist, bis auf diesem Weg Israel zu Israel geworden ist. ,,5
Wir können hier sehen, daß das Bewußtsein von Geschichtlichkeit und das Aufspannen einer linearen Zeitstrecke eng mit eschatologischen Vorstellungen verknüpft war, also letztlich aus den sich wie auch immer äußernden Grundbedürfnissen der menschlichen Seele resultiert. Wenngleich die Entwicklung des Zeitbewußtseins auch oder vornehmlich den Prinzipien der evolutionären Erkenntnistheorie folgte, nach dem bestimmte Formen des Bewußtseins auch einen Selektionsvorteil beim Überleben menschlicher Populationen ergaben;6 so sind auch die scheinbar irrationalen Aspekte des menschlichen Denkens oder Empfindens zu sehen, die sich der Beurteilung durch Nützlichkeitskriterien entziehen. So sei an die Definition des Intellektuellen durch Max Frisch erinnert, als einen, der sein Wissen und Denken keineswegs immer zu seinem eigenen Vorteil einsetzt. Auch hat das Bewußtsein Israels von seiner Geschichtlichkeit und Auserwähltheit dazu geführt, daß es oft nur knapp seiner vollständigen Vernichtung entging, aber gerade deshalb immer wieder zu seiner Identität geführt wurde.?
G. von Rad (FN 3), S. 115 f. Vgl. Ludwig Pohlmann/Uwe Niedersen, Jenseits der linearen Zeit, in: U. NiedersenIL. Pohlmann (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften. Band 2, Berlin 1991, S. 169 - 184. 7 Daß die bereits über Jahrtausende währende Verfolgung des Judentums andererseits auch das konstituierende Moment der sonst längst untergegangenen jüdischen Religion und Kultur ist, wurde bereits mehrfach literarisch behandelt. Vgl. etwa Jakob von Uexkuell, Niegeschaute Welten. Die Um welten meiner Freunde. Kap. 9: Die russischen Juden in ihrer Umwelt, Berlin 1936, S. 159 - 167. 5
6
lrreversibiJität und Zeit als Fiktion und Erfahrung
59
Es soll nun der Frage nachgegangen werden, wie das menschliche Bestreben nach Transzendenz über die Gegenwart hinaus, das sich nicht allein in eschatologischen oder chiliastischen Vorstellungen äußern muß, auch sehr viele andere Konstrukte des menschlichen Denkens beeinflußt, wie etwa die Suche nach geordneten Strukturen oder eben speziell nach dem linearen fluß des Geschehens, die später zu ,Realitäten' erhoben wurden. 8 Die historischen Entwicklungen des Zeitbewußtseins, speziell in Europa, sind bereits an anderer Stelle ausführlich dargestellt worden;9 wir wollen hier darüber hinaus einige scheinbar gesicherte Aspekte zur Irreversibilität und zur Gerichtetheit der Zeit mit einigen Ausflügen in die Naturwissenschaften, die Erfahrungswelt des Menschen sowie die - Erfahrungen kondensierende - Dichtung kritisch beleuchten. 11. Die Wahrnehmung der linearen Zeit
Wenn wir heute von den ,Naturwissenschaften' sprechen, sprechen wir strenggenommen vom Typus der westlichen Naturwissenschaft, die sich aus den antiken Traditionen heraus zunächst in Europa entwickelt hat und heute weltweit als der einzig mögliche Typus von Naturwissenschaft angesehen wird. lO Hier besitzen die Naturwissenschaften insofern eine Ausnahmestellung, da man andererseits durchaus bereit ist, die verschiedenen Kulturen der Welt und die damit verbundenen Erfahrungssysteme als gleichberechtigt anzuerkennen; auch bezüglich der Geisteswissenschaften und der Medizin gibt es aus westlicher Sicht eine gewisse Akzeptanz. So hat inzwischen die asiatische Medizin, etwa durch die Akupunktur, neben anderen Naturheilverfahren eine praktische Bedeutung als Ergänzung der westlichen Schulmedizin erlangt. Die Monopolstellung der westlichen Naturwissenschaft hat sowohl historische als auch philosophische Gründe. Die historischen Gründe lagen in der (vornehmlich in der Technikentwicklung realisierten) Möglichkeit, Prozesse auch langfristig in die Zukunft hinein zu planen und zu steuern. Dies hat zu einer - wenn auch kritikwürdigen - sich selbst beschleunigenden Natur- und Weltbeherrschung geführt, die andere Kulturkreise inzwischen beseitigt oder an den Rand gedrängt hat. So haben wir heute das Ergebnis, daß es heute neben der westlichen keine andere 8 So hat Ernst von Glasers/eid anknüpfend an Hume vermerkt, daß der "Glaube an Regelmäßigkeit und somit an die Möglichkeit der Induktion allem Lebenden zugrunde liegt." [Einführung in den radikalen Konstruktivismus, in: Paul Watzlawick (Hrsg.), Die erfundene Wirklichkeit, München/Zürich 1985, S. 31.] 9 Vgl. Rudolj Wendorff, Zeit und Kultur. Geschichte des Zeitbewußtseins in Europa, Opladen 31985. 10 Vgl. Yehuda Elkana, Anthropologie der Erkenntnis. Die Entwicklung des Wissens als episches Theater einer listigen Vernunft, Frankfurt/Main 1986, bes. S. 11 f. Hier wird u. a. der Wunsch nach einer ,vergleichenden Wissenschaft' analog zur vergleichenden Studien über Kunst, Religion, Ethik und Politik ausgesprochen.
60
Hans-Jürgen Krug
autonome Wissenschafts- oder Technikkultur mehr gibt, die zu vergleichenden Studien herangezogen werden könnte. Eher führt der Vergleich des heutigen westlichen Technikniveaus mit dem rezenten Niveau etwa des heutigen Orients zu einer Hybris, die die Potenz früherer Kulturen, große technische Leistungen hervorgebracht zu haben, zum Teil leugnet und - zumindest in der populären Argumentation - auf extraterrestrische Eingriffe zurückführt. 11 Der philosophische Grund liegt vermutlich in der in den Naturwissenschaften seit dem 19. Jahrhundert verbreiteten Akzeptanz des ,metaphysischen Realismus', der von einer per se (und dann nur in einer allmählich zu approximierenden Form) existierenden natürlichen Wirklichkeit vor und außerhalb der menschlichen Reflektion ausgeht. 12 Unterschiedliche Formen und Stadien naturwissenschaftlicher Reflektion werden allenfalls in ihrer Transienz toleriert, als Zwischenstadien auf dem Wege zu einer immer besseren Abspiegelung der Realität; im besten Falle gehen frühere Theorien als Spezialfälle in modernere Konstruktionen ein. Eine Koexistenz einander ausschließender Naturbeschreibungen hat in diesem Weltbild keinen Platz, wenngleich bei der Beschreibung komplexer Systeme, etwa von Ökosystemen, mit dem ,multifacetal modeling' die Suche nach einem einheitlichen Modell aufgegeben wird. Die Möglichkeit alternativer Naturwirklichkeiten wird dagegen im Konstruktivismus, der u. a. aus der modemen Kybernetik mit Heinz von Foerster l3 (*1911) entstanden ist, geradezu gefordert. In den letzten Jahren ist der konstruktivistische Ansatz besonders in der Neurobiologie durch Humberto Maturana (*1928) und Francisco Varela (* 1946) verfolgt worden,14 während er sich in den ,harten' Naturwissenschaften bislang wenig durchsetzen konnte. Der Name dieses Ansatzes resultiert aus der These, daß wir - wie schon in den Arbeiten Ernst Machs (1838 - 1916) in Anfängen gezeigt wurde - allein aus den im 11 Stanislaw Lem hat in einer Bemerkung darauf verwiesen, daß die Rätselhaftigkeit antiker Bauwerke auf der lange Zeit fehlenden Überlieferung der damals verwendeten Hilfskonstruktionen beruhte; auch in seinem eigenen literarischen Schaffen achtet er (wie ein Jahrhundert zuvor Charles Baudelaire) im Nachhinein auf die sorgfältige Beseitigung der seine Romane und Essays begleitenden Hilfskonstruktionen (Materialsammlungen etc.), um seine Arbeiten wie singuläre Schöpfungen erscheinen zu lassen. Vgl. "Mein Leben" in: Provokation, übertr. von Henryk Bereska, Berlin 1985, S. 94. 12 Y. Elkana spricht beim Gegensatzpaar Realismus-Relativismus von einem ,zweistufigen Denken' und verweist darauf, "daß wir uns in den meisten Fragen relativistisch einen Bezugsrahmen wählen, und zwar im vollen Bewußtsein der Tatsache, daß wir die Richtigkeit der Wahl nicht beweisen können und einsehen, daß wir auch eine andere Wahl hätten treffen können. Sobald die Wahl jedoch getroffen ist, beziehen wir uns auf den gewählten Rahmen und betrachten ihn als realistisch. Diese beiden Haltungen oder Ansichten werden gleichzeitig vertreten; das ist zweistufiges Denken." (FN 10, S. 14). 13 Vgl. Heinz von Foerster, Sicht und Einsicht. Versuche zu einer operativen Erkenntnistheorie, übertr. von Wolfram K. Köck, Braunschweig / Wiesbaden 1985. 14 Vgl. Humberto Maturanal Francisco Varela, Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens, Bem/München 1987.
Irreversibilität und Zeit als Fiktion und Erfahrung
61
Grunde digitalisierten Daten unserer Sinnesorgane eine stabile Realität konstruieren können, die wiederum die Grundlage unseres praktischen Handelns wie Überlebens ist. Wirklichkeiten sind danach Konstrukte des menschlichen Denkens, und die Annahme einer Realität ist das Ergebnis einer Abstraktion individueller Wirklichkeiten oder einer Konvention - wie bei der Gleichschaltung der individuell erlebten Zeiten zur einer Gesamtzeit - um ein weitgehend reibungsloses gesellschaftliches Zusammenleben zu gewährleisten. 15 Das heute dominierende lineare Zeitverständnis suggeriert, daß die Menschheit schon immer mit einem solchen apriori gegebenen Zeitbewußtsein gelebt, sie ihre Lebensprozesse von Alters her mit einem abstrakten linearen Zeitmaß verglichen hätten. Das lineare Zeitverständnis verdankt seine Impulse jedoch eigentlich erst der Naturwissenschaft der Neuzeit mit Isaac Newton (1643 -1727), dessen Fiktion der "in sich fließenden Zeit" später zur feststehenden Realität erhoben worden ist. Die vollständige Definition von Newton in den "Philosophiae naturalis principia mathematica" (3. Aufl., London 1726) lautet: "Die absolute, wahre und mathematische Zeit verfließt in sich und gemäß ihrer Natur und ohne Bezug auf jedwede äußere Erscheinung gleichmäßig, und mit einem anderen Namen wird sie als Dauer bezeichnet: Die relative, in Erscheinung tretende und gewöhnliche ist ein wahrnehmbares und nur äußerliches Maß der Dauer verrnittels der Bewegung (entweder ein genaues oder ein ungleichförrniges), das man gemeinhin anstatt der wahren Zeit gebraucht; wie Stunde, Tag, Monat, Jahr.,,16
Es sei hier die Vermutung ausgesprochen, daß Newtons Fiktion einer Zeit hinter der Erfahrung nicht allein einer innerwissenschaftlichen Notwendigkeit entsprach (den Rahmen für die spätere klassische Mechanik zu liefern), sondern auch einem seelischen Grundbedürfnis nach Stabilität und Ordnung, wie es auch über viele Jahrhunderte in der literarischen Beschreibung von Flüssen und Strömen ihren Ausdruck gefunden hatte. Diese Vermutung mag durch die Lektüre der Autobio15 Ansätze zu einem konstruktivistische Denken finden wir bereits in der biologischen Umweltlehre der dreißiger Jahre bei Jakob von Uexkuell. So heißt es in der Einleitung zu seinem Buch "Niegeschaute Welten" (FN 7): "Wie die [Land]karte, so ist auch die gesamte konventionelle Welt eine gedankliche Konstruktion, deren vereinfachtes Abbild sie darstellt. Es ist nichts als eine Denkbequemlichkeit, von der Existenz einer einzigen objektiven Welt auszugehen, die man möglichst seiner eigenen Umwelt angleicht und die man nach allen Seiten räumlich und zeitlich erweitert hat. Die individuellen Abweichungen vom konventionellen Weltbilde, die man bei seinen Mitmenschen feststellt, werden aus ihren Denkfehlern und Sinnestäuschungen erklärt. Dabei bildet nur allzu leicht die eigene Persönlichkeit das Maß aller Menschen und Dinge." (S. 17 f.) Anknüpfend an v. Uexkuell entwickelte der katholische Philosoph Joseph Pieper eine sphärisch geschachteltes Mehrweltenmodell, in dem die Welt der Philosophen sich an die Welt des Alltags anschließt. Vgl.: Suche nach der Weisheit. Vier Vorlesungen (1948), Leipzig 1987, bes. H. Vorlesung, S. 24 - 37. 16 Zitiert nach Joachim-Hermann Scharf, Das Zeitproblem in der Biologie, in: Die Zeit und das Leben (Chronobiologie), Leopoldina-Symposion 16.-21. 3. 1975 in Halle/ Saale, Nova Acta Leopoldina N.F. 46 (1977), Nr. 225, S. 11-70.
62
Hans-JÜfgen Krug
graphie des jungen Newton gestützt werden. 17 In ähnlicher Weise können wir vermuten, daß die lebenslange Suche Keplers nach kosmischen Ordnungsprinzipien durch die von seiner Jugend an vorherrschende Ruhelosigkeit seiner Lebensbahn motiviert worden iSt. 18 Erst mit der Aufklärung sollte sich dann das in den Naturwissenschaften postulierte lineare Zeitprinzip auch im gesellschaftlichen Bewußtsein durchsetzen, nachdem zuvor, wie in der Architektur des Barock sichtbar, ein hochentwickeltes Raumbewußtsein das Zeitbewußtsein dominiert haue. 19 Begünstigende Faktoren waren die Einführung der Uhren und der Kalender, die Technisierung und Synchronisierung schon des vorindustriellen Alltagslebens. Die historischen Umwälzungen Ende des 18. Jahrhunderts, besonders des sogenannten ,,zwischenjahrhunderts 18 plus" von der Französischen Revolution bis zum Scheitern Napoleons, erzeugten über das lineare Bewußtsein hinaus das Gefühl der Geschichtlichkeit, sogar in der Zeitspanne eines individuell erlebten Lebens Zeuge und Gestalter erwünschter historischer Veränderungen zu sein. Andererseits finden wir schon in der Romantik Äußerungen des Protestes gegen das lineare Zeitbewußtsein: Die in den fluß geratene lineare Zeit wurde nur zu Anfang als eine Befreiung aus stockenden Verhältnissen begriffen; mit dem Aufkommen des industriellen Zeitalters wurde der Mensch wieder zum Sklaven einer diesmal zeitlichen Ordnung, in der die individuellen Lebensprozesse unter weitgehender Ausschaltung des freien Willens - der ja gerade das Ideal der Aufklärung war - gesamtgesellschaftlichen Produktions- und Austauschprozessen unterworfen wurden. Dies ist insofern auch ein aktuelles Problem, da die durch gesellschaftliche Koordination erzwungenen Lebensrhythmen zum großen Teil zu den natürlichen Lebensrhythmen konträr laufen, was zu den bekannten auch ökonomisch relevanten gesundheitlichen Reibungsverlusten im heutigen gesellschaftliche Organismus führt. Extrem ausgedrückt, ist der Mensch zum anfälligen Fremdkörper der heutigen, sich selbst genügenden technischen Welt geworden, nachdem ursprünglich die Technik, bzw. die Produktion technischer Güter eine willkommene Ergänzung einer sich sonst selbst genügenden menschlichen Welt war?O
17 Vgl. das biographische Kapitel über Newton in: Wemer Kutschrrumn, Der Naturwissenschaftler und sein Körper. Die Rolle der "inneren Natur" in der experimentellen Naturwissenschaft der frühen Neuzeit, Frankfurt/Main 1986, S. 369 ff. 18 Vgl. Kutschmann (FN 17), S. 349ff. 19 Andererseits finden wir heute wieder in den Naturwissenschaften eine Überbewertung des Strukturbegriffs bei der Charakterisierung der ,Materie'. Möglicherweise ist dies ein unbewußter Reflex auf das Scheitern der Fortschrittskonzepte unseres Jahrhunderts. 20 In diesem Zusammenhang sei auf die Metapher von der "organischen Prothese im unorganischen Mechanismus" hingewiesen, die sich findet bei: Klaus Erlach, Anthropologische Aspekte des Maschinenbegriffs, in: W. Maier / Th. Zoglauer (Hrsg.), Technomorphe Organismuskonzepte. Modellübertragungen zwischen Biologie und Technik, Stuttgart / Bad Canstatt 1994, S. 136f.
Irreversibilität und Zeit als Fiktion und Erfahrung
63
111. Die Entdeckung der Irreversibilität
Eine wesentliche Stütze für die zuvor entdeckte Geschichtlichkeit des Menschen war die zu Beginn des 19. Jahrhunderts entdeckte Geschichtlichkeit der Natur. Dazu gehörten vornehmlich die Ergebnisse aus Geologie und Paläontologie, die mit der Freilegung von Sedimenten die zur räumlichen Struktur geronnene zeitliche Aufeinanderfolge naturhistorischer Prozesse aufdecken konnten. Hilfreich war auch, daß man sich inzwischen von der von der Theologie vorgegebenen Zeitspanne von einigen tausend Jahren von der Erschaffung der Welt bis zur Gegenwart 21 gelöst hatte und sehr vie1längere Zeiträume für die Umbildungsprozesse der Lithosphäre und der biologischen Arten in Anschlag bringen konnte. Zudem fand man, daß die Fossilien der räumlich am tiefsten gelegenen Schichten sehr viel einfacher gestaltet waren als die der näherliegenden oberen und so naheliegend als jünger eingestuften Sedimente. Die nun angelegten Sammlungen von Fossilien waren dem Evolutionsdenken verpflichtet und damit ein großer Fortschritt gegenüber dem Anspruch der durchaus reichhaltigen Naturalienkabinette der vorangegangenen Jahrhunderte, einen Querschnitt einer einmal stattgefundenen Schöpfung zu repräsentieren. 22 Auch ist zu sehen, daß durch die rapide Zunahme der wissenschaftlichen Zeitschriften Anfang des 19. Jahrhunderts der Erkenntnisfortschritt in den Naturwissenschaften den Beteiligten leichter zugänglich und unmittelbarer - schon in Form der immer länger werdender Zeitschriftenbandreihen - vor Augen geführt wurde, was auch das Bewußtsein der eigenen Geschichtlichkeit stärkte. Prominente Beispiele für die nun thematisierte Irreversibilität sind die Formulierung des Zweiten Hauptsatzes der Thermodynamik durch Rudolf Clausius (18221888) im Jahre 1865 und die Entdeckung chemischer Reaktionen, von Reibungsund Verbrennungsvorgängen als unumkehrbare Prozesse. Hier kam vor allem die sich entwickelnde physikalische Chemie mit ihrem Zentrum an der Universität Leipzig unter Wilhelm Ostwald (1853 -1932) ins Spiel, die sich kritisch mit der Anwendbarkeit der klassischen Newton'schen Mechanik auf reale Naturprozesse auseinandersetzte. Wilhelm Ostwald hatte sich selbst lange Zeit mit der Kinetik, also dem zeitlichen Verlauf chemischer Reaktionen befaßt, während der damals herrschende Zeitgeist der klassischen Chemie auf die Charakterisierung der Struktur der chemischen Verbindungen ausgerichtet war?3 Marksteine dieser Kritik 21 Der biblischen Überlieferung folgend, ging man noch im frühen 18. Jahrhundert von einer Zeitspanne von rund 4000 Jahren zwischen der Erschaffung der Welt und der Geburt Christi aus. 22 Ein solches Beispiel finden wir in der vor einiger Zeit wiedereröffneten Kunst- und Naturalienkammer der Francke'schen Stiftungen in Halle (Saale). 23 Vgl. unsere ausführlichen Arbeiten zur chemischen Kinetik und zum Zeitbegriff bei Wilhelm Ostwald: Hans-Iürgen Krug / Ludwig Pohlmann, Wilhelm OstwaIds Ansätze einer synergetischen Schule, in: U. Niedersen (Hrsg.), Komplexität-Zeit-Methode (III), Wissensch. Beiträge der Martin-Luther-Universität Halle (Saale), 1988, S. 69 - 101; H.-I. Krug / Uwe Niedersen, Der Zeitbegriff bei Wilhelm Ostwald. I. Von der chemischen Kinetik zum Pro-
64
Hans-Jürgen Krug
waren der 1895 gehaltene Vortrag Ostwaids zur "Überwindung des wissenschaftlichen Materialismus,,24 sowie der 1898 zur Eröffnung des physikalisch-chemischen Instituts in Leipzig gehaltene Vortrag zum "Problem der Zeit,,25. Im letzteren Vortrag entwickelte er seinen auf unmittelbare Erfahrungen gegründeten Zeitbegriff, nachdem zuvor bereits Hermann von Helmholtz (1821- 1894) auf die empirischen Grundlagen unserer Raumvorstellung hingewiesen hatte?6 Nach Ostwald ist unsere empirische Zeit durch die Elemente der Stetigkeit, der Linearität, der Eindeutigkeit und der Einsinnigkeit gekennzeichnet. Die Stetigkeit der Zeit ergibt sich aus der subjektiven Interpolation des Geschehens aus diskreten Empfindungen, die Linearität aus ihrer Projizierbarkeit auf eine Zeitachse,27 Eindeutigkeit bezeichnet die Freiheit von Doppelpunkten, d. h. die Unwiederholbarkeit von Ereignissen, schließlich erlaubt die Einsinnigkeit über die Lihearität der Zeitachse hinaus eine Unterscheidung zwischen Früher und Später. Die ersten beiden Eigenschaften finden wir bereits in klassisch-mechanischen Systemen, während die letzteren beiden aus dissipativen Naturprozessen, wie der Wärmeleitung, der Diffusion, der Hysterese, der Reibung oder der chemischen Reaktion resultieren. Ostwald bemerkte in Bezug auf diese Klasse von Prozessen: "Alle diese [dissipativen -HJK) Erscheinungen haben eine doppelte Beziehung zur Zeit. Einmal geben sie ihr den erwähnten einsinnigen Charakter, dann aber sind sie alle neue und unabhängige Quellen des Zeitbegriffes selber.,,28
Ostwald vollzog daraufhin als erster eine Unterscheidung von mechanischer und dissipativer Zeit; die mechanische Zeit ist eine Größe, die nur von der Masse und der Energie eines Systems abhängt, während die dissipative Zeit zudem noch von den konkreten Stoffparametem wie elektrischer Leitfähigkeit, Reibungszahl oder chemischer Reaktionsgeschwindigkeit bestimmt wird. Auch kannte die Geschichte viele dissipative Zeitmesser, wie Sand- Wasser- oder gar Kerzenuhren, die in der historischen Folge sogar noch früher als mechanische Uhren zum Einsatz kamen, blem der Zeit, in: U. Niedersen (Hrsg.), Komplexität-Zeit-Methode (IV), Wissenseh. Beiträge der Martin-Luther-Universität Halle (Saale), 1990, S. 138 -147; H.-I. Krug, Autokatalyse, Herkunft und Geschichte eines Begriffes, in: W. Krohn/H.-J. Krug/G. Küppers (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur- Sozial- und Geisteswissenschaften, Band 3, Berlin 1993, S. 129 -154. 24 Wilhelm Ostwald, Die Überwindung des wissenschaftlichen Materialismus, in: Abhandlungen und Vorträge allgemeinen Inhalts, Leipzig 1904, S. 220 - 240. 25 Wilhelm Ostwald, Das Problem der Zeit, in : Abhandlungen und Vorträge allgemeinen Inhalts, Leipzig 1904, S. 241- 257. 26 Die deutlichste Abgrenzung Heimholtz' vom Kant'schen Apriorismus bezüglich der menschlichen Raumvorstellung findet sich in seiner 1878 an der Berliner Universität gehaltenen Rektoratsrede "Über die Tatsachen der Wahrnehmung", abgedruckt in: Vorträge und Reden. Zweiter Band, Braunschweig 1884, S. 217 - 258. 27 Die ,Linearität' meint hier nur die Projizierbarkeit auf eine lineare Achse, jedoch nicht, daß die Prozesse selbst linear sein müssen. 28 Ostwald (FN 25), S. 250.
Irreversibilität und Zeit als Fiktion und Erfahrung
65
so daß die ,dissipative Zeit' schon frühzeitig zum Alltagsleben der Menschen gehörte, aber erst sehr spät als eigene Qualität wahrgenommen wurde. 29 Eine weitere Leistung des Naturphilosophen Ostwald war es auch, die Idee der ,Eigenzeiten' der einzelnen irreversiblen Prozesse eingeführt zu haben, die auf ihren individuellen Ablaufgeschwindigkeiten beruhen; erst die menschliche Abstraktion vermag das Bündel von Eigenzeiten zu einem linearen Zeitstrom zu vereinigen. 30 Auch besitzt der Ablauf der menschlichen Geschichte neben dem linearen Anteil auch einen zyklischen, den Ostwald mit dem "Wellengesetz der Geschichte" beschreibt. 31 Diese zyklische Komponente resultiert bei Ostwald ausdrücklich aus inneren Rückkopplungsprozessen nach dem Vorbild eines Regelkreises und ist nicht die Folge äußerer Rhythmen. Den Anstoß zu Ostwald Überlegungen zu den empirischen Grundlagen unseres Zeitbegriffes hatte vor allem der Zoologe Karl Ernst von Baer (1792 - 1876) gegeben, von dem hier sein im Jahre 1860 gehaltener Vortrag "Welche Auffassung der lebenden Natur ist die richtige?,,32 hervorzuheben ist. Dort verwies von Baer darauf, daß der Mensch - vor der Setzung abstrakter Fiktionen - nicht umhin kam, "sich selbst als den Maßstab für Raum und Zeit zu nehmen." In einer Reihe von Gedankenexperimenten führte er anschaulich vor, wie sehr die Dauer unseres Lebens und auch die begrenzte Fähigkeit, eine Abfolge schneller Ereignisse aufzulösen, unsere zeitlichen Horizonte und die Prognose zukünftiger Abläufe bestimmt: Wären wir in der Lage, unsere Lebensdauer bei gleichbleibender Fülle des inneren Erlebens sowohl um ein Vieltausendfaches zu vergrößern oder zu verkleinern, kämen wir zu recht unterschiedlichen Auffassungen darüber, welche Prozesse einsinnig oder periodisch ablaufen. Ein schönes Beispiel gibt von Baer mit der Ansicht eines Menschen, dessen erfülltes Leben gerade 42 Minuten, das ist der millionste Teil von 80 Jahren, überstreicht, gerade in Bezug auf unsere heutigen Extrapolationen auf Weltenbeginn und Weltenende: "Von dem Wechsel von Tag und Nacht könnte er unmöglich eine Vorstellung während seines Lebenslaufes gewinnen. Vielmehr würde ein Philosoph unter diesen MinutenMenschen, wenn er etwa um 6 Uhr Abends an einem Sommertage geboren wäre, gegen Ende seines Lebens vielleicht so zu seinen Enkeln sprechen: »Als ich geboren wurde, stand das glänzende Gestirn, von dem alle Wärme zu kommen scheint, höher am Him29 Zudem beruhen auch die mechanischen Uhren auf dissipativen Effekten: Durch die Federenergie einer Uhr werden einerseits "Reibungsverluste ausgeglichen", zudem wird durch diesen Energietransfer die Unruhe oder das Pendel auf eine Grenzzyklusschwingung gebracht, die für den genauen Gang der Uhr notwendig ist. 30 Wilhelm Ostwald, Die Mühle des Lebens, Leipzig 1911, Kap. 1: Die Zeit, S. 5 ff. 31 Vgl. Hans-Jürgen Krug / Ludwig Pohlmann, Die Dichotomien der Zeit. Der Zeitbegriff bei Wilhelm Ostwald/Zwei Texte von Wilhelm Ostwald zum Wellengesetz der Geschichte (Edition), in: M.-L. Heuser-Keßler IW. G. Jacobs (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur- Sozial- und Geisteswissenschaften, Band 5, Berlin 1994, S. 257278. 32 Karl Ernst von Baer, Reden, gehalten in wissenschaftlichen Versammlungen und kleinere Aufsätze vermischten Inhalts. 1. Teil: Reden, Braunschweig 21886, S. 237 - 284.
5 Selbstorganisation. Bd. 8
66
Hans-Jürgen Krug mel als jetzt. Seitdem ist es viel weiter nach Westen gerückt, aber auch immerfort tiefer gesunken. Zugleich ist die Luft kälter geworden. Es läßt sich voraussehen, daß es bald, nach einer oder zwei Generationen etwa, ganz verschwunden sein wird, und daß dann erstarrende Kälte sich verbreiten muß. Das wird wohl das Ende der Welt sein, oder wenigstens des Menschengeschlechts.«,,33
Kehren wir zum Problem der Irreversibilität zurück. Es bestand und besteht noch heute in der physikalischen Begründung eben jener subjektiv erfahrenen Irreversibilität vieler Naturprozesse. Wilhelm Ostwaids eigene theoretische Bemühungen zur Thermodynamik, niedergelegt in den beiden "Studien zur Energetik,,34 beschränkten sich jedoch auf reversible Prozesse, wobei zudem die Stoßrichtung der Ostwald'schen Energetik der von Ludwig Boltzmann (1844-1906) vertretenen Atomistik, also der zur ,Realität' erhobenen Fiktion einer atomar strukturierten Materie - also einer zu bekämpfenden mechanischen Hypothese -, galt. Irreversibilität war für Ostwald eine empirische Tatsache, die von ihm außerhalb der reinen Kalorik nicht weiter hinterfragt wurde. Die zeigt deutlich der Briefwechsel zwischen Wilhe1m Ostwald und Max Planck (1858 - 1947) speziell zwischen 1891 und 1898, in dem Planck versucht, Ostwald von der Gültigkeit des Zweiten Hauptsatzes und der Existenz irreversibler Prozesse auch außerhalb der Wärmelehre zu überzeugen. 35 Ostwald hingegen war und blieb als ausgemachter Empiriker bis zuletzt der Auffassung, daß die Gültigkeit des Zweiten Hauptsatzes mit dem Irreversibilität ausmachenden Entropiezuwachs sich nur auf Prozesse mit Wärmeübergang beschränke. Die große Bedeutung des Zweiten Hauptsatzes resultierte vor allem aus der rasch um sich greifenden, kritiklosen Verallgemeinerung seines Geltungsbereiches auch auf nichtideale, immer größer werdende Systeme, bis schließlich das ganze Universum das Schicksal eines ,Wärmetodes' vor Augen hatte. Aus den Gesetzen der Thermodynamik leitete man also eine wenig verheißungsvolle Finalität der gerichteten Prozesse ab, während auf der anderen Seite der naturwissenschaftliche Evolutionsgedanke Ernst Haeckels (1834-1919) und die im Grunde eschatologische Vorstellung der gesellschaftlichen Entwicklung von Karl Marx (1818-1883), die dieser mit Hilfe eines dialektischen Geschichtskonzeptes und eben auch eines naturwissenschaftlichen Entwicklungsgedankens 36 zu objektivieren suchte, den 33 von Baer (FN 32), S. 261. 34 Wilhelm Ostwald, Studien zur Energetik. Teil I. Das absolute Maßsystem, in: Zschr. f. physikalische Chemie 9 (1892), Heft 5, S. 563 - 578; Teil 11: Grundlinien der allgemeinen Energetik, in: Zschr. f. physikalische Chemie IO (1892), Heft 3, S. 363 - 386. (Aus den Berichten der math.-phys. Klasse der König!. Sächs. Gesellschaft der Wissenschaften; Sitzungen vom 8. Juni 1891 und vom 13. Juni 1892). 35 Vg!. Hans-Günther Körber (Hrsg.), Aus dem wissenschaftlichen Briefwechsel Wilhelm Ostwaids. Teil I, Berlin 1961, S. 31- 69. 36 So haben neuere Forschungen in diesem Zusammenhang ergeben, daß bei Marx 1852 in seinen Schriften der Begriff der ,Gesellschaftsformation' auftauchte, nachdem er ein Jahr zuvor in seinen Exzerpten naturwissenschaftlicher Arbeiten den Begriff der ,geologischen Formation' notiert hatte.
lrreversibilität und Zeit als Fiktion und Erfahrung
67
Pfeil der Zeit in eine mit neuen Möglichkeitsfeldern ausgestattete Zukunft richten wollten und damit den seelischen Bedürfnissen der Menschen entsprachen. Kommen wir zuvor jedoch auf die statistische Begründung des Zweiten Hauptsatzes durch Boltzmann im Jahre 1872 zu sprechen, die von einer sehr ,unwahrscheinlichen' Anfangsverteilung der Phasenvariablen eines idealen Gases im abgeschlossenen System ausging, die allmählich, unter Entropiezunahme, zu immer wahrscheinlicheren Verteilungen übergeht. Diese sehr plausible Interpretation gab zwar die Phänomenologie des Hauptsatzes richtig wieder, sah sich jedoch bald mit dem 1896 von Ernst Zermelo (1871-1953) formulierten "Wiederkehreinwand" konfrontiert: Ein ideales, reversibles mechanisches System, wie das von Boltzmann beschriebene, würde irgendwann, wenn auch nach praktisch unendlich langer Zeit, wieder in seinen Ausgangszustand zurückkehren, wenn das System die Gesamtperiode aller seiner Teilzyklen einmal durchlaufen hat?? Hier kommt wieder der Gedanke des Zoologen Karl Ernst von Baer ins Spiel, daß wir lebenden Wesen immer nur kleine Ausschnitte aus viel größeren Zyklen überschauen können. Dazu kam ein zweiter Einwand, der die Subjektabhängigkeit der Beurteilung von ,wahrscheinlichen' oder ,unwahrscheinlichen' Zuständen hinterfragte. So erfand der amerikanische Versicherungsmathematiker Alfred James Lotka (18801949) ein Kugelspiel mit zwei Boxen von je 50 durchnumerierten einfarbigen Kugeln, die durch willkürliches Austauschen von je zwei Kugeln immer mehr durchmischt werden, also im Boltzmann'schen Sinne immer wahrscheinlichere Zustände anstreben. 38 Werden die Kugeln jedoch zu einem hinreichend späten Zeitpunkt to, wenn das System praktisch sein Gleichgewicht erreicht hat, etwa in der linken Box alle schwarz eingefärbt, kommt ein neuer Gesichtspunkt bei der Beurteilung der Durchmischung hinzu: Nun kann man sagen, daß das System bis zum Zeitpunkt to einem extrem unwahrscheinlichen Zustand (mit nur schwarzen Kugeln auf der linken Seite) zustrebte und erst danach wieder verließ. Zu dieser Diskussion steuerte der amerikanische Physiker Gilbert N. Lewis (1875 -1946) das Argument bei, daß wir bei der Beurteilung des ,Grades der Durchmischung' eines Satzes von Spielkarten immer die für ein bestimmtes Spiel gewünschten Sequenzen im Auge haben?9 Wenn wir also, sagen wir, beim WhistSpiel gleich die vollständige Reihe einer Farbe in die Hand bekommen, waren die Karten ,schlecht durchmischt' . Für ein anderes - noch auszudenkendes - Spiel, wo es auf scheinbar ungeordnete Reihen ankommt, kann diese Sequenz aber völlig un37 Aus der heutigen Sicht, nach der Entdeckung des konservativen Chaos, ist der Wiederkehreinwand aJlerding zu relativieren. Schon ein simples System von ungekoppelten Pendeln mit irrationalen Frequenzverhältnissen kehrt im mathematischen Sinne niemals in seinen Ausgangszustand zurück; ein System von bereits drei Körpern kann die sogenannte Poincare'sche Katastrophe erleiden. 38 Alfred farnes Lotka, Elements of Physical Biology, Baltimore 1925, Chapter III: The Statistical Meaning of Irreversibiliy, S. 30 - 40. 39 Gilbert N. Lewis, The Symmetry of Time in Physics, in: Science 71 (1930), No. 1849, S. 569 - 577; hier: S. 572.
5*
68
Hans-Jürgen Krug
interessant sein, so daß uns dann keine Zweifel an der ,guten Mischung' der Karten kämen. Allmählich sammelten sich also die Argumente, daß die statistische Physik allein keinen Beitrag zur Begründung eines physikalischen Zeitpfeils würde leisten können und die Phänomene des Bewußtseins mit einbezogen werden müßten. Bereits im Jahre 1910 schrieb der amerikanische Physiker William S. Franklin (1863 -1930): "What we call time, when reduced to ist simplest terms, is a phenomenon of consciousness. And our sense of the inevitable forward movement of time is dependent upon the existence of irreversible processes everywhere about us, and especially inside 0/ us [meine Hervorhebung-HJK]. That is to say, our sense of the forward movement of time and the law of increase of entropy are based upon or grow out of the same fundamental conditions in nature. ,,40
Ein weiteres Problem war für Franklin, daß die Vereinigung vieler unabhängiger irreversibler Prozesse zu einem einheitlichen Zeitstrom nur eine Idee sein könne, da bereits das Festellen der Simultaneität von Prozessen notwendig mit einem Energietransfer (zudem mit endlicher Signalgeschwindigkeit) verbunden wäre. Ein solcher permanenter Informationstransfer ist physikalisch nicht zu realisieren: "Also the idea that time is a universal steady flux cannot be justified in the physical nature of things although an assumption to that effect is extremely convenient in speech. ,,41
IV. Organische und anorganische Evolution
Eine weitere Quelle des linearen Zeitbewußtseins war das bereits erwähnte Aufkommen des schon im 18. Jahrhundert angelegten Evolutionsgedankens durch die Funde in der Geologie und Paläontologie, die Darwinsche Lehre und die Arbeiten Haeckels, der auch in die Geisteswissenschaften Einzug hielt. Man kann hier fast von einem Überschwang sprechen, der aus heutiger Sicht so kommentiert wird: "Hinzu kommt, daß in jener Zeit der Begriff »Evolution« ein Zauberwort war: konnte man nachweisen, daß ein bestimmtes Phänomen das Ergebnis eines langen Prozesses und einer stetigen Entwicklung war, dann hielt man es für erklärt, und weitere Fragen nach dem Ursprung wurden nicht mehr gestellt."42
Hier wollen wir jedoch auf den Umstand verweisen, daß es auch außerhalb der eigentlichen "Evolutionsdomänen" Biologie oder Soziologie Ansätze zu einer anorganischen Evolution von sich selbst ordnenden Strukturen gegeben hat, deren Traditionslinien von der romantischen Naturphilosophie, vertreten etwa durch 40 William S. Franklin, On Entropy, in: Physical Review 30 (1910), S. 766 -775; hier: S.774. 41 Franklin (FN 40), S. 775. 42 Lucas H. Grollenberg, Altes Testament neu gesehen, Leipzig 1987, S. 21.
Irreversibilität und Zeit als Fiktion und Erfahrung
69
Friedrich Wilhelm Schelling43 (1775 -1854) und Johann Wilhelm Ritter44 (17761810), bis zur heutigen physikalischen Chemie reichen. Gemeint sind die Phänomene der strukturellen Selbstorganisation, die im Rahmen der heutigen Konzepte, wie der Theorie der dissipativen Strukturen oder der Synergetik seit etwa 30 Jahren intensiv untersucht werden. Zu nennen sind hier vor allem die von Friedlieb Ferdinand Runge (1794 - 1867) im Jahre 1850 hergestellten "Musterbilder,,45, die einen von ihm vermuteten "Bildungstrieb der Stoffe,,46 illustrieren sollten, die 1896 von dem Kolloid- und Photochemiker Raphael Eduard Liesegang (1869 - 1947) entdeckten periodischen Fällungsringe47 , die 1864 zuerst von Moritz Traube (1826 -1894) beschriebenen osmotischen Gewächse48 , sowie die von Otto Lehmann (1855 -1922) propagierten scheinbar lebenden flüssigen Kristalle49 . Bei diesen Laborexperimenten handelte es sich um raumzeitliche Strukturbildungsprozesse aus vorher uniformen Konstellationen, die inneren Gesetzen des Systems folgten und nicht von außen aufgeprägt wurden. Schon um die Zeit der Jahrhundertwende wurden diese Phänomene nicht mehr allein als isolierte Laborkuriositäten, sondern als Modellexperimente für die Nachahmung von Lebensvorgängen, ja für die Entstehung von Lebenskeimen selbst angesehen. 5o Hier haben sich nicht nur die Entdecker der genannten Phänomene hervorgetan, sondern auch Nachfolger, die diesen Ansatz begierig aufgriffen und kommentierten, wie etwa der französische Physiologe Stephane Leduc, der vor allem Liesegang-Experimente, osmotische Gewächse und Diffusionsinstabilitäten als naive 43 Vgl. Marie-Luise Heuser-Keßler, Die Produktivität der Natur. Schellings Naturphilosophie und das neue Paradigma der Selbstorganisation in den Naturwissenschaften, Berlin 1986; M.-L. Heuser-Keßler/Wilhelm G. Jacobi (Hrsg.) Schelling und die Selbstorganisation. Neue Forschungsperspektiven. = Selbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial-und Geisteswissenschaften, Band 5, Berlin 1994. 44 Vgl. Hans-Georg Bartel, Johann Wilhelm Ritters Gedanken zur Selbstorganisation, in: W. Krohn/H.-J. Krug/G. Küppers (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Band 3, Berlin 1992, S. 113 - 128. 45 Friedlieb Ferdinand Runge, Zur Farben-Chemie. Musterbilder für Freunde des Schönen und zum Gebrauch für Zeichner, Maler, Verzierer und Zeugdrucker, 1. Lieferung. Berlin 1850. 46 F.F. Runge, Der Bildungstrieb der Stoffe. Veranschaulicht in selbständig gewachsenen Bildern (Fortsetzung der Musterbilder), Oranienburg 1855. 47 Raphael Ed. Liesegang, A-Linien, in: Liesegangs photogr. Archiv 37 (1896), No. 801, S. 321- 326. 48 Moritz Traube, Experimente zur Theorie der Zellenbildung, in: Centralblatt für die med. Wissensch., No. 39 (1864) =Gesammelte Abhandlungen, Berlin 1899, S. 200- 206. 49 Otto Lehmann, Die scheinbar lebenden Kristalle, Eßlingen 1907; ders., Flüssige Kristalle und die Theorien des Lebens, Leipzig 21908. 50 Die populäre Verbreitung solcher Experimente bei Liebhabern, speziell der osmotischen Gewächse, fand bei Thomas Mann im dritten Kapitel seines "Dr. Faustus" sogar Eingang in die Romanliteratur.
70
Hans-JÜfgen Krug
Nachahmungen von Lebensvorgängen heranzog. 51 Als unbedingt seriöser und kritischer sind die Arbeiten des Biologen Ernst Küster (1874 - 1953) anzusehen, der zahlreiche Analogien zwischen Liesegang-Ringen und periodischen Strukturen in der Pflanzenwelt aufzeigte. 52 Als ein Findling in der biologischen Literatur ist das Werk von D' Arcy Wentworth Thompson (1860 -1948) "On Growth and Form,,53 anzusehen, in dem er alle zur damaligen Zeit bekannten physikochemischen Formbildungsvorgänge im Kontext organismischer Strukturen darstellte. Aus der Sicht des Biologen vollzog später Ludwig Rhumbler (1864 - 1939) eine kritische Würdigung anorganischer Strukturbildungsphänomene. 54 Auch Liesegang selbst interpretierte seine Fällungsringe in Hinblick auf Lebensvorgänge 55 ; viel bedeutender aber war seine Idee, daß die in der Geologie gefundenen Schichtungen, die - zum Teil noch bis heute - naiv als Folge alternierender Sedimentationsvorgänge angesehen wurden, vielmehr das Ergebnis nachgelagerter oder unabhängiger Diffusions-, Fällungs- und Reifungsvorgänge sind, die eine langandauernde interne Metamorphose eines keineswegs invarianten Gesteinsmassivs zum Ausdruck bringen. 56 Diese Experimente waren die ersten Modellbeispiele für eine rein physikalischchemische Evolution und damit der Erkenntnis, daß Natur aus sich selbst in Bewegung geraten kann. Sie waren damit Vorläufer für die noch zu besprechende, von Ilya Prigogine (* 1917) beschriebene Evolutionskaskade von aufeinanderfolgenden, sich immer weiter verzweigenden Bifurkationsprozessen. 57
V. Grenzen der heutigen Zeitpfeile Wie wir bereits bemerkt haben, werden in der Diskussion der Irreversibilität die Vorgänge des Bewußtseins von denen, die davon ,unabhängig' in der Natur ablaufen, unterschieden. Extrem ausgedrückt, würden wir auch dann ein Gefühl für ei51 Stephane Leduc, Das Leben in seinem physikalisch-chemischen Zusammenhang, Halle (Saale) 1912; Die synthetische Biologie, Halle (Saale) 1914. 52 Ernst Küster, Über Zonenbildung in kolloidalen Medien, Jena 1913,21931. 53 D'Arcy Wentworth Thompson, On Growth and Form, Cambridge 1917,21942,31961; dt.: Über Wachstum und Form, Basel 1973. 54 Ludwig Rhumbler, Methodik der Nachahmung von Lebensvorgängen durch physikalische Konstellationen = Handbuch der biologischen Arbeitsmethoden, Lfg. 33, Abt. 5, Tl. 3a, Heft 2, Berlin und Wien 1920 - 1925. 55 Raphael Ed. Liesegang, Nachahmung von Lebensvorgänge. III. Formkatalysatoren, in: Archiv für Entwicklungsmechanik der Organismen 33 (1911), Heft 1-2, S. 328 - 339. 56 Raphael Ed. Liesegang, Geologische Diffusionen, Dresden und Leipzig 1913; ders., Die Achate, Dresden und Leipzig 1915. 57 Vgl. hierzu Ludwig Pohlmannl Uwe Niedersen, Dynamisches Verzeigungsverhalten bei Wachstums- und Evolutionsprozessen, in: U. NiedersenIL. Pohlmann (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur- Sozial- und Geisteswissenschaften, Band I, Berlin 1990, S. 63 - 81.
Irreversibilität und Zeit als Fiktion und Erfahrung
71
nen Fluß des Geschehens besitzen, wenn alle außer uns ablaufenden Prozesse sämtlich reversibel wären. Das Gefühl für Irreversibilität und Altem ist dann eine Funktion unseres Gedächtnisses. Gedächtnis oder Speichern von Informationen ist aber in jedem Falle an irreversible Prozesse gebunden, die sich dann - bei einer sonst reversiblen Welt - insular in unseren Köpfen abspielten. Ein zweiter Gesichtspunkt ist hier wichtig: Selbst die mit einem nur minimalen Energietransfer verbundene Beobachtung eines reversiblen, etwa zyklischen Systems hebt auch in makroskopischen, ja kosmischen Dimensionen die an Abgeschlossenheit gebundene Reversibilität des Systems schon auf. Auch wenn man die energetische Rückwirkung des Beobachters, der ja etwa bei der Betrachtung des Sternenhimmels eine lokale Energiesenke im Vergleich zum Strahlungsfeld des sonst leeren Raumes darstellt, ganz ausschließen könnte, bliebe noch die einseitige Energieabgabe der Sterne, die ihre Observabilität erst ermöglicht. Beobachtbare oder auch nur abzählbare Systeme sind also stets offene Systeme. 58 Wenngleich eine ausgebaute Theorie der neurophysiologischen Vorgänge noch aussteht, so muß hier angemerkt werden, daß schon im 19. Jahrhundert über die materielle Struktur und Funktion des menschlichen Gedächtnisses nachgedacht wurde. So ist hier eine Arbeit des Physiologen Ewald Hering (1834 - 1918) zu nennen,59 die später den Physikochemiker Wilhe1m Ostwald zu Experimenten zur chemischen Theorie des Gedächtnisses auf der Grundlage autokatalytischer Reaktionen angeregt hatte. 60 Kehren wir jedoch jetzt zu den irreversiblen Prozessen der ,äußeren' Welt zurück. Auch in der modemen Physik ist das Bestreben lebendig, einzelne irreversible Prozesse ausfindig zu machen oder den so gewünschten Charakter nachzuweisen. Eine darüber hinausgehende Frage ist, auf welchen Prozeß man den Zeitpfeil der allgemeinen kosmischen Evolution zurückführen kann. 61 Aus dieser bereits vielfach diskutierten Problematik wollen wir einige Punkte herausgreifen. Auch auf dem heutigen Stand der Physik ist das Dilemma erhalten geblieben, daß die Erfahrungstatsache der Irreversibilität oder einer fortschreitenden Entwicklung nicht auf die Grundgesetze der allgemeinen Physik, d. h. der klassischen Mechanik oder der Elektrodynamik zurückgeführt werden können. Natürlich kann man auch hier die Auszeichnung einer Zeitrichtung erzwingen, indem man in der 58 Dieser Hinweis ist insofern auch von praktischer Bedeutung, wenn man bedenkt, daß das Verhalten aller abgeschlossenen mechanischen Systeme strukturell instabil gegen die Addition eines beliebig kleinen Energietransfers sind. 59 Vgl. Ewald Hering, Über das Gedächtnis als eine allgemeine Funktion der organisierten Materie (1870), Ostwaids Klassiker der exakten Wissenschaften, Bd. 148, Leipzig 1905. 60 Wilhelm Ostwald, Über Katalyse, in: Zschr. für Elektrochemie 7 (1901), S. 995 - 1004, hier S. 1001. 61 Eine übersichtliche Darstellung dieser Problematik findet sich bei G. Vollmer, Woher stammt die Asymmetrie der Zeit? Zeitpfeile in Physik und Kosmologie, in: Naturwissenschaften 72 (1985), S. 470 - 481; sowie bei H.-D. Zeh, The Physical Basis of the Direction of Time, Berlin I Heidelberg I New York 21992.
72
Hans-Jürgen Krug
Mechanik, wie bekannt, ,unwahrscheinliche' Anfangsbedingungen einführt, oder in der Elektrodynamik postuliert, daß es nur auswärts, aber keine einwärts laufenden Kugelwellen geben darf (Sommerfeld'sche Ausstrahlungsbedingung). Zudem ist bei mechanischen Systemen zu bedenken, daß bei hinreichender Alterung, d. h. bei hinreichend großen Abständen vom Systemstart, jede weitere Annäherung an ,wahrscheinlichere' Zustände und damit der Zuwachs einer Zustandsvariablen wie der Entropie im Rauschen untergeht. Die ,Reichweite' eines solchen statistischthemodynamischen Zeitpfeils, bezogen auf ein einzelnes abgeschlossenes System, ist also jeweils begrenzt und läßt sich nur durch die Ausdehnung der räumlichen Abmessungen eines solchen Systems erweitern. Ein ähnliches Problem der begrenzten Reichweite eines Zeitpfeiles tritt auch bei der organischen oder kulturellen Evolution auf. Gern wird der Mythos einer permanenten Evolution von einfachsten zu immer komplexeren Strukturen als selbstverständliche Grundlage eines biologischen oder kulturellen Zeitpfeiles verwendet. Als zeitweiligen Höhepunkt einer solchen Evolution wird der Mensch angesehen, der sich selbst nur in einem Zwischenstadium zu einer noch höheren Entwicklungsstufe befinde. Solche Vorstellungen werden auch in den heutigen Selbstorganisationskonzepten vertreten. 62 Zweifel an einem solchen Bild kommen aber nicht erst auf, wenn man an Rückschritte oder Katastrophen auf Grund vermeintlich äußerer Einflüsse - etwa eines Meteoriteneinschlage oder einer Überflutung denkt. Auch unter nahezu konstanten Rahmenbedingungen strebt die Evolution stets nur einem lokalen Wertemaximum zu, das in der ,Zeit' bestenfalls nur in Form einer Kammlinie gehalten werden kann. Fortschritt ergibt sich nur, wenn die Evolution an anderer Stelle von Neuem ansetzt. Bereits im Jahre 1940 hatte der Biologe Jakob von Uexkuell (1864 -1944) darauf hingewiesen, daß viele der von ihm untersuchten Organismen in sich vollkommen seien und keiner weiteren Verbesserung bedürften. Sie befinden sich in heutiger Formulierung in einem Optimum der Evolution: "Mir war jedenfalls auch bei den einfachsten Tieren nie eine Spur von Unvollkommenheit aufgestoßen. Immer war, soweit ich das beurteilen konnte, das zum Bau bereitliegende Material in der bestmöglichen Weise ausgenutzt worden. Jedes Tier hatte seine eigene Lebensbühne mit all den Dingen und Mitspielern bevölkert, die für sein Leben von Bedeutung waren.,,63
Ganz augenscheinlich wird dieser Aspekt bei der Bewertung der kulturellen Evolution, die jeweils nur zeitlich und lokal begrenzte Höhepunkte erreichen kann, 62 Vgl. Erich Jantsch, Die Selbstorganisation des Universums. Vom Urknall zum menschlichen Geist, München 1979. 63 Jakob von Uexkuell, Bedeutungslehre, in: v. Uexkuelll Georg Kriszat, Streifzüge durch die Umwelten von Tieren und Menschen (l934)/Bedeutungs1ehre (1940), Hamburg 21956, S. 149. V. Uexkuell folgt in dem 11. Kapitel seiner "Bedeutungslehre" ("Der Fortschritt", S. 149 ff.) ausdrücklich der antievolutionistischen Anschauung des Historikers Leopold von Ranke (1795 - 1886).
Irreversibilität und Zeit als Fiktion und Erfahrung
73
da eine stetige Fortsetzung über diese hinaus ohne Zerstörung der Gesamtstruktur nicht mehr möglich ist. So hat sich gerade an der Betrachtung antiker Kunstwerke die oft geäußerte Ansicht festgemacht, daß sich zumindest auf dem Gebiet der Plastik die ,Kultur' seither im Rückschritt befunden habe, denn die Plastiken oder Münzprägungen aus jener Zeit sind - zumindest in der heute überlieferten Form nicht ,vollkommener' zu machen. Ein anderes Beispiel ist das ebenfalls aus der Antike überlieferte und besonders in der deutschen Klassik kultivierte Idealbild des in allen Facetten gebildeten Menschen, das dann mit dem Aufkommen des industriellen Zeitalters zum Scheitern verurteilt war. 64 In den Worten von Romain Rolland ist jeder "Triumph des Geistes" ein "schmaler Grat, auf dem sich keine Wohn stätte bereiten läßt." In der anorganischen Evolution bzw. der Bionik als Nachahmung biologischer Evolutionsprinzipien zur Verbesserung technischer Systeme hat man von Anfang an nur nach lokalen Evolutionsmaxima (etwa bei der Entwicklung eines Schiffsrumpfes nach dem Mutations-Selektions- Prinzip) gesucht. Der Sprung zu anderen lokalen oder gar zu dem globalen Maximum ist mit kleinen Mutationsschrittweiten nicht zu leisten. Erst ein vollständiger Neuansatz, der mit der alten Struktur nicht kompatibel ist, eröffnet neue Perspektiven. 65 So sehen wir auch hier, daß mit der Evolution verbundene Zeitpfeile immer nur von begrenzter Dauer sein können. Erst unter Annahme eines immer wieder neu ansetzenden Schöpfungsprozesses läßt sich ein Gesamt-Zeitpfeil konstruieren. Wir haben oben gesehen, daß Irreversibilität im System der klassischen Physik nur bei bestimmten Zusatzannahmen auftritt. Dies ist insofern nicht verwunderlich, da es ja das von den Naturwissenschaften gestützte Ideal der Aufklärung war, alles Zufällige und Unwiederholbare aus der Natur auszumerzen. So hat sie letztlich - einst als Akt der Befreiung durch Bestimmen der Zukunft gedacht - Natur und Mensch in ein deterministisches Gefängnis ewiger Zeitschleifen gesperrt. Neben dem Kunstgriff der Zusatzannahmen suchte man daher unbewußt nach Lösungen in den ,Randbereichen' der Physik, die in den zwanziger Jahren eben durch die Quantenphysik repräsentiert wurden. Hier bot sich die Heisenberg'sche Unschärferelation als Quelle des Zufälligen zumindest im Bereich des (nach menschlichen Maßstäben gemessenen) Mikroskopischen geradezu an. 66 Auch in der ,modemen' Physik liegt eine mögliche Quelle der Irreversibilität eben weit außerhalb der klassischen Horizonte: In der Elementartei1chenphysik ist der Kaonenzerfall als Elementarakt nicht auf demselben Wege wieder rückgängig zu machen. Von 109 Vgl. den resignierenden Brief Goethes an Zelter vom 6. Juni 1825. Vgl. Ingo Rechenberg, Evolutionsstrategie '94. Werkstatt Bionik und Evolutionstechnik, Band 1, Stuttgart 1994. 66 So findet sich bei A.J. Lotka nach einer kritischen Würdigung der statistischen Mechanik zur Begründung der Irreversibilität aus dem Jahre 1925 die (etwas resignierende) Bemerkung: "Perhaps the objective interpretation of our subjective sense of direction in time must be sought in quantum mechanics." (FN 38, S. 39). 64 65
74
Hans-Jürgen Krug
Kaonen zerfällt eines (!) CP-verletzend in zwei Pionen. 67 Natürlich wäre es verfehlt, die irreversiblen Prozesse unserer Erfahrung oder der kosmischen Evolution auf den Rücken dieses Elementarprozesses laden zu wollen; der Kaonenzerfall soll hier nur als Beispiel genannt werden, wie ein gewünschtes Ergebnis erst am Rande der gewohnten Erfahrungshorizonte gefunden wird, nachdem die ,inneren' Bereiche längst ausgeschöpft zu sein scheinen. 68 Die Rückkehr zu den ,inneren Bereichen' wurde möglich und auch fruchtbringend durch die sehr anschaulichen Konzepte der Selbstorganisation, die sich von anderen Bereichen der modernen Physik insofern unterscheiden, da sie nicht allein eine Fortsetzung der Traditionen der Aufklärung sondern, wie wir erwähnt haben, der Tradition der Romantik als Gegenströmung zur Aufklärung darstellen. So stand bei Schelling und Ritter eben nicht die präzise Analyse des ewig Bestehenden sondern die Betonung des Werdenden, die Entstehung des unberechenbar Neuen im Vordergrund. Es ist eine der wesentlichen Leistungen dieser modernen Konzepte, gezeigt zu haben, daß und auf welche Weise sich bereits auf der physikalisch-chemischen Ebene Strukturen ,spontan' bilden und weiter evolvieren können. Das klassische Beispiel für ein solches ,Evolutionssegment' ist die Benardkonvektion69 in einer dünnen Flüssigkeitsschicht, die nach Überschreiten eines kritischen Temperaturgradienten zunächst hexagonale Strömungsrollzellen zeigt, die bei zunehmender Temperaturdifferenz nach Überschreiten weiterer Instabilitätsschwellen in Rollwalzen und immer komplexer werdende Muster übergehen. Ein ähnliches Szenario beobachten wir auch bei der zu solchen Demonstrationen verwendeten TaylorCouette-Strömung70 in einer Flüssigkeitschicht zwischen zwei rotierenden koaxialen Zylinderwänden bei stetig zunehmender Rotationsgeschwindigkeit als Bifurkationsparameter. Das abstrakte Bild einer solchen Strukturbildungs- und Evolutionssequenz ist der von Prigogine propagierte Bifurkationsbaum, der im Idealfall aus
67 Vgl. H. Schopper, Stand der Experimente zur Gültigkeit der Quantenelektrodynamik und der Spiegelungssymmetrien, in: Nova Acta Leopoldina N.F. 39 (1974), Nr. 212, S. 25 ff. 68 Das gleiche Denkmuster findet sich zum Beispiel in der physikalischen Chemie, wo man lange Zeit glaubte, neue Effekte nur bei sehr hohen (oder tiefen) Temperaturen oder hohen Drucken finden zu können, also an der Peripherie des bekannten Wissens. Ein schönes Beispiel hierfür sind in der Geochemie die älteren Achatbildungstheorien, sie sämtlich hohe Drucke oder Temperaturen voraussetzten. Erst in jüngerer Zeit konnte man zeigen, daß die bei Achaten auftretenden Strukturbildungsphänomene auch bei (viel wahrscheinlicheren) Nonnalbedingungen durch Kopplung von Diffusions- und Kristallisationsvorgängen auftreten können. Hier findet also eine Rückkehr von den peripheren zu den ,Kernbereichen ' der physikalischen Chemie statt. Vgl. hierzu Michael Landmesser, Das Problem der Achatgenese, in: Mitt. der POLLICHIA (Bad Dürkheim) 72 (1984), S. 5 - 137. 69 Vgl. die Originalarbeit von Henri Benard, Les Tourbillons Cellulaires dans uns Nappe Liquide, in: Rev. Gen. Sci. Pures Appl. 11 (1900), S. 1261-1271; S. 1309 -1328. 70 Vgl. die Originalarbeit von G.l. Taylor, Stability of a Viscous Liquid contained between Two Rotating Cylinders, in: Phil. Trans. Roy. Soc. London Sero A 223 (1923), S. 289 - 343.
Irreversibilität und Zeit als Fiktion und Erfahrung
75
einer Folge sich immer weiter verzweigender symmetrischer Heugabelbifurkationen besteht. Welcher Zweig davon jeweils tatsächlich angesteuert wird, hängt dabei vom ,Zufall' in der Bifurkationsphase ab, der sich jedoch der Beschreibung im deterministischen Bild entzieht. Immerhin ist dies schon ein erstes Beispiel eines irreversiblen Vorganges, bei dem der Zufall auf sich weiter voneinander entfernende Bifurkationszweige führt, die den vormaligen Bifurkationspunkt unwiederholbar hinter sich lassen.?! Verschärft wird dieses Moment der modellhaften Irreversibilität durch das Auftreten chaotischen Verhaltens, das in geeigneten Systemen bei Überschreiten eines kritischen Bifurkationsparameters auftreten kann. Hier bildet sich einmal eine sehr komplexe Struktur bei bereits endlichen Werten eines Bifurkationsparameters hier sehen wir eine Singularität im sonst stetigen Evolutionsgeschehen -; zudem führt die empfindliche Abhängigkeit einer solchen Trajektorie von den Anfangsbedingungen zu unvorhersehbaren Entwicklungen oder Möglichkeitsfeldern, die man in linearen deterministischen Systemen nicht findet. Allerdings kann sich das Chaos bei zunehmender Gleichgewichtsfeme ebenso spontan auch wieder in einfache Trajektorien zurückverwandeln, wie das bekannte Bild von den ,Fenstern im Chaos' beweist. Die simple Vorstellung vom monotonen Komplexitätszuwachs bei stetig zunehmender Gleichgewichtsfeme - im Sinne eines ständig fortschreitenden Prozesses - läßt sich auch anhand dieser Modellsysteme, wie bereits im Großen nicht umsetzen. Jedoch muß man den Hinweis auf die Katastrophen sowohl im Sinne eines unstetigen Komplexitätszuwachses als auch spontanen Komplexitätsabbaus als Kennzeichen einer eben nicht-linearen Evolution im Modell wie in der Realität ernstnehmen. In der Evolutionslehre werden Zäsuren in der Entwicklung gern als Resultat äußerer, zumeist kosmischer Eingriffe dargestellt, da die dynamischen Aspekte der Evolution oftmals noch unterbelichtet sind. Das Denken in dynamischen Modellen ist hingegen in der Populationsgenetik traditionell immer stark ausgeprägt gewesen, zumal sich Populationszahlen stets als bequem zähl- und berechenbare Größen darstellten. So ist dort auf logistisch wachsende oder gar periodisch schwankende Populationszahlen sowie auf sich wellenförmig ausbreitende Populationen als Konsequenz einer geeigneten Kopplung von dynamischen Variablen schon frühzeitig hingewiesen worden. 72 Eine einfache Reproduktion von Populationen unter konstanten Bedingungen führt zu einem exponentiellen Wachs71 Solche symmetrischen Heugabelbifurkationen treten in der Realität wegen ihrer strukturellen Instabilität allerdings nicht auf. Schon unter dem Einfluß schwacher Störungen kommt es zu sogenannten ,entarteten' Bifurkationen, die jeweils nur einen Zweig der Heugabel auszeichnen, der bei kleinen Fluktuationen immer angesteuert wird. Der zweite, nunmehr isolierte Zweig kann nur unter Aufwendung größerer Fluktuationen in der entsprechen Richtung erreicht werden. 72 V gl. Vita Valterra, Ler;:ons sur la theorie mathematique de la lutte pour la vie, Paris 1931; Ranald A. Fisher, The Wave of Advance of Advantageous Genes, in: Ann. Eugenics 7 (1937), S. 255.
76
Hans-Jürgen Krug
turn der Populationszahlen, während bei mehrfacher Rückkopplung - wenn ein Prozeß seine eigenen Reproduktionsbedingungen positiv beeinflußt, wie beim Wachstum der Erdbevölkerung - ein hyperbolisches Wachstum auftreten kann. 73 Solche hyperbolischen Wachstumskurven weisen insofern auf interne Katastrophen hin, da sie bekanntlich bereits für endlichen Zeiten gegen unendliche Werte streben; bei begrenzten Ressourcen führt dies zum abrupten Aussterben einer Population - als Konsequenz der eigenen Dynamik. 74 Unzählige Schöpfungsakte im Kleinen und makroskopische Katastrophen bilden diskrete Marksteine auf der gedachten Achse unserer stetig fließenden Zeit. Möglicherweise müssen wir uns von der Vorstellung dieser stetig fließenden Zeit (oder der sie tragenden Bewegung) verabschieden und zu Aristoteles mit seiner Abzählung diskreter Ereignisse, etwa beim Durchlaufen sukzessiver Bifurkationspunkte, zurückkehren. Die ,Zeit' schreite nur dann voran, wenn etwas unberechenbar Neues entstand oder geschah, in den Augenblicken, die in der Antike mit Kariost umschrieben wurden. Die dazwischen ablaufenden ereignislosen Intervalle (Chronos) werden im Gedächtnis nicht akkumuliert. Ich denke hier an das Balzac'sche Chagrinleder, das sich immer dann um ein Stück zusammenzog, wenn ein "unwahrscheinlicher" Wunsch in Erfüllung gehen mußte. Die Zeit wäre dann ein ,inverses Chagrinleder', das sich in den Momenten des Kariost schubweise ausdehnt. VI. Epilog
Nachdem wir darauf hingewiesen haben, daß das Gefühl der fortschreitenden Zeit eher ein Konstrukt oder gar ein Wunschbild des menschlichen Denkens ist als eine Deduktion aus physikalischen Sachverhalten, wollen wir diese Ausführungen mit einigen literarischen Beispielen, in denen jeweils ein bestimmtes Zeitgefühl explizit zum Ausdruck gebracht wird, abschließen. Eine Schwierigkeit bei der Darstellung historischer Verhältnisse besteht für den Historiker wie für den Erzähler in der Neigung, unser heutiges Zeit- und Geschichtsverständnis in frühere Zeiten zu übertragen. Dieses Problem trat, wie schon in der Einleitung bemerkt bei den Exegeten des Alten Testaments auf und resultiert 73 Vgl. Manfred Peschell Wemer Mende, Leben wir in einer Volterrra-Welt? Ein ökologischer Zugang zur angewandten Systemanalyse, Berlin 1983, S. 22 ff. 74 So kann auch die Kritik an den historischen Folgen der Aufklärung nicht allein an der Vertreibung der Mythen aus dem gesellschaftlichen Denken ansetzen, wie es Max Horkheimer und Theodor Adomo 1947 in der "Dialektik der Aufklärung" fonnulierten. Entscheidender für die späteren Katastrophen war wohl die Möglichkeit des Menschen, nunmehr über seine äußeren Verhältnisse bestimmen zu können, was - systemtheoretisch gesehen - zu einer neuen ,metaevolutionären' Rückkopplungsschleife im gesellschaftlichen Entwicklungsprozeß führte. Dies bot dann nicht nur die Möglichkeit einer starken Beschleunigung dieses Prozesses, sondern barg auch die Konsequenz extremer Instabilitäten bzw. Katastrophen.
Irreversibilität und Zeit als Fiktion und Erfahrung
77
daraus, daß wir stets nur unser eigenes, empirisches Zeit- und Raumempfinden und die damit verbundenen Horizonte als unmittelbaren Vergleichsmaßstab besitzen. Da sich dieser eigene Maßstab kaum vergrößern läßt, aber die Dimensionen der äußeren Welt durch die Möglichkeiten der heutigen Kommunikation und Verkehrs eben ,unermeßlich' angewachsen sind, kommt es zu dem eigenartigen Phänomen der Verkleinerung der äußeren Welt und - ins Zeitliche übertragen - zur Gleichschaltung der Vergangenheit mit der Gegenwart. 75 In seiner Erzählung "Narziß und Goldmund" ist Hermann Hesse (1877 -1962) dieser Gefahr entgangen, indem er bei der Schilderung des mittelalterlichen Klosterlebens (Maulbronn hat Hesse zeitlebens begleitet) eben nicht versucht, eine historische Spannung, eine Witterung kommender Zeiten oder gar eine fortschreitende Entwicklung zu implantieren. So lesen wir bei ihm im ersten Kapitel seiner Erzählung: "In den Zellen und Sälen des Klosters, zwischen den runden und den strammen Doppelsäulen aus rotem Stein wurde gelebt, gelehrt, studiert, verwaltet, regiert; vielerlei Kunst und Wissenschaft wurde hier getrieben und von einer Generation der andern vererbt, fromme und weltliche, helle und dunkle. Bücher wurden geschrieben und kommentiert, Systeme ersonnen, Schriften der Alten gesammelt, Bilderhandschriften gemalt, des Volkes Glaube gepflegt, des Volkes Glaube belächelt. ... Zuzeiten war das Kloster berühmt und besucht wegen seiner Teufelsbanner und Dämonenkenner, zuzeiten wegen seiner ausgezeichneten Musik, zuzeiten wegen eines heiligen Vaters, der Heilungen und Wunder tat, zuzeiten wegen seiner Hechtsuppen und Hirschleberpasteten, ein jedes zu seiner Zeit.,,76
Dieses an das Buch Kohelet erinnernde Zeitverständnis war für die Zeit des Mittelalters vorherrschend gewesen, in der langen Zeit, in der man, um mit Augustinus zu sprechen, "für seine Träume noch nicht selbst verantwortlich war". Diese stabile, zudem durch Klostermauern geschützte eigene Zeitordnung wurde, wir wissen es, erst spät durch die Zäsuren von Reformation und Aufklärung aufgehoben. Die mit der Aufklärung neu eingeführte Möglichkeit, über seine äußeren Verhältnisse nun selbst bestimmen zu können, eröffnete dem Menschen vordergründig den Weg zu neuen Ufern, sollte ihn aber auch, wie die antiken Schriftsteller schon wußten, vollends ins Unglück stürzen. Die uns eigene Zukunftwitterung und -Hoffnung folgt aber offenbar einer Eigengesetzlichkeit, die auch durch die historischen Erfahrungen unseres Jahrhunderts nicht aufzuheben ist. Stets bleibt der Wunsch vorhanden - die Warnung Hebbe1s mißachtend - an den "Schlaf der Welt" zu rühren, wo er denn noch vorhanden ist. Wir finden einen Hinweis auf diese Dichotomie der Zeit in Ingeborg Bachmanns (1926 - 1974) "Herbstmanöver" , wo es heißt: 75 Vgl. den italienischen Archäologen Salvatore Settis, Die Zeitmaschine, in: ad libitum. Sammlung Zerstreuung, Nr. 16, Berlin 1990, S. 9-18. 76 Hermann Hesse, Narziß und Goldmund (1930), Frankfurt a.M. 1975, S. 8 f.
78
Hans-JÜfgen Krug "Die Zeit tut Wunder. Kommt sie uns aber unrecht, mit dem Pochen der Schuld: wir sind nicht zu Hause.,,77
Daran anschließend lesen wir die erste Strophe der "Gestundeten Zeit" von einer am Horizont sichtbar werdenden Zeit, die uns wieder in die Verantwortung nimmt: "Es kommen härtere Tage. Die auf Widerruf gestundete Zeit wird sichtbar am Horizont. Bald mußt du den Schuh schnüren und die Hunde zurückjagen in die Marschhöfe. Denn die Eingeweide der Fische sind kalt geworden im Wind. Ärmlich brennt das Licht der Lupinen. Dein Blick spurt im Nebel: die auf Widerruf gestundete Zeit wird sichtbar am Horizont.,,78
Die Autonomie dieser Zeilen soll hier nicht durch interpretatorisches Bemühen zerstört werden; erlaubt sei hier nur der Hinweis auf einen ähnlichen Gestus in Bob Dylans (*1941) knapp zehn Jahre später entstandenen "It's All Over Now, Baby Blue", das über die Metaphern von den heimwärts rudernden Matrosen und den nach Hause zurückkehrenden Rentierarmeen den Abschied von der Sicherheit und Stabilität linearer Zeitvorstellungen beschreibt und uns dazu auffordert, in nunmehr ständig wechselnden Zeiten die Chancen des Zufalls zu ergreifen, und sei es nur wegen des "Waisenkindes im Flammenmeer": "You must leave now, take what you need, think will last. But whatever wish to keep, you better grab it fast. Yonder stands your orphan with his gun, Crying like a fire in the sun. Look out the saints are comin' through And it's all over now, Baby Blue.,,79
Ein kritisches Hinterfragen des linearen Fortschrittsdenkens eben um des wirklichen Fortschritts willen, finden wir schließlich bei Wolf Biermann (* 1936), bei dem wir wie bei Dylan immer verschlüsselte Spuren eschatologischen Denkens antreffen. So sieht er in Fritz Cremers Plastik "Der Aufsteigende" die ganze Ambivalenz von Entwicklung und Fortschritt, die letztlich immer nur nach anthropomorphen Kriterien bewertet werden können: 77 lngeborg Bachmann, Herbstmanöver, in: Die gestundete Zeit. Gedichte (1957), München und Zürich 1983, S. 17. 78 Bachmann, Die gestundete Zeit (FN 77), S. 18. 79 Bob Dylan, It's All Over Now, Baby Blue (1965), in: Texte und Zeichnungen, Frankfurt a.M. 1975, S. 538.
Irreversibilität und Zeit als Fiktion und Erfahrung
79
"Wohin steigt dieser da? Da oben, wohin er steigt was ist da? Ist da überhaupt oben? Du, steigt der auf zu uns? Oder steigt er von uns auf? Geht uns der voran? Oder verläßt er uns? Verfolgt er wen? Oder flieht er wen? Macht er Fortschritte? Oder macht er Karriere? Oder soll er etwa, was wir schon ahnten: Ein Symbol sein der Gattung Mensch? Steigt er da auf Zur Freiheit, oder, was wir schon ahnten: Zu den Fleischtöpfen? Oder steigt da die Menschheit auf Im Atompilz zu Gott und, was wir schon ahnten: Ins Nichts?" 80
80 Wolf Biermann, Fritz Cremer, Bronze: "Der Aufsteigende", in: Mit Marx- und Engelszungen. Gedichte, Balladen, Lieder (1968), Berlin 1981, S. 21 f.
Physikalische Grundlagen und Evolution der Information Von Werner Ebeling, Berlin
Unsere Gesellschaft braucht für die Beurteilung des Wertes von Innovationen neben Skeptikern, die fast immer recht behalten, auch Enthusiasten, die fast immer unrecht haben.
I. Zum Informationsbegriff
Der Informationsbegriff spielt heute eine zentrale Rolle in verschiedenen Wissenschaften, in der Mathematik, Physik, Biologie, Kybernetik, in den Sozialwissenschaften usw. Wir vertreten die Auffassung, daß Information kein rein physikalischer Begriff ist. 1 Information ist allerdings unlösbar an physikalische Objekte und Prozesse gebunden und besitzt somit auch physikalische Aspekte. So ist auch die Begründung der Informationstheorie stark durch Physiker beeinflußt worden. Besonders Maxwell, Boltzmann, Gibbs, Szilard und von Neumann haben die Herausbildung der Informationstheorie entscheidend beeinflußt. Von eminenter wissenschaftlicher Bedeutung waren bereits im vorigen Jahrhundert die Arbeiten von Maxwell, der einen kleinen Dämon erdachte, der Gasteilchen beobachten und steuern sowie Informationen in Temperaturunterschiede umwandeln konnte. Den Begriff der statistischen Entropie verdanken wir Boltzmann und Gibbs. Von einiger Bedeutung war die Dissertation, die Szilard in den 20er Jahren an der Berliner Universität schrieb, sowie die daraus entstandene Publikation (1929) "Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen,,2. Weiterhin erwähnen wir die bedeutenden Arbeiten von Neumann's zum quantenstatistischen Entropiebegriff sowie die Monographie von Brillouin aus dem Jahre 1956 "Science and Information Theory,,3. Unter Vernachlässigung semantischer Aspekte vereinfachend, verstehen wir unter Information eine austauschbare Größe, welche eng mit Energie und Entropie 1 Vgl. Werner Ebeling, Chaos, Ordnung und Information, Leipzig/Jena/Berlin 1989; Frankfurt a.M./Thun 1989,21992; Rainer Feistel!Werner Ebeling, Evolution of Complex Systems, Berlin 1989; Dordrechtl Boston / London 1989; Werner Ebeling / Andreas Engel! Rainer Feistei, Physik der Evolutionsprozesse, Berlin 1990; Werner Ebeling / Rainer Feistel, Chaos und Kosmos. Prinzipien der Evolution, Heidelberg / Berlin / Oxford 1994. 2 Leo Szilard, in: Z. Physik 53 (1929), S. 840 - 856. 3 New York 1956.
6 Selbstorganisation, Bd. 8
82
Werner Ebeling
verknüpft ist und welche die Unbestimmtheit des Zustandes eines Systems reduziert. Wir halten es aus physikalischer Sicht für günstiger, nicht wie in der Monographie von Völz die Information als Träger plus Getragenes zu definieren. 4 Dabei stützen wir uns auf die Überlegung, daß auch die üblichen physikalischen Definitionen der Grundgrößen Energie und Entropie den Träger nicht einschließen. Wir gehen davon aus, daß Information eine Relation zwischen zwei Systemen ist. Sie bezeichnet einen Austausch zwischen zwei Systemen, bedingt Quelle und Empfänger genannt. Wir wollen nun zwei Begriffe einführen, die für das Verständnis der Rolle der Information von zentraler Bedeutung sind, den der gebundenen und den der freien Information. 5 Zunächst versuchen wir, den Unterschied an Beispielen und Eigenschaften klarzumachen. Gebundene Information liegt vor uns, wenn wir die Schichtung von Gesteinen in einem Gebirge betrachten. Freie Information finden wir vor, wenn wir eine Zeitung oder ein Buch lesen. Gebundene Information liegt fast in jedem physikalischen System vor. Ein universelles quantitatives Maß für diese Information ist die Entropie des betrachteten Zustands. Diese Informationsform ist naiv, gewissermaßen verhüllt, und keine eigentliche Information im Sinne klassischer Informationstheorie. Der von Stonier entwickelte Informationsbegriff versteht auch diese in unserem Sinne uneigentliche Information als ,echte' Information. 6 Wenn die Information im System vorhanden ist, so kann sie zumindest im Prinzip entschlüsselt werden. So liefert z. B. die Schichtung der Gesteine eine Information über die Geschichte unserer Erde, das Spektrum des Sonnenlichts eine Information über die chemische Zusammensetzung der Sonne, ebenso wie wir aus Versteinerungen etwas über die Geschichte des Lebens erfahren können. In diesem Sinne können physikalische Strukturen gebundene Information tragen. Gebundene Information dient keinerlei Zweck, sie ist eine unmittelbare materielle Eigenschaft des betrachteten Systems. Freie Information ist von völlig anderer Qualität. Sie ist stets Teil einer Beziehung zwischen zwei Systemen, dem Sender und dem Empfänger der Information. Man kann sagen, freie Information ist eine binäre Relation zwischen zwei Systemen. Da freie Energie eine Relation darstellt, ist sie nicht unmittelbar eine Systemeigenschaft. Sie hat eine relativ eigenständige Existenz und ist von anderer Qualität als ein normales physikalisches Objekt. Freie Information hat einen Zweck, sie ist an die Existenz von mindestens zwei Systemen gebunden, die sie aus gebundener Information extrahieren, speichern, austauschen, verarbeiten, um sie letztH. Völz, Information I - 11, Berlin 1982, 1983. Vgl. Ebeling / Feistei, Chaos und Kosmos (FN 1); Rainer Feistei, Ritualisation und die Selbstorganisation der Information, in: U. NiederseniL. Poh1mann (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur- Sozia1- und Geisteswissenschaften, Band 1, Berlin 1990, S. 83 - 98. 6 Vgl. T. Stonier, Information and the Interna1 Structure of the Universe, London 1990; Berlin I Heide1berg 1992. 4
5
Physikalische Grundlagen und Evolution der Infonnation
83
endlich als Bauplan oder Verhaltensprogramm wieder in gebundene Information zu verwandeln. Freie Information besitzt eine gewisse Unabhängigkeit vom Träger, so kann eine Nachricht als Brief, Telegramm, als File auf einer Diskette oder durch Elektronenbewegungen in einem Leiter befördert werden. Die konkrete materielle Bindung ist für den Inhalt nicht relevant. Wenn man will, kann man gebundene Information als körperliche bezeichnen, und freie Information als abstrakte oder geistige. Die Rolle der Information ist der Rolle des Geldes in der Gesellschaft verwandt. Die Analogien zwischen Information und Geld, dem Informationsträger des Tauschwerts, gehen recht weit. Gebrauchswerte sind materielle Eigenschaften von Gegenständen oder Waren, Tauschwerte abstrahieren von der konkreten Form der Ware und sind gegen ihren Träger invariant. Die Form des Geldes ist irrelevant, es ist "dasselbe" Geld, ob Münze oder Schein oder Scheck. Geld dient stets einem Zweck. Es unterliegt einer Vereinbarung, und hat nur einen Sinn, wenn es zwischen zwei Partnern ausgetauscht wird. Man erhält z. B. Geld für eine Ware oder Dienstleistung und kann es wieder in eine Ware oder Dienstleistung zurückverwandeln. 7 ,,zweck" ist ein Terminus, der nur für Lebewesen eine Bedeutung hat. In diesem Sinne ist freie Information etwas, was außerhalb der Welt der Lebewesen nicht existiert. Information ist mit Leben verbunden, sie ist ein Produkt der Evolution. Entstehung von Leben und Entstehung freier Information sind unlösbar miteinander verbunden. 8 Wie in früheren Untersuchungen gezeigt wurde, gibt es in der Evolution einen Phasenübergang von gebundener zu freier Infonnation. Dieser Phasenübergang heißt Ritualisierung oder auch Symbolisierung. 9 Freie Information ist immer symbolische Information, sie setzt voraus, daß Sender und Empfänger diese Symbole erzeugen und verstehen können. Dabei ist es für den Inhalt der Information nicht wesentlich, welcher Art und Natur diese Symbole sind, d. h. welcher Informationsträger und welche Codierung benutzt wird, solange nur Sender und Empfänger unter dem gleichen Symbol das gleiche verstehen. Gebundene Information dagegen ist untrennbar mit der physikalischen Natur des Zustands, der sie repräsentiert, verbunden. 11. Verschiedene physikalische Aspekte der Information
Eine wichtiger Sachverhalt ist, daß Informationsübertragung zwischen Systemen immer mit physikalischer Energie- und Entropieübertragung verknüpft ist. Information ist jedoch nicht mit Energie oder Entropie identisch, sie bezeichnet eine andere Qualität. Mit anderen Worten, nicht jeder Energie- und Entropieaustausch ist mit Informationsfluß verbunden. Ein zweiter wichtiger Sachverhalt besteht darin, daß 7
8 9
6*
V gl. Feiste!, Ritualisation (FN 5). Vgl. Ebe!ingl Feiste!, Chaos und Kosmos (FN 1). V gl. Ebe!ing I Feiste!, Chaos und Kosmos (FN 1); Feiste!, Ritualisation (FN 5).
84
Wemer Ebeling
Infonnation nur in Systemen mit mehreren möglichen Zuständen auftreten kann, wo eine gewisse Unbestimmtheit des tatsächlichen Systemzustandes vorliegen kann. Dabei denken wir an Makrozustände, da Infonnationssysteme (lS) im wesentlichen makroskopischen Charakter tragen. Infonnatton ist eine Größe, die zwischen zwei Systemen, bedingt Quelle und Empfänger genannt, ausgetauscht werden kann. Es gibt zwei Grundsituationen: a) Die Quelle präpariert den Empfänger mit Hilfe eines Signals, indem sie dort einen Übergang von einem Zustand zu einem anderen auslöst. b) Der Empfänger ist ein Beobachtungsmittel, ein Meßinstrument; der Empfang des Signals zeigt einen Übergang zu einem bestimmten Zustand der Quelle an. Präparation und Messung sind irreversible Akte, sie sind nicht umkehrbar. Komplexe Infonnationssysteme, wie die Rechner, basieren auf Sequenzen von Zustandsänderungen, diese sind auch irreversibel, können aber im Prinzip auch reversibel oder fast reversibel ablaufen. Nur die anfängliche Präparation und die am Ende stehende Beobachtung muß irreversibel sein, da sonst der 2. Hauptsatz verletzt würde. Wir haben bereits ausgeführt, daß gebundene Infonnation unmittelbar mit der physikalischen Natur des Systems verbunden ist, während die freie Infonnation die Eigenschaft die Invarianz besitzt. Die Invarianz der freien Infonnation gegen die physikalische Natur des Datenträgers ist keine nebensächliche Eigenschaft, sondern aus physikalischer Sicht der absolut zentrale Punkt. Jeder Datenträger ist natürlich physikalischer Natur und unterliegt physikalischen Gesetzen, insbesondere auch dem 2. Hauptsatz. Aus diesem allgemeinen Naturgesetz folgt, daß abgeschlossenen Systeme, die mit ihrer Umgebung nichts austauschen können, dem thennodynamischen Gleichgewicht zustreben, das durch maximale Entropie charakterisiert wird. Aus dem Zustand maximaler Entropie, d. h. maximaler Unordnung kann keine Infonnation extrahiert werden. Insofern ist es stets die Differenz zwischen dem Maximalwert der Entropie und dem aktuellen Wert, die für gebundene Infonnation relevant ist. Diese Differenz, von Klimontovich Entropieabsenkung genannt,1O ist potentielle gebundene Infonnation. Mit dem Konvergieren eines physikalischen Zustands gegen das thennodynamische Gleichgewicht, wird auch die in diesem Zustand gebundene Infonnation ausgelöscht. Für freie Infonnation können beliebige Datenträger benutzt werden, insbesondere natürlich auch solche, die unter den gegebenen physikalischen Bedingungen möglichst stabil sind (sei es als metastabiler Zustand einer konservativen Struktur oder als lokaler Attraktor einer dissipativen Struktur). Auf diese Weise wird die Infonnation der Wirkung der Gesetze entzogen, denen die Struktur ihrer Herkunft unterliegt. 10 Vgl. Yu.L. Klimontovich, Entropy evolution in self-organization processes. H-Theorem and S-Theorem, in: Physica A 142 (1987), S. 390 - 399; Yu.L. Klimontovich, Statistical Theory ofOpen Systems, Dordrecht 1995.
Physikalische Grundlagen und Evolution der Infonnation
85
Mit den dargelegten Konzeptionen und insbesondere IlÜt der physikalischen Definition der Information als Verringerung der Unbestimmtheit des Zustandes, bettet die Physik die Größe Information in ihr System ein. Die semantische Seite der Information entzieht sich der physikalischen Beschreibung; sie muß daher auch in dieser Untersuchung ausgeklammert werden. Wir machen nun noch einige Bemerkungen zur Frage: Welche Beiträge kann die Physik heute zur Behandlung der Informationsprobleme - zur Informatik - leisten. Da diese Beiträge sehr verschiedener Natur sind, müssen wir uns auf wenige Aspekte beschränken. Für eine umfassendere Darstellung sei z. B. auf die Monographie von Völz" und im Hinblick auf neuere Aspekte auf die regelmäßig stattfindenden Tagungen "Physics of Computation,,12 verwiesen. Im Vordergrund stehen heute die Aufgaben: a) Entwicklung neuer Bauelemente der Informationstechnik, welche noch schneller und noch zuverlässiger arbeiten, kleinere Abmessungen haben, besser verschaltet und integriert werden können und eine geringere Dissipation aufweisen. Hier gab es auch in letzter Zeit eindrucksvolle Fortschritte, die mit einer ständig fortschreitenden Miniaturisierung der elektronischen Bauelemente verbunden sind. Neuere Entwicklungen sind mit den Stichpunkten Nanoelektronik, optische Computer, BioChips, BioComputer, Neuronale Computer und Quanten Computer angedeutet. Die Beiträge der Physiker erschöpfen sich nicht in der Entwicklung neuer Bauelemente. Es gibt darüber hinaus auch wichtige b) Beiträge zur Entwicklung der Grundfragen der Disziplin. So wie die Pioniere der Informationswissenschaft, die Nachrichtentechniker Hartley und Shanna.n ein ausgearbeitetes Entropiekonzept der Physiker Baltzmann, Gibbs, Szilard, v. Neumann, Talman u. a. benutzen konnten, so gibt es auch heute infolge der Weiterentwicklung der Physik neue Möglichkeiten. Eine Reihe der untersuchten Fragen sind mit der fortschreitenden Miniaturisierung der Bauelemente verknüpft. Je kleiner und dichter gepackt die elementaren logischen Schaltelemente werden, um so stärker treten Quanteneffekte und Energiedissipation in den Vordergrund. Aktuelle Fragen sind mit den Schlagworten reversibles Rechnen (Rechnen ohne Energiedissipation), Quantenlogik und QuantumComputing, Rechnen mit zellulären Automaten auf Nanoskalen, zelluläre Quanten-Automaten, - DNA- Logik, DNA-Rechner, - Theorie neuronaler Systeme 11 12
FN 4. Vgl. T. Toffolil M. Biaforel J. Leao (Eds.), PhysComp96, Cambridge, MA 1996.
86
Wemer Ebeling
verknüpft. Die Diskussion neuer physikalischer Beiträge zur Informationsverarbeitung war z. B. Ziel des ,Fourth Workshop on Physics and Computation' (PhysComp96) vom 22. - 24. 11. 1996 in Boston. 13 Ein anderer Fragenkreis ist mit der Frage verknüpft, ob man neben den so erfolgreichen Rechnern vom von-Neumann-Typ auch eine Rechnergeneration entwickeln kann, die eher dem Wirkungsprinzip des Gehirns entspricht. Vorstufen neuronaler Computer werden heute schon mit Erfolg zur Bearbeitung spezieller Probleme eingesetzt. Zur Modellierung solcher Systeme hat auch die Physik durch Ausgestaltung der Analogien zwischen neuronalen Netzen und Spingläsern einen entscheidenden Beitrag geleistet. IH. Die Beziehung zwischen Entropie und Information
Der Austausch von Information zwischen zwei Systemen ist notwendigerweise mit Energie- und Entropieaustausch verknüpft. 14 Nun ist Energieaustausch zwar erforderlich, seine Größe aber offenbar unwesentlich; schon geringste Energiemengen wie z. B. ein Lichtquant können die Unbestimmtheit eines Zustandes verringern. Andererseits ist nach der fundamentalen Erkenntnis von Szilard und Brillouin die Verringerung der Unbestimmtheit in quantitativer Weise mit dem Entropieaustausch verknüpft. Die Menge der übertragenen Information ist durch die Verringerung der Unbestimmtheit gegeben: (I)
ßI =-tili
Die Unbestimmtheit wird dabei nach Shannon für ein System mit Zuständen durch die Formel (2)
LPi Inp;1 n
(2)
H=
i=l
bestimmt. Die Shannon'sche - Funktion ist der Mittelwert der Unbestimmtheiten der einzelnen Zustände. Durch Vergleich von Gleichung (2) mit der BoltzmannGibbs-Entropie findet man, daß jede Änderung der Unbestimmtheit mit einer Änderung der Entropie des Systems durch die Formel (3) verknüpft ist. (3)
13
FN 12.
Vgl. Wemer Ebeling, On the Relation Between Various Entropy Coneepts and the Valorie Interpretation, in: G.GyörgyilI. Kondor/L. Sasvari/T. Tel (Eds.), Frorn Phase Transitions to Chaos, Singapore 1992, S. 470-486. Wemer Ebeling, Entropy and Information in Proeesses of Self-Organization: Uneertainty and Predictability, in: Physiea A 194 (1993), S. 563575. 14
Physikalische Grundlagen und Evolution der Information
87
wobei kB die Boltzmann- Konstante ist, wenn H mit Hilfe der natürlichen Logarithmen berechnet wird kB
= 1,381·1O- 23 J/K
Der Erhalt einer Information über ein System wird also mit der Übernahme von Entropie bezahlt. Mit anderen Worten, ein Informationsstrom ist stets von einem proportionalen Entropiestrom begleitet. Neben der Verringerung von Unbestimmtheit im Hinblick auf Ordnungsparameter gibt es noch andere Formen der Entropieübertragung, wie z. B. durch Wärme oder Teilchenaustausch. 15 Die tatsächlich übertragene Information kann nicht größer als die übertragene Entropie in Einheiten von kB sein, d. h. (4)
Die Beziehung zwischen Entropie und Informationsmaß ist quantitativ und wesentlich, sie ist ein fundamentales Gesetz, das Physik und Informationstheorie verkoppelt. Aus der Physik ist bekannt, daß die Entropie keinem Erhaltungssatz genügt, aber dem 2. Hauptsatz der Thermodynamik unterworfen ist. Der Zweite Hauptsatz besagt, daß Entropie zwar erzeugt, aber grundsätzlich niemals vernichtet werden kann. In der Prigogine'schen Formulierung lautet dieses Naturgesetz (5)
dS
= diS + deS j
diS 2: 0
In Worten: Die Änderung der Entropie eines Systems besteht aus dem Produktionsteil und dem Austauschteil; ersterer kann niemals negativ werden und Null im Grenzfall des Gleichgewichtes. Die Entropie und damit auch die Unbestimmtheit eines Systems kann daher nur in gepumpten Systemen, welche Entropie an die Umgebung abgeben, verkleinert werden. Von allein kann sich die Entropie und damit auch die Unbestimmtheit eines Systems nur vergrößern, Information geht damit verloren. Nur in offenen (gepumpten) Systemen welche Entropie abgeben, kann sich die Unbestimmtheit verkleinern und damit Information gewonnen werden. Da im thermodynamischen Gleichgewicht die Entropie und damit die Unbestimmtheit maximal sind, erfordern Informationsprozesse Nichtgleichgewichts Bedingungen. Wie wir sehen, liefert die qualitative Beziehung zwischen physikalischer Entropie und Unbestimmtheit eine Reihe wichtiger physikalischer Aussagen 15 Vgl. Ebeling, Entropy Concepts/Entropy and Information (FN 14); M. W Wolkenstein, Entropie und Information, Berlin 1990; Michael Conrad/Wemer Ebeling/M.V. Volkenstein, Evolutionary Thinking and the Structure of Fitness Landscapes, in: BioSystems 27 (1992), S. 125 - 128; Wemer Ebeling, / Rainer Feistei, Theory of Self-Organization and Evolution, the Role of Entropy, Value and Information, in: J. Non-Equil. Thermodynamics 17 (1992), S. 108 - 130.
88
Werner Ebeling
über Informationsprozesse. Die Szilard - Brillouin - Relation (3) zwischen der Entropie und dem Shannon- Maß der Unbestimmtheit kann u.E. in bestimmter Hinsicht mit der Einstein - Relation zwischen Masse und Energie (6)
verglichen werden. Beide Äquivalenz - Relationen bedeuten nicht Identität der Größen auf beiden Seiten des Gleichheitszeichens und sie bedeuten auch nicht eine Umwandelbarkeit. Ebensowenig wie Masse in Energie umwandelbar ist, kann physikalische Entropie in Unbestimmtheit umgewandelt werden. Wohl aber kann eine Form der Masse bzw. Entropie in eine andere umgewandelt werden und parallel dazu vollzieht sich dann die der Äquivalenzrelation entsprechende Umwandlung einer Form der Unbestimmtheit bzw. Energie in eine andere. In diesem Sinne kann man auch von Informationsentropie sprechen. Es handelt sich dabei um eine Entropieform, die unmittelbar mit informativen Prozessen verknüpft ist. Aus dieser Auffassung folgt, daß nicht jede Entropieübertragung mit Informationsübertragung verknüpft ist, sondern nur die Übertragung des Teils, der Informationsqualität besitzt, d. h. von Informationsentropie. Die gesamte Entropieübertragung bei einem Informationsprozeß ist natürlich größer als der durch Gleichung (3) ausgewiesene Anteil von Informationsentropie, der die Verringerung der makroskopischen Unbestimmtheit ausweist. Das wird durch die Ungleichung (4) ausgedrückt. Am Schluß dieses Abschnittes soll noch ausdrücklich gesagt werden, daß die Entropieänderungen ebenso wie auch die Energieänderungen bei informativen Prozessen im Vergleich zum Gesamtinhalt außerordentlich klein sind. Häufig wird daraus der Schluß gezogen, daß der Entropieaspekt von Informationssystemen unwesentlich sei. So rechnete der bekannte Biophysiker Blumenfeld aus, daß im thermodynamische Sinne ein biologisches System nicht geordneter als ein Stein gleichen Gewichtes ist, und daß die entsprechende Entropie nicht die übersteigt, welche zum Verdampfen von einigen Hundert Gramm Wasser aufzubringen iSt. 16 Solche Betrachtungen gehen u.E. am Wesen der Dinge vorbei. Im Vergleich zur Ruheenergie der Stoffe bedeuten alle chemischen Prozesse nur ein Kräuseln der Energieoberfläche; daraus den Schluß zu ziehen, daß die Energie für chemische Prozesse unwesentlich sei, würde sicher lebhaften Widerspruch herausfordern. Für Informationsprozesse ist der Entropiefluß eine wesentliche Komponente, allerdings ist der Informationsanteil an der Gesamtentropie eines Systems in der Regel außerordentlich klein; aber gerade dieser Anteil ist wesentlich für den Informationsaustausch. Von Bedeutung ist nicht das Verhältnis der Informationsentropie zur Gesamtentropie sondern ihre absolute Größe, da diese einer Absenkung gegenüber dem Maximalwert im Gleichgewicht entspricht. Genauso wie die Energie beim Austausch zwischen Systemen in verschiedenen Formen auftritt (mechanische, thermische, elek16 Vgl. L.A. Blumenfeld, Probleme der molekularen Biophysik, Berlin 1977; Probleme der biologischen Physik (in Russ.), Moskau 1977.
Physikalische Grundlagen und Evolution der Information
89
trische Energie usw.), nimmt auch die Entropie beim Austausch verschiedene Formen an, wie thermisch-kalorische Entropie oder Mischungsentropie, und eine dieser Formen ist die Informationsentropie. 17 Ebensowenig wie man gebundener Energie eine Form zuschreibt, sollte man gebundener Entropie eine Form zuordnen. Allerdings vertreten verschiedene Autoren, wie z. B. Stonier diese Position mit Nachdruck. 18 Nach unserer Auffassung, ist der alte Streit, ob gebundene, ruhende Information überhaupt noch Information ist, eigentlich gegenstandslos. Gebundene Entropie bzw. Unbestimmtheit ist nicht Informationsentropie, sondern einfach nur Entropie, sie hat keine Form, erst im Austauschprozeß realisiert sie eine Form. IV. Physikalische Bedingungen für Informationsprozesse
Für das Verständnis von Informationssystemen (lS) mag es nützlich sein, die Voraussetzungen für den Ablauf von Informationsprozessen zusammenzustellen. Wir wollen zunächst vier von Wolkenstein und Chernavski formulierte Bedingungen 19 darlegen: Die erste Bedingung lautet: Ein IS muß mehrere stabile bzw. metastabile Zustände besitzen, die es alternativ einnehmen kann. Ein System mit 2 Zuständen, d. h. ein bistabiles IS kann ein bit aufnehmen, ein System mit N stabilen Zuständen hat die Informationskapazität (in bit): (7)
1= log2N
- Die zweite Bedingung fordert Nichtgleichgewicht und Dissipativität. Ein einmal eingenommener Zustand darf in der Funktionszeit nicht spontan verlassen werden, sondern höchstens durch äußeren Eingriff, d. h. durch Schalten. - Die dritte Bedingung bezieht sich auf den Rauschpegel. Dieser muß hinreichend klein sein, um Fluktuationsübergänge auszuschließen. Systeme, die zur Informationsgewinnung geeignet sind, müssen schließlich noch einer vierten Bedingung genügen. Es muß neutrale Gebiete des Zustandsraumes geben, von denen die verschiedenen stabilen Zustände ohne Prädetermination erreichbar sind. Der tatsächlich angelaufene Zustand hängt dann von Fluktuationen ab, dabei wird Information gewonnen und gemerkt. Die dargelegten physikalischen Bedingungen zeigen, daß keinesfalls beliebige Systeme Informationen verarbeiten können. So scheiden die großen Klassen der FN 15. FN6. 19 Vgl. EbelinglFeistel, Chaos und Kosmos (FN I); Wolkenstein, ConradlEbeling, EbelinglFeistel (FN 15); Wemer Ebeling, Self-Organization, Valuation and Optimization, in: R.K. Mishra/D. Maaß/E. Zwierlein (Eds.), Springer Series of Synergetics 61 (1994), S.185-196. 17 18
Werner Ebe1ing
90
konservativen Hamilton-Systeme und der thermischen Gleichgewichtssysteme aus, weil sie keine Informationen merken können. Nach neueren Überlegungen von Bennett und anderen sollte es allerdings auch reversible Informationsprozesse geben. 2o Über diese Frage gibt es auch unter Physikern noch keine einheitliche Auffassung. Welche physikalischen Bedingungen gibt es für die Funktion von IS? Aus der Äquivalenzrelation (3) bzw. (4) folgt eine fundamentale physikalische Grenze für alle Informationsprozesse, Gewinnung von Information kostet etwas, nämlich Entropie und 1 bit kostet mindestens k In2. Aufnahme und Ausgabe von Information ist mit irreversiblen Entropiekosten verbunden, die unabhängig von der Temperatur sind. Keine noch so scharfsinnige Konstruktion kann den 2. Hauptsatz überlisten. Füttert man ein IS mit Daten, so steigt notwendig seine Entropie, die ein Maß für die innere Unordnung ist. Im stationären Betrieb muß also Entropie abgeführt werden z. B. über Wärmeleitung oder Strahlung, was Probleme bereiten kann. Glücklicherweise können die inneren Übergänge in einem IS reversibel oder fast reversibel ablaufen, hier gibt es also keine grundsätzliche Schranke. Das Konzept des fast reversiblen Rechners wird seit einigen Jahren von Physikern intensiv, aber immer noch kontrovers diskutiert (Bennett, Benioff, Fredkin, Toffoli, Landauer und Likharev)?' Die zweite physikalische Grenze für IS ist durch den immer vorhandenen Rauschpegel gegeben. Fluktuationen vergrößern im Laufe der Zeit die Unbestimmtheit und zerstören so Information. Jeder Speicher ist nach endlicher, wenn auch im allgemeinen großer Zeit leer. Die thermischen Fluktuationen kann man durch Übergang zu tiefen Temperaturen beliebig klein machen, und damit gewinnt auch die Kryoelektronik an Bedeutung. Die quantenmechanische Unbestimmtheit ist allerdings unvermeidlich und setzt eine prinzipielle Schranke. Eine besondere Rolle spielt dabei die Energie-Zeit-Unbestimmtheit (8)
ßE· ßt ~ Fi/2
Schließlich stellt die Begrenztheit der Signalgeschwindigkeiten durch die Geschwindigkeit des Lichtes eine wichtige Schranke für IS dar. Aus v :S c folgt für die Laufzeit eines Signals über die Strecke I die Ungleichung (9)
t ~
l/c
Die Laufzeiten von Signalen können grundsätzlich gewisse Schranken nicht unterschreiten, die für miniaturisierte Bauelemente von Bedeutung sind. Endliche Laufzeiten beschränken die Zeit, in der z. B. die Daten aus einem Speicher abrufbar sind. 20 21
FN 12. FN 12.
Physikalische Grundlagen und Evolution der Information
91
Physikalische Grenzen für IS haben nicht nur technisches, sondern auch großes prinzipielles Interesse. Aus der modemen mathematischen Komplexitätstheorie haben wir gelernt, daß der Aufwand für die Lösung vieler Probleme exponentiell mit der Anzahl der Elemente ansteigt und damit sehr schnell jede verfügbare Rechnerleistung übersteigt. 22 Vielleicht werden wir eines Tages im Ergebnis mathematischer, informationstheoretischer und auch physikalischer Forschungen verstehen, was Komplexität heißt, welche Probleme wirklich irreduzibel komplex sind, wo die Grenzen für die Analyse komplexer Systeme liegen und wo man von der Natur lernen kann, wie komplexe Probleme gelöst werden können. 23
v. Über die Evolution der Information Informationsverarbeitung kann als Charakteristikum des Lebens betrachtet werden?4 Wir kennen keine informationsverarbeitenden Systeme, die außerhalb und unabhängig vom Leben entstanden sind. So wird auch das Problem, wo im Prozeß der Evolution der Biomoleküle der Anfang des Belebten liegt, heute mit der Informations-Akkumulation in Verbindung gebracht. Die Eigenschaft, Informationen zu gewinnen, zu speichern und zu verarbeiten, ist offensichtlich die wesentliche Eigenschaft lebender Systeme. Lebewesen sind natürliche IS, d. h. solche, die ohne Konstruktion und Instruktion durch IS höherer Stufe von allein im Verlaufe der natürlichen Evolution entstanden sind. Falls wir irgend wann bei der Erforschung des Kosmos auf IS stoßen sollten, werden wir fragen, ob sie von allein entstanden sind, oder geschaffen wurden. Im ersten Fall werden wir sicher völlig unabhängig von der physikalisch-chemischen Natur von Leben sprechen, so wie Stanislaw Lern im Roman "Solaris" von einem "lebenden Ozean" spricht. Im Verlaufe der biologischen Evolution auf unserer Erde hat die Informationsverarbeitung eine enorme quantitative und qualitative Steigerung erfahren. Im wesentlichen werden 3 Typen von IS genutzt: 1. die genetischen IS, 2. die neuronalen IS, 3. die extrasornatischen IS. Diese 3 Formen haben sich entwicklungsgeschichtlich nacheinander gebildet. Die genetischen IS entstanden vor 3 - 4 Milliarden Jahren unter den Bedingungen der Urerde, als spontan organische Kettenmoleküle mit der Fähigkeit zur Se1bstreproduktion gebildet wurden. 22 Vgl. Wemer Ebeling / Jan Freund/Frank Schweitzer, Entropie - Information - Komplexität, Konzepte SFB-230/Heft 48, Stuttgart 1995; H.M. Voigt/W Ebelingll. Rechenbergl H.-P. Schwefel, Parallel Problem Solving from Nature - PPSN IV, Berlin/Heidelberg/New York 1996. 23 FN 22. 24 Vgl. Ebeling, FeisteliEbeling, EbelinglEngeliFeistel, EbelinglFeistel (FN 1); Wolkenstein, Conradl Ebeling, Ebeling I Feistel (FN 15); Ebeling, Self-Organization (FN 19).
92
Wemer Ebeling
Auf einem Niveau von etwa 10 10 bit Informationskapazität erreicht die genetische IS ihre physikalisch-chemisch bedingten Grenzen; nur einige Ausnahmen unter den Pflanzen, Salamandern und Fischen erreichten 10 11 bit. Als "Ausweg" wurden neuronale IS aufgebaut, die beim Menschen etwa 10 13 bit aufnehmen können. Diese Zahl entnehmen wir einer Schätzung von Sagan. Andere Autoren wie Völz geben kleinere Werte an. Die seit etwa 1000 Jahren entwickelte extrasomatische Speicherung auf Tontäfelchen, Schriftrollen, Büchern, Magnetbändern usw. hat inzwischen wahrscheinlich schon die 10 13 bit pro Person überschritten und steuert ein neues Plateau an. Die damit verknüpften Fragen sprengen den Rahmen des Horizontes der Physik. Hier soll nur noch eine einzige Frage, nämlich die nach dem Mechanismus von Informationsentstehung diskutiert werden. Wie kann aus einer winzigen strukturarmen Eizelle, die weniger als 10 10 bit enthält, ein Organismus entstehen, der weit über 1020 bit repräsentiert. Diese Frage ist nicht nur von philosophischer Relevanz, sondern auch technisch von hohem Interesse, wir kennen ja bis auf erste Ansätze noch keine informationsgewinnenden Computer. Erst die nächste Rechnergeneration, die jetzt im Blick auf das folgende Jahrzehnt entwickelt wird, dürfte gewisse Züge einer Informationsgewinnung tragen. Das erste von der natürlichen Evolution genutzte Prinzip lautet: Wechselspiel von zufälliger Variation und Selektion, was man auf einer höheren Ebene auch als Lernen bezeichnen kann. In der Ursuppe war es nicht mehr als das Durchspielen verschiedener Nukleotid-Sequenzen als Folge fehlerhafter Reproduktion und die Auswahl der für das Überleben in der Umwelt geeignetsten Sequenzen; bei höheren Organismen sind es komplizierte Lernprozesse, aus welchen die notwendige neuronale Information resultiert. 25 Die Erforschung der Struktur von Sequenzen ist ein moderner Forschungsgegenstand,26 wobei die Untersuchung der Zusammenhänge von Entropie und Information und der Vergleich von Texten, Biosequenzen und Zeitreihen eine zentrale Rolle spielt. Information entsteht im Organismus insbesondere im Prozeß der Ontogenese. Bei der Ontogenese der Organismen wirken eine Reihe Prinzipien der SelbstorgaVgl. Völz (FN 4); Feistel, Ritualisation (FN 5). Vgl. EbelinglFreundlSchweitzer, VoigtlEbelinglRechenberglSchwejel (FN 22); H. HerzellW. Ebeling I A.O. Schmitt, Entropies of Biosequences: The Role of Repeats, in: Phys. Rev. E 50 (1994), S. 5061- 5071; W. EbelinglT. Pöschell K.-F. Albrecht, Entropy, Transinformation and Word Distributions of Information-Carrying Sequences, in: Int. J. Bifurc. & Chaos 5 (1995), S. 241- 251; W. EbelinglA. Neiman, Long-Range Correlations Between Letters and Sentences in Texts, in: Physica A 215 (1995), S. 233- 2411; W. EbelinglA. Neimanl T. Pöschel, Dynamic Entropies, Long-Range Correlations and Fluctuations in Complex Linear Structures, in: Coherent Approach to Fluctuations (Proc. Hayashibara Forum 1995), Singapore 1995; H. HerzellW. EbelinglA.O. SchmittIM.A. limenez-Montano, Entropy and Lexicographic Analysis of Biosequences, in: A. Müller I A. Dress/F. Vögtle (Eds.), From Simple to Complex Systems in Chemistry, Braunschweig 1995, S. 7 - 26; W. Ebeling IT. Pöschell A. Neiman, Entropy and Compressibility of Symbol Sequences, in: T. ToffolilM. Biafore/J. Leao (Eds.), PhysComp96, Cambridge, MA 1996. 25
26
Physikalische Grundlagen und Evolution der Information
93
nisation, deren physikalisch - chemische Details erst in letzter Zeit in Grundzügen aufgeklärt wurden. Insbesondere handelt es sich um die Prinzipien der Morphogenese. Bei der Ontogenese einer Eizelle werden zunächst nur die im Genom gespeicherten Informationen abgearbeitet, Proteine synthetisiert und Grundelemente des Organismus geschaffen. Wie kommt es nun zur Ausbildung der komplizierten Strukturen des fertigen Organismus? Lange hat man geglaubt, daß das Genom eine Blaupause des Organismus wäre, die einfach ausgeführt wird. Dazu ist jedoch die Informationskapazität des Genoms mit etwa 10 10 bit viel zu gering. Die Untersuchung der physikalisch-chemischen Grundlagen der morphogenetischen Prozesse ist ein faszinierendes Gebiet der modernen Forschung. Entscheidende theoretische Einsichten verdanke wir dem Spätwerk des Mathematikers und Kybernetikers Alan Turing und wichtige experimentelle Unterlagen den Physikochemikern Boris P. Belousov und Anatol Zhabotinsky. Bei der sogenannten Belousov-Zhabotinsky-Reaktion, einer anorganischen Redoxreaktion
in Gegenwart von Malonsäure, Schwefelsäure, Kaliumbromat und einem Redoxindikator beobachtet man eine Fülle raumzeitlicher Strukturen. 27 Ähnliche Phänomene spielen offenbar bei der Morphogenese eine Rolle, wie Untersuchungen zur Ontogenese des Schleimpilzes (Dictyostelium discoideum) zeigen. Die modernen Entwicklungen der Theorie dissipativer Strukturen stellen in vieler Hinsicht eine Bestätigung - wenn auch in modifizierter Form - der Ideen und Vorstellungen von Ernst Haeckel und seinen Schülern Wilhelm Roux und Hans Driesch über die Keimentwicklung dar. Nach dieser Theorie löst ein chemisches Konzentrationsgefälle entlang der verschiedenen Achsen die Entwicklungsphasen aus und steuert sie. Nach Wolper! setzt die Existenz einer Positionsinformation die Festlegung eines Koordinatensystems voraus, in dem diese markiert wird. 28 Das führt zu einer räumlichen Differenzierung, die in der Regel zu dem Gradienten einer chemischen Substanz M, dem Morphogen in Beziehung steht. In einem zweiten Stadium wird die Positionsinformation durch die individuelle Zelle interpretiert, es kommt zur Zelldifferenzierung. Wolpert postuliert die Universalität dieses Mechanismus. Heute gibt es bereits eindrucksvolle experimentelle Beweise für die Richtigkeit der Vorstellungen über die Existenz von Gradientenfe1dern und einer Positionsinformation. Es ist überzeugend nachgewiesen worden, daß zyklisches Adenosinmonophosphat (cAMP) als Morphogen bei der Individualentwicklung des Schleimpilzes aus einer homogen Zell suspension fungiert. Weiterhin konnte ein chemischer Faktor - der sogenannte Nervenwachstumsfaktor - für das Wachs27 Vg!. Lothar KuhnertlUwe Niedersen, Selbstorganisation chemischer Strukturen. Ostwald's Klassiker der exakten Wissenschaften, Band 272, Leipzig 1987. 28 V g!. L. Wolpert, Positional information and the spatial patterns of cellular differentiation, in: J. Theor. Bio!. 25 (1969), S. 1-47.
94
Werner Ebeling
turn und die Differenzierung des Nervensystems identifiziert werden. Man darf feststellen, daß die Theoretiker von diesen experimentellen Entwicklungen nicht überrascht worden sind. Seit der fundamentalen Arbeit des berühmten Kybernetikers Alan Turing "On the chemical basis of morphogenesis", die als seine letzte Publikation 1952 erschien,29 setzte sich die Überzeugung von der prinzipiellen Richtigkeit der Gradiententheorie unter den Theoretikern durch. Einen starken Impuls erhielt die Entwicklung dieser Theorie durch das von Prigogine stammende Konzept der dissipativen Strukturen. Gradientenfelder von morphogenen Substanzen sind dissipative Strukturen im Sinne von Prigogine. Zur Ausarbeitung der Theorie haben neben Prigogine und Nicolis besonders Goodwin, Babloyantz, Gierer, Meinhardt, Belintsev, Lifshitz, Wolkenstein, Hunding und viele andere beigetragen. 30
VI. Neuere Entwicklungen und Ausblick
Wir haben bereits die Entwicklungen in Richtung auf reversible oder fast reversible Inforrnationsverarbeitung erwähnt, die Gegenstand intensiver Forschungen sind. 31 Eine andere Richtung, die intensiv verfolgt wird, besteht darin, von der Natur zu lernen, wie Probleme gelöst werden und wie Inforrnationsverarbeitung effektiver durchgeführt werden kann. 32 Aber auch im Hinblick auf die Hardware sind durchgreifende Neuerungen, die neben die bewährte Halbleiterelektronik treten können, denkbar. So scheinen in nächster Zeit auch künstliche chemische IS oder kombinierte chemisch-biologische IS möglich zu sein. Chemische Reaktionen bieten ja einen Zoo von Nichtlinearitäten, so daß die Erzeugung von Multistabilitäten kein Problem darstellt. Von besonderem Interesse sind in dieser Hinsicht die Enzyrnreaktionen. Michael Conrad aus Detroit hat verschiedene Konzepte des "Molecular Computing" entwickelt, bei denen die besonderen Fähigkeiten der Enzyme für das Erkennen räumlicher Strukturen, eine primäre Rolle spielen. 33 Im Prinzip kann man schon heute alle elektronischen Bauelemente mit geringstem Aufwand durch biochemische Reaktionen simulieren. Ein funktionierender chemisch-biologischer Computer ist aber noch lange nicht in Sicht. Das ist aber wohl eher eine technische Frage. Wir verweisen allerdings drauf, daß die natürliche Evolution hauptsächlich mit chemischen IS gearbeitet hat. Eine andere Idee, die ebenfalls durch Evolutionsbetrachtungen angeregt wurde, bezieht sich auf das Problem der Architektur und Verschaltung von hochintegrierten IS. Bekanntlich nimmt dieses Problem immer größere Dimensionen an. Es gibt die faszinierende Idee, die in: Phil. Trans. Roy. Soc. London 237 (1952), S. 37 -72. Vgl. Feistel/Ebeling, Ebelingl Engel/Feistel, EbelinglFeistel (FN 1). 31 FN 12. 32 V gl. Voigt I Ebeling I Rechenberg I Schwefel (FN 22). 33 Vgl. Michael Conrad, Molecular Computing, in: Advances in Computers 31 (1990), S. 235 - 324; Conrad, in: Computer IEEE 25 (1992), S. 11 - 20. 29
30
Physikalische Grundlagen und Evolution der Infonnation
95
Verschaltung bei weiterer Steigerung des Integrationsgrades durch eine Simulation der Schaltprinzipien von Neuronennetzen zu lösen. Das Prinzip besteht darin, durch fortgesetztes stochastisches Herstellen und Lösen von Verknüpfungen unter Hinzuziehung von Selektionsprinzipien zur evolutionären Ausbildung von Netzwerken mit optimalen Eigenschaften zu gelangen. 34 Eine andere Idee besteht darin, im Rahmen des Konzeptes ,Evolutionary Programming' auch Elemente einer Se1bstorganisation in die Technik des Programmierens einzuführen. 35 Es gibt gegenwärtig große Anstrengungen, auch den Begriff des Wertes von Informationen genauer zu fassen. 36 Der kürzlich in Moskau verstorbene bedeutende Pionier der Informationstheorie Ruslan Stratonovich zweifelte nicht an der Existenz von Informationswerten, und er belegt das mit Beispielen und theoretischen Argumenten. Dem Begründer der Synergetik Hermann Haken folgend, erfordert eine präzisere Fassung des Begriffes ,Wert von Informationen' eine Modellierung der Dynamik des Empfängers der Information. 37 Dieser Beitrag war den physikalischen Grundlagen der Informationsverarbeitung einschließlich der Möglichkeiten und Grenzen von Informationssystemen gewidmet. Weiterhin haben wir den Versuch unternommen, eine Brücke zu den Fragen der organismischen Informationsverarbeitung zu schlagen und neuere Entwicklungen zu skizzieren. Dabei mußten wir durchgehend die Sicht der Physik einhalten, was den fragmentarischen Charakter eines Teils der Ausführen zwar nicht entschuldigen, aber doch erklären soll?8
Vgl. Voigtl EbelinglRechenbergl Schwefel (FN 22). FN 34. 36 Vgl. EbelinglFeistel (FN 15); Ebeling, Self-Organization (FN 19); Hermann Haken, Infonnation and Self-Organization, Berlin/Heidelberg 1988; w. Ebeling, Infonnation and Predictability of Evolutionary Systems, in: World Futures 49 (1997), S. 455 - 469. 37 Vgl. Haken (FN 36). 38 Danksagung: Der Autor ist Michael Conrad, Rainer Feiste!, Ruslan Stratonovich und Mikhail Wolkenstein für unzählige Diskussionen dankbar, in denen sich ein wesentlicher Teil der hier dargelegten Standpunkte herausgebildet hat, und Rainer FeisteI, Jan Freund und Frank Schweitzer für eine langjährige enge Zusammenarbeit über Fragen der Entropie und der Evolution der Infonnation. 34 35
Evolution im Eigenschaftsraum Von Rainer Feistei, Rostock I. Einleitung
Die Methode der Natur, immer neue Erfindungen zu präsentieren, nennen wir Evolution. Wir glauben intuitiv, daß diese Schöpfungen immer besser, schöner, komplexer, effektiver als die bisherigen sind. Sind sie es aber wirklich, genauer gefragt, unter welchen Gegebenheiten sind sie es, können sie es sein oder müssen sie es sein? Eine allgemeine Antwort auf diese Frage ist weder bekannt noch in Sicht. Im Rahmen einfacher mathematisch-physikalischer Evolutionsmodelle kann man bestimmte Aspekte dieser Aufgabe mit formalen Methoden untersuchen; man kann nach allgemeinen Aussagen suchen, die für näher beschriebene Klassen von solchen Modellen zutreffen. Der heutige Begriff der Evolution wird auf eine Vielzahl von sehr unterschiedlichen Vorgängen angewandt, 1 so etwa auf die kosmische Evolution seit dem Urknall oder auch auf die kulturelle Evolution in der Musik. Was alle diese Prozesse gemeinsam haben, scheint sich auf nur wenige Eigenschaften zu beschränken. Die Folge der durchlaufenen Zustände 1. ist irreversibel, 2. schließt qualitative Veränderungen nachdrücklich ein, 3. ist (scheinbar?) unbegrenzt. Es ist deshalb zunächst zweckmäßig, uns hier auf eine kleinere Untermenge von Evolutionsvorgängen einzuschränken. Wir wollen den klassischen Fall der Evolution, die "Darwinsche Evolution", im weiteren an speziellen Modellen näher betrachten, und wir werden der Kürze halber von ihr nur als "Evolution" sprechen. Was soll diese auszeichnen, von anderen Evolutionsformen unterscheiden? Wir versuchen dazu eine relativ abstrakte Abgrenzung. 1 Vgl. Mark C. Groseth (Jan. 1997), in: http://www.customcpu.com:80/personal/mgroseth / origins / Evolution.html: "Evolution is, of course, the leading scientific theory for the existence of life, the uni verse and everything. As such, it encompasses quite a few different fields of study, like archeology, geology, microbiology, botany, paleontology, astronomy and anthropology just to name a few. It also envolves a point of view, or philosophy. In fact, today scientists typically refer to any natural process resulting in change as evolution. As a result, scientific facts are mixed in with scientific theories, and this results in a lot of confusion when discussing ,Evolution"'.
7 Selbstorganisation, Bd. 8
98
Rainer Feiste!
Gegenstand der Darwinschen Evolution seien "Sorten", von denen wir annehmen: 1. Die Menge aller Sorten ist unbeschränkt. 2. Jeder Sorte "a" ist ein Eigenschaftsvektor "q(a)" mit endlich vielen reellen Komponenten zugeordnet. Zwei Sorten sind dann und nur dann gleich, wenn sie in allen ihren Eigenschaften übereinstimmen, d. h. wenn alle ihre Komponenten von q gleich sind. 3. Jeder Sorte "a" ist ein endliches, nichtnegatives Maß ,,x(a)" zugeordnet (ihre Anzahl, Häufigkeit, Dichte o.ä.). Diese Maßzahl unterliegt einem Bewegungsgesetz. 4. Es existiert mindestens eine beschränkte Norm lXI< B, d. h. ein Maß für die Größe der Gesamtpopulation, die nicht unendlich anwachsen kann. Es ist offensichtlich, daß diese Postulate in keiner Weise hinreichen, um ein evolvierendes oder auch nur evolutionsfähiges System zu definieren. Sie können aber dazu dienen, die hier betrachteten Evolutionsmodelle näher zu charakterisieren. Wir wollen die Absichten, die hinter diesen Postulaten stehen, kurz diskutieren. Postulat I hält der Evolution die Möglichkeit offen, immer neue Sorten in das Spiel zu bringen. Wir wollen uns hier aber nicht festlegen, ob die Menge der Sorten abzählbar ist (diskrete Sorten) oder nicht (z. B. ein Sortenkontinuum oder eine fraktale Menge). Die unendliche Menge von Sorten meint nicht unendlich viele anwesende Sorten, sondern unendlich viele potentiell mögliche Sorten. Postulat 2 sagt, was eine Sorte ausmacht: eine endliche Anzahl zahlenmäßig angebbarer Eigenschaften, wie etwa der Masse, der chemischen Zusammensetzung, der Form oder Farbe der Oberfläche usw. Postulat 3 erklärt eine Sorte zu einem Zustand, der im Laufe der Zeit mit unterschiedlichen Zahlen von Teilchen (Individuen) besetzt sein kann. Wir wollen diskrete Individuenzahlen, die zur Beschreibung der Dynamik eine stochastische Theorie erfordern, hier beiseite lassen und uns auf kontinuierliche Maße (Konzentration, Besetzungsdichte) einschränken. In einem solchen Fall werden wir die Existenz von Bewegungsgesetzen der Art dX/dt =j(X)
voraussetzen. Dabei kommen für f(X) nur Funktionen in Frage, die garantieren, daß X nichtnegativ und nach oben beschränkt bleibt. Autokatalyse (Selbstreproduktion) der Formf(X) = X . w(X) ist hinreichend für Erhaltung der Nichtnegativität der Besetzungszahlen, aber nicht notwendig. Mutationen wären bei reiner Selbstreproduktion natürlich ausgeschlossen.
Evolution im Eigenschaftsraum
99
Postulat 4 ist so etwas wie ein Massen- oder Energieerhaltungssatz: So stehen den Sorten z. B nur beschränkt viele Atome zur Verfügung, die sie untereinander aufteilen können. Die Gesamtpopulation der Sorten wird limitiert, Konkurrenz um die endlichen Ressourcen begrenzt das Wachstum der einzelnen Sorten. Sind die Sorten diskret und die Besetzungszahlen ganzzahlig, so folgt aus 4, daß von den Sorten fast alle (d. h. unendlich viele bis auf endlich viele) das Maß X = 0 haben, zu jedem Zeitpunkt von den unendlich vielen Sorten nur endlich viele im Spiel sind. Kann man innerhalb eines mathematischen Modells unter relativ schwachen Voraussetzungen etwas über Reversibilität und Extremaleigenschaften bei Evolutionsprozessen erfahren? Im Abschnitt 11 wollen wir zunächst ein Konzept vorstellen, das ganzheitlichen Werten eine zentrale Rolle bei verschiedenen Evolutionsvorgängen beimißt. Wir skizzieren dann im Abschnitt III, wie sich in einfachen populationsbiologischen Modellen Evolution darstellen kann. Im Abschnitt IV verallgemeinern wir diese Modelle auf ein relativ anschauliches Bild von der Evolution im Raum der Eigenschaften. Wir gelangen zu dem Schluß, daß Vorwärtsentwicklung die Regel, Höherentwicklung aber die Ausnahme ist. 11. Selektion, Evolution und Werte In der Theorie der komplexen Systeme fallen verschiedene Konzepte auf, die an zentraler Stelle einen Wertbegriff formulieren: 2 In der Physik gibt es neben der Deutung der Entropie als Wärmernaß (der "calorischen" Interpretation) auch die als Wertmaß ("valorische" Interpretation) für die Energie des Systems. 3 - In der Biologie erscheint ein Selektionswert eines Organismus oder einer Spezies als entscheidendes Maß für seine Qualifikation im Kampf um das Überleben. - In der Ökonomie spielt der Tauschwert einer Ware, ausgedrückt als Preis auf dem Markt, eine Schlüsselrolle im Wettbewerb der Produzenten. 4 - In der Informationstheorie wird nach einem Informationswert gesucht, einem Maß für den semantischen Gehalt einer Nachricht. Es ist nicht klar, ob sich dieser auf den Tauschwert einer Ware Information oder den Selektionswert einer genetischen Information reduzieren läßt. Vermutlich jedoch gibt es keinen Infor2 Vgl. Rainer Feistei, On the Value Concept in Economy, in: Models of Selforganization in Complex Systems, Berlin 1991; Wemer Ebeling/Rainer Feistei, Theory of Selforganization and Evolution: The Role of Entropy, Value and Information, in: J. Non-Equilib. Thermodyn. 17 (1992), S. 303 - 332; W. Ebeling/ R. Feistei, Chaos und Kosmos, Heidelberg 1994. 3 Vgl. W. Ebeling/R. Feistei, Theory (FN 2). 4 Vgl. R. Feistei, Value Concept (FN 2).
7*
100
Rainer Feistel
mationswert "an sich", sondern nur einen im Kontext desjenigen dynamischen Systems, das diese Information erzeugt, austauscht und benutzt. 5 Natürlich gibt es weitere Wert-Begriffe, insbesondere in sozialen Systemen, wie etwa kulturelle, religiöse oder traditionelle Werte, jedoch erscheinen diese (zumindest in den Augen eines Physikers) weniger streng definiert und kaum quantifizierbar. Alle diese sehr unterschiedlichen Werte haben bemerkenswerte Gemeinsamkeiten: Sie sind quantifizierbar, zumindest im Prinzip durch Zahlenwerte angebbar. Sie reflektieren ganzheitliche Eigenschaften: Die Entropie eines Systems kann nicht aus den Koordinaten und Impulsen der vorhandenen Teilchen allein berechnet werden. Der Selektionswert einer Art kann nicht aus ihren physikalischen und chemischen Eigenschaften allein berechnet werden. Der Preis einer Ware kann nicht aus ihren physikalischen und chemischen Eigenschaften allein berechnet werden. - Sie treten in Fundamentalgesetzen der Systeme auf: Zweiter Hauptsatz der Physik, Darwinsche Gesetze der Biologie, Wertgesetz der Ökonomie. - Sie unterliegen Extremalprinzipien: Zweiter Haupsatz der Physik, "survival of the fittest", Preisminimierung und Profitmaximierung. Dieser Vergleich ermuntert zu der Arbeitshypothese, daß komplexe und insbesondere evolvierende Systeme oft oder immer durch die Herausbildung entsprechender Wertfunktionen charakterisiert sind. Damit entstehen zahlreiche Fragen. Wie genau ist das Verhältnis der Werte zu den meßbaren Eigenschaften der einzelnen Bestandteile des Systems? Wie lassen sich die Grundgesetze für diese Werte herleiten oder formulieren? Unter welchen Umständen und in welcher Form gelten Extremalprinzipien für die Werte? Der Fall der thermodynamischen Entropie ist unter allen oben genannten sicher der klarste und am genauesten studierte. Von der Entropie wissen wir, daß ihre Berechnung nur unter Hinzunahme statistischer Methoden gelingt, und daß außer den Orten und Geschwindigkeiten der Teilchen auch bestimmte Randbedingungen und Struktureigenschaften des Phasenraums benötigt werden. Eine scharfe Definition der Entropie und Formulierung des Zweiten Hauptsatzes ist nur für den Fall des thermodynamischen Gleichgewichts und bestimmte Zustände in der Nähe desselben bekannt. Eine befriedigende Herleitung des Zweiten Haupsatzes aus den bekannten Grundgleichungen der theoretischen Physik gibt es bislang nicht. Im Gleichgewicht gilt das Prinzip der maximalen Entropie, in der Nähe des Gleichge5 Vgl. W Ebeling/R. Feistei, Theory; Chaos and Kosmos (FN 2); Harald Atmanspacher, Informationsdynamik als formaler Ansatz für ein interdisziplinäres Wissenschaftsverständnis, in: A. Ziernke/R. Kaehr (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den NaturSozial- und Geisteswissenschaften, Band 6, Berlin 1995, S. 177 - 196.
Evolution im Eigenschaftsraum
101
wichts gilt das Prinzip der minimalen Entropieproduktion. Fern vom Gleichgewicht gilt unter bestimmten Voraussetzungen nur noch das Prigogine-GlansdorffKriterium6 , ein lokales, differentielles Extremalprinzip. Die Untersuchung insbesondere von einfachen ökologischen Evolutionsmodellen legt die Annahme nahe, daß es in vielen (allen?) komplexen Systemen lediglich solche differentiellen Extremalprinzipien gibt. Wir werden diesem Gesichtspunkt in den nächsten Abschnitten die meiste Aufmerksamkeit widmen. Auch einfache Modelle für die Preisbildung und die Marktkonkurrenz weisen auf die Existenz von Kriterien dieser Art hin. Was ist der Unterschied zwischen differentiellen und integralen Extremalprinzipien? Sind Xl ••• XN irgendwelche Größen, die den Zustand eines untersuchten Systems beschreiben, und folgen diese bestimmten Bewegungsgesetzen (2.1 )
so bedeutet ein integrales, globales Kriterium die Existenz einer Funktion mit der Eigenschaft
E(XI ••• XN)
(2.2)
dE/dt ~ 0,
wobei das Gleichheitszeichen nur für spezielle Zustände
(Xl ••• XN)
zutrifft.
Solange dE / dt > 0 gilt, kann die Entwicklung des Systems weder zyklisch noch chaotisch verlaufen. Die Dynamik ist irreversibel und zielgerichtet zu immer größeren Werten von E. Die Menge der Zustände des Systems besitzt eine Ordnungsrelation (oder zumindest eine Halbordnung) derart, daß man von zwei Zuständen sagen kann, welcher der höhere ist, und daß alle Übergänge zu niedrigeren Zuständen verboten sind. Ein differentielles Kriterium hat dagegen die Form (2.3)
8E
= ~Aj(Xl'"
xN)dxj ~ 0,
so daß kleine Veränderungen dx immer nur mit, nicht aber gegen die Richtung von A möglich sind. Ausgehend vom Punkt X ist die Entwicklung nur in einen Halbraum, der durch (2.3) bestimmt ist, möglich. Dieser Vorgang ist irreversibel und am Ort gerichtet. Von unmittelbar aufeinanderfolgenden Zuständen kann man sagen, welcher von beiden der höhere ist. Ist die Pfaffsche Form (2.3) integrabel, Ai = 8E/8xi' so existiert eine Funktion E(x), die ein integrales Extremalprinzip darstellt wie oben beschrieben. Besitzt (2.3) wenigstens einen integrierenden Faktor, so gibt es im x-Raum zumindest end-
6 Vgl. Paul Glansdorfflllya Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations, New York 1971.
102
Rainer Feistel
lieh große Gebiete, für die eine monoton wachsende Funktion gefunden werden kann. Im allgemeinen jedoch ist (2.3) nicht integrabel, und das Evolutionskriterium gilt nur noch für infinitesimal kleine Gebiete. Dann sind trotz des Evolutionskriteriums zyklische und chaotische Prozesse zugelassen, ein globales "Ziel" der Evolution existiert nicht, und für zwei beliebige Zustände ist es prinzipiell nicht möglich, sie nach einer "Höhe" des Entwicklungsstands zu vergleichen.
III. Evolution im Raum der Besetzungszahlen Klassische Modelle der Populationsbiologie wie die von Alfred Lotka7 oder Vito Volterra 8 beschreiben das Zeitverhalten eines ökologischeIl Systems durch einen Satz von Gleichungen der Form (3.1 )
dXi/dt
= Xi· Wi(X, C), i = I ... n
Dabei ist X = {Xl, X2 .•• Xn } der Vektor der Besetzungszahlen, d. h. der Zahlen der Individuen der Sorte i, und C = {Cl ... Cm} eine Menge von Kontrollparametern, d. h. gegebenen Eigenschaften, äußeren Bedingungen usw. Eine natürliche Verallgemeinerung solcher Modelle besteht darin, X = X(r, t) und C = C(r, t) als veränderlich in Raum und Zeit zu betrachten. Damit wäre z. B. ein Mechanismus der Entstehung einer neuen Art durch Emigration und Re-Invasion beschreibbar, aber auch die Beschleunigung der Evolution durch variable Bedingungen oder die Reaktion der Population auf Katastrophen. Ein anderer Mangel von (3.1) besteht in den kontinuierlichen Zahlen der Individuen: eine ungünstige Sorte benötigt unendlich lange, um auszusterben, eine neue, günstige Sorte wird mit Sicherheit heranwachsen. Erst stochastische Beschreibungen erlauben diskrete Teilchenzahlen und die Berechnung von Überlebenswahrscheinlichkeiten. Die entsprechenden Abänderungen von (3.1) führen dann auf partielle Differentialgleichungen vom Reaktions-Diffusions-Typ, auf Mastergleichungen oder sogar auf funktionale Mastergleichungen. 9 Diese Gleichungen sind bereits von erheblicher mathematischer Komplexität; wir werden sie deshalb hier nicht weiter betrachten und uns auf Modelle der Form (3.1) beschränken. Die Bedingungen C seien zeitlich konstant, so daß wir sie im folgenden zumeist nicht mehr explizit als Argument von Wangeben werden. 7 V gl. Alfred farnes Lotka, Contributions to the Theory of Periodic Reactions, in: J. Phys. Chem. 14 (1910), S. 271- 274. 8 V gl. Vita Valterra, Lelt0ns sur la theorie mathematique de la lutte pour la vie, Paris 1931. 9 Vgl. R. FeistellW. Ebeling, Evolution of Comp1ex Systems, Boston/London 1989; R. FeistellW. Ebeling, Models of Darwinian Processes and Evolutionary Princip1es, in: Biosystems 15 (1982), S. 291 - 299.
Evolution im Eigenschaftsraum
103
Die Zahl der vorhandenen Sorten ist die Dimension des Zustandsraums, in dem jeder mögliche Zustand X als ein Punkt repräsentiert ist. Die Dynamik der Population wird durch eine Trajektorie X(t) beschrieben. Wi(X) unterliegt einigen allgemeinen Einschränkungen: Die Trajektorie darf den positiven Kegel (den Teilraum mit nichtnegativen Besetzungszahlen XJ nicht verlassen (3.2)
lim (Xi
--->
O)Wi(X) endlich
und sie darf nicht ins Unendliche führen:
dlXlldt = B
(3.3)
wobei
lXI eine geignete Norm von Xist und B eine positive Schranke.
Die Netto-Wachstumsraten Wi(X) sind für konkrete Modelle genauer festzulegen; besonders gut untersuchte einfache Modelle dieser Art sind das Fisher-EigenModell (FE) (3.4)
Wi(X)
= Ei - < E >,< E > =
~
Ei ·X;/~Xi
oder das Lotka-Volterra-Modell (LV) (3.5)
Wi(X) = Ai -
~
Bij . Xj
wobei die Räuber-Beute-Matrix B positiv definit angenommen werden kann, damit entlang der Nahrungskette für die Gesamtpopulation nur Verluste an Biomasse, aber keine Gewinne möglich sind. In einer konsequenten Theorie sollte außerdem Bij mittels einer allgemeinen Funktion Bij = B(qi, q;) durch die Eigenschaften qi und {jj der Sorten i undj ausdrückbar sein. Wie untersucht man das Selektionsverhalten?
Bei n Sorten hat man die 2n verschiedenen Kombinationen zu untersuchen, bei denen eine Teilmenge der Sorten positive Besetzungszahlen Xi > 0 hat und der Rest der Sorten abwesend ist (Xi = 0). Die anwesenden Sorten können in einen stationären Zustand X laufen, aber auch gegen komplexere Gebilde wie Grenzzyklen oder chaotische Attraktoren konvergieren. Die asymptotische Stabilität dieser Zustände muß dann überprüft werden. Insbesondere die Frage nach der Stabilität des untersuchten Zustands gegen das Auftauchen der abwesenden Sorten entscheidet darüber, welche Sorten selektiert werden können oder müssen. Für FE-Modelle und LV-Modelle der obigen Form kann man allgemein zeigen, daß es genau einen stabilen stationären Zvstand, das "ökologische Gleichgewicht" xo, gibt, und man aus den Kontroll-Parametern
104
Rainer Feistel
C (hier Ei, Ai oder Eij) eindeutig ableiten kann, welche Sorten überleben und welche ausscheiden. \0 Wir werden im folgenden der Einfachheit halber so tun, als ob der Attraktorzustand stets eindeutig und stationär sei. Dabei verteidigen wir diese Vereinfachnung mit dem Argument, daß man bei instationären Attraktoren stets mit geeigneten (stationären) Mittelwerten operieren kann, wenn nur die typischen Zeiten des Einschwingens klein sind gegen die typischen Zeiten des Auftauchens neuer günstiger Mutanten. Bei FE-Modellen kann man die Sorten nach einem "Selektionswert" anordnen, so daß stets die Sorte mit dem höchsten Wert überlebt. Aber schon bei LV-Modellen läßt sich keine solche Ordnungsre1ation mehr angeben (genauer gesagt, es wurde noch keine solche Relation gefunden, und deren Existenz scheint wenig plausibel, wobei ein Beweis der Nichtexistenz dem Autor nicht bekannt ist), eine Zuodnung geeignet definierter Selektionswerte ist in diesen wie in allgemeineren Modellen nicht mehr möglich. (Wir werden trotzdem gleich allgemeine Selektionswerte finden, jedoch mit einer etwas modifizierter Bedeutung.) Wie untersucht man Mutationen?
Das ist eine erfreuliche Stelle in dieser Theorie, weil es eine einfache, klare und ganz allgemeine Aussage für Modelle der Form (3.1) gibt, wann eine neue Mutante günstig oder ungünstig ist. Es liege ein ökologisches Gleichgewicht XO vor, d. h. wegen der Stationarität gilt (3.6)
dX/dt = 0 mit Xi> 0, d. h. W;(XO)
= 0 für alle anwesenden Sorten i.
Eine mit infinitesimal kleiner Menge Xn+l hinzukommende Sorte (n dem linearisierten Wachstums gesetz
+ 1) folgt
(3.7)
Da das Vorzeichen der Zahl Wn+ 1 (XC, Xn+ 1 = 0) offensichtlich die Entscheidung über das Schicksal der neuen Sorte fällt, ist es vollauf berechtigt, diese Zahl als "Selektionswert" der Sorte (n + 1) zu definieren. Dieser Selektionswert ist keine feste Zahl, die sich nur aus den Eigenschaften der Sorte zusammensetzt, sondern hängt vom aktuell herrschenden Zustand Xc ab, wird vom System also in diesem Sinne "ganzheitlich" bestimmt. Verschiedene Sorten sind jedoch nur dann mittels dieses Selektionswerts vergleichbar, wenn sie sich auf denselben Referenzzustand Xc beziehen. 10
Vgl. W. Ebeling/R. Feistei, Physik der Selbstorganisation und Evolution, Berlin 1982.
Evolution im Eigenschaftsraum
105
Sorten mit positivem Selektionswert werden im System anwachsen, solche mit negativem Selektionswert jedoch abgelehnt werden. Für bereits existierende Sorten Xi ist der entsprechende Selektionswert Wi(X) wegen (3.6) immer Null. Wie untersucht man Evolution?
Evolution ist hier einfach als Folge Selektion - Mutation - Selektion - ... zu verstehen. Für eine gegebene Population ermitteln wir den Gleichgewichtszustand Xc. Zufällig neu hinzukommende Sorten Xi werden anhand ihres Selektionswerts Wi geprüft. Ist er negativ, wird die neue Sorte sofort verworfen, ist er positiv, so wird ein neues Gleichgewicht XCI unter Einschluß der neuen Sorte (und ggf. unter Ausschluß bisher vorhandener Sorten) gesucht, und das Spiel auf der neuen Stufe wiederholt. Ist der Selektionswert null, so liegt ein Fall neutraler Mutation vor. Die Sorte wird nicht verdrängt, aber auch nicht verstärkt. Eine neue Sorte entspricht natürlich einer neuen Koordinatenachse für die Besetzungszahl X dieser Sorte, so daß der Raum um eine Dimension aufgeblasen werden muß. Andersherum führt Selektion stets auf einen "Rand" des positiven Kegels, verringert die Dimension des besetzten Zustandsraums. Dieser ständige Wechsel der Zustandsräume macht es schwierig, Aussagen über allgemeine Eigenschaften möglicher Abfolgen von Selektions - Mutations - Schritten zu treffen. Wie soll man etwa eine Evolutionsgeschwindigkeit definieren? Gibt es ein allgemeines Evolutionsprinzip, wird also in dieser Folge irgendeine Größe vielleicht stets anwachsen? Ist diese Folge irreversibel, oder kann sie auch rückwärts verlaufen? Können solche Folgen auch zyklisch verlaufen? Einige Antworten können im Zuge einer qualitativen Selektionstheorie gegeben werden, II da diese Theorie jedoch relativ abstrakt und unanschaulich ist, wollen wir an dieser Stelle darauf nicht näher eingehen. Ein weiterer Nachteil dieser Modelle ist die Tatsache, daß die Sorten nur durch eine Nummer i charakterisiert sind, die nichts über die Ähnlichkeit von Sorten aussagt und auch keine Streuung von Eigenschaften innerhalb einer Art beschreibt. Neu hinzukommende Sorten bekommen einen neuen Index; wie ist ersichtlich, wie nahe sie zu alten Sorten sind? Wir wollen im folgenden deshalb die Modellierung der Evolution im Eigenschaftsraum diskutieren, die die Modelle im Besetzungszahlraum als Spezialfall enthält, aber darüber hinaus wesentlich mehr Eigenschaften von Evolutionsvorgängen veranschaulicht. Die hier besprochenen Modellvorstellungen lassen sich auf gewisse ökonomische Modelle übertragen. Sei Xi die Umsatzrate einer Ware i (die Zahl der verkauften Exemplare pro Zeiteinheit), so kann man die Wachstumsrate W(X) als Rate der Umsatzsteigerung deuten. Diese Rate wird hauptsächlich durch die Produktionskosten und erzielten Preise bestimmt: macht eine Ware Gewinn, so wird ihre Produk11
Vgl. FN 10.
106
Rainer Feiste1
tion und ggf. auch ihr Umsatz steigen. Xc ist ein "gesättigter Markt", und der Selektionswert Wn+! (XC, Xn+!), der über den Erfolg einer neu eingeführten Ware (n + 1) entscheidet, kann hier als "Marktwert" dieser Ware bezeichnet werden. IV. Evolution im Raum der Eigenschaften
Wir vollziehen nun im Modell einen Übergang von diskreten, durchnumerierten Sorten Xi zu einem Kontinuum von Sorten x(q), aus dem Vektor X wird die Funktion x( q). Dabei sei q = {q! ... qN} ein Punkt in einem N-dimensionalen Raum, dem Q-Raum oder Eigenschaftsraum (im Rahmen des biologischen Modells wird er der Raum der phänotypischen Eigenschaften oder kurz Phänotypraum genannt). Eine Sorte mit gegebenen Eigenschaften entspricht einem Punkt in diesem Q-Raum. x(q) ist die Zahl der Individuen mit der Eigenschaft q, genauer, die Besetzungsdichte am Ort q im Q-Raum. Die Bewegungsgleichung für die Population mit der Eigenschaft q lautet nun (4.1 )
8x(q, t)/8t = x(q, t) . w(q, {x(q)})
+ DrYx/8q2
Die Wachstumsfunktion Wi(X) ist nun übergegangen in eine Funktion der vorliegenden Eigenschaft q und ein Funktional der vorhandenen Gesamtpopulation x(q). Der Diffusionsanteil soll das Auftreten von Mutationen modellieren, die in ihren Eigenschaften mit hoher Wahrscheinlichkeit nahe bei den schon vorhandenen Sorten liegen. Eine Art können wir uns nun vorstellen als ein kleines Gebiet im Q-Raum, das die innerartliche Streuung der Eigenschaften widerspiegelt. Die Besetzungsdichte x(q), die zu dieser Art gehört, mag wie eine Gaußglocke mit Streuung (J"i um einen Mittelwert qi verteilt sein. Mutation erscheint in diesem Bild als Diffusion, Selektion als Verschiebung des Artmittelwerts, Evolution schließlich als Wandern, als Vergehen oder Verzweigen der örtlichen Anhäufungen. Damit wird es möglich, die Frage nach der Richtung und Geschwindigkeit der Evolution in diesem Raum zu stellen und mittels der Gleichung (4.1) zu untersuchen. Zu diesem Zweck untersuchen wir zunächst wie im vorigen Kapitel den Zustand des ökologischen Gleichgewichts XC (q), wobei wir die Sorten i als punktförrnig bei qi im Q-Raum annehmen und die Diffusion beiseite lassen wollen. Stationarität erfordert (4.2)
XC(q, t) . w(q, {XO(q)})
Für alle vorhandenen Sorten muß also (4.3)
= 0 im gesamten Raum Q.
Evolution im Eigenschaftsraum
107
gelten, während der Rest des Raums unbesetzt ist (4.4)
Tritt eine neue Sorte an einem Ort q auf, der bisher unbesetzt war, so entscheidet das Vorzeichen von w(q, {XO(q)}) darüber, ob diese Mutante heranwachsen kann (w> 0) oder ausstirbt (w < 0).
w(q) ist eine Fläche über dem Raum der Eigenschaften, die man aus diesem Grunde als Fitness-Landschaft bezeichnet. Ihre konkrete Form hängt ab von momentan herrschenden Gleichgewichtspopulation XO (q). Teile des "Gebirges" w(q) ragen über den "Meeresspiegel" w = 0 hinaus. Das sind Inseln des Überlebens, Sorten, die an diesen Stellen auftreten, werden anwachsen. Andere Teile liegen "unter Wasser", w(q) < 0, und Sorten mit solchen Eigenschaften müssen aussterben. Alle existierenden Sorten liegen stets "am Ufer", d. h. haben wegen (4.3) den Fitness-Wert w = o. Tritt eine günstige Mutante auf, so wächst sie heran und führt zu einem veränderten, neuen Gleichgewicht XO(q), somit letztlich zu einer deformierten Landschaft w( q). Diese Deformation verläuft insbesondere so, daß am Ort der neuen Sorte der urprünglich positive Wert von w auf Null absinkt. Andere "bewohnte" Orte können auf der Höhe w = 0 verbleiben, dann bleibt die entsprechende Sorte bestehen, oder auch unter Null absinken, dann wurde die dort befindliche Sorte von der neuen verdrängt. Nehmen wir jetzt an, daß die Eigenschaften innerhalb einer Art i nicht punktförmig sind, sondern um einen Mittelwert streuen, so folgt, da der Mittelwert gerade bei w = 0 liegt, daß ein Teil der Mitglieder der Art sich ,,hangabwärts", "unter Wasser" befindet und verschwinden muß, ein anderer Teil dagegen ,,hangauf' liegt und heranwachsen wird. In anderen Worten, eine Streuung der Eigenschaften innerhalb der Art führt zu einer Verschiebung des Schwerpunkts den Hang hinauf, entlang des Gradienten von W(qi). Und nicht nur die Richtung, auch das Tempo der evolutionären Veränderung läßt sich aus (4.1) berechnen: (4.5)
dq;jdt = Uf(&w/öq) an der Stelle q = qi
Dieses Bewegungsgesetz für die evolutionäre Veränderung von Arteigenschaften ist sogar experimentell bekannt, es heißt in der Populationsbiologie "Fundamentalgesetz der natürlichen Selektion" oder kurz das "Gesetz von Fisher,,12.
12
V gl. Ronald A. Fisher, The Genetical Theory of Natural Se1ection, Oxford 1930.
Rainer Feiste!
108
Welche Richtung hat die Evolution?
Es ist offensichtlich, daß der hier modellierte Evolutionsprozeß irreversibel ist. Die Bewegung (4.5) verläuft immer hangaufwärts, hangab ist sie ausgeschlossen. Die Bewegung verläuft stets in Richtung der stärksten Zunahme der Fitness w(q). Ist diese Aussage nun gleichbedeutend mit der Feststellung, daß es im System eine Funktion "Fitness" gibt, die mit der Zeit nur zunehmen kann? Sie ist es NICHT. Da es sich bei den Fragen nach der Unurnkehrbarkeit und allgemeinen Gerichtetheit von Evolutionsvorgängen um Fragen unseres grundsätzlichen Verständnisses dieser Vorgänge handelt, wollen wir diese Aussage hier noch etwas genauer beleuchten. Wir tun das insbesondere in der Überzeugung, daß die hier abgeleiteten Beziehungen nicht nur für das hier besprochene Modell gelten, sondern exemplarisch auch im Hinblick auf allgemeinere Evolutionsvorgänge interpretiert werden dürfen. Tatsächlich sieht das Fisher-Gesetz (4.5) oberflächlich aus wie die Dynamik eines "Gradientensystems", eines Systems, von dem man leicht zeigen kann, daß es stets mit dem monotonen zeitlichen Anwachsen des Werts einer bestimmten Funktion verbunden ist. Zwar bewegen sich in unserem Fall die Punkte qi stets strikt "bergauf', jedoch deformiert sich die Fläche w(q) währenddessen derart (durch Veränderung des Gleichgewichtszustands XO(q)), daß auch am neuen, verschobenen Ort qi nunmehr wieder der Wert w(q) = 0 vorliegt. Die Evolution führt nicht dazu, daß die besetzten Punkte qi zu immer größeren Höhen im Fitnessgebirge aufsteigen, sondern dazu, daß eben dieses Gebirge an den zuvor besetzten Stellen "im Meer" versinkt. Die letztere Aussage ist deutlich schwächer als die erste. Wir können die Tatsache, daß die Fitnesslandschaft w(q) an allen besetzten Orten den Wert Null hat und an eben diesen Orten nach unten sinkt, ausnutzen, um ein differentielles Extremalprinzip abzuleiten. Wir betrachten eine kleine Änderung öL (4.6)
8L =
~
AMi)dq mit Ai
= -(Ow/8q) an der Stelle q = qi
Es folgt mit dem Fisher-Gesetz (4.7)
8L/dt 2
o.
Dieses Evolutionskriterium gilt recht allgemein, ohne daß irgendwe1che speziellen Annahmen über Einzelheiten der Wachtumsgesetze w(q, {x(q)}) erforderlich sind, und drückt die Tatsache aus, daß die Evolution alle Eigenschaften in Richtung des stärksten Anstiegs der Fitness-Landschaft verschiebt. (4.7) zeigt, daß die Evolution lokal ein streng gerichteter Proze~ ist. Die Existenz einer zeitlich anwachsenden Größe L(ql ... qn) kann aber aus (4.7) nur dann gefolgert werden, wenn öL, eine sogenannte Pfaffsche Form, ein to-
Evolution im Eigenschaftsraum
109
tales Differential darstellt (oder, im schwächeren Fall, wenigstens einen integrierenden Faktor besitzt). Dazu müßten die A i (ql ... qn) die mathematischen Integrabilitätsbedingungen (4.8)
erfüllen, das sind n . N . (n . N - I) 2 verschiedene Gleichungen für die jeweils N Komponenten der n Vektoren Ai. Es liegt auf der Hand, daß diese Bedingungen nur in Spezialfällen gelten werden, und selbst dann liegt eine strukturell instabile Situation vor, weil bereits winzige Modifikationen der Wachtumsgesetze w( q, {x( q)}) eine Verletzung der Integrabilitätsbedingungen zur Folge haben können. Es ist auch nicht anzunehmen, daß allgemeinere als die hier betrachteten Evolutionsmodelle die Chancen für die Existenz integraler, globaler Evolutionskriterien erhöhen. Wir müssen also damit vorlieb nehmen, daß Evolution in der Regel nur als "Vorwärtsentwicklung", aber nicht als "Höherentwicklung" verstanden werden kann. Ein differentielles Kriterium ÖL/ dt ~ 0 schreibt in jedem Stadium die Richtung der weiteren Evolution streng vor, aus ihm können aber kaum Schlüsse auf das globale Verhalten gezogen werden. Ein konkreter Evolutionsprozeß ist natürlich nur eine einzelne Trajektorie im Raum der Möglichkeiten, und es ist nicht auszuschließen, daß entlang gerade dieser Trajektorie irgendeine Größe wie z. B. ein Komplexitätsmaß über kleinere oder größere Zeiträume hinweg monoton zunimmt. Wir betrachten hier jedoch nicht "eine spezielle Evolution", sondern "alle möglichen Evolutionen", und da sagen unsere Modelle, daß die Existenz von universellen Größen, die im Zuge der Evolution nur zunehmen können, den extremen Ausnahmefall darstellt. Neutrale Evolution?
Biologische Arten zeichnen sich in der Regel durch eine relativ geringe Variation von Eigenschaften innerhalb der Art aus aus. Denken wir zurück an das anschauliche Bild, in dem vorhandene Sorten stets am Ufer siedeln, zwischen den "Bergen des Lebens" und dem "Meer des Todes", so haben wir natürlich eine Fitness-Landschaft über einem 2-dimensionalen Q-Raum vor Augen. Ausgehend von einem solchen Punkt führt eine Richtung zu besseren bzw. schlechteren Eigenschaften, die zweite aber am Ufer entlang, und dieser Weg ist selektionsneutral. Warum nun zerfließt eine Art nicht durch neutrale Mutationen? Ein realistischer Eigenschaftsraum ist natürlich hochdimensional, auch in diesem führt eine Richtung hin zu "besser" oder "schlechter", alle anderen möglichen Richtungen aber, und das sind viele, sind dagegen neutral. Somit sollten beliebige Mutationen überwiegend neutralen Charakter tragen. Endgültige Klarheit über die Rolle neutraler Veränderungen in diesem Modell gibt es noch nicht, aber auch in der allgemeinen Evolutionstheorie ist die Bedeutung einer neutralen, sogenannten Nicht-Darwin-
110
Rainer Feistel
schen Evolution nicht endgültig geklärt. Wir müssen hier offen lassen, ob die Dynamik des Modells selbst zu einer Lokalisierung der Arten führt, oder ob man neue, außerhalb der bisherigen Modellvorstellung liegende Mechanismen (wie etwa sexuelle Reproduktion) zur Erklärung bemühen muß. Es soll hier erwähnt werden, daß die Existenz eines integralen Evolutionskriteriums auch für den Charakter von Neutral-Mutationen von qualitativer Bedeutung ist. Ist (4.7) integrabel, so sind unendlich viele Nachbarzustände eines gegebenen durch neutrale Schritte mit 8L = 0 unerreichbar, ist es nicht integrabei, so ist jeder Nachbarzustand eines gegeben durch neutrale Mutationen erreichbar. Das ist die Aussage des Prinzips von Caratheodoryl3. Wie entstehen hier neue Arten?
Das Fisher-Gesetz (4.5) stellt ein System nichtlinearer gekoppelter Differentialgleichungen für die Trajektorien qi(t) der einzelnen Arten im Eigenschaftsraum dar. Wenn diese Trajektorie einen Bifurkationspunkt durchläuft, so kann sich eine Art in zwei aufspalten. Vermutlich ist solch eine Form der Artendifferenzierung in der Natur aber eher die Ausnahme, und Auswanderung, Isolation und erneute Einwanderung unter räumlich inhomogenen Bedingungen ist der wirksamere Mechanismus. Hier jedoch haben wir die Möglichkeit räumlicher Variabilität ausdrücklich ignoriert. Was sind hier ökologische Nischen?
Am Spezialfall der Lotka-Volterra-Modelle kann man durch eine Reihenentwicklung nach Eigenfunktionen des Räuber-Beute-Integralkerns einen mathematischen Ausdruck für eine ökologische Nische gewinnen. Solche Nischen haben die Eigenschaft, nur mit eine Art besetzt sein zu können, das sogenannte Ausschließungsprinzip von Gauze. Man kann plausibel machen, daß im Zuge der Evolution die vorhandenen Sorten neue Nischen hervorbringen,14 in denen dann wiederum neue Sorten Platz finden können. Wie kommt es hier zu Evolutionssprüngen?
Die Fitnesslandschaft kann Inseln aufweisen, die von bisher besiedelten Gebieten durch "Gräben", Gebiete mit negativen Fitnesswerten, getrennt sind. Solche Gräben können nach dem Fisher-Gesetz nicht durchquert werden. Am Spezialfall der Fisher-Eigen-Modelle kann man aber zeigen, daß eine mathematische Analogie zur Schrödingergleichung besteht,15 daß Arten gewissermaßen per "Tunnel13 Vgl. Henry Margenau/George M. Murphy, Die Mathematik für Physik und Chemie, Leipzig 1964. 14 Vgl. FN 9. 15 Vgl. FN 9.
Evolution im Eigenschaftsraum
111
effekt" entfernte Fitness-Inseln besiedeln können. Eine solche "Erfindung" besonders neuartiger Eigenschaften wird mit kurzzeitig erheblich vergrößerten Entwicklungsgeschwindigkeiten, "Sprüngen" einhergehen. V. Diskussion
Die Grundgesetze der Physik wurden aus zahllosen Experimenten nach und nach herauskristallisiert. Ihren Gesetzescharakter gewinnen sie insbesondere dadurch, daß Experimente wiederholbar sind und, innerhalb angebbarer Toleranzen, reproduzierbare Ergebnisse liefern. Bei der Evolution ist die Lage ungleich schwieriger. Sie verläuft in der Regel in einzigartiger, nicht wiederholbarer Weise. Experimente mit der Evolution sind nur in sehr bescheidenem Rahmen denkbar. Während man in der Physik durch geschickten Versuchsaufbau den Einfluß störender Größen so klein wie möglich halten kann, hat man es in der Evolution gewöhnlich mit einer Vielzahl ineinander verwobener Vorgänge zu tun. Wie also können wir hier allgemeinen Aussagen, zu Gesetzen gelangen? Ein möglicher Weg ist die Benutzung mathematischer Modelle. Zwar wird ihre Einfachheit der Komplexität wirklicher Entwicklungsprozesse nicht gerecht werden können, dafür aber gestatten sie das genaue Studium herausgelöster Teilprozesse oder -aspekte. Eine fundamentale Frage lautet: Ist Evolution gerichtet, ist sie unurnkehrbar? Eine andere lautet: Ist sie zielgerichtet, führt sie stets zu Höherem, Besserem, Komplexerem? Wir können diese Frage nicht in voller Allgemeinheit beantworten, aber wir können sie an abgegerenzte mathematische Modelle stellen. Im hier vorgestellten Fall lautet unsere Antwort: Ja, Evolution ist gerichtet und irreversibel. Nein, Evolution hat kein Ziel, sie führt immer vorwärts, aber sie führt nicht notwendig zu höheren Formen. Es erweist sich schon an relativ einfachen Beispielen, daß eine entsprechende Definition des "höher" nur bei integrablen Evolutionskriterien möglich ist, diese jedoch nur in speziellen Ausnahmefällen erwartet werden können. Von der Thermodynamik wissen wir, daß unter den Bedingungen der Existenz von integralen Extremalprinzipien (Entropie, Entropieproduktion) die Bildung von komplexen Strukturen im Grunde ausgeschlossen ist, erst die Abschwächung auf das differentielle Prigogine-Glansdorff- Kriterium läßt die Komplexität und Vielfalt von Evolutionsvorgängen in offenen Systemen ausdrücklich zu. Ähnlich muß man auch unser Resultat bewerten. Existieren in einem System integrale Extremalprinzipien, so ist in ihm die Evolution an einen engen Pfad gefesselt, und erst die Aufhebung dieser Schranken eröffnet die Wege zum Reichtum der Strukturen und Funktionen.
Wege und Agenten: Reduktion und Konstruktion in der Selbstorganisationstheorie Von Frank Schweitzer; Berlin
I. Der Wille zur Theorie Mannigfache Wege gehen die Menschen. Wer sie verfolgt und vergleicht, wird wunderliche Figuren entstehen sehn; Figuren, die zu jener großen Chiffernschrift zu gehören scheinen, die man überall, auf Flügeln, Eierschalen, in Wolken, im Schnee, in Kristallen und in Steinbildungen, auf gefrierenden Wassern, im Innern und Äußern der Gebirge, der Pflanzen, der Tiere, der Menschen, in den Lichtern des Himmels, auf berührten und gestrichenen Scheiben von Pech und Glas, in den Feilspänen um den Magnet her und sonderbaren Konjunktionen des Zufalls, erblickt. In ihnen ahndet man den Schlüssel dieser Wunderschrift, die Sprachlehre derselben; allein die Ahndung will sich selbst in keine feste Formen fügen und scheint kein höherer Schlüssel werden zu wollen. Novalis
Es sind keine wissenschaftlichen Theorien über die Gemeinsamkeiten der Strukturbildung in der belebten und der unbelebten Natur, sondern lediglich "Ahndungen" einer "großen Chiffemschrift", von denen Novalis in seinen "Lehrlingen von Sais" spricht. Dahinter verbirgt sich die Sehnsucht, die verbindenden Elemente in einer Welt diverser Strukturen zu erkennen, die Gemeinsamkeiten hinter der unendlichen Vielfalt der Erscheinungen auszusprechen. Diese Sehnsucht ist nicht allein romantischen Ursprungs, sie gehört zu jenen Triebkräften, die die Wissenschaftler von jeher motiviert haben, auf die Frage nach der Einheit der Welt eine stets neue Antwort zu geben. So sieht es auch noch Heisenberg in der Mitte unseres Jahrhunderts, wenn er schreibt: "Aber die Ahnung eines großen Zusammenhangs, in den wir mit unseren Gedanken doch schließlich immer weiter eindringen können, bleibt auch für uns die treibende Kraft der Forschung."l I Wemer Heisenberg, Wandlungen in den Grundlagen der Naturwissenschaft, Stuttgart 1949, S. 88.
8 Selbstorganisation, Bd. 8
114
Frank Schweitzer
Der Faszination, die die Zeichen jener "Chiffernschrift" dabei auf den Forscher ausüben, hat schon Goethe in seinem "Faust" beredten Ausdruck gegeben: War es ein Gott der diese Zeichen schrieb, Die mir das innre Toben stillen, Das arme Herz mit Freude füllen, Und mit geheimnisvollem Trieb Die Kräfte der Natur rings um mich her enthüllen?2
Nicht anders ergeht es auch dem heutigen Wissenschaftler, der sich mit dem Problem der Strukturbildung beschäftigt: wie könnte er den Zauber der "wunderlichen Figuren" verleugnen, ganz zu schweigen von jener Magie der mathematischen Symbole, mit denen die Essenz dann schließlich in Formeln gebannt werden soll. Aber auf die Euphorie dieses Erkenntnisdranges folgt - nicht nur im "Faust" - alsbald die Ernüchterung: der Forscher, der sich den letzten Geheimnissen der Natur schon so nahe fühlte, wird unversehens auf sich selbst zurückgeworfen. Die Antwort des Erdgeistes: "Du gleichst dem Geist, den Du begreifst,/Nicht mir!,,3 wirkt letztlich wie ein vorgehaltener Spiegel, in dem der nach objektiver Welterkenntnis strebende Naturforscher unversehens sich selbst erblickt. Diese Rückwendung von der objektiven zur subjektiven Erkenntnis, die Faust, "zusammenstürzend", erfährt, offenbart einen Zusammenhang, der in der modernen Naturwissenschaft inzwischen häufiger diskutiert wird: die Verbindung von quasi-objektivierter Naturerkenntnis auf der einen Seite und den "menschlichen" Voraussetzungen auf der anderen Seite, die die Konstitution dieser Erkenntnis erst ermöglichen und sich damit - vice versa - in ihr wiederfinden. 4 c.F. Weizsäcker, beispielsweise, schreibt: "So wie jede andere Lebensäußerung kann auch die naturwissenschaftliche Erkenntnis unwillkürlich etwas von dem ausdrücken, was im Menschen ist. Sie wird dann, zunächst unbewußt, vielleicht aber auch bewußt anerkannt, zum Symbol seines Wesens oder seines Zustandes. ,,5 Und die Theorien in den Naturwissenschaften sind dann vielleicht nicht nur "Übereilungen eines ungeduldigen Verstandes, der die Phänomene gern los sein möchte und an ihrer Stelle deswegen Bilder, Begriffe, ja oft nur Worte einschiebt,,6, wie es noch Goethe formulierte, sie sind allgemeiner Ausdruck einer spezifisch menschlichen, geistigen Verfaßtheit. In diesem Sinne schrieb schon P. Teilhard de Chardin über die Situation der "Physiker und anderen Naturfor2 Goethes Werke. Weimarer Ausgabe, Weimar 1887, I. Abt., Band 14, S. 30. 3 Goethe (FN 2), S. 33. 4 Vgl. auch Frank Schweitzer, Naturwissenschaft und Selbsterkenntnis, in: Goethe und die Verzeitlichung der Natur. Hrsg. von Peter Matussek in Verbindung mit H. Böhme/K.R. Mandelkow /K.M. Meyer-Abich, München 1998. 5 earl Friedrich v. Weizsäcker, Zum Weltbild der Physik, Stuttgart, 13. Aufl. 1990, S. 122. 6 Goethe, Maximen und Reflexionen. Nach den Handschriften des Goethe- und SchillerArchivs herausgegeben von Max Hecker (Schriften der Goethe-Gesellschaft, Bd. 21), Weimar 1907, S. 88, Nr. 428.
Reduktion und Konstruktion in der Selbstorganisationstheorie
115
scher": "Wenn sie nun den letzten Schluß aus ihren Analysen ziehen, sind sie nicht mehr sicher, ob die endlich erreichte Struktur das Wesen der untersuchten Materie oder das Spiegelbild ihres eigenen Denkens darstellt.'.7 Die "Physiker und anderen Naturforscher" freilich hören solche Einwände nicht gern, und sie räumen ihnen zumeist auch keine Geltung ein. Aber die Frage nach der menschlichen Konstruktion wissenschaftlicher Erkenntnisse, nach dem Willen zur Theorie als einer besonderen Form des Willens zur Macht, stellt sich gerade dann besonders nachdrücklich, wenn Theorien mit einem universellen Erklärungsanspruch auf den wissenschaftlichen Markt drängen. Dies ist heutzutage bei der Selbstorganisationstheorie der Fall, die euphorisch als eine "tiefgreifende Erneuerung unserer wissenschaftlichen Schau der Natur"S, gar als "eine wissenschaftliche Revolution,,9 apostrophiert wird. Mit der Etablierung der Selbstorganisationstheorie seit den 70er Jahren unseres Jahrhunderts wurde ein systematischer Zugang geschaffen, um innerhalb der Materie Potenzen der Selbststrukturierung aufzuzeigen, die zu qualitativ neuen Formen, zu Emergenzphänomenen führen. Damit wurde der Evolutionsgedanke, der im 19. Jahrhundert noch vornehmlich lO dem Verständnis der organischen Natur vorbehalten war, auf die Vorstellungen von anorganischer Materie erweitert, so daß sich letztlich ein umfassendes naturwissenschaftliches Szenario ergibt, welches die kosmische Evolution und die biologische Evolution gleichermaßen urnfaßt. 11 An die Stelle einer definitorischen Unterscheidung von Wirklichkeitsbereichen, wie sie für das klassische Wissenschaftsverständnis typisch ist, tritt nunmehr erneut die Frage nach der Verbindung zwischen ihnen. Im Rahmen der "neuen Naturwissenschaft" (Nicolis) erfolgt der Zugang zur Einheit der Wirklichkeit jedoch nicht mehr unter dem reduktionistischen Gesichtspunkt der Elementarteilchen oder einer alles bestimmenden Weltformel, sondern unter Wahrung der Komplexität der Systeme. Diese Einheit wird heute weniger in Bausteinen als vielmehr in den dynamischen Prozessen gesehen, die diese Komplexität in allen Bereichen hervorbringen und auf den verschiedenen Ebenen nach den gleichen Gesetzen ablaufen. Im Gegensatz zur Auffassung von Welsch, wonach auch die modeme Naturwissenschaft in der Tradition einer konsequenten Auflösung neuzeitlicher EinheitsvorPierre Teilhard de Chardin, Der Mensch im Kosmos, Berlin 1966, S. 16. Ilya Prigogine I Isabelle Stengers, Dialog mit der Natur. Neue Wege naturwissenschaftlichen Denkens, München 1990, S. I - Vorwort zur fünften erweiterten Auflage. 9 Wolfgang KrohnlGünter Küppers (Hrsg.), Selbstorganisation - Aspekte einer wissenschaftlichen Revolution, Braunschweig 1990. 10 Der Evolutionsgedanke des 19. Jahrhunderts beschränkte sich nicht allein auf die organische Evolution in der Natur, sondern faßte auch in den sozial- und humanwissenschaftlichen Bereichen Fuß. Beispiele dafür sind Marx mit seiner Theorie der Gesellschaftsformationen, aber auch der Religionshistoriker Wellhausen, der als erster die Genese der Texte des Alten Testaments als evolutiven Prozeß beschrieb. 11 Vgl. Wemer EbelinglRainer Feistei, Chaos und Kosmos. Prinzipien der Evolution, Heidelberg 1994. 7
8
8*
116
Frank Schweitzer
stellungen steht, 12 wird in der Selbstorganisationstheorie gerade der Versuch unternommen, die Komplexitätstheorie als "höheren Schlüssel" zu jener "großen Chiffernschrift" auszuformen und mit ihrer Hilfe ein einigendes Band zwischen den diversen Erscheinungen der Lebenswelt zu konstruieren. Was dabei jedoch nur unzureichend thematisiert wird, sind die Voraussetzungen einer solchen Vereinheitlichung. Der Anspruch der Selbstorganisationstheorie, die Emergenz neuer Systemeigenschaften und Ganzheiten aus der Wechselwirkung von Elementen zu erklären, setzt seinerseits bereits eine Projektion, eine spezifische Sicht auf die Elemente und ihre Wechselwirkung mit dem Systemganzen voraus. Dies gilt bereits für die Naturwissenschaften, ganz besonders jedoch für die Sozialwissenschaften, die sich mit kollektiven Phänomenen befassen. Die Ebene, auf der Selbstorganisation erfaßbar wird, wird in einem Wechselspiel von Reduktion und Konstruktion buchstäblich erst erzeugt. Im Rahmen einer allgemeinen Selbstorganisationstheorie muß daher auch nach dem Reduktionsprogramm gefragt werden, das die Elemente erst konstituiert, und nach dem Konstruktionsprogramm, das auf dieser Grundlage die Synthese des Systemganzen erst ermöglicht. Wenn Selbstorganisationstheorie als ein neuer Zugang zur Einheit der Wirklichkeit gebührend gewürdigt werden soll, dann müssen wir uns also auch der Frage stellen, unter welchen heuristischen Voraussetzungen, vor welchem epistemologischen Hintergrund, ein Phänomen wie Selbstorganisation als solches überhaupt erst in den Blick kommt. Wir müssen uns gewissermaßen der "subjektiven" Seite dieser Theorie zuwenden, indem wir diskutieren, was wir in den Blick nehmen, wenn wir Phänomene unter dem Gesichtspunkt der Selbstorganisation und der Komplexität diskutieren, und was wir dabei gerade aus unserem Bild ausblenden. W. Welsch hat in diesem Zusammenhang von einer "Kultur des blinden Flecks,,13 gesprochen. Die konsequente Diskussion dieser Fragen würde in der Tat eine neue Sicht auf den viel beschworenen Paradigmen wechsel bewirken. Wenn man die Idee der Selbstorganisation ernst nimmt, so stellt sich damit folgerichtig auch die Frage nach der Selbstorganisation der Selbstorganisationstheorie: der strukturellen Verküpfung der Begriffe untereinander, der rekursiven Geschlossenheit des Begriffssystems und der Randbildung nach außen. Eine solche Sicht auf die Selbstorganisationstheorie hätte neben ihrer einzelwissenschaftlichen auch eine wissenschaftsphilosophische Relevanz: als ein Konzept, das in der Lage ist, sich selbst zu transzendieren und damit seine eigenen Grenzen aufzuzeigen.
12 13
Vgl. Wolfgang Welsch, Unsere postmoderne Modeme, Weinheim 1987. Wolfgang Welsch, Kreativität heute, in: Universitas 6 (1991), S. 590.
Reduktion und Konstruktion in der Selbstorganisationstheorie
117
11. Aisthesis - Selbstorganisation als Wahrnehmungsproblem
Die Idee der "Selbstorganisation" ist keine grundsätzlich neue Entdeckung in den Wissenschaften, wie an zahlreichen Beispielen in der Wissenschaftsgeschichte gezeigt wurde. 14 Das Charakteristische des Selbstorganisationsansatzes liegt vielmehr in seiner spezifischen Sichtweise auf das Phänomen, die impliziert, daß bestimmte Eigenschaften aus dem Phänomen herausprojiziert und deshalb natürlich auch an ihm wahrgenommen werden - Eigenschaften, die vorher zwangsläufig gar nicht in den Blick naturwissenschaftlicher Forschung geraten waren. Dieser Wandel in der wissenschaftlichen Wahrnehmung kann, einem konstruktivistischen Verständnis wissenschaftlicher Theoriebildung folgend, als ein Wandel in den "ästhetischen Grundfiktionen" beschrieben werden. 15 Warum "Grundfiktionen"? Jedes Naturbild, auch das der Wissenschaft, bedarf bestimmter Axiome, Grundelernente, um überhaupt dargestellt werden zu können. Die Grundannahmen, auf denen jede Theoriebildung beruht, entziehen sich innerhalb dieser Theorie einer Letztbegründung, haben also - in bezug auf die jeweilige Beschreibungsebene - fiktionalen Charakter. Ihre Rechtfertigung ließe sich nur im Rahmen einer Metatheorie vollziehen - jede Physik hat ihre Meta-Physik, aber eine solche Einschachtelung führt vermutlich in den infiniten Regreß. Insofern halten wir an dem fiktionalen Charakter im Rahmen der jeweiligen Theorie fest, zumal der heuristische Wert dieser Grundannahmen dadurch keineswegs eingeschränkt wird. Warum "ästhetische" Grundfiktionen? Die Grundfiktionen definieren gewissermaßen die Optik für unserer Weltbild, sie sind aisthetische Manifeste, programmatische Vorschriften für die Wahrnehmung von Wirklichkeit. Ich knüpfe hier an die Begriffsbestimmung der Ästhetik durch A.G. Baumgarten an, der aestetica als Wahrnehmungslehre einführte: der Begriff umfaßt sowohl das griechische aisthetos (wahrnehmbar) als auch aisteticos (der Wahrnehmung fähig). Wenn wir von "ästhetischen" Grundfiktionen sprechen, dann ist hier also eine epistemische "Ästhetik" gemeint, die der sinnlichen Wahrnehmung des Untersuchungsgegenstandes (Formen, Strukturen, Muster, etc.) eine zentrale Bedeutung für den Erkenntnisprozeß zuerkennt. An dieses erweiterte Verständnis von Ästhetik knüpft auch die postmoderne Ästhetik-Diskussion an. 16 14 Siehe dazu zum Beispiel: Wolfgang KrohnlHans-Jürgen KruglGünter Küppers (Hrsg.), Konzepte von Chaos und Selbstorganisation in der Geschichte der Wissenschaften, (Selbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. 3), Berlin 1992; Rainer Paslack, Urgeschichte der Selbstorganisation. Zur Archäologie eines Wissenschaftsparadigmas, (Reihe: Wissenschaftstheorie, Wissenschaft und Philosophie Bd. 32), Brauschweig/Wiesbaden 1991. 15 Frank Schweitzer, Natur zwischen Ästhetik und Selbstorganisationstheorie, in: Zum Naturbegriff der Gegenwart, hrsg. von der Landeshauptstadt Stuttgart, Kulturamt, Stuttgart 1994, Bd. 2, S. 93 -119. 16 Vgl. dazu Uwe NiederseniFrank Schweitzer (Hrsg.), Ästhetik und Selbstorganisation, (Selbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. 4), Berlin 1993.
118
Frank Schweitzer
Ästhetische Grundfiktionen bestimmen also, was wir an einem Phänomen gerade wahrnehmen, wo wir sensibel sind und was wir aus unserer Wahrnehmung ausblenden. Insofern tragen ästhetische Grundfiktionen zu einer Projektion von Phänomenen, zu einer Reduktion auf bestimmte Aspekte wissenschaftlicher Wahrnehmung, bei. 17 Mit dem Wandel in den ästhetischen Grundfiktionen werden keineswegs naturwissenschaftliche Resultate ad absurdum geführt werden, sondern es ändert sich vornehmlich die Optik, unter der wir gegebene naturwissenschaftliche Sachverhalte betrachten, und damit auch der Kontext, in dem wir sie interpretieren. Gerade für die Selbstorganisationstheorie läßt sich dieser Wandel in der Optik und die damit verbundene Kontextverschiebung deutlich aufzeigen. Anstelle einer detaillierten Diskussion l8 will ich hier einige Charakteristika jener "Brille" zusammenfassen, durch die wir heute (in wissenschaftlicher Hinsicht) die Welt als selbstorganisiert sehen. Die klassische Physik, die ihre Konzepte an der "toten Materie" entwickelt hat, ist auf zwei Ebenen kompetent: auf der mikroskopischen Ebene der Bausteine der Materie und der makroskopischen Ebene der ausgedehnten Körper. Mit dem Universalitätsanspruch der Selbstorganisationstheorie gerät aber zunehmend die Lebenswelt in den Mittelpunkt des naturwissenschaftlichen Interesses. So schreiben Prigoginge und Stengers programmatisch: "Die Fragestellungen der von uns bewohnten Welt zeigen sich als ebenso reich an Überraschungen und an theoretischen Gesichtspunkten, wie das unendlich Große und das unendlich Kleine." 19 Diese Präferenz wird auch mit ästhetischen Argumenten untermauert: Die neue Sicht auf die Natur bedeutet nun nicht mehr, "von außen einen entzauberten Blick auf eine mondartige Wüste zu werfen, sondern vielmehr, eine komplexe und vielfältige Natur an Ort und Stelle nach ausgewählten Gesichtspunkte zu erforschen.,,2o Was die Naturwissenschaft früherer Jahrhunderte an Erkenntnissen zutage förderte, ist keineswegs obsolet, aber eine Brille, die nur "einen entzauberten Blick auf eine mondartige Wüste" ermöglicht, ist nicht mehr zeitgemäß. Die Phänomene sollen nicht mehr einem atomaren Reduktionismus geopfert werden, statt dessen werden Komplexität und Vielfalt wichtig. Das Naturverständnis der Selbstorganisation unterscheidet sich damit vom kausal-mechanistischen Naturverständnis der neuzeitlichen Naturwissenschaft auch durch seinen ausgeprägt "aisthetischen" Blickwinkel. Das Schöpferische der Natur gerät wieder neu in den Blickpunkt, und die Naturwissenschaft hat Teil an diesem 17 Die allgegenwärtige Fraktalität der Natur ist nur ein Beispiel für die Wirkungsweise von ästhetischen Grundfiktionen in der wissenschaftlichen Wahrnehmung. Man darf sich durchaus an die Hexenküche im Faust-Drama erinnert fühlen, wo Mephistopheles dem Faust prophezeit: "Du siehst, mit diesem Trank im Leibe, I Bald Helenen in jedem Weibe" (Goethe (FN 2), S. 127). 18 Vgl. dazu Schweitzer (FN 15). 19 PrigoginelStengers (FN 8), S. III. 20 PrigoginelStengers (FN 8), S. 16.
Reduktion und Konstruktion in der Selbstorganisationstheorie
119
Schöpfungsprozeß, indem sie ihn versteht und theoretisch wie experimentell nachvollziehen kann: "Das Wissenschaftliche ist heute nicht mehr das Entdecken toter Formen, so wie man es früher gesehen hat: es hat nun Teil an der Schaffung der Welt.,,21 Mit der Grundfiktion einer "toten Materie" kann die Kreativität der Natur allerdings nicht verstanden werden, vielmehr müssen dazu schöpferische Potenzen der Materie entdeckt, das heißt wissenschaftlich wahrgenommen werden. Die Produktivität der Materie erweist sich als eine der zentralen Grundfiktionen der Selbstorganisationstheorie. Die Materie - ob organisch oder unorganisch - kann zu "aktiver" Strukturbildung22 befähigt werden, indem sie hochwertige Energie aufnimmt, diese in niederwertige Energie umwandelt und dabei Entropie produziert. Analog zum Import von "Energie" steht der Export von "Entropie", wobei die Energiebilanz ausgeglichen ist. Die "aktive" Materie ist somit technisch einem Durchflußreaktor vergleichbar; in philosophischer Hinsicht steht sie in der Tradition der neuplatonischen Emanationslehre. 23 Bestandteil der Grundfiktion einer aktiven Materie ist auch ihr dynamischer Charakter. Die statische Materie ist zugleich auch die "tote" Materie. Stabilität muß nun nicht mehr notwendig mit Gleichgewicht gleichgesetzt werden, auch fern vom (thermodynamischen) Gleichgewicht ist Stabilität möglich, wenn die Materie sich selbst organisiert. Dazu bedarf es allerdings interner und externer Wechselwirkungen, und zeitweise Instabilität und damit verbundene Indeterrniniertheit der Materie sind die Voraussetzung dafür, daß diese innersystemischen Wechselwirkungen ihre erzeugende Funktion überhaupt ausführen können. Damit sind gewissermaßen die Eckpunkte eines heuristischen Programms 24 genannt, das sich hinsichtlich seiner Wahrnehmung von Materie grundsätzlich von den "klassischen" Wahrnehmungsvorschriften für "tote Materie" unterscheidet. Die Selbstorganisationstheorien stehen sämtIichst auf dem Boden dieser gewandelten Materiekonzeption, die heuristisch an den schöpferischen Urstoff des Thales anschließt. 25 21 Ilya Prigogine/Serge Pahaut, Die Zeit wiederentdecken, in: M. Baudson (Hrsg.), Zeit. Die vierte Dimension der Kunst, Weinheim 1985, S. 32. 22 Mit dem Begriff "aktiv" soll die dissipative Strukturbildung von der konservativen Strukturbildung abgegrenzt werden, die z. B. dann abläuft, wenn Systeme in ihren thermodynamischen Gleichgewichtszustand relaxieren. Ein Beispiel für dissipative Strukturbildung sind die Rollzellen in einer Flüssigkeit, deren Existenz an die überkritische Zufuhr von Wärmeenergie geknüpft ist, ein Beispiel für konservative Strukturbildung sind die Schneeflocken. 23 Gerade dieser metaphysische Hintergrund ist eine der Ursachen dafür, daß moderne Selbstorganisationstheorien überhaupt für eine philosophisch-religiöse Ausdeutung, wie etwa bei der New-Age-Bewegung, in Anspruch genommen werden können. 24 Frank Schweitzer, Die aktive Materie: heuristisches Programm der Selbstorganisationstheorie (zur Publikation vorgesehen). 25 Norbert Bischof, Ordnung und Organisation als heuristische Prinzipien des reduktiven Denkens, in: Nova Acta Leopoldina NF 63, Nr. 272 (1990), S. 285 - 312.
120
Frank Schweitzer
Im Vergleich mit den klassischen Wissenschaften hat sich also nicht das Referenzobjekt geändert, sondern vornehmlich die Sichtweise auf den Gegenstand. Nach wie vor ist die Bestimmung des Materiellen ein Hauptgegenstand naturwissenschaftlicher Forschung und wird beim Übergang zur "aktiven" Materie auch nicht aufgegeben. Um ein Beispiel zu nennen: Ein lange erforschtes Phänomen der "toten" Materie ist die Existenz von verschiedenen (thermodynamischen) Phasen und die dazwischen sich vollziehenden Phasenübergänge. Dieses Konzept wurde mit dem Wandel der ästhetischen Grundfiktionen hin zu einer "aktiven" Materie keinesfalls fallengelassen, sondern es wurde so modifiziert, daß es sich auch bei einem gewandelten Materieverständnis weiter bewährt - nämlich als Theorie der Nichtg1eichgewichts-Phasenübergänge, die einen Zweig der physikalischen Selbstorganisationstheorie bildet. Durch die Betonung der Kreativität der Natur vollzieht sich auch eine Kontextverschiebung von etablierten Begriffen, wie etwa beim Chaos, das nun nicht mehr als bedrohlicher Abgrund, sondern als fruchtbarer Urgrund erscheint. Der Begriff der Ordnung, jahrhundertelang das heuristische Leitmotiv naturwissenschaftlicher Forschung, wird nunmehr in seiner statischen Begrenztheit wahrgenommen, statt dessen verschiebt sich der Schwerpunkt des naturwissenschaftlichen Interesses auf die Übergänge, auf die Dynamik, die an der Grenze zwischen Chaos und Ordnung abläuft. Im gleichen Zusammenhang wird auch ein neues Verhältnis zur Irregularität der Wirklichkeit entwickelt, sie wird nicht mehr als Ausnahme von den Naturgesetzen, sondern als Charakteristikum des Natürlichen schlechthin angesehen. Und Instabilitäten sind keine Bedrohung, sondern die Voraussetzung dafür, daß sich die schöpferischen Potenzen der Natur entfalten können und Neues entsteht. Basierend auf dieser neuen Wahrnehmung der Natur etabliert sich die Selbstorganisationstheorie nicht nur als "neue Naturwissenschaft", sondern als Theorie mit universellem Erklärungsanspruch: "Heute können wir in gewisser Vereinfachung sagen, daß unser Interesse sich von der Substanz auf die Beziehungen, auf die Kommunikation, auf die Zeit verlagert. Diese neuere Entwicklung der Wissenschaft bietet uns die einzigartige Gelegenheit, die Stellung der Wissenschaft innerhalb der allgemeinen Kultur neu zu bestimmen. ( ... ) es scheint, daß die Wissenschaft eine universalere Botschaft enthält, eine Botschaft, bei der es um die Wechselwirkung zwischen Mensch und Natur und um die Wechselwirkung zwischen Mensch und Mensch geht.,,26 Die "Wiederentdeckung der Zeit", insbesondere der Begriff der lrreversibilität, wird dabei zu einem Schlüssel, der den verschütteten Zugang zur Lebenswelt öffnen soll: "Der Graben zwischen der ,leeren' Raum-Zeit der Physik und der aktiven Raum-Zeit des Lebens und der Erfahrung schließt sich langsam. Vor allem aber beginnen wir, die schöpferische Rolle der Zeit wieder anzuerkennen: Die Irreversibilität baut auf. ,.27
26
27
Prigogine / Stengers (FN 8), S. 12 f. (Hervorhebung von den Autoren). Prigogine / Pahaut (FN 21), S. 27.
Reduktion und Konstruktion in der Selbstorganisationstheorie
121
Auf diese Weise wird sukzessive eine Optik konstruiert, durch die die Welt in einem neuen Licht erscheint. Die Barrieren zwischen den "zwei Kulturen", die in den letzten einhundertfünfzig Jahren eine so divergierende Entwicklung genommen haben, beginnen zu verschwinden - nicht de facta, sondern aufgrund einer besonderen Wahrnehmung der Wirklichkeit, die eine neue Einheit im Komplexen suggeriert, von der auch die bildene Kunst nicht ausgenommen wird. 28 Möglich wird diese neue Einheit, wie ich versucht habe zu zeigen, durch eine interessengeleitete Selektion in der (wissenschaftlichen) Wahrnehmung. Die entsprechenden Wahrnehmungsvorschriften - hier als ästhetische Grundfiktionen bezeichnet - begründen ihr eigenes Reduktionsprogramm; insofern ist die Selbstorganisationstheorie ebenfalls reduktionistisch, allerdings steht, gemessen an der "klassischen" Naturwissenschaft, ein grundsätzlich anderes Reduktionsprogramm im Mittelpunkt. III. Mesoskopie
Die gerade beschriebene neue Sicht auf "Materie" ist nur ein Beispiel für das Walten von ästhetischen Grundfiktionen: Was jetzt - auch wissenschaftlich - an der Materie wahrgenommen wird, ist (unter anderem) gerade ihre "Energetik", ihre "Dynamik", ihre "Produktivität", letztlich ihre Aktivität. Es wurde schon angedeutet, daß zur Beschreibung einer "aktiven" Materie prinzipiell kein neuer Typ von Wissenschaft gebraucht wird. Wenn die Physik - unter Beibehaltung ihrer konzeptionellen und methodologischen Grundlagen - nunmehr ihre Kompetenz auch auf die "aktive Materie" ausdehnen will, muß sie allerdings ihre formalen Konzepte mit den gewandelten ästhetischen Grundfiktionen in Übereinstimmung bringen; Atomkräfte erklären nun einmal keine Selbstorganisation. 29 Damit stellt sich zwangsläufig die Frage nach einer neuen Beschreibungsebene, auf der sich die "Aktivität" der Materie mit der Methodik der Physik widerspruchsfrei verbinden läßt. An diese Beschreibungsebene werden zwei Forderungen gestellt: auf der einen Seite muß sie systemspezifisch sein, ohne in mikroskopischen Einzelheiten stekkenzubleiben; auf der anderen Seite muß sie eine Systemdynamik ermöglichen, die komplex genug ist, um Vielfalt, Strukturbildung, Entstehung von Neuem zu beschreiben. Mit mikroskopischen Verfahren, die stets auf die kleinsten verfügbaren Einheiten fokussieren, ist eine solche Ebene nicht zu finden - hier löst sich die Komplexität in ihre Bestandteile auf. Auf der makroskopischen Ebene des Systemganzen wiederum treten uns die Strukturen schon als Entitäten entgegen, ohne daß 28 Friedrich Cramer/Wolfgang Kaempjer, Die Natur der Schönheit. Zur Dynamik der schönen Formen, Frankfurt a.M. 1992, und Friedrich Cramer, Schönheit als dynamisches Grenzphänomen zwischen Chaos und Ordnung - ein Neuer Laokoon, in: Niedersenl Schweitzer (Hrsg.) (FN 16); vgl. auch Schweitzer (FN 15). 29 Allerdings können die strukturbildenden Kräfte bei den dissipati ven Nanostrukturen, die man in der letzten Zeit auf der Oberfläche von Katalysatoren gefunden hat, bereits nahe an den molekularen Bereich herangehen.
122
Frank Schweitzer
ihre Entstehung aus den sie konstituierenden Subsystemen noch erfaßt werden könnte. Der Ausweg, der innerhalb der Selbstorganisationstheorie beschritten wird, besteht darin, diese für den Strukturbildungsprozeß maßgebliche Beschreibungsebene zu konstruieren. H. Haken hat mit seiner Erklärung des Lasers bereits in den 60er Jahren ein paradigmatisches Beispiel für die Konstruktion einer solchen Ebene gegeben: Auf der mikroskopischen Ebene erfolgt die unkorre1ierten Emisson von Lichtwellen durch einzelne Atome, die im Rahmen der Physik gut beschrieben werden kann. Die Selbstorganisation des Laserlichtes als kohärente Lichtwelle findet statt, indem die Schwingungsmoden der Lichtwellen gemeinsam eine "mittlere Ebene", den "Ordner", generieren, der diese anfangs ungeordneten Schwingungen versklavt und einen Übergang zur Ordnung herbeiführt. Dieser Vorgang läßt sich analytisch mit Methoden der theoretischen Physik beschreiben, die als adiabatische Eliminierung von schnellen Prozessen bekannt sind. Das Neue und Paradigmatische dieser Beschreibung besteht darin, daß sie exakt zeigen kann, wie die Ebene konstruiert wird, auf der wir dann den Übergang zur Ordnung "beobachten" können - hier in Form des sich mit der Zeit ändernden Ordnungsparameters. Dieses Beispiel zeigt sehr klar, daß ein Selbstorganisations- oder Selbststrukturierungsprozeß für uns nur wahrnehmbar wird, wenn wir unsere Wahrnehmung auf eine entsprechende Ebene fokussieren - ähnlich der Scharfeinstellung beim Mikroskop. Den für die Selbstorganisation charakteristischen Wahmehmungsprozeß möchte ich mit dem Begriff Mesoskopie bezeichnen. Das griechische meso heißt "mittel", und skopos meint den Zweck, das Augenmerk. In der Physik ist diese mesoskopische Ebene definiert durch eine bestimmte ZeitskaIe, die die Unterscheidung von schnellen und langsamen Prozessen erlaubt, und durch eine bestimmte LängenskaIe, die in der Größenordnung der räumlichen Korrelationen liegt. "Unterhalb" oder "oberhalb" dieser Ebene sehen wir entweder nur die ungeordneten Atome oder die makroskopischen Muster (die dann natürlich noch einer "langsamen" makroskopischen Eigendynamik genügen können). Im Gegensatz zur Mikroskopie fokussiert die Mesoskopie die wissenschaftliche Wahrnehmung nicht mehr auf die kleinsten Einheiten, sondern auf Einheiten, die komplex genug sind, um eine Strukturbildung zu ermöglichen. Die Frage, was ,,komplex genug" heißen soll, läßt sich nur am Einzelfall erläutern. Betrachten wir zum Beispiel eine der "weißen Mäuse" in der physiko-chemischen Strukturbildung, die Belousov-Zhabotinsky-Reaktion, dann sind diese Einheiten die daran beteiligten Ionen, etwa Be oder Ce4+, die selbstverständlich noch eine Substruktur der Elektronenschale oder des Atomkerns aufweisen. Der Zugang zur Komplexität der BZ-Reaktion ist jedoch nicht die quantenmechanische Beschreibung dieser Substrukturen, sondern die chemischen Reaktionen der Ionen, die in raum-zeitlich veränderlicher Konzentration vorliegen. 3o In der Autopoiese-Theorie, die die 30 Die Konzentrationen von u. a. Be und Ce4+ stellen auf der Ebene des Reaktionsnetzwerkes der BZ-Reaktion die langsamen und damit dynamikbestimmenden Variablen dar, die
Reduktion und Konstruktion in der Selbstorganisationstheorie
123
Selbstorganisation in biologischen und sozialen Systemen behandelt, werden die Elemente als "autopoietische Einheiten" bezeichnet. 31 Diese Einheiten sind keine "biologischen Atome", sondern sie sind komplex genug, um eine gewisse Aktivität zu repräsentieren: zum Beispiel können sie strukturelle Kopplungen eingehen oder sich reproduzieren. 32 Da der Zusammenschluß autopoietischer Einheiten zu Einheiten 2. Ordnung führen kann, sind verschiedene Ebenen denkbar, auf denen auch unterschiedliche Selbstorganisationsprozesse beobachtet werden können. Insofern entscheidet der Fokus unserer wissenschaftlichen Wahrnehmung darüber, auf welcher Ebene wir die Strukturbildung in den Blick bekommen: dies kann die gesellschaftliche Strukturbildung sein - mit Individuen als Einheiten, es kann aber auch die zelluläre Organisation sein - mit Zellbestandteilen als Einheiten. Die Reduktion gerade auf Elemente, die selbst noch komplex genug sind, um den Forderungen einer "aktiven Materie" zu genügen, zeigt sich besonders deutlich in den zahlreichen "Artificial Agents"-Modellen, mit denen ganz verschiedene Selbstorganisationsphänomene beschrieben werden können. Bei diesen Modellen können wir prinzipiell zwei verschiedene Richtungen unterscheiden: Auf dem Gebiet der künstlichen Intelligenz werden verhaltensbasierte oder wissensbasierte Agenten konstruiert, die selbst eine sehr komplexe interne Struktur aufweisen können, die es ihnen ermöglicht, bestimmte Aufgaben autonom zu lösen. Die sogenannten BDI-Modelle ("Belief-Desire-Interaction") verwenden zum Beispiel Agenten, die spezielle Absichten, Wünsche, Ziele usw. haben und ein Spektrum von Handlungsmöglichkeiten aufweisen, aus denen sie situativ auswählen können. Diese Möglichkeiten können beim einzelnen Agenten durch Lernen oder bei der Agentenpopulation durch "genetische" Evolution weiterentwickelt werden. 33 Dem stehen Agentenmodelle gegenüber, die einen minimalistischen Ansatz verfolgen. Hier wird der Agent nicht möglichst komplex konstruiert, sondern es wird nach den minimalen Eigenschaften (Regeln, Verhaltensweisen, Aktivitäten usw.) gesucht, die notwendig sind, um einen kollektiven Selbstorganisationsprozeß noch zu ermöglichen. Es geht also weniger um das autonome Handeln als um die kollektive Interaktion der Agenten. Die Mesoskopie fokussiert hier auf die Ebene minivia adiabatische Elimination (Bodenstein-Prinzip in der Chemie) von der Dynamik einer Vielzahl von kurzlebigen Zwischenprodukten abgekoppelt wurden. 31 Humberto R. Maturanal Francisco J. Varela, Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens, Bem/München 1987. 32 Siehe auch: Frank Schweitzer, Goethes Morphologie-Konzept und die heutige Selbstorganisations-Theorie, in: Krohn/Krug/Küppers (Hrsg.) (FN 14), S. 167-193. 33 Da ich diese Modelle nicht weiter diskutieren werde, seien aus der Fülle der Literatur stellvertretend einige neuere Bücher zitiert: Jörg P. Müller I Michael J. Wooldridge I Nicholas R. Jennings (Eds.), Intelligent agents III : agent theories, architectures, and languages, Berlin 1997; Luc Steels (Ed.), The biology and technology of intelligent autonomous agents, Berlin, 1995; Cristiano Castelfranchil Jean-Pierre Muller (Eds.), From reaction to cognition: 5th European Workshop on Modelling Autonomous Agents in a Multi-Agent World, Berlin 1995; Pattie Maes (Ed.), Designing autonomous agents: theory and practice from biology to engineering and back, Cambridge, Mass. 1990.
124
Frank Schweitzer
maler Komplexität für die Einheiten, durch die eine makroskopische Komplexität noch erzeugt werden kann. Für die Wechselwirkung der Einheiten untereinander werden zumeist sehr einfache Annahmen getroffen, die nur lokal, also für den jeweiligen Agenten am gegenwärtigen Ort gelten und sich nicht auf das System als Ganzes beziehen. Damit stellt sich die Frage, wie aus diesen lokalen Interaktionen der Agenten die makroskopischen (globalen) Eigenschaften des Gesamtsystems entstehen. Ein solcher Zugang zur Selbstorganisation wird auch als "bottom up"-Beschreibung bezeichnet. Wenn die gobalen Eigenschaften nicht schon von Anfang an in den Wechselwirkungen der Agenten enthalten waren (wenn auch vielleicht an verborgener Stelle), so müssen sie im Verlauf der Evolution des Systems durch Selbstorganisation entstanden sein. Das System als Ganzes besitzt dann Eigenschaften, die die Elemente für sich genommen nicht haben - und es muß einen Qualitätssprung geben, bei dem diese neue Systemeigenschaft erscheint. Die holistische Interpretation der Selbstorganisation orientiert sich gerade an der These, daß das Ganze (die Eigenschaften des Systems) mehr ist als die Summe seiner Teile (die Eigenschaften der Elemente) - daß also hier Emergenzphänomene, der qualitative Sprung zu Neuem die entscheidende Rolle spielen. Emergenz allein ist allerdings nicht ausreichend, um einen Prozeß als Selbstorganisationsprozeß zu charakterisieren. Ein sprunghafter Wechsel der Qualität läßt sich ohne weiteres auch in klassischen Systemen aus Atomen mit einfachen Wechselwirkungen beobachten,34 zum Beispiel bei thermodynamischen Phasenübergängen. Ein anderes Beispiel ist die "Emergenz" makroskopischer Eigenschaften in einem Cluster. 35 In Analogie zur konservativen Strukturbildung möchte ich diese Art von emergenten Eigenschaften unter dem Begriff "konservative Emergenz" zusammenfassen, denn sie sind nicht an die "aktiven" Eigenschaften der Materie gebunden, die notwendig sind, um einen Strukturbildungsprozeß als Selbstorganisationsprozeß zu charakterisieren. Im folgenden Abschnitt soll anhand eines Beispiels aus der "Lebenswelt" illustriert werden, wie eine spezifische Art der wissenschaftlichen Wahrnehmung uns ermöglicht, den Selbstorganisationscharakter von Phänomenen zu "entdecken".
34 In der statistischen Physik von Vieltei1chensystemen wird mit mathematisch strengen Methoden gezeigt, daß ein großes, zusammengesetztes System im Vergleich zu den Untersystemen qualitativ neue Eigenschaften aufweisen kann, die für kleine Systeme gar nicht definiert sind. In diesem Sinne kann man die statistische Physik sogar als ersten Entwurf einer Theorie komplexer Systeme bezeichnen. Vgl. Wemer Ebeling / Jan Freund/Frank Schweitzer, Komplexe Strukturen: Entropie und Information, Stuttgart 1998. 35 Ein Quecksilbercluster aus wenigen Atomen (n < 13) ist zum Beispiel nichtmetallisch - aber in einem Größenbereich von 13 bis ca. 70 Atomen erfolgt die Ausbildung der metallischen Eigenschaften, die für die makroskopische Phase charakteristisch sind. Vgl. u. a. Uwe Kreibig/Michael Vollmer, Optical properties ofmetal clusters, Berlin 1995.
Reduktion und Konstruktion in der Selbstorganisationstheorie
125
IV. Wegesysteme als Selbstorganisationsphänomen
Das Novalis-Zitat am Beginn dieses Beitrages erwähnt bereits die tieferen Zusammenhänge zwischen Wege strukturen und anderen Strukturbildungen, ohne daß die "Sprachlehre derselben" sich bereits in feste Formen fügen ließ. Im Anschluß an die obigen Ausführungen möchte ich hier zeigen, wie unter dem Blickwinkel der Selbstorganisation, im Zusammenspiel von Reduktion und Konstruktion, diese Gemeinsamkeiten herausprojiziert werden können. Wegesysteme zählen zu den dauerhaftesten Strukturen, die der Mensch im Verlauf der kulturellen Entwicklung hervorgebracht hat. Alte Handelsstraßen und Verbindungswege lassen sich zum Teil heute noch wiederfinden, ausgebaut als Autobahnen oder Eisenbahnverbindungen. Die Herausbildung von Wegen ist zugleich ein Phänomen, das bei vielen biologischen Spezies gefunden wird. Die Beispiele reichen von den Schleimspuren der Myxobakterien über die hochorganisierten Wegenetze von Ameisen, die Verbindungs wege innerhalb einer Mäusekolonie bis hin zu den Trampelpfaden der Huftiere. Um Wegesysteme als Selbstorganisationssysteme zu beschreiben, bedarf es keiner "Theorie der Ameise" oder des Fußgängers, sondern einer spezifischen Sichtweise auf das Phänomen, die einer Reduktion auf ganz bestimmte Eigenschaften entspricht. Gemäß dem Paradigma der Selbstorganisation ist es der dynamische Prozeß, der die Einheit zwischen den (an sich völlig unterschiedlichen) Wegesystemen hervorbringt, deshalb wird in einem ersten Schritt von den verschiedenen biologischen Spezies abstrahiert. An ihre Stelle tritt ein künstlicher Agent, der mit einer entsprechenden Aktivität ausgestattet ist, die noch genauer spezifiziert werden wird. Das Wege system kann man als eine zweidimensionale Struktur auffassen, die sich auf einer Oberfläche herausbildet. Wege existieren in Form von Markierungen: dies können beispielsweise Fußspuren sein (bei Menschen, die das Gras niedertreten oder bei Tieren, die eine Bresche ins Unterholz schlagen) oder chemische Duftstoffe (bei futtersuchenden Ameisen), aber auch sehr dauerhafte Markierungen, wie Beton oder Asphalt, die die menschlichen Straßen kennzeichnen. Alle diese Markierungen haben eine endliche Lebensdauer, so daß Wege im Prinzip wieder verschwinden können. Von einem Wegesystem wollen wir aber nur dann sprechen, wenn die Struktur über einen längeren Zeitraum hinweg relativ stabil existiert und von den Agenten während ihrer Bewegung auf der Oberfläche auch "benutzt" wird. Im Rahmen unserer Überlegungen suchen wir nach einem Minimalmodell, das die Herausbildung von Wegenetzen beschreibt. 36 Dazu betrachten wir das Wegesystem als eine ungeplante Struktur, die durch einen Selbstorganisationsprozeß entsteht (im anderen Fall würde man die Entstehung als Planungsprozeß zu beschrei36 Frank Schweitzer, Selbstorganisation von Wege- und Transportsystemen, in: Klaus Teichmann / Joachim Wilke (Hrsg.), Prozeß und Form natürlicher Konstruktionen, Berlin 1996, S. 163 - 169, ders., Wegenetze organisieren sich selbst, OIKODROM Stadtpläne, Wien, Heft 1/97, S. 45 - 48.
126
Frank Schweitzer
ben haben). Das heißt, es gibt keine zentrale Vorgabe, wo der Weg entlang zu gehen hat und es gibt auch keine "höhere Instanz", die den Agenten mitteilt, welche Wege sie benutzen müssen. Vielmehr ist es die gemeinsame Aufgabe der Agenten, diese Wege selbst hervorzubringen, ihre Existenz durch ständige Nutzung zu sichern und die Wege gegebenenfalls zu verändern, falls sich neue Anforderungen ergeben. Daß diese Aufgabe auch ohne vorherige Abstimmung der Agenten untereinander lösbar ist, zeigt zum Beispiel die Lebensdauer und die Flexibilität von ungeplanten Trampelpfaden in neu erschlossenen Wohnsiedlungen. Für unsere ModelIierung nehmen wir an, daß die Bewegungsrichtung des Agenten durch zwei Kräfte beeinflußt wird: 3? (a) eine Kraft, die in Richtung des Ziels weist, falls der Agent einem Ziel zustrebt, (b) eine Kraft, die in Richtung des nächstgelegenen Weges weist, falls ein solcher für den Agenten erkennbar ist. Die biologische Spezifikation wird damit auf zwei Fragen reduziert: zum einen, ob der Agent bewußt ein entferntes Ziel ansteuert (was zum Beispiel bei Fußgängern, nicht aber bei Ameisen der Fall ist), zum anderen, welche Möglichkeiten der Agent hat, um einen Weg wahrzunehmen. Während Fußgänger ihre Wege selbst über eine bestimmte Distanz hin sehen, existieren die Wege der Ameisen als Konzentration von Duftstoffen (Pheromonen), die von den Ameisen nur lokal (innerhalb eines von den Antennen bestimmten Winkels) wahrgenommen werden können. Der Agent muß also, wenn er seine aktuelle Bewegungsrichtung festlegt, einen
Kompromiß zwischen diesen zwei Kräften finden. Dabei wird impliziert, daß exi-
stierende Wege, sofern sie wahrgenommen werden, eine anziehende Wirkung auf die Agenten ausüben, daß es also für den Agenten (aus artspezifischen oder energetischen Gründen) günstiger ist, einen schon vorhandenen Weg zu benutzen, als einen eigenen Weg zu bahnen. Weiterhin nehmen wir an, daß der Agent, während er sich bewegt, selbst Markierungen setzt: der Fußgänger hinterläßt Fußspuren, die Ameise produziert Pheromone mit den entsprechenden Drüsen. Das bedeutet, daß der Agent einen Weg verstärkt, indem er ihn benutzt.
Die Aktivität, die bei dem Agenten vorausgesetzt wird, läßt sich also in Fonn eines simplen Algorithmus (eines Satzes von Regeln) beschreiben, den der Agent fortlaufend abarbeitet: 1. der Agent prüft lokal, ob sich in der für ihn wahrnehmbaren Umgebung Mar-
kierungen befinden,
2.. der Agent fällt eine lokale Entscheidung über die Richtung des nächsten Schrittes in Abhängigkeit von der Stärke der wahrgenommenen Markierungen und seiner eventuellen Zielrichtung, 37 Dirk Helhing I Frank Schweitzer I Joachim Keltschi Peter Molnar, Active Walker Model for the Fonnation of Human and Animal Trail Systems, in: Phys. Rev. E 56/3 (1997), S. 2527 - 2539; Dirk Helhing I Peter Molnar I Frank Schweitzer, Computer Simulations of Pedestrian Dynamies and Trail Fonnation, in: Evolution of Natural Structures, Proceedings of the 3rd International Symposium of the SFB 230, Stuttgart 1994, S. 229 - 234.
Reduktion und Konstruktion in der Selbstorganisationstheorie
127
3. der Agent setzt an seinen jetzigen Platz eine Markierung, 4. der Agent bewegt sich auf seinen neuen Platz und wiederholt dann (1). Die Abb. 1 und 2 zeigen stochastische Computersimulationen von Wegesystemen auf der Basis von Agentenmodellen. 38 Das Wege system in Abb. 1 ist ungerichtet, das heißt, es verbindet keine Ziele miteinander. Aber es verdeutlicht, daß die Agenten sich tatsächlich auf den Wegen bewegen, die sie gemeinschaftlich hervorgebracht haben.
(
Abb. 1: Ungerichtetes Wegesystem (100 Agenten, 10.000 Zeitschritte). Die Agenten sind zur Zeit t = 0 vom Zentrum aus in jeweils zufälliger Richtung gestartet. Sie bewegen sich auf einem Dreiecksgitter, bestehend aus 100 x 100 Gitterpunkten, mit periodischen Randbedingungen (das heißt, Agenten, die links (oben) aus dem Gitter herauslaufen, kommen rechts (unten) wieder herein und umgekehrt). Die Graustufen zeigen die Benutzungshäufigkeit der Wege an. Wir erkennen deutlich eine Hauptstraße (schwarz), die von einem Netz seltener benutzter Nebenstraßen umgeben ist, was zeigt, daß die Agenten sich zumeist auf den von ihnen selbst hervorgebrachten Straßen bewegen und nicht das ganze Feld mit unkorrelierten Individualwegen überdecken. 38 Frank Schweitzer/ Kenneth Lao/ Fereydoon Family, Active Random Walkers Simulate Trunk Trail Formation by Ants, in: BioSystems 41 (1997), S. 153-166; Frank Schweitzer, Self-Organization of Trail Networks Using Active Brownian Partic1es, in: R. Hofestädt/T. Lengauer/M. Löffler/D. Schomburg (Eds.), Computer Science and Biology, Leipzig 1997, S. 299 - 301.
128
Frank Schweitzer
Das gerichtete Wegesystem in Abb. 2 dagegen verbindet ein Zentrum mit verschiedenen Zielen, die den Agenten anfänglich unbekannt sind (es gibt also keine Kraft, die die Agenten zu den Zielen oder zurück zu ihrem Ausgangspunkt leitet weshalb die Wege auch nicht einfach als gerade Linien erscheinen). Wenn Anfangs- oder Zielpunkte im Verlauf der Entwicklung des Wegenetzes ihre Bedeutung verlieren und der Weg damit nutzlos geworden ist, verschwindet er nach einer gewissen Zeit wieder, da er nicht mehr erneuert wird. Wenn auf der anderen Seite neue Zie1punkte an das bereits vorhandene Wegenetz angeschlossen werden sollen, so ist auch dies ohne weiteres im Rahmen eines Selbstorganisationsprozesses möglich, wenn genügend Agenten vorhanden sind, um einen Weg dorthin aufzubauen und zu unterhalten. Das auf diese Weise entstandene Wegesystem zeichnet sich also durch eine große Flexibilität aus.
a
•
b
c
•
)
• •
•
••
•
d
• ••
• •
Abb. 2: Gerichtetes Wegesystem (zu den Randbedingungen siehe Abb. 1). Die Agenten sind zur Zeit t = 0 vom Zentrum aus gestartet und bauen nacheinander Wege zu 5 interessanten Plätzen (Futterplätzen) aus, die sie zufällig entdecken. Das Futter an den entsprechenden Plätzen wird aufgezehrt, wodurch der Platz wieder unattraktiv ist. Gezeigt werden die vorhandenen Wege zu vier verschiedenen Zeiten, wobei die Graustufen die Benutzungshäufigkeit der Wege anzeigen: (a) 2.000, (b) 4.000, (c) 8.500, (d) 15.000 Zeitschritte.
Reduktion und Konstruktion in der Selbstorganisationstheorie
129
Die Wegeysteme in Abb. 1 und 2 sind ungeplant, es gibt keinerlei Vorgaben, wo ein Weg entlangzugehen hat. Natürlich wird mit den Ausgangs- und Zielpunkten, die der Weg verbinden soll, eine gewisse topologische Grundstruktur vorgegeben. Welches der möglichen Wegesysteme, die diese Topologie erfüllen, aber letztlich entsteht, wird durch einen Selbstorganisationsprozeß bestimmt. Das heißt, die Strukturen entstehen durch ein Wechselspiel von Selbstverstärkung und Selektion, das durch die lokale Wechselwirkung zwischen den Agenten vermittelt wird. Die Entstehung von ungeplanten Wege systemen ist ein Beispiel für interaktive Strukturbildung, die auf einer indirekten Wechselwirkung zwischen den strukturerzeugenden Elementen, in diesem Fall den Agenten, beruht. 39 Wie wir an dem Beispiel der Wegesysteme sehen, ist eine spezifische Wahrnehmung des Phänomens die Voraussetzung dafür, um die Entstehung als Selbstorganisationsprozeß zu beschreiben. Dazu gehört die Reduktion auf bestimmte Eigenschaften der beteiligen Elemente. Es bedarf einer gewissen Aktivität und einer minimalen Komplexität der Agenten, um einen Selbstorganisationsprozeß zu ermöglichen, gleichzeitig werden aber alle spezifischen Eigenschaften weitgehend ausgeblendet. Das entstehende Wegesystem ist ein echtes Emergenzphänomen, das eine neue Systemqualität repräsentiert, für die es auf der Ebene der Agenten keine Entsprechung gibt. Es genügt allen Anforderungen, die im heuristischen Programm der aktiven Materie aufgestellt wurden und weist insofern die bereits erwähnten Gemeinsamkeiten mit anderen Selbstorganisationsprozessen auf: Nichtgleichgewicht: Wegenetze sind Nichtgleichgewichtsstrukturen, die zu ihrem Erhalt einer ständigen Zufuhr von Energie und Materie (in Form von Bewegungsenergie und Markierungen) bedürfen. Dies geschieht, indem die Wege benutzt und damit ständig erneuert werden. Da Wege, die nicht mehr benutzt werden, mit der Zeit wieder verschwinden, existieren stabile Wegesysteme nur dann, wenn die Erneuerungsrate und die Verschwindensrate der Markierungen sich lokal kompensieren. Nichtlineare Rückkopplung: Wegesysteme sind kollektive Strukturen, die durch nichtlineare Wechselwirkung zwischen den Elementen erzeugt werden. Da jeder Agent seinen eigenen Weg markieren kann, sind die Markierungen anfangs praktisch im gesamten Gebiet verteilt. Wegesysteme entstehen erst durch eine Bündelung von Trajektorien der einzelnen Agenten, was impliziert, daß die existierenden Markierungen eine anziehende Wirkung auf die Agenten ausüben. Da mit der Benutzung des Weges wiederum eine Verstärkung der Markierung erfolgt, wird auf diese Weise eine positive Rückkopplung zwischen den bereits vorhandenen Markierungen und dem weiteren Ausbau des Weges geschaffen. 39 Frank Schweitzer, Active Brownian Particles: Artificial Agents in Physics, in: Lutz Schimansky-Geier/Thorsten Pöschel (Eds.), Lectures on Stochastic Dynamics, Berlin 1997, S. 358 - 371; Lutz Schimansky-Geier / Frank Schweitzer / Michaela Mieth, Interactive Structure Formation with Brownian Particles, in: Frank Schweitzer (Ed.), Self-Organization of Complex Structures: From Individual to Collective Dynamics, London 1997, S. 10 1 - 118.
9 Selbstorganisation. Bd. 8
130
Frank Schweitzer
Konkurrenz und Selektion: Damit Wege erhalten bleiben, bedarf es einer bestimmten Benutzungshäufigkeit. Die positive Rückkopplung allein reicht nicht aus, um einen Weg tatsächlich dauerhaft zu etablieren, denn bei einer begrenzten Zahl von Agenten pro Flächeneinheit kann nicht jede Spur fortlaufend verstärkt werden - was bedeutet, daß die Verstärkung eines bestimmten Weges zwangsläufig die Nicht-Verstärkung, also das Verschwinden eines anderen Weges zur Folge hat. Dies führt zu einem Konkurrenzprozeß unter den sich herausbildenden Wegen. Worum konkurrieren sie? Um die Agenten, die durch das Setzen der Markierungen die Existenz der Wege erst möglich machen. Das heißt, die Wege, die von den meisten Agenten benutzt werden, setzen sich mit der Zeit gegenüber den anderen Wegen durch - die aufgrund einer zu kleinen Erneuerungsrate wieder verschwinden. Dieser Selektionsprozeß ist charakteristisch für Evolutionsprozesse, die bei begrenzten Ressourcen ablaufen. Frühe Symmetriebrechung: Von besonderer Bedeutung bei der Entstehung von Wegenetzen sind diejenigen Markierungen, die ganz am Anfang der Entwicklung gesetzt werden, denn dadurch erhält das System seine frühe Prägung. Dieser Vorgang wird in der Physik als Symmetriebrechung bezeichnet - ebenfalls ein charakteristisches Merkmal von Evolutionsprozessen: Bevor überhaupt Markierungen gesetzt wurden, ist die Symmetrie des Systems noch erhalten - das heißt, es gibt keine Unterscheidung zwischen markierten und nicht markierten Plätzen. Mit dem Setzen von Markierungen aber wird diese Unterscheidung existent, und die Symmetrie des Systems ist gebrochen. Natürlich sind die Markierungen, die zuerst gesetzt wurden, selbst längst verb laßt - der frühere Weg wäre also längst verschwunden, wenn er nicht im Verlauf der Evolution ständig "aufgefrischt" und damit durch Benutzung - der Nachwelt erhalten geblieben wurde. 4o Auf diese Weise "versklaven" die frühen Markierungen die weitere Entwickung eines Systems, sofern sie erneuert und verstärkt wurden. Irreversibilität und Fluktuationen: Das Wegesystem, das durch die interaktive Strukturbildung entsteht, ist jeweils historisch einmalig, bedingt durch die anfängliche Symmetriebrechung, die das Wegesystem frühzeitg prägt, und durch die Flukutationen, die der Neubildung von Wegen und der Änderung vorhandener Wege stets eine bestimmte Wahrscheinlichkeit einräumen. Natürlich ist auch das Verschwinden nicht mehr benutzter Wege möglich, allerdings "erinnert" sich das Sy40 Beispiele für den Einfluß solcher frühen Symmetriebrechungen lassen sich bei der Entwicklung von Wegen immer wieder finden: Tierpfade von durchziehenden Herden wurden von Indianern weiter benutzt, während die alten Indianerpfade später von weißen Siedlern übernommen und heute zu Fernverkehrsstraßen ausgebaut worden sind. Auch die römischen Heeresstraßen lassen sich heute in Form von Autobahnen wiederfinden. Es ist allerdings anzumerken, daß der Fall der einen Symmetriebrechnung durch Fluktuationen bei Wegesystemen nur selten zu finden ist, da immer auch geographische Randbedingungen (Flüsse, Gebirge, Bodenbeschaffenheit usw.) für den weiteren Ausbau der Wege mitbestimmend sind. Neue Autobahnen vermeiden zudem schon aus ökologischen Gründen die alten Trassen und werden über das freie Feld gebaut. Auch sind die Bedürfnisse bei der Anlage von Verkehrswegen starken historischen Veränderungen unterworfen.
Reduktion und Konstruktion in der Selbstorganisationstheorie
131
stern noch über einen gewissen Zeitraum, der von der Lebendauer der Markierungen bestimmt wird, an deren Existenz. Die Historizität bleibt also auf einer bestimmten Zeitskala erhalten, auch wenn die Irreversibilität nicht vollständig ist.
v. Kollektives Gedächtnis Wie wundervoll sind diese Wesen, Die, was nicht deutbar, dennnoch deuten, Was nie geschrieben wurde, lesen, Verworrenenes beherrschend binden Und Wege noch im Ewig-Dunkeln finden. Hofmannsthai
Bei der Diskussion um die Herausbildung von Wegesystemen fällt unwillkürlich auf, daß Wege nicht nur Strukturen sind, die bestimmte biologische Spezies für ihre Migration benutzen, sondern Wege stehen in bestimmter Weise als Metapher für unsere individuelle, wie kulturelle Entwicklung. Dazu muß man nicht an Heideggers "Holzwege" erinnern, schon die Alltagssprache gibt uns zahlreiche Hinweise auf die tiefere Bedeutung von Wegen. Der "rechte Weg" ist eine Methapher für moralische Norm, und auch der achtgliedrige Pfad des Buddhismus bezeichnet einen inneren Weg, der zur Erleuchtung führt. "Einen Weg zu finden" ist unsere Lebensaufgabe, und wir haben "einen Weg zu gehen", wenn uns das Schicksal dazu auffordert. An einem "Kreuzweg stehen" wir, wenn wir eine Entscheidung treffen müssen, und aus einer festgefahrenen Situation müssen wir einen "Ausweg finden". Das Beschreiten neuer Wege steht also nicht nur unserer physischen, sondern auch unserer geistigen Fortbewegung offen - aber die existierenden Wege schränken uns oftmals in unserer Wahl ein. Im letzten Abschnitt dieses Beitrages möchte ich die metaphorische Bedeutung von Wegen nutzen, um eben diesen "Versklavungseffekt" durch die einmal existierenden Wege zu diskutieren. Dazu werde ich die Herausbildung von Wegen zunächst unter einem informationstheoretischen Gesichtspunkt beschreiben. In dem vorliegenden Selbstorganisationsmodell existieren zwei verschiedene Arten von Information: strukturelle und funktionale Information. 41 Die strukturelle 41 Frank Schweitzer, Selbstorganisation und Information, in: Holger Krapp/Thomas Wägenbaur (Hrsg.), Komplexität und Selbstorganisation. "Chaos" in den Natur- und Kulturwissenschaften, München 1997, S. 99 -129; ders., Strukturelle, funktionale und pragmatische Information - zur Kontextabhängigkeit und Evolution der Information, in: Norbert Fenzll Wolfgang Hofkirchner/Gottfried Stockinger (Hrsg.), Information und Selbstorganisation. Annäherungen an eine allgemeine Theorie der Information, Innsbruck 1997, S. 305 - 329; ders., Structural and functional information - an evolutionary approach to pragmatic information, World Futures: The Journal of General Evolution 50 (1997), S. 533 - 550. Vgl. auch Ebeling / Freund/ Schweitzer (FN 34).
9*
132
Frank Schweitzer
Information erfaßt den Informationsgehalt, wie er auf materieller Grundlage codiert ist. In unserem Beispiel ist sie gegeben durch die räumliche Verteilung der Markierungen, die von den Agenten gesetzt werden. Die Oberfläche ist damit charakterisiert durch eine Informationsdichte b(r, t), die angibt wie stark die Markierung an einem bestimmten Ort r zu einer gegebenen Zeit t ist. Da die Markierungen auf der Oberfläche gespeichert werden, ist die strukturelle Information auf diese Weise unabhängig von den Agenten. Die funktionale Information ist von anderer Art; sie hat die Aufgabe, die strukturelle Information, die einen Sachverhalt auf "materieller" Grundlage codiert, zu aktivieren bzw. zu interpretieren - zu "deuten". In unserem Beispiel ist die funktionale Information gegeben durch den Algorithmus, über den der Agent verfügt und den er fortlaufend abarbeitet. Unter Benutzung der Terminologie, die sich im Anschluß an die Autopoiese-Theorie etabliert hat, können wir auch sagen: die strukturelle Information repräsentiert die strukturelle Detenniniertheit des Informationssystems, während die funktionale Information die Selbstreferentialität, die operationale Geschlossenheit des Informationssystems beschreibt. Bei der Modellierung des Wegesystems haben wir anhand eines einfachen Modells gesehen, wie sich eine Anzahl von Agenten über die Erzeugung und Verwertung von struktureller Information räumlich organisiert und dabei gemeinschaftlich Strukturen aufbaut. Während des ablaufenden Selbstorganisationsprozesses wird mit Hilfe von funktionaler Information ständig aus vorhandener struktureller Information pragmatische Information gewonnen, also Information, die eine bestimmte Wirkung erzeugt. Im konkreten Fall beeinflußt die pragmatische Information die Bewegung der Agenten und hat dadurch auch einen Einfluß auf die weitere Erzeugung struktureller Information. Dieser Prozeß kann als ein indirekter Kommunikationsrozeß zwischen den Agenten charakterisiert werden. Das heißt, die Agenten kommunizieren miteinander über das Medium (die Oberfläche), auf dem sie ihre Markierungen setzen. Der indirekte Kommunikationsprozeß läßt sich durch drei Elemente beschreiben: (a) "Schreiben": jeder Agent "schreibt" Markierungen, während er sich auf der Oberfläche bewegt, (b) "Lesen": jeder Agenten kann Markierungen erkennen, wenn sie sich in seiner Umgebung befinden, (c) "Handeln": aufgrund der vorhandenen Markierungen fällt der Agent eine Entscheidung und bewegt sich in die gewählte Richtung. Auf diese Weise wird die Wegestruktur gemeinschaftlich von allen Agenten hervorgebracht und durch kollektive Benutzung weiter ausgebaut. Interpretiert man diesen Vorgang, dann ist in dieser Struktur praktisch die Geschichte der Agenten-Community festgeschrieben: die Struktur ist historisch durch das gemeinschaftliche Handeln aller Agenten entstanden, und sie hat alle Aktionen der Agenten hinsichtlich der dabei generierten (strukturellen) Information gespeichert, wobei diese Information mit der Zeit auch wieder verblassen kann. Für die Agenten, die selbst kein Gedächtnis haben, repräsentiert diese Struktur eine Art kollektives Gedächtnis, in dem durch die Informationsdichte b(r, t) genau die In-
Reduktion und Konstruktion in der Selbstorganisationstheorie
133
formation angegeben wird, die nach einer bestimmten Zeit noch im System verfügbar ist. Verfügbarkeit bedeutet hier, daß diese Information (als strukturelle Information) tatsächlich noch durch funktionale Information aktiviert und damit als pragmatische Information wirksam werden kann.
In dieses kollektive Gedächtnis gehen die Informationen, die zu unterschiedlichen Zeiten generiert wurden, gewichtet ein. Dieser Prozeß ist aber durch die nichtlineare Rückkopplung durchaus differenziert zu betrachten: natürlich ist die Information, die in den frühen Stadien der Entwicklung generiert wurde, längst verblaßt - auf der anderen Seite waren die ersten Markierungen, die von den Agenten gesetzt wurden, auch diejenigen, durch die das System seine frühe Prägung erhalten hat - ein Vorgang, den wir unter dem Begriff der Symmetriebrechung schon diskutiert haben. Die frühe Information kann im Verlauf der Evolution des Systems durch "Verwertung" verstärkt werden; wird sie ständig "aufgefrischt", dann steht sie auf diese Weise auch noch zu späteren Zeiten zur Verfügung. Wird sie aber nicht laufend verstärkt, dann verblaßt sie mit der Zeit und hat auf die spätere Entwicklung des Systems keinen entscheidenden Einfluß mehr. Auf diese Weise repräsentiert die Wegestruktur, die hier als Beispiel diskutiert wird, tatsächlich ein kollektives Gedächtnis für die Agenten. Nur diejenigen Wege, die wirklich ständig benutzt und damit aufgefrischt werden, bleiben im Verlauf der Entwicklung erhalten. Daneben können zu allen Zeiten auch stets neue Markierungen gesetzt werden: die Agenten sind nicht gezwungen, sich stets auf alten, eingefahrenen Wegen zu bewegen, sondern sie haben (im Rahmen eines probabilistischen Modells) auch die Möglichkeit, "Neuland zu betreten" und dort Markierungen zu setzen. Die Frage ist aber, ob der auf diese Weise generierte Weg im Verlauf der Evolution auch weiter verstärkt und als neuer "Aus-Weg" akzeptiert wird, sich also in einem Konkurrenzprozeß durchsetzen kann, oder ob er mit der Zeit wieder vergessen wird. Hier wird der "Versklavungseffekt" durch die einmal hervorgebrachten Wege deutlich: je stärker bereits Wege ausgebaut sind, um so schwerer ist es, daß sich zu einem späteren Zeitpunkt neue Wege etablieren. Die bereits vorhandenen Wege verkörpern die bisherige Entwicklung des Systems und können in ihrer Existenz nicht einfach ignoriert werden. Das kollektive Gedächtnis versklavt die Agenten, indem es sie bevorzugt auf vorhandene Wege einschränkt - da aber andererseits dieses kollektive Gedächtnis erst durch die Agenten hervorgebracht wurde, werden die Agenten letztlich von ihrer eigenen Geschichte versklavt, die ihre Gegenwart mitbestimmt. Wir haben in den Computersimulationen gesehen, daß die entstandene Informationsstruktur, das kollektive Gedächtnis, sich nach einer gewissen Einschwingphase in einem quasistationären Zustand bzw. einem homöostatischen Gleichgewicht befindet. Dieses Gleichgewicht ist dadurch gekennzeichnet, daß der Zuwachs an neu generierter Information und das Verschwinden von vorhandener Information sich auf der globalen Ebene gerade die Waage halten. Dabei ist zu
134
Frank Schweitzer
beachten, daß die neu generierte strukturelle Infonnation im wesentlichen ein Auffrischen, ein Verstärken der schon vorhandenen Infonnation bedeutet - nur im Einzelfall wird tatsächlich etwas Neues generiert, ein Ausweg gefunden. Wir stellen also, zumindest im Rahmen des diskutierten Modells, im LangzeitLimit kein Wachstum der kollektiven Infonnation fest, sondern eine Substitution von Information: für das, was wir dazugewinnen, verlieren wir gleichzeitig alte Anteile. Auf diese Weise ändert sich das kollektive Gedächtnis auf einer sehr langsamen Zeitskala. Ein "Fortschritt", der sich quantitativ messen ließe, kann aus diesem Prozeß nicht abgeleitet werden, vielmehr geht es um die Erhaltung der Anpassung des kollektiven Gedächtnisses bei den fortlaufenden Aktionen der Agenten. Wie wir in diesem Modell sehen, läuft die Entstehung von Infonnation auf zwei verschiedenen Ebenen ab: Zum einen wird Infonnation lokal von den Agenten generiert; zum anderen wird auf der Ebene des Gesamtsystems eine neue Art von globaler oder kollektiver Information erzeugt, die von dem einzelnen Agenten nicht als Ganzes wahrgenommen werden kann, gleichwohl aber dessen Aktion beeinflußt. Diese Ebene spielt in der Synergetik die Rolle des Ordners, der, von den Agenten gemeinschaftlich kreiert, auf deren Bewegung zurückwirkt und diese versklavt. Durch die Rückkopplung zwischen der Ebene der Agenten und der Ebene des kollektiven Gedächtnisses können sich beide nur gleichzeitig, also im Sinne einer Ko-Evolution, entwickeln - die sich dabei vollziehende Ausdifferenzierung der Informationslandschaft erfolgt also selbstreferentiell und nicht durch Steuerung von außen. Auf der Ebene der Agenten, die aus dieser Infonnationslandschaft pragmatische Infonnation (Hinweise für ihr eigenes Handeln) gewinnen, stellt sich dieser Prozeß dar als als eine Komplementarität von Fragen (funktionaler Infonnation) und Antworten (aus der strukturellen Infonnation gewonnene pragmatische Infonnation). Was der Agent also als Infonnation aus dem Infonnationsfeld gewinnen kann, entspricht genau den Möglichkeiten seines Fragens und der zur Verfügung stehenden strukturellen Infonnation. Vielleicht ist es zu gewagt, von diesem simplen Modell aus Verallgemeinerungen auf die Wissenschaftsentwicklung zu ziehen. Aber die Versuchung ist doch groß, an dieser Stelle wieder an den Anfang dieses Beitrags zurückzukehren und die Frage nach dem Verhältnis von subjektiven Voraussetzungen und "objektiven" Erkenntnissen erneut aufzugreifen. Auch in der Naturwissenschaft sind es die Möglichkeiten unseres Fragens, gebrochen an der kollektiven Tradition des Wissenschaftsverständnisses, die uns den Blick auf das Phänomen bestimmen - oder verstellen. Das, was uns, den Agenten, als wissenschaftlicher Fortschritt erscheint, ist vielleicht auf der Ebene kollektiver Infonnation Teil eines kontinuierlichen Substitutionsprozesses, der "lediglich" der Erhaltung der Anpassung dient. Diese Einsicht mag durchaus geeignet sein, um die unkritische Euphorie bei der Etablierung einer "neuen Naturwissenschaft" zu dämpfen. Aber vielleicht kann die Selbstorganisationstheorie ihren besten Beitrag in der Wissenschaftstheorie gerade da-
Reduktion und Konstruktion in der Selbstorganisationstheorie
135
durch leisten, daß sie uns diese Komplementarität von Fragen und Antworten, von Wahrnehmen und Ausblenden, von Reduktion und Konstruktion in der Naturwissenschaft verdeutlicht und uns somit der "Kultur des blinden Flecks" einen Schritt näher bringt.
Gen-Paralogien und die Makroevolution der Vielzeller* Von Lars-G. Lundin, Uppsala**
I. Einleitung Nach dem Aufkommen der Evolutionstheorie, wie sie von Darwin und Wallace 1859 formuliert wurde l , entstand ein wachsendes Interesse an phylogenetischen Beziehungen. Der bekannteste Ausdruck für dieses Interesse war wohl das "Biogenetische Grundgesetz" von Haeckel 2 • Parallel dazu wurde 1866 die genetische Theorie von Mende1 3 entwickelt, die allerdings bald in Vergessenheit geriet. Erst um 1900 wurde sie wieder durch die Arbeiten von Correns, von Tschermak und De Vries in der Öffentlichkeit etabliert. Als ein drittes Gebiet entstand in dieser Zeit die Entwicklungsbiologie. Es mag für einen heutigen Wissenschaftler, der auf den Gebieten der Molekulargenetik und der molekularen Evolution arbeitet, vielleicht seltsam anmuten, aber damals entwickelte sich eine Polarisierung zwischen den Naturalisten (den Phylogenisten) und den Experimentatoren. Die Entwicklung dieser Animosität und all ihrer Konsequenzen ist sehr gut von Raff und Kaufman beschrieben worden4 • Wie oft kritisiert wurde, hatte die Darwinsche Theorie einen wesentlichen Schwachpunkt, da sie nur sehr wenig über die Natur der Variationen, auf denen die natürliche Auslese aufbauen sollte, aussagen konnte. Diese Lücke wurde, zumindest teilweise, durch die "Neodarwinsche Synthese" währende der dreißiger und
* Übersetzung aus dem Englischen von Ludwig Pohlmann. ** Ich möchte Prof. Dan Larhammer (Uppsala) für Anregungen, Diskussionen und Ermu-
tigungen während dieser Arbeit danken. I Ch. Darwin, On the Origin of Species by Means of Natural Selection, London 1. Auf!. 1859, 2. Auf!. 1859; Ch. Darwinl A. Wallace, On the tendency of species to form varieties; and on the perpertuation of varieties and species by natural means of selection, J.Proc.Linnean Soc., Zoo!. 111, 1859, S. 45. 2 E. Haeckel, Die Gastrea-Theorie, die phylogenetische Klassification des Tierreiches und Homologie der Keimblätter, Jenaer Z. Naturwiss. 8 (1874), S. 1. 3 G. Mendel, Versuch über Planzen-Hybriden, Proc. Brünn Natural History Soc., 1866. 4 R. A. RafflT.C.Kaujman, Embryos, Genes, and Evolution. The Developmental-Genetic Basis of Evolutionary Change, New York, London 1983; siehe auch: R.A. Raff, Evolution of developmental decisions and morphogenesis: the view from two camps, Development, Supp!., 1992, S. 15.
138
Lars-G. Lundin
vierziger Jahre dieses Jahrhunderts geschlossen. 5 In ihr wurde die populationsgenetische Theorie mit der Evolutionstheorie vereint, indem die Evolution hauptsächlich auf graduelle Änderungen in den Genfrequenzen zurückgeführt wurde. Damit wurden die Weichen für die weitere Erforschung der Evolution in diesem Jahrhundert gelegt, da sich die führenden Wissenschaftler der Neodarwinschen Sichtweise bzw. der Modemen Synthese anschlossen. Seit langer Zeit besteht eine der zentralen und entscheidenden Fragen im evolutionären Denken darin, ob es prinzipielle Unterschiede im Charakter von Mikround Makroevolution gibt. Nach der Neodarwinschen Sichtweise ist die Makroevolution nichts anderes als ein Aufsummieren vieler kleiner mikroevolutionärer Veränderungen. Theodosius Dobzhansky, einer der führenden Neodarwinisten, drückte dies so aus: "Die Erfahrung zeigt ... , daß es keinen anderen Weg zum Verständnis der makroevolutionären Veränderungen, welche geologische Zeiträume erfordern, gibt, als über das Verständnis der mikroevolutionären Prozesse, welche während der Spanne eines menschlichen Lebens beobachtbar sind, oft durch den menschlichen Willen steuerbar und manchmal auch im Laboratorium reproduzierbar sind. ,,6 Goldschmidt7 dagegen nahm einen ganz anderen Standpunkt ein. Die beiden Konzepte, die er entwickelte, nannte er einerseits "systemische Mutationen" und andererseits "hoffnungsvolle Monster", d. h. Kreaturen, welche zu neuen Entwicklungswegen und neuen Formen führen können. Dieser letztere Begriff ist eine etwas drastische Beschreibung der morphologischen Änderungen, welche durch die Mutationen von einem oder von wenigen Genen hervorgerufen werden können. Häufig sind diese Mutanten Rückbildungen, welche Rückschlüsse über evolutionär frühere Stadien der Entwicklung zulassen oder Hinweise auf eine frühere, weniger spezialisierte Morphologie geben. Eine allgemein akzeptierte Definition der Differenz zwischen Mikro- und Makroevolution besteht darin, daß mikroevolutionäre Veränderungen innerhalb einer Art stattfinden, während makroevolutionäre Veränderungen nur auf höheren taxonomischen Ebenen zu finden sind. Diese Definition der Mikroevolution ist meiner Meinung nach zu eng. Einer der Gründe dafür liegt im Konzept der Art selbst, welches nicht klar definiert ist. Das wird unter anderem durch die Existenz von verschiedenen Rassen einer Art demonstriert (siehe weiter unten). Ein zweiter Grund ist, daß viele sehr ähnliche Arten und Gattungen aller Wahrscheinlichkeit nach das Resultat sehr kleiner gradueller Veränderungen sind, welche am besten als Mikroevolution beschrieben werden können. Schon Darwin8 diskutierte ausführlich die 5 R.A. Fisher, The Genetical Theory of Natural Selection, Oxford 1930; J.B.s. Haldane, The Causes of Evolution, London 1932; S. Wright, Evolution in Mendelian Populations, Genetics 16 (1931), S. 97; ders., On the roles of directed and randorn changes in Gene frequency in the genetics of populations, Evolution 2 (1948), S. 279. 6 Th. Dobzhansky, Genetics and the Origin of Species, 3. Aufl., New York 1951. 7 R. Goldschmidt, The Material Basis of Evolution, New Haven (Conn.) 1940. 8 siehe FN 1.
Gen-Paralogien und die Makroevolution der Vielzeller
139
Beziehungen zwischen den unterschiedlichen taxonomischen Gruppen und betonte dabei die Willkürlichkeit des Artkonzeptes. Der dritte und wichtigste Grund ist aber, daß man die vielen kleinen Veränderungen in den Basensequenzen eines Genes, welche sich im Laufe der Äonen angesammelt haben, vernünftigerweise nur als mikroevolutionäre Schritte auf molekularem Niveau verstehen kann. Die andere Seite der Medaille ist, daß die Makroevolution zu breit definiert wird, indem sie für alle Veränderungen oberhalb der Art-Ebene verantwortlich gemacht wird. Solch eine Definition erweist sich als sinnlos, da sie nichts über das Ausmaß der Differenzen zwischen den zu vergleichenden Gruppen von Organismen auszusagen vermag. 11. Makroevolution versus Mikroevolution
Ein entscheidender Wendepunkt in unserer Auffassung von den Mechanismen, welche makroevolutionäre Ereignisse verursachen, wurde durch eine Serie von Arbeiten von Susumu Ohno und Mitarbeitern 9 ausgelöst. Diese Aufsätze führten zu einer drastischen Veränderung auf der wissenschaftlichen Szene, da sie Genduplikationen als eine notwendige Vorbedingung für die Evolution neuer Strukturen und Funktionen postulierten. Ohno vertrat einen klaren Standpunkt gegen den vorherrschenden Neodarwinismus indem er argumentierte, daß Mutationen in schon existierenden Genloci und Veränderungen in den Genfrequenzen allein nicht ausreichend sind, um große evolutionäre Veränderungen erklären zu können. Diese Argumentation kann man leicht verstehen, wenn man sich klarmacht, daß die Natur immer nur mit dem Material arbeiten kann, welches gerade vorhanden ist. Was die Natur jedoch machen kann, ist, sich durch Genduplikation zusätzliche Kopien von bereits vorhandenen Genen herzustellen. Diese kann sie dann für die Entwicklung von etwas Neuem verwenden, ohne dabei die Originale der alten Gene anzutasten, welche weiterhin ihre ursprünglichen Funktionen erfüllen können. Aus den Kopien können auch gänzlich neue Gene durch Exon- und Domänen-Vermischung konstruiert werden. 10 Es scheint jedoch so, als ob sich nach diesem Durchbruch ein gewisses Zögern breitgemacht hat, die großen evolutionären Ereignisse, wie z. B. die Entstehung des triploblastischen Stadiums in der Ontogenese, des Neuralbogens oder des Zentralnervensystems der Wirbeltiere, generell mit Genduplikationen zu verbinden. 9 S. Ohno, The role of Gene duplication in vertebrate evolution, in: The Biological Basis of Medicine, Bd. 4, (Hrsg. E.D. Bittar IN. Bittar), London 1969, S. 109; ders., Evolution by Gene Duplieation, Berlin I Heidelberg INew York 1970; ders., Patterns in genome evolution, CUIT. Opin. Genet. Devel. 3 (1993), S. 911; ders., The notion of the Cambrian pananimalia genome, Proe. Natl. Aead. Sei. USA 93 (1996), S. 8475; S. Ohno/V. Wolf/N.B. Atkin, Evolution from fish to mammals by Gene duplieation, Hereditas 59 (1968), S. 169. 10 L. Patthy, Evolution of the proteases of blood eoagulation and fibrinolysis by assembly from modules, Ce1l41 (1985), S. 657.
140
Lars-G. Lundin
Einer der Gründe für das Zögern war sicher das anfängliche Fehlen von soliden Daten auf dem Gebiet von Genstruktur, -funktion und -regulation. Ein anderer Faktor bestand im fehlenden Wissen über die Organisation des Genomes als Ganzes, besonders über die molekulare Lokalisierung der Geneloci auf den Chromosomen. Solch ein Wissen ist aber notwendig, um Cluster von Regulationsgenen, wie z. B. die HOM / Hox-Cluster, verstehen zu können. Ein zentrales Argument in allen Untersuchungen von phylogenetischen Verwandtschaften ist das Konzept der HomologielI. Arten und höhere taxonomische Gruppen werden als zu einer gemeinsamen Entwicklungslinie gehörig betrachtet, wenn ihnen eine spezifische homologe Struktur, eine Synapomorphie, gemeinsam ist. Die Trennungslinien zwischen den Gruppen werden dann durch die An- bzw. Abwesenheit des entsprechenden Merkmals definiert. Als sich ein umfangreiches Datenmaterial über die molekularen Sequenzen in den biologischen Makromolekülen angesammelt hatte, wurde es klar, daß es zwei verschiedene Typen von Homologien gibt: Orthologien und Paralogien 12. Orthologe Gene finden sich in unterschiedlichen Arten. Sie haben sich von ihrem gemeinsamen Gen-Vorfahren im Prozeß der Artbildung und der weiteren getrennten Evolution immer mehr entfernt. Paraloge Gene existieren innerhalb einer Art. Auch sie haben einen gemeinsamen Gen-Vorfahren, sind aber auf Grund einer Genduplikation (entweder durch regionale Duplikationen oder durch globale Genom-Duplikationen (Tetraploidisierung» entstanden. Nach einer Genduplikation divergieren die entsprechenden Gene durch sukzessive Mutationen im Laufe der weiteren Entwicklung. Häufig wird eines der beiden Gene zum Verstummen gebracht und existiert eine Zeit lang als nichtabgelesenes Pseudogen weiter. 13 Viele der duplizierten Gene bleiben jedoch aktiv, wobei sie am Anfang den Gen-Vorfahren noch mehr oder weniger ähnlich sind, später jedoch neue Funktionen übernehmen können. III. Mikroevolution und orthologe Gene
Seit der Veröffentlichung der "Entstehung der Arten" durch Darwin gründeten sich die Phylogenien bis weit in unser Jahrhundert hinein fast ausschließlich auf morphologischen Daten. Der traditionelle morphologische Ansatz, welcher erst 11 G.P. Wagner, The biological homology concept, Ann. Rev. Ecol. Syst. 20 (1989), S. 51; für eine ausführliche Behandlung dieses Konzeptes siehe auch B.K. Hall, Evolutionary Developmental Biology, London 1992. 12 WM. Fiteh, Molecular evolutionary clocks, in: Molecular Evolution (Hrsg. F.I. Ayala), Sunderland (Mass.) 1976, S. 160; L.-G. Lundin, Evolutionary conservation of large chromosomal segments reflected in mammalian Gene maps, Clin. Genet. 16 (1979), S. 72; ders., Evolution of the vertebrate genome as reflected in paralogous chromosomal regions in man and the house mouse, Genomics 16 (1993), S. 1. 13 W-H. Li, Evolutionary change of duplicate genes, in: Isozymes (Current Topics in Biological and Medical Research, Bd. 6, Hrsg. M.C. Rattazzi I I.G. Scandalios/G.S. Whitt), New York 1982, S. 55.
Gen-Paralogien und die Makroevolution der Vielzeller
141
jetzt langsam aus der Mode kommt, war seinerzeit sehr fruchtbar und lieferte die Grundlage, auf der die modeme Biologie aufbaut. Auf der morphologischen und organismischen Seite soll es genügen, einige ausgewählte Beispiele zu zeigen, welche als Illustrationen der Mikroevolution dienen können - auch wenn sie traditionell nicht als solche angesehen werden. Ein klassisches Beispiel ist die Serie der verwandten Arten der Galapagosfinken, welche von Darwin entdeckt wurde und später von Lack 14 erneut untersucht wurde. Andere Fälle sind die verschiedenen Rassenlinien innerhalb bestimmter Vogelarten, welche auf geographisch unterschiedlichen Plätzen leben. Die Kohlmeise (Parus major) ist ein in Europa verbreiteter Vogel, aber es ist vielleicht weniger bekannt, daß es von ihr eine weitere Rassenlinie gibt, welche bis zum Himalajagebirge reicht. Beide Rassenlinien treffen sich in der Amurregion, wo sie als unterschiedliche Arten angesehen werden. 15 Meine Schlußfolgerung daraus ist, daß diejenigen Prozesse, welche diese Rassen und verwandten Arten geformt haben müssen, nicht ausreichend sind, um die großen Differenzen zwischen den verschiedenen Gruppen der Vielzeller erklären zu können. Die meisten Evolutionsforscher sind aber immer noch im Vorurteil befangen, daß sich alle Unterschiede durch graduelle Veränderungen in den Genfrequenzen oder durch mäßige Chromosomenumordnungen erklären lassen. Seit einigen Jahrzehnten ist es möglich geworden, die Primärstrukturen von Enzymen und anderen Proteinen miteinander und ebenfalls mit den Basensequenzen der sie codierenden Gene zu vergleichen. Auf der Basis der Vergleiche von orthologen Genen und ihrer Proteinprodukte in verschiedenen Arten und höheren systematischen Gruppen lassen sich heute phylogenetische Stammbäume rekonstruieren. 16 Diese Stammbäume kommen zu den gleichen oder sehr ähnlichen Beziehungen zwischen den unterschiedlichen taxonomischen Gruppen, wie sie auch in den herkömmlichen Stammbäumen, welche auf der Grundlage der morphologischen Kriterien gewonnenen wurden, dargestellt werden. Im Kontext der molekulargenetisch begründeten Stammbäume kommt auch das Konzept der "molekularen evolutionären Uhren" zum tragen. Dieses Konzept, welches auf den relativen Änderungsgeschwindigkeiten verschiedener Basensequenzen in Genen bzw. Aminosäu14
D. Lack, Darwin's Finches, Cambridge 1947.
15
B. Stegmann, Die Vögel des dauro-mandschurischen Übergangsgebietes, J. Omith. 78
(1930), S. 389; 79 (1931), S. 137. 16 M.O. Dayhojf/R.M. Schwartz/B.C. Orcutt, A model of evolutionary change in proteins, in: Atlas of Protein Sequence and Structure, Bd. 5, Supp!. 3 (Hrsg. M.O. Dayhoff), Washington D.C. 1978, S. 345; J. Felsenstein, Phylogenies from molecular sequences: inference and reliability, Ann. Rev. Genet. 22 (1988), S. 521; K.G. Field/G.J. Olsen/D.J. Lane, Molecular phylogeny of the animal kingdom, Science 239 (1988), S. 748; M. Goodman, Macromolecular Sequences in Systematic and Evolutionary Biology, New York 1982; D.M. Hillis/C. Moritz (Hrsg.), Molecular Systematics, Sunderland (Mass.) 1990; w'-H. LilD. Graur, Fundamentals of Molecular Evolution, Sunderland (Mass.) 1991; M.M. Miyamoto/J. Cracraft (Hrsg.), Phylogenetic Analysis of DNA Sequences, Oxford 1991; M. Nei, Molecular Evolutionary Genetics, New York 1987.
142
Lars-G. Lundin
re sequenzen in Proteinen beruht, ist für verschiedene Methoden, die zur Rekonstruktion der molekularen Phylogenien dienen, von großer Bedeutung. 17 Unabhängig von all dem ist es aber zutreffend festzustellen, daß evolutionäre Veränderungen in Gen- und Proteinsequenzen direkt die Mikroevolution wiedergeben, welche sich durch Punktmutationen, kleine Auslöschungen oder kleine Verdopplungen, d. h. durch das Entstehen neuer Allele an den verschiedenen Loci, manifestiert. An diesen unterschiedlichen Allelen kann die natürliche Auslese und die genetische Drift angreifen und graduelle Änderungen der Genfrequenzen hervorrufen. Jene Prozesse sind es, die einen großen Teil der Neodarwinschen Theorie ausmachen. Dabei soll nicht gesagt werden, daß diese Prozesse keine Rolle im makroevolutionären Prozeß spielen. Sie können aber nicht allein die Hauptrolle bei der Schaffung neuer Strukturen und Funktionen spielen. 18 Somit kann man sagen, daß mikroevolutionäre Änderungen zwar notwendige, aber keine hinreichenden Ereignisse sind, um das Auftreten von neuen und komplizierteren Strukturen und Funktionen erklären zu können. Die Genduplikation erweist sich als eine notwendige Vorbedingung der Makroevolution, um ein Substrat für die Wirkung anderer evolutionärer Kräfte darzustellen. Dabei ist es sehr wahrscheinlich, daß die größten Veränderungen, die sich im Ergebnis einer Genduplikation ergeben, gerade jene sind, welche in jener Kopie des Gens entstehen, die gerade dabei ist, graduell eine neue Funktion zu erwerben. IV. Genduplikationen und paraloge Gene eine Vorbedingung der Makroevolution
Es ist im Zusammenhang mit dem bereits gesagten offensichtlich, daß die Genduplikationen, ob sie nun einzelne Gene oder das ganze Genom betreffen, nicht sofort zu drastischen Veränderungen in Struktur und Funktion der beiden verdoppelten Gene führen werden. Das Genpaar wird strukturell durch die Einwirkung von Mutation und Selektion langsam auseinanderdriften. Schließlich wird sich eines der beiden Gene soweit verändert haben, daß es ein zum ursprünglichen ähnliches Protein codiert, welches nun aber eine wohlunterschiedene andere Funktion besitzen wird. Das andere Gen im Paar dagegen wird die ursprüngliche Funktion behalten haben. Das kann durch die Evolution von Genen illustriert werden, welche zu solchen Genfarnilien wie die HOM/Hox-Cluster I9 , die spannungsgesteuer17 siehe Fiteh, FN 12 und W-H. Li, So, what about the molecular clock hypothesis?, Curr. Opin. Genet. Devel. 3 (1993), S. 901. 18 siehe FN 11; P. Holland/ l. Garcia-Femandez/ N.A. Williams / A. Sidow, Gene duplications and the origins of vertebrate development, Development Suppl., 1994, S. 125; B. lohn/ G. Miklos, The eukaryote Genome in Development and Evolution, London 1988; Lundin (1993) FN 12, Ohno (1970) FN 9. 19 P. Holland, Homeobox genes in vertebrate evolution, BioEssays 14 (1992), S. 267; Holland FN 18; R. Krumlauf, Evolution of the vertebrate Hox homeobox genes, BioEssays 14
Gen-Paralogien und die Makroevolution der Vielzeller
143
ten Kalium-Kanal-Gene 2o und einige der Komponenten des Koagulations- und des Komplementsystems 21 gehören. Es gibt auch einige strukturelle Ähnlichkeiten zwischen den Komponenten des Komplementsystems und denen des Koagulationssystems. So enthalten sie beide einige Serin-Proteasen22 • Es ist deshalb sehr wahrscheinlich, daß es evolutionäre Verbindungen zwischen beiden Systemen gibt. Das Hauptmerkmal der metazoischen Tiere ist ihre Vielzelligkeit. Dadurch wurden sie in die Lage versetzt, unterschiedliche Zelltypen zu schaffen, obwohl alle Zellen dieselben Gene in sich tragen. Die Vielzeller erhieLten die Fähigkeit, eine Zelldifferentiation durchzuführen. Das ist schon bei den Vielzellern mit der einfachsten Organisation, den Schwämmen (Porifera), der Fall. Das bedeutet, daß eine notwendige Vorbedingung für die Bildung komplizierterer Strukturen und den Erwerb fortgeschrittener Funktionen die Fähigkeit ist, mehrere verschiedene Zelltypen zu entwickeln. Als Grundfrage erweist sich dann die folgende: Welches mögen die Minimalanforderungen sein, damit sich ein neuer Zelltyp, unter Beibehaltung des alten Typs, aus einem existierenden Zelltyp entwickeln kann? Eine sinnvolle Antwort scheint es zu sein, daß sich mindestens drei Typen von strukturellen Genen duplizieren müssen: 1) ein Gen für die Codierung einer Struktur in der Zellmembran, welche die Möglichkeit für die Entwicklung eines neuen Erkennungssignals bietet, 2) ein Gen für ein ,,Luxusprodukt" und 3) Gene für Transkriptionsfaktoren, welche die Genexpression für das Membranprotein und das "Luxusprodukt" steuern. Der Begriff "Luxus" wurde hier verwendet, um ein Protein zu kennzeichnen, welches für das Überleben der Zelle nicht absolut notwendig ist, welches aber in einem differenzierten Zelltyp eine bestimmte neue Funktion bekommen kann, die für das Überleben des ganzen Organismus von Vorteil ist. Diese Duplikation der Zelltypen läßt sich am sichersten durch die Tetraploidisierung oder zumindest durch die Duplikation großer Regionen des Genoms erreichen. Die Duplikation eines kleineren Bereiches trägt meist die Gefahr in sich, daß eines der relevanten Gene nicht mit verdoppelt wird. Dabei ist zu betonen, (1992), S. 245; J.W Pendleton/B.K. Nagai/M.T. Murtha/F.H. Ruddle, Expansion of the Hox gene family and the evolution of ehordates, Proe. Nat!. Aead. Sei. USA 90 (1993), S. 6300; F. Schubert/ K. Nieselt-Struwe / P. Gruss, The Antaennapedia-type homeobox genes have evolved from three preeursors early in metatoan evolution, Proe. Nat!. Aead. Sei. USA 90 (1993), S. 143. 20 L.F. Lock/D.J. Gilbert/V.A. Street, Voltage-gated potassium ehannel genes are clustered in paralogous regions of the mouse genome, Genomies 20 (1994), S. 354. 21 T. Halkir, Meehanisms in blood eoagulation, fibrinolysis, and the eomplement system, Cambridge 1991; A.L. Hughes, Phylogeny of the C3/C4/C5 eomplement-eomponent gene farnily indieates that C5 diverged first, Mo!. Bio!. Evo!. 11 (1994), S. 417; H. Ishiguro/K. Kobayashi/ M. Suzuki, Isolation of a hagfish Gene that eneodes a eomplement eomponent, EMBO J. 11 (1992), S. 829; M. Nonaka/M Takahashi, Complete eomplementary DNA sequenee of the third eomponent of eomplement of lamprey, J. Imrnuno!. 148 (1992), S. 3290. 22 Hakier, FN 21.
144
Lars-G. Lundin
daß die oben genannte Bedingung nur das absolute Minimum ist, welches erfüllt sein muß, damit durch Genduplikationen neue Zelltypen entstehen können. In vielen Fällen sind möglicherweise auch noch die Verdopplungen zusätzlicher Gene notwendig. Wenn man dieser Argumentation weiter folgt, so ist es naheliegend anzunehmen, daß auch die Duplikation und die weitere Evolution von Genen für Proteine, welche die Zelladhäsion steuern, sowie von Proteinen, die für die Morphogenese wichtig sind, eine Schlüsselrolle für die Entstehung neuer Zell typen haben können. Andere Gentypen, welche für die Evolution der Metazoen eine Rolle gespielt haben werden, können Komponenten des Signalübertragungssystems, welches zelltypspezifisch ist, einschließen. Oligosaccharide an der Zelloberfläche und entsprechende spezifische Lektine werden gleichfalls eine wichtige Rolle gespielt haben. Bekanntlich bestehen die Oligosaccharide aus unterschiedlichen Zuckermolekülen, was eine sehr große Zahl von unterscheidbaren Kombinationen erlaubt. Sobald ein Organismus mehr als einen Zelltyp besitzt, beginnt auch die Wechselwirkung zwischen den Zelltypen. Diese Wechselwirkungen zwischen verschiedenen Zelltypen haben naturgemäß ein größeres Feld von Möglichkeiten, als es zwischen identischen Zellen der Fall wäre. Das führte, unter anderem, zum Phänomen der Induktion von Zelltypen und Geweben. Dabei wird auf einer uniformen Zellschicht eine anhaftenden Schicht eines anderen Zelltyps gebildet.
v. Regionale Duplikationen versus Genomduplikationen Die Bedeutung von regionalen Genduplikationen (sogenannte Tandem-Duplikationen) einerseits und von Tetraploidisierungen andererseits für die Evolution wurde extensiv von Ohno diskutiert?3 Die Frage ist, wie man aus genetischen Unterschieden schlußfolgern kann, ob die Differenzen das Resultat von Teraploidisierungen oder von Tandem-Duplikationen waren. Ein sicheres Urteil kann in der Regel dann gefällt werden, wenn man die Anzahl der unterschiedlichen Genloci von strukturellen Genen bestimmt. Nach der Diploidisierung einer tetraploiden Art, wenn der Prozeß der divergierenden Entwicklung noch nicht zu weit fortgeschritten ist, ist es möglich, eine uniforme Verdopplung von jedem Genlocus zu finden. Bei wiederholten Tandem-Duplikationen jedoch sollte man von einigen Genen Verdopplungen, von anderen jedoch nur Einze1exemplare vorfinden. 24 Ein anderes Kriterium zur Feststellung von regionalen Duplikationen besteht in der oft gefundenen engen Verbindung zwischen vielen paralogen Genen. Viele Beispiele von verbundenen oder syntänen Genen für Enzyme oder andere Proteine, welche paralog sind, wurden sowohl in losen, als auch in festen Clustern auf vielen 23
24
Ohno (1970), FN 9. Ohno (1970), FN 9.
Gen-Paralogien und die Makroevolution der Vielzeller
145
Chromosomen des Menschen und der Maus gefunden. 25 Einige interessante Beispiele für regionale Duplikationen sind in Abb. 2 und Tabelle I zu finden, so die Gene für die Keratine (KRT), Integrine (ITG), Kalium- und Natrium-Kanäle (KCN und SCN), Apolipoproteine (APO) und das vielleicht wichtigste Beispiel von allen, die Hox-Cluster-Gene (HOX). All dies sind offensichtliche Beispiele von regionalen Genduplikationen - und gleichzeitig von paralogen Genen. Es wird angenommen, daß es in der Vergangenheit zweimal eine erhebliche Vergrößerung der Anzahl der funktionalen Gene gegeben hat, welche von einem großen Anwachsen der biologischen Komplexität begleitet wurden: einerseits bei der Entstehung der Eukaryonten und andererseits bei der der Vertebraten?6 Dabei wurde vorausgesetzt, daß es eine obere Grenze der Genanzahl gibt, da die Effizienz der Reduktion des Hintergrund-Transkriptions-Rauschens mit steigender Genzahl abnimmt. Die Daten von Bird unterstützen diese These. Die Informationen über die Genanzahl in unterschiedlichen Stämmen der Metazoen sind jedoch sehr lükkenhaft und lassen deshalb noch ausreichend Spielraum für zusätzliche vollständige Genomduplikationen während der Evolution der Metazoen. Ich vermute, daß es solch eine Genomverdopplung auch im Vorfahren der triploblastischen Tiere (d. h. der Tiere mit drei Keimblättern) gegeben haben kann. Ob solch eine drastische Veränderung ebenfalls nötig gewesen ist, um die Vielzeller als solche zu erzeugen, ist eine noch offene Frage. Die Entstehung verschiedener Zelltypen kann alternativ auch durch eine Reihe von regionalen Genduplikationen bedingt gewesen sein. Heute kann man auf der Grundlage neueren Datenmaterials schlußfolgern, daß es zwei Runden einer vollständigen Genomduplikation nach dem "AmphioxusStadium", aber noch vor dem Fisch-Stadium, d. h. früher, als es ursprünglich von Ohn0 27 und Lundin 28 vermutet worden war, gegeben hat (Abb. 1).29 Es ist wahrscheinlich, daß die erste dieser Duplikationen etwa vor 450 - 500 Millionen Jahren während des Ordoviziums oder noch früher, als Kreaturen wie Pikaia als die ersten freischwimmenden Chordata die Bildfläche betraten, stattgefunden haben wird. Die zweite Tetraploidisierung wird bald nach der ersten stattgefunden haben, vielleicht mit einigen 50 Millionen Jahren dazwischen. 3D Ungeachtet der relativ großen Differenzen im DNA-Gehalt unter den höheren Wirbeltieren, welcher eine schöne ansteigende Reihe bildet, stellt sich heraus, daß die meisten der Vertebratengruppen genau vier Hox-Cluster (siehe auch Abschnitt VIII.3) haben, während das Lanzettfischchen Amphioxus (Branchiostoma) und die Insekten nur einen Clu25 L.-G. Lundin, Gene homologies with emphasis on paralogous genes and chromosomal regions, Life Sei. Adv. (Genet.) 8 (1989), S. 89; M.F. LyonlY. Cocking IX. Gao, Mouse chromosome atlas, Mouse Genome 94 (1996), S. 29. 26 A.P. Bird, Gene number, noise reduction and biological complexity, Trends Genet. 11 (1995), S. 94. 27 Ohno (1970) und (1993), FN 9. 28 Lundin, siehe FN 12 und 15. 29 Holland (1994) FN 18. 30 Holland (1994) FN 18.
10 Selbstorganisation, Bd. 8
Lars-G. Lundin
146
ster von Hox-Genen haben. Aus der Existenz dieser und anderer Gengruppen haben Holland und Mitarbeiter31 vorgeschlagen, daß es im Acrianian-Stadium (Amphioxus) die eine Duplikation und die andere Verdopplung innerhalb der frühen Cranioten-Gruppe gegeben haben muß. Verwandte wie die Inger (Myxiniformes) und das Neunauge haben wahrscheinlich zwei Hox-Cluster.
Evolution der Vertebraten
~
Amphioxus Inger
~
~
Neunaugen
Knorpelfisch~ ~
Knochenfische Amphibien
~
~
::~n!(~ Dinosaurier t Beuteltiere
Tetraploidisierungen
Nagetiere
r
Primaten 500
400
300
200
100
ß-M.J ~
r/I
Millionen Jahre
Abb. 1: Phylogenetische Beziehungen zwischen den Klassen der Wirbeltiere und den Lanzettfischen (Amphioxus, Branchiostoma) als einer Gruppe der Akranier (Schädellose). Man beachte die Lage der beiden Tatraploidisierungen (d. h. der vollständigen Genomverdopplungen) !
Nach einer anderen Hypothese haben sich zwei verschiedene Acranier-Arten hybridisiert und dadurch eine allotetraploide Spezies produziert. Eine zweite Hybridisierung wird dann später zwischen zweier solcher allotetraploiden Arten stattge31
Holland (1994) FN 18.
Gen-Paralogien und die Makroevolution der Vielzeller
147
funden haben, was zu einer allooctoploiden Art geführt haben kann, welche als der Vorläufer aller cranioten Vertebraten angenommen wird. 32 Das Niveau des DNA-Gehalts in den unterschiedlichen Klassen der Wirbeltiere legt den Schluß nahe, daß die Fische ihre Evolution bei 15 - 20 % DNA (im Vergleich zu den Säugetieren), die Anura (Froschlurche) bei 30 - 40 % und die Reptilien bei 50 - 60 % begonnen haben müssen. 33 Diese Hypothese läßt genügend Raum für eine ganze Reihe von zusätzlichen regionalen Genduplikationen, bevor das heutige Säugetierniveau erreicht worden war. Unabhängig von der Tatsache, daß die grundlegende Organisation der unterschiedlichen Wirbeltierklassen sehr ähnlich ist, ist es sehr wahrscheinlich, daß spätere regionale Duplikationen eine große Rolle in der weiteren Evolution der Vertebraten nach dem Fisch-Stadium gespielt haben werden. Das betrifft unter anderem die Änderung von Gehirngröße und -struktur und die Adaptationen für das Leben auf dem trockenen Land. All das spricht für eine bedeutsame Rolle von regionalen Genduplikationen, vorausgesetzt, daß die Prozesse der DNA-Amplifikation nicht außer Kontrolle geraten, wie es scheinbar bei den Salamandern und Lungenfischen passiert ist. 34
VI. Chromosomale Paralogien als Überbleibsel von vollständigen Genomduplikationen Es wurde die Hypothese aufgestellt, daß viele Konstellationen von paralogen Genen in den Genomen des Menschen und der Maus das Ergebnis vollständiger Genomduplikationen (Tetraploidisierungen) sind?5 Andere Autoren kommen zu ähnlichen Schlüssen bezüglich der paralogen Genomregionen. 36 Einige Beispiele für mögliche paraloge Regionen im menschlichen Genom (HSA) sollen hier diskutiert werden (Abb. 2, Tab. 1). Die menschlichen Genorte wurden der "Genome Data Base" entnommen.
32 J. Spring, Vertebrate evolution by interspecific hybridisation - are we polyploid?, FEBS Lett. 400 (1997), S. 2. 33 Ohno (1970) FN 9. 34 Ohno (1970) FN 9. 35 Lundin (1979) und (1993), FN 12, Lundin (1989), FN 25, sowie L.-G. Lundin, Gene homologies and the nerve system, in: Genetics of Neuropsychiatric Deseases , Bd. 51 (Hrsg. L. Wetterberg), London 1989, S. 43. 36 D.C. Morizot, Comparative Gene mapping evidence for chromosome duplications in chordate evolution, Isozyme BuH. 19 (1986), S. 9; J.H. Nadeau, Genome duplication and comparative Gene mapping, in: Advanced Techniques in Chromosome Research (Hrsg. K. Adolph), New York 1991, S. 269; J.H. Nadeau/J.G. Compton/V. Giguere/J. Rossant/S. Varmuza, Close linkage ofretinoid acid receptor genes with homeobox- and keratin-encoding genes on paralogous segments of mouse chromosoms 11 and 15, Mamma!. Gnome 3 (1992), S.202.
10*
148
Lars-G. Lundin HSA2
HSA7
HSA12
q
HSA17
q
p
P
WNT2 COL1A2 DLXS DLX6 RARG
RARA
KRT18(1) KRT(II)
KRT(I)
NRAMP
NRAMP2
DES
PRPH
GFAP
WNT1
WNT3
IGFBP6
IGFBP4
CACNB3
CACNLB1
COL2A1
COL1A1
IGFBP2
IGFBP1 IGFBP3
COL3A1 COLSA2 DLX1 DLX2
DLX3
EVX2
EVX1
HOXD
HOXA
HOXC
HOXB
ITGAS ITGA7
ITGA2B ITGA3
ITGB7
ITGB3 ITGB4
SCN8A
SCN4A
ITGA4 ITGAV ITGA6 ITGB6
ITGB8
SCN6A SCN2A SCN1A SCN3A
p
q
q
p
Abb. 2: Die vier auffälligsten paralogen Genregionen auf den menschlichen Chromosomen 2, 7, 12 und 17, welche die beiden Tetraploidisierungen zum Beginn der Evolution der Wirbeltiere belegen. Zu beachten ist, daß es im Chromosomen 7 eine Umordnung der Gene gegeben hat, welche die paraloge Region aufgebrochen hat. (Legende: HSA: Homo sapiens; CACNB3, CACNLB1: Kalziumkanal-ß-Polypeptide; COL: Kollagen vom fibrillären Typ; DES: Desmin; DLX, EVX: verschiedene Homöoboxen; GFAP: azidisches Glia-Fibrillär-Protein; HOX: Homöobox-Gen-Cluster vom Hox-Typ; IGFBP: insulinähnlicher Wachstumsfaktor; ITGA, ITGB: a- und ß-Integrine; KRT: Keratin; PRPH: Peripherin; SCN: a-Polypeptide für potentialgesteuerte Natriumkanäle. Das azidische Glia-Fibrillär-Protein, sowie Desmin, Keratin und Peripherin sind intermediäre Filamentproteine.)
Gen-Paralogien und die Makroevolution der Vielzeller
149
Beispiel 1 (Abb. 2)
Abb. 2 stellt Teile der menschlichen Chromosomen 2, 7, 12 und 17 dar, welche wahrscheinlich paralog sind. Es gibt eine Irregularität in HSA7, wo die Konstellation der Gene, die hier diskutiert werden, wahrscheinlich durch eine perizentrische Inversion aufgebrochen wurde. Die überzeugendste und interessanteste Eigenschaft in diesem Vergleich ist die Existenz von Homöobox-Gen-Clustern des HOM/Hox-Types (Antennapedia-Typ) (HOXA-D), welche mit den fünf Kollagen-Genen (COL) und mit Clustern der Integrin-Gene verbunden sind, in allen vier Chromosomen?? In drei der Chromosomen gibt es weiterhin Gene für intermediäre Filamente (KRT, DES, PRPH, GFAP)?8 Die Keratin-Gene des Chromosoms 12 sind alle, bis auf eine Ausnahme (KRT 18), vom neutral-basischen Typ, während die auf HSA17 vom azidischen Typ sind. Es erscheint plausibel, daß diese unterschiedlichen Gruppen von Genen seit einer sehr langen Zeit zusammengefaßt worden sind, wahrscheinlich mit dem Aufkommen der Metazoen (etwa vor 600 Millionen bis vor einer Milliarde Jahre). Man nimmt an, daß die Gene-Vorfahren dieser vier Gruppen von Genen sehr alt sind 39 und daß die HOM / Hox-Gene den Zootypus (siehe Abschnitt VIII.3) der metazoischen Tiere bestimmt haben. 4o Es ist die Hypothese aufgestellt worden, daß die Gene für die cytoskelettalen Proteine in das ursprüngliche Eukaryonten-Genom aus dem Progenoten, dem Vorläufer aller lebenden Organismen, gelangt sind. 41 Deshalb ist es von Interesse, daß die Gene für drei Gruppen der cytoskelettalen Proteine auf einigen der hier vorgestellten Genomen vorkommen. 42 So finden wir, neben den schon diskutierten Filament-Genen, Gene für nichtmuskuläre Zellaktine (ACTB, ACTGI) auf HSA7 und HSA17, Gene für die Tubuline auf den Chromosomen 2 und 12 (TUBAI, TUBALl) und mikrotubuläre Gene auf HSA 2 und 17 (MAP2, MAPT). Deshalb kann vermutet werden, daß es ein ursprüngliches Cluster, welches einige dieser Gene in enger Packung enthalten hat, zu einer Zeit gegeben hat, welche noch vor der oben genannten liegt. Hinzu kommt noch, daß zwei sehr alte Gene für die vakuolären Protonenpumpen (VPP3, VPP1) auf HSA2 und 17 gefunden worden sind, wobei das letztere Gen nahe HOXB lokalisiert ist. Homologe dieser Gene wurden ver37 Lundin (1993), FN 12; W Wang/W Wu/T. DesailD.C. Ward/S.J. Kaufman, Loealization of the 0