128 15 4MB
German Pages 295 [292] Year 2023
Jörg Resag
Grenzen der Wirklichkeit Kosmologie, Quantenwelten und die Suche nach der Unendlichkeit
Grenzen der Wirklichkeit
Jörg Resag
Grenzen der Wirklichkeit Kosmologie, Quantenwelten und die Suche nach der Unendlichkeit
Jörg Resag Leverkusen, Nordrhein-Westfalen Deutschland
ISBN 978-3-662-67399-7 ISBN 978-3-662-67400-0 (eBook) https://doi.org/10.1007/978-3-662-67400-0 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Covermotiv: NGC 346, © NASA Covergestaltung: deblik, Berlin Planung/Lektorat: Caroline Strunz Springer ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort
Ich behaupte, dass das All unendlich ist, dass eine Unzahl von Weltkörpern existiert: Gestirne, Erden, Sonnen.1
Ein unendliches Universum mit einer Unzahl an Sternen – eine Vorstellung, die uns in der heutigen Zeit durchaus plausibel erscheint. Und doch sind diese Worte bereits mehr als 400 Jahre alt. Sie stammen von einem streitbaren Dominikanermönch, der in der 2. Hälfte des 16. Jahrhunderts in Europa rastlos umherzog – eine Zeit, in der die Idee eines unendlichen Universums eine geradezu ungeheuerliche Zumutung war. Schon die Idee, dass die Sonne und nicht die Erde im Zentrum der Welt stünde, stieß damals auf erbitterten Widerstand – Nikolaus Kopernikus hatte sie im Jahr 1543 veröffentlicht und starb kurz darauf. Fünf Jahre später erblickte besagter Mönch in Süden Italiens in Nola nahe Neapel das Licht der Welt. Sein Name war Giordano Bruno (Abb. 1). Man kann sich leicht vorstellen, dass Bruno mit seinen Ansichten bei vielen seiner Zeitgenossen nicht auf Gegenliebe stieß. Hinzu kam, dass er wohl ein ziemlich rechthaberischer und schwer erträglicher Mensch gewesen sein muss, der sich gerne mit der Obrigkeit anlegte. So kam es schließlich, wie es damals kommen musste: Die Inquisition warf Bruno in Rom in den Kerker der Engelsburg, wo er fast 8 Jahre vor sich hin schmachtete, bis er schließlich im Jahr 1600 auf dem Campo de‘ Fiori auf dem Scheiterhaufen
1
Man findet dieses Zitat von Giordano Bruno an vielen Stellen im Internet, z. B. unter https:// doormann.tripod.com/bruno.htm
V
VI Vorwort
Abb. 1 Giordano Bruno (1548–1600). (Quelle: https://commons.wikimedia.org/ wiki/File:Giordano_Bruno.jpg)
brutal verbrannt wurde. Ein Denkmal erinnert dort heute an den tragischen Tod des widerspenstigen Mönchs. Bleibt die Frage: Hatte Giordano Bruno recht? Ist unser Universum tatsächlich unendlich? Und wie lange existiert es schon? Ist es ewig, ohne Anfang und Ende, wie Bruno ebenfalls behauptete? Ist es grenzenlos, sowohl im Raum als auch in der Zeit? In einem Punkt muss man der Inquisition recht geben: Bruno hatte keinerlei Beweise für seine Behauptungen. Für ihn war einfach klar, dass es dem Wesen des allmächtigen Gottes widersprechen würde, wäre sein göttlicher Kosmos endlich. Nur wie soll man sich etwas „Unendliches“ überhaupt vorstellen? Wie soll man diesen Begriff fassen? In der Mathematik beschäftigt sich ein ganzer Zweig – die Mengenlehre – mit dieser Frage. Dabei stößt sie auf so manche Merkwürdigkeit. So gibt es nicht nur eine, sondern unendlich viele mathematische Unendlichkeiten, und man muss sich immer ganz genau überlegen, welche Annahmen man zugrunde legt, um Aussagen über diese Unendlichkeiten treffen zu können. Das ganze Gebiet ist überaus interessant und vielschichtig und zeigt, dass das mit der Unendlichkeit auch in der Mathematik keine einfache Angelegenheit ist. Andererseits: Wenn die Welt nun nicht unendlich ist, muss sie dann nicht Grenzen haben? Nur was ist dann jenseits der Grenze? Etwas anderes? Aber dann wäre hinter der Grenze ja noch gar nicht Schluss, und die Welt würde sich immer weiter fortsetzen. Ein Widerspruch! Ähnlich ist es auch bei der
Vorwort VII
Zeit: Wenn die Welt einen Anfang hat, was geschah davor? Was hat Gott gemacht, bevor er die Welt schuf? Immer wieder haben sich die großen Denker der Menschheit mit diesen Fragen beschäftigt und sind mal zu der einen und mal zu der anderen Antwort gelangt. Letztlich war aber niemand von ihnen in der Lage, die Widersprüche überzeugend aufzulösen. Wenn man etwas nicht auflösen kann, dann muss man wohl damit leben. Das dachte sich auch der an der Mosel geborene Philosoph, Naturforscher und Kardinal Nikolaus von Kues (1401–1464), besser bekannt unter seinem lateinischen Namen Cusanus. Im Spätherbst des Jahres 1437, also gut 100 Jahre vor Giordano Brunos Geburt, war er als päpstlicher Gesandter auf einer 2-monatigen Schiffsfahrt von Konstantinopel nach Venedig unterwegs und hatte dort viel Zeit zum Nachdenken. Plötzlich überkam ihn eine entscheidende Erkenntnis: Warum sollte unser menschlicher Verstand überhaupt in der Lage sein, solche unlösbaren Fragen zu beantworten? Wäre es nicht vielmehr sinnvoll, die Welt als ein Zusammenspiel von Gegensätzen zu begreifen, die erst zusammen ein sinnvolles Ganzes ergeben? Ein wirklich interessanter Gedanke, der uns in diesem Buch auch im Begriff der Komplementarität bei der Quantenmechanik wieder begegnen wird. Besonders gründlich hat sich mehr als 300 Jahre später der bekannte deutsche Philosoph Immanuel Kant (1724–1804) mit solchen logischen Gegensätzen beschäftigt, die er Antinomien nannte. Haben Raum und Zeit Grenzen oder sind sie unendlich? Besteht Materie aus einfacheren Bausteinen, und wenn ja, woraus bestehen diese dann wieder? Nach 12 Jahren aufreibender Arbeit präsentierte Kant der Welt im Jahr 1781 schließlich sein kompliziertes Werk Kritik der reinen Vernunft, in dem er diese und viele andere Fragen untersuchte. Seine Antwort war ernüchternd: Unser Verstand ist schlichtweg nicht in der Lage, solche Fragen zu beantworten: „Die menschliche Vernunft hat das besondere Schicksal in einer Gattung ihrer Erkenntnisse: dass sie durch Fragen belästigt wird, die sie nicht abweisen kann; denn sie sind ihr durch die Natur der Vernunft selbst aufgegeben, die sie aber auch nicht beantworten kann, denn sie übersteigen alles Vermögen der menschlichen Vernunft.“ Würden Sie dem zustimmen? Zwei Jahrtausende vergeblicher Suche nach Antworten durch die klügsten Denker und Philosophen scheinen hier eine eindeutige Sprache zu sprechen. Aber Kant konnte noch nicht wissen, welche enormen Fortschritte uns Menschen in den nächsten 2 Jahrhunderten noch gelingen sollten. Wir haben die Atome und die Quantenmechanik entdeckt und damit die Frage nach der Struktur der Materie teilweise beantwortet. Wir haben die Relativitätstheorie formuliert und
VIII Vorwort
damit tiefe Einsichten in das Wesen von Raum und Zeit gewonnen. Wir wissen heute, was Licht ist. Und wir haben den Urknall entdeckt und sind damit den räumlichen und zeitlichen Grenzen der Welt auf der Spur. Wie ist uns all dies gelungen? Und warum haben sich die großen Denker der Vergangenheit, die uns an Intelligenz mindestens ebenbürtig waren, daran die Zähne ausgebissen? Es liegt nicht an der Intelligenz oder Findigkeit der Menschen. Es ist vielmehr eine der großen Kulturleistungen der Menschheit, die uns immer besser in die Lage versetzt, die Rätsel des Universums zu ergründen: die moderne Naturwissenschaft! Dieses sehr scharfe Schwert erweitert die Möglichkeiten unseres Verstandes enorm, indem es zwei sehr mächtige Werkzeuge in sich vereint. Da ist zum einen die Sprache der Mathematik, die unsere menschliche Sprache an Präzision weit übertrifft. Mit ihr lassen sich Zusammenhänge darstellen, die weit jenseits unserer menschlichen Vorstellungskraft liegen. Immer wieder haben die großen Philosophen versucht, ihre Ideen in eine ähnlich präzise Sprache zu kleiden. Doch unsere menschliche Sprache eignet sich nun einmal nur sehr eingeschränkt für diesen Zweck, denn dafür ist sie nicht gemacht. „Das Buch der Natur ist in der Sprache der Mathematik geschrieben.“ So brachte es Galilei schon vor rund 4 Jahrhunderten auf den Punkt. Das 2. Werkzeug der Naturwissenschaft ist die Methode des Experiments und der Beobachtung mithilfe technischer Instrumente, die unsere menschlichen Sinne in den Schatten stellen. Mit ihnen lassen sich die hintersten Winkel der Natur ausleuchten. Was wir dabei entdecken, können wir wiederum in der Sprache der Mathematik ausdrücken, und so schließt sich der Kreis. Damit ist das Thema dieses Buches umrissen: Wir wollen uns anschauen, was die moderne Naturwissenschaft über die großen Fragen des Universums herausgefunden hat. Wie ist das mit der Unendlichkeit der Welt? Was geschieht, wenn wir uns bis zu den größten sowie den kleinsten zeitlichen und räumlichen Dimensionen vorwagen? Ist irgendwo ein Ende unserer Welt in Sicht? Und wie hat die Natur die scheinbaren Widersprüche gelöst, die für Cusanus und Kant noch jenseits der Möglichkeiten unserer Vernunft lagen? Sind Raum, Zeit und Materie wirklich das, wofür wir sie intuitiv halten? Das sind die Fragen, um die es in den 4 Kapiteln dieses Buches gehen wird.
Vorwort IX
Im 1. Kapitel steht dabei die Zeit im Mittelpunkt. Wir begeben uns auf die Suche nach den Grenzen der Ewigkeit, nach dem Anfang und dem Ende der Zeit. Immer tiefer sind unsere Vorfahren bei ihren Nachforschungen in den Nebel der Vergangenheit vorgedrungen. Noch in der frühen Neuzeit war man davon überzeugt, dass unsere Erde nur wenige Tausend Jahre alt ist. Doch die genauere Untersuchung der Gesteine und die Entdeckung atomarer Uhren haben enthüllt, dass sich das Alter der Welt nicht in Jahrtausenden, sondern in Jahrmilliarden misst. Der Blick hinauf zu den Galaxien, die schon Kant völlig zurecht als Welteninseln bezeichnet hatte, liefert dann den deutlichen Hinweis auf einen Anfang der Welt: den Urknall. Seitdem fliehen die Galaxien voreinander, und wie neuere Forschungen zeigen, offenbar mit zunehmender Geschwindigkeit. Was bedeutet das für unsere Zukunft? Gibt es ein Ende der Zeit? Im 2. Kapitel setzen wir die Reise zu den Sternen fort. Was sehen wir in den fernsten Tiefen des Raums? Gibt es irgendwo eine Grenze? Woraus besteht unsere Welt? Und was lässt sich über den Urknall herausfinden, wenn wir unser Universum genauer betrachten? Was knallte da? Und knallte es womöglich nicht nur einmal? Gab es eine Welt vor dem Urknall? Und gibt es gar jenseits unseres Horizonts weitere Universen, die unseren Augen auf ewig verborgen sind? In die umgekehrte Richtung geht es im 3. Kapitel, in dem wir tief hinabtauchen in das unendlich Kleine, in das Innerste der subatomaren Welt. Dort begegnen wir der Quantenmechanik, die unseren Blick auf die Wirklichkeit auf den Kopf stellt. Besonders der Begriff der Messung wird uns einiges Kopfzerbrechen bereiten und lässt einen Verdacht in uns aufkeimen: Das Quantenuniversum könnte womöglich viel größer sein als das, was wir normalerweise für unsere Welt halten. Quanten, Raum und Zeit – ihr Zusammenspiel wird besonders deutlich, wenn wir uns im 4. Kapitel den Schwarzen Löchern zuwenden. Dabei tauchen neue überraschende Fragen auf: Wie viel Information passt eigentlich in ein Raumvolumen hinein? Ist die Informationsmenge des Universums begrenzt? Und was bedeutet das alles für das Wesen von Raum und Zeit in unserem Quantenkosmos? Lassen Sie uns gemeinsam aufbrechen zu einer spannenden Reise in die Unendlichkeit. Eines kann ich Ihnen dabei versprechen: Unsere Welt wird sich als sehr viel größer und bizarrer erweisen als alles, was wir Menschen uns jemals hätten ausdenken können.
X Vorwort
An dieser Stelle möchte ich sehr herzlich Caroline Strunz vom SpringerVerlag danken. Ihre Ideen, Ermutigungen und ihr scharfer Blick auf die Verständlichkeit des Textes haben dem Buch sehr gutgetan. Nicht zuletzt geht ein besonderer Dank an meine Familie, die sich immer wieder tapfer angehört hat, was ich so an Ideen für mein Buch ausgebrütet habe. Leverkusen Februar 2023
Jörg Resag www.joerg-resag.de
Inhaltsverzeichnis
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 1 2 Die Grenzen des Raums: Wo endet die Welt? 75 3 Die Grenzen der Winzigkeit: hinab in die Quantenwelt 159 4 Die Grenzen der Information: Schwarze Löcher und der Quantenkosmos 221 Quellen und Literatur 279
XI
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit
Einst gebräuchliche Worte sind jetzt unverständliche Ausdrücke. […] Alles vergeht und wird bald zum Märchen und sinkt rasch in völlige Vergessenheit. (Mark Aurel: Selbstbetrachtungen, Viertes Buch, 33., z. B. unter https://www.gutzitiert.de/des_ kaisers_marcus_aurelius_antonius_selbstbetrachtungen-mark_aurel-kapitel_5.html.)
Alles vergeht! Das war dem Autor dieser Zeilen nur allzu bewusst, als er sie vor über 1800 Jahren in seinen letzten Lebensjahren niederschrieb. Er selbst ist uns auch nach so langer Zeit dank geschichtlicher Quellen noch gut bekannt: Es handelt sich um den römischen Kaiser Mark Aurel (121–180). Ein gebildeter römischer Kaiser mag vielleicht noch ein gewisses Gefühl für den Gang der Geschichte gehabt haben, zu deren Teil er selbst wurde. Aber auch er konnte angesichts der ewig scheinenden Zeit nur zu Bescheidenheit und Gelassenheit mahnen. Was ist schon unser kurzes Menschenleben im Vergleich zur kosmischen Ewigkeit? Für uns spielt es im Grunde keine Rolle, ob irgendein Ereignis der Vergangenheit 1000, 10.000 oder gar 1 Mio. Jahre her ist. Welche Bedeutung haben solche unbegreiflichen Zeiträume schon, wenn, wie Mark Aurel glaubte, sowieso alles seit Ewigkeiten gleichartig ist und sich in ständigem Kreislauf wiederholt? Bis ins Mittelalter hinein dürften die meisten unserer Vorfahren kaum eine Vorstellung davon gehabt haben, was Zeit wirklich bedeutet. Das gleichmäßige Ticken einer Uhr, das uns das gleichmäßige Verstreichen der Zeit anschaulich vor Augen führt, war erst ab der frühen Neuzeit zu hören. Man orientierte sich am Sonnenstand und am Lauf der Jahreszeiten und hörte ehrfurchtsvoll zu, wenn Eltern oder Großeltern Geschichten aus längst © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Resag, Grenzen der Wirklichkeit, https://doi.org/10.1007/978-3-662-67400-0_1
1
2 J. Resag
vergangenen Tagen erzählten. Mir selbst geht es auch nicht anders. Wenn ich beispielsweise Berichte über den 2. Weltkrieg höre, dann scheinen sie mir aus einer fernen Zeit voller Grausamkeiten zu stammen, die ich mir kaum vorstellen kann. Meine Großeltern haben sie dagegen noch selbst erlebt. Wie lässt sich der Nebel der noch ferneren Geschichte durchdringen, wenn uns niemand mehr von diesen Zeiten erzählen kann? Wir brauchen schriftliche Zeugnisse, die uns unsere Vorfahren hinterlassen haben, alte Quellen, die wir heute noch lesen und verstehen können. Eine dieser Quellen – davon war man im Mittelalter und der frühen Neuzeit überzeugt – sollte über jeden Zweifel erhaben sein, denn sie enthielt Gottes Wort: die Bibel!
James Ussher und der Tag der Schöpfung Während sich die allermeisten Menschen des Mittelalters nur wenig um den Lauf der Jahrhunderte scherten und froh waren, wenn sie sich und ihre Familien über die Runden brachten, gab es in der Kirche den einen oder anderen gebildeten Kleriker, den die Frage nach dem Lauf der Geschichte bis hin zum Moment der Schöpfung umtrieb. So studierte beispielsweise der Benediktinermönch Beda der Ehrwürdige (672–735) im 8. Jahrhundert minutiös die alten Schriften und datierte den Beginn der Welt schließlich auf den 18. März 3952 v. Chr. Andere Gelehrte kamen zu etwas anderen Ergebnissen, über deren Details teilweise heftiger Streit entbrannte. Im Großen und Ganzen war man sich aber weitgehend einig: Unsere Welt entstand ungefähr um das Jahr 4000 v. Chr. Auf die Spitze trieb diese Art von Schriftforschung der irische Gelehrte und Theologe James Ussher (Abb. 1.1). Als anglikanischer Erzbischof im katholisch dominierten Irland des 17. Jahrhunderts war es ihm ein Herzensanliegen, zu zeigen, wozu ein protestantischer Gelehrter fähig war. Seine Berechnungen sollten über jeden Zweifel erhaben sein und an Präzision alles übertreffen, was katholische Gelehrte bisher zustande gebracht hatten. Also machte er sich ans Werk und studierte nicht nur die Bibel, sondern auch unzählige andere antike Schriften. Schritt für Schritt setzte er in jahrelanger Arbeit das Puzzle aus griechischen und römischen Geschichtsdaten, Lebenszeiten babylonischer Könige, biblischen Stammbäumen seit Adam und Eva und vieles mehr zusammen. Es war eine Herkulesaufgabe, die ihn viel Kraft gekostet haben muss. Immer wieder galt es, Lücken in den Überlieferungen zu füllen oder widersprüchliche Daten verschiedener Quellen miteinander abzugleichen und zu einem konsistenten Ganzen zu verbinden.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 3
Abb. 1.1 Erzbischof James Ussher (1581–1656), porträtiert von Jacobus Houbraken. (Quelle: https://commons.wikimedia.org/wiki/File:James_Ussher_001.jpg)
Im Jahr 1650 hatte er es endlich geschafft und konnte voller Stolz sein großes Werk Annales veteris testamenti, a prima mundi origine deducti (Annalen des Alten Testaments, hergeleitet von den frühesten Anfängen der Welt) der Öffentlichkeit vorstellen. Gleich auf der ersten Seite präsentiert er das Ergebnis seiner Mühen: Übersetzt ins Deutsche mit modernen Datumsangaben schreibt er dort sinngemäß: „Am Anfang schuf Gott Himmel und die Erde. Dieser Anbeginn der Zeit ereignete sich nach unserer Chronik am Vorabend des 21. September des Jahres 4004 vor Christus.“ Damit lag er recht nahe an dem Ergebnis, das der ehrwürdige Beda bereits rund 900 Jahre zuvor ermittelt hatte. Aus heutiger Sicht mag eine derart präzise Datumsangabe für den Tag der Schöpfung vielleicht lächerlich und naiv erscheinen. Nach damaliger Auffassung war sie jedoch eine Meisterleistung, denn man ging wie selbstverständlich davon aus, dass die Angaben der Bibel wörtlich zu nehmen seien. Selbst der große Physiker Isaac Newton (1643–1727), der in seiner berühmten Principia mit seinen 3 Grundgesetzen der Mechanik das Fundament der modernen Physik schuf, stellte ähnliche Überlegungen an, wobei er auch astronomische Daten mit einbezog. Newton zufolge sollte die Welt rund 500 Jahre jünger sein als von James Ussher berechnet. Man sieht: Physik, Philosophie und religiöse Mystik waren damals noch eng miteinander verwoben.
4 J. Resag
Anders als Newtons Berechnungen hatte der von Ussher errechnete Anbeginn der Welt das Glück, in den nachfolgenden Jahrhunderten Eingang in viele gängige Bibelausgaben zu finden, sodass er wie die Bibel selbst einen fast göttlichen Status bekam. In manchen christlichfundamentalistischen Kreisen verteidigt man das Schöpfungsjahr 4004 v. Chr. selbst heute noch vehement gegen jede Kritik. Aber hält es wirklich einer modernen wissenschaftlichen Überprüfung stand? Können wir jenseits aller strengen Bibelgläubigkeit in der Natur Hinweise finden, die es entweder untermauern oder widerlegen?
Fossilien und Steine als Zeitzeugen Vielleicht haben Sie schon einmal davon gehört, dass man versteinerte Meerestiere selbst in den höchsten Gebirgen finden kann. Eines der berühmtesten Fundgebiete für besonders alte Meeresfossilien aus dem Kambrium, der Burgess-Schiefer (engl. „Burgess shale“), liegt beispielsweise in den kanadischen Rocky Mountains. Wie sind diese Überreste ehemaliger Meerestiere dort nur hingekommen? Nun ja, vielleicht lag der Meeresspiegel ja irgendwann einmal sehr viel höher als heute, sodass selbst hohe Gebirge einst unter Wasser lagen. Diese Ansicht vertraten im 18. Jahrhundert, als die Geologie noch in den Kinderschuhen steckte, die sogenannten Neptunisten. Ein schwankender Meeresspiegel ist durchaus plausibel, steigt doch auch aktuell der Ozean aufgrund der globalen Erwärmung um fast 4 mm pro Jahr an. Aber kann er auch selbst hohe Gebirge überfluten? Wo soll so viel Wasser herkommen, und wohin soll es wieder verschwinden? So ganz plausibel erscheint das nicht. Das dachte sich auch der schottische Naturforscher James Hutton (1726– 1797), der zu den frühen Begründern der Geologie gehörte. Nicht das Meer sei zu den Gipfeln emporgestiegen, behauptete er, sondern die heutigen Gipfel waren vor langer Zeit einfach nur platter Meeresboden, den enorme Kräfte aus dem heißen Erdinneren ganz allmählich emporgehoben haben. Gäbe es solche Hebungsprozesse nicht, so dürfte es eigentlich überhaupt keine Berge mehr geben. Die ständig an ihnen nagende Erosion müsste sie längst eingeebnet haben. Auch heute noch seien solche Prozesse am Werk und veränderten langsam, aber unaufhörlich das Gesicht der Erde. Wenn man also nur lange genug wartet, dann können aus ehemaligen Meeresböden selbst die höchsten Gebirge entstehen. Was diese Hebungsprozesse hervorrief, konnte Hutton damals allerdings noch nicht genau sagen. Er vermutete, die Hitze aus dem Erdinneren habe etwas damit zu tun.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 5
Damit lag er durchaus richtig. Es sollte aber noch bis ins 20. Jahrhundert dauern, bis die Geologen endlich die genauen Zusammenhänge erkannten: Es ist die Plattentektonik, also die langsame Drift und Kollision großer Erdplatten, die angetrieben von den Umwälzungen im heißen Erdinneren unaufhörlich das Gesicht unserer Erde verändern. Wie lange dauert es, bis sich ein Meeresboden allmählich zu einem majestätischen Hochgebirge emporheben kann? Das wusste natürlich niemand. Nun sind aus unserer menschlichen Sicht Usshers 6000 Jahre für das Weltalter sicher eine sehr lange Zeit. Aber sie erscheinen doch zu kurz, um ganze Gebirge entstehen zu lassen. Hutton ging jedenfalls davon aus, dass die Erde deutlich älter sein musste, damit auch sehr langsame Prozesse auf Dauer große Veränderungen hervorrufen können. Im 19. Jahrhundert machte die Geologie große Fortschritte und zog immer mehr Menschen in ihren Bann. Besonders der einflussreiche schottische Geologe Charles Lyell (1797–1875), der im Todesjahr Huttons in einem kleinen schottischen Dorf das Licht der Welt erblickte, hatte daran einen großen Anteil. Wie Hutton war er der Meinung, dass sich die Oberfläche der Erde durch Hebungen und Erosion sehr langsam, aber stetig verändere, und zwar heute ebenso wie zu allen Zeiten zuvor. Und diese Vorgänge hinterlassen ihre Spuren! So war ihm und vielen seiner Kollegen aufgefallen, dass man an vielen Stellen auf der Erde bestimmte typische Gesteinsschichten finden kann, wobei die Schichten normalerweise umso älter sind, je tiefer sie liegen. Ganz unten liegen also die ältesten Schichten, darüber die nächstältesten usw. Das leuchtet ein, denn schließlich entstanden die Schichten dadurch, dass im Lauf der Zeit immer mehr Gesteinsmaterial beispielsweise durch Flüsse dort abgelagert wurde – da liegt die neueste Schicht natürlich ganz oben. Oft enthalten diese Schichten jeweils unterschiedliche, für sie ganz typische Fossilien – man spricht heute von Leitfossilien. Findet man irgendwo auf der Welt zwei Gesteinsschichten mit denselben Leitfossilien, so weiß man, dass sie aus demselben Erdzeitalter stammen, in dem diese Tiere auf der Erde vorkamen. Aus den Schichten konnten die Geologen nach und nach eine komplette Abfolge der verschiedenen Erdzeitalter rekonstruieren. Dabei fiel auf, dass immer wieder ganze Tiergruppen ausstarben und durch neue ersetzt wurden. Besonders deutlich wurde dies bei den Fossilien merkwürdiger Riesenechsen, die man nach und nach entdeckte. Diese Dinosaurier (schreckliche Echsen), wie der englische Naturforscher Richard Owen sie im Jahr 1841 nannte, waren ganz offensichtlich Lebewesen, die über lange Zeiträume die Erde bevölkert hatten, bevor sie ganz plötzlich verschwanden. Der liebe Gott schien seine Schöpfung immer wieder zu
6 J. Resag
erneuern und – unzufrieden mit dem bisher geschaffenen – öfter mal etwas anderes ausprobieren zu wollen. Das war schon ein merkwürdiger Gedanke, mit dem sich besonders die Kirche kaum anfreunden konnte. Reichte denn nicht eine Sintflut? Und wie kam es, dass immer wieder neue Tierarten entstanden? Wo kamen sie plötzlich her? Erst Charles Darwin (1809–1882), der mit Lyell befreundet war, machte sich den richtigen Reim darauf und sprach von der Evolution der Lebewesen. Die einzelnen Tier- und Pflanzenarten behalten offenbar nicht auf ewig ihre jeweilige Gestalt, sondern es gibt ständig kleine Veränderungen, durch die sie sich besser an ihre Umwelt anpassen können. Damit auf diese Weise ganz neue Tierarten entstehen können, braucht es Zeit – viel Zeit! Darwin selbst vermutete in seinem Hauptwerk Über die Entstehung der Arten, dass die Welt mindestens 300 Mio. Jahre alt sein müsse, strich diese Angabe jedoch aus späteren Auflagen wieder, um der ständigen nervigen Kritik zu entgehen. Seine Erkenntnisse waren auch so schon revolutionär genug! Letztlich hatten aber alle Geologen und Naturforscher dasselbe Problem: Sie mochten in der Lage sein, die Erdzeitalter aufzuzählen, aber niemand war in der Lage, wirklich zu sagen, wie alt die Erde denn nun ist. Es gab zwar viele Versuche, aber konsistente Ergebnisse erhielt man damit nicht. Die typischen Angaben schwankten von einigen wenigen Mio. Jahren bis zu einigen Hundert Mio. Jahren, was keinen besonders vertrauenerweckenden Eindruck macht. Nur in einem waren sich alle einig: 6000 Jahre sind eindeutig zu kurz!
Radioaktive Uhren im Gestein Wie sollte man hier nur weiterkommen? Jeder hatte so seine Lieblingsmethode, das Erdalter zu berechnen, und nicht selten geriet man in heftige Auseinandersetzungen – in der Wissenschaft oft ein Zeichen dafür, dass man eigentlich im Dunkeln tappt. Ein schönes Beispiel ist die Berechnung des Erdalters durch den hoch angesehenen britischen Physiker Lord Kelvin (Abb. 1.2), der bis zur Verleihung seines Adelstitels im Jahr 1892 einfach nur William Thomson hieß. Kelvin war eine Lichtgestalt des viktorianischen Zeitalters, ein Wunderkind, das schon mit 10 Jahren an die Universität Glasgow ging, gefolgt von London, Paris und Cambridge. Er leistete bahnbrechende Arbeiten auf vielen Gebieten, insbesondere in der Elektrizitätslehre und der Thermodynamik – nicht ohne Grund ist die Maßeinheit der absoluten Temperaturskala nach
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 7
Abb. 1.2 Lord Kelvin (1824–1907), zusammen mit dem von ihm erfundenen Kompass im Jahr 1902. (Quelle: https://commons.wikimedia.org/wiki/File:Baron-Kelvin-WilliamThomson-compass-1902.jpg)
ihm benannt. Nebenbei erfand er auch noch einen beliebten Schiffskompass, einen Verstärker für die Telegrafie über den Atlantik sowie ein Tiefenecholot und hielt schließlich 69 Patente, die ihn zu einem wohlhabenden Mann machten. Wenn man ihn selbst nach seiner größten Leistung fragte, so nannte er selbstbewusst seine Berechnung des Erdalters. Kelvin hatte sich nämlich überlegt, wie lange es wohl braucht, bis eine einst glutflüssige Kugel von der Größe der Erde auf ihre heutige Temperatur abgekühlt wäre. Hinzu kamen Überlegungen von ihm und dem deutschen Physiker Hermann von Helmholtz (1821–1894), wie lange die Sonne wohl in der Lage wäre, ihre heutige Strahlungsleistung aufrechtzuerhalten. Die einzige bekannte Energiequelle, die dafür aus damaliger Sicht infrage kam, war die Gravitation, die auf der Sonnenoberfläche rund 28-mal so stark ist wie auf der Erde. Ein 80-kgMensch würde dort also so viel wiegen, wie ein Elefant von gut 2 t auf der Erde wiegt. Würde man uns auf die Sonne verfrachten, so würde uns allein schon ihre Gravitation in kurzer Zeit umbringen. Wenn sich die Sonne nun unter ihrer enormen Gravitation ganz langsam immer weiter zusammenzöge, dann könne sie nach den Berechnungen von Kelvin und Helmholtz sicher einige Mio. Jahre aus dieser Energiequelle schöpfen. Konkret kam Kelvin zunächst zu dem Ergebnis, dass Erde und Sonne rund 100 Mio. Jahre alt seien – ein Wert, den er im Lauf der Zeit bis
8 J. Resag
auf 24 Mio. Jahre reduzierte. Für die Evolution des Lebens, wie sein Zeitgenosse Darwin sie propagierte, erschienen diese 24 Mio. Jahre deutlich zu kurz. Aus physikalischer Sicht waren die Überlegungen Kelvins durchaus stichhaltig. Wenn ein Stern aus einer kontrahierenden Gas- und Staubwolke geboren wird, dann schöpft er als junger Protostern tatsächlich seine Leuchtkraft zunächst aus seiner Gravitationsenergie, weshalb man in dieser frühen Entwicklungsphase auch heute noch von der Kelvin-Helmholtz-Kontraktion spricht. Von der Kernfusion, die erst in späteren Entwicklungsphasen im Sternzentrum zündet, wusste Kelvin noch nichts. Und auch bei der sich abkühlenden Erde war an Kelvins Überlegungen grundsätzlich etwas dran. Allerdings hatte er zwei Dinge übersehen: die langsamen Umwälzungen des Erdmantels, die mit der Plattentektonik zusammenhängen, und eine neue Energiequelle im Gestein, die der französische Physiker Antoine Henri Becquerel sowie das Physikerehepaar Marie und Pierre Curie am Ende des 19. Jahrhunderts entdeckt hatten: die Radioaktivität. Wie wichtig die Entdeckung der Radioaktivität für die Bestimmung des Erdalters sein würde, ahnte als Erster der ebenso findige wie pragmatische Physiker Ernest Rutherford (Abb. 1.3). Im Jahr 1871 im fernen Neuseeland geboren und damit fast ein halbes Jahrhundert jünger als Lord Kelvin, zog es ihn nach Cambridge, Montreal und Manchester, wo er sich zu einem der bedeutendsten experimentellen Physiker des frühen 20. Jahrhunderts
Abb. 1.3 Ernest Rutherford (1871–1937). (Quelle: https://commons.wikimedia.org/ wiki/File:Sir_Ernest_Rutherford_LCCN2014716719_-_restoration1.jpg)
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 9
entwickelte. Besonders bekannt ist er für seinen berühmten Streuversuch, in dem er zusammen mit Hans Geiger und Ernest Marsden um das Jahr 1909 nachwies, dass sich der Löwenanteil der Masse jedes Atoms in einem winzigen Atomkern in dessen Zentrum konzentriert. Der Rest des Atoms ist einfach nur leerer Raum, in dem auf geheimnisvolle Weise die 1000fach leichteren Elektronen den zentralen massiven Kern umschwirren. Zusammen mit seinem Kollegen Frederick Soddy erkannte Rutherford, was bei der Radioaktivität beispielsweise von Uranerz eigentlich passiert: Die Uranatome zerfallen nach und nach über einige Zwischenstationen zu Bleiatomen und strahlen dabei hohe Energiemengen ab, die wir als radioaktive Strahlung messen können. Diese Energiemengen sind millionenfach größer als alles, was bei chemischen Reaktionen an Energie frei wird. Auch die Gesteine des Erdinneren enthalten radioaktive Elemente, deren Zerfälle das Erdinnere aufheizen, was Kelvins Berechnungen der Erdabkühlung über den Haufen werfen sollte. Was veranlasst ein Uranatom eigentlich, irgendwann zu Blei zu zerfallen? Nach heutiger Auffassung lautet die Antwort: gar nichts! Der Zerfall ist ein quantenmechanischer Zufallsprozess und niemand kann bei einem Uranatom vorhersagen, wann es zerfallen wird. Das kann schon in der nächsten Sekunde passieren oder auch erst in 10 Mrd. Jahren. Dabei ist es auch egal, wie alt ein einzelnes Uranatom bereits ist, denn es altert nicht und besitzt kein Zeitgedächtnis. Die Wahrscheinlichkeit, innerhalb einer bestimmten Zeitspanne zu zerfallen, ist immer gleich groß, egal wie alt das Atom ist. Aber auch wenn man einem einzelnen Uranatom nicht ansehen kann, wie alt es ist – wenn man Billionen Uranatome vor sich hat, sieht die Sache schon anders aus. So beträgt die Wahrscheinlichkeit bei dem häufigsten Uranatom U-2381, innerhalb von 4,468 Mrd. Jahren zu Blei zu zerfallen, genau 50 % – daher auch die krumme Zeitangabe, die sogenannte Halbwertszeit. Bei Billionen von Uranatomen kann man sich nun sehr sicher sein, dass innerhalb der Halbwertszeit ziemlich genau die Hälfte von ihnen zerfällt. Das mag Ihnen vielleicht etwas unsicher vorkommen, aber werfen Sie in Gedanken einmal 1 Mrd. Münzen in die Luft. Jede einzelne Münze
1 U-238
bedeutet, dass dieses Uranisotop, wie man es auch nennt, in seinem Atomkern 238 Kernbausteine (Nukleonen) enthält, nämlich 92 Protonen (deshalb ist es das Element Uran) und 146 Neutronen. Das seltenere Uranisotop U-235 enthält dagegen 3 Neutronen weniger, aber genauso viele Protonen (sonst wäre es kein Uran). U-235 zerfällt gut 6-mal schneller als U-238, nämlich mit einer Halbwertszeit von 703,8 Mio. Jahren.
10 J. Resag
entscheidet sich zufällig mit einer 50:50-Wahrscheinlichkeit für Kopf oder Zahl, wobei sich das Ergebnis nicht vorhersehen lässt. Aber bei einer sehr großen Anzahl an Münzen mittelt sich der Zufall gleichsam raus und es werden ziemlich genau die Hälfte der Münzen Kopf und die anderen Hälfte Zahl zeigen. Alles andere wäre schon eine unglaubliche Glückssträhne! Je mehr Münzen es sind, umso genauer stimmt das. Jede Spielbank verdient ihr Geld nach diesem Prinzip. In ihrer Gesamtheit wirken die unzähligen Uranatome in einem passenden Gestein dadurch wie eine präzise natürliche Uhr. Man kann sie sich wie eine Sanduhr vorstellen, bei der oben die Uranatome und unten die Bleiatome liegen. Am Anfang ist die untere Hälfte leer, sofern wir uns sicher sind, dass das Gestein zu Beginn kein Blei enthält. Dann beginnen zufällig einzelne Uranatome zu Blei zu zerfallen und nach unten zu rieseln, sodass nach 4,468 Mrd. Jahren die Hälfte von ihnen als Bleiatom unten angekommen ist. Man könnte nun meinen, dass nach weiteren 4,468 Mrd. Jahren auch die andere Hälfte der Uranatome zu Blei zerfällt und nach unten rieselt, aber so ist es nicht! Bedenken Sie: Die Uranatome haben kein Gedächtnis und wissen nicht, dass sie bisher Glück hatten. Sie zerfallen vielmehr mit derselben Wahrscheinlichkeit wie zuvor, sodass nach weiteren 4,468 Mrd. Jahren wieder die Hälfte von ihnen zu Blei zerfallen ist. Mit dem nun übrig gebliebenen Viertel geht es analog weiter: 1/4, 1/8, 1/16 und so fort, sodass nach 10 Halbwertszeiten nur noch 1/1024 der Uranatome übrig ist (Abb. 1.4). Dasselbe geschieht in unserem Beispiel mit der Milliarde
Abb. 1.4 Der radioaktive Zerfall von Uran-238 zu Blei wirkt wie eine Sanduhr, deren oberes Uranreservoir sich alle 4,468 Mrd. Jahre halbiert und in das untere Bleireservoir herabrieselt. (Quelle: Eigene Grafik)
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 11
geworfener Münzen, wenn sie immer wieder diejenigen, die Kopf zeigen, erneut hochwerfen. Rutherford war klar, was er da entdeckt hatte: Das Uran-zu-Blei-Verhältnis im Gestein zeigt wie eine Sanduhr an, wann das Gestein mit den darin enthaltenen Uranatomen entstanden ist. Er hatte endlich das gefunden, was alle Geologen zuvor vergeblich gesucht hatten: eine radioaktive Uhr für das Alter von Gesteinen! Dabei läuft diese Uhr langsam genug, um auch sehr große Zeitspannen anzeigen zu können. Das musste sie auch, denn erste Messungen zeigten, dass manche Gesteine mehrere Hundert Mio. Jahren alt sein konnten. Hätte Charles Darwin das noch miterlebt, so hätte er sich über dieses Ergebnis sicher sehr gefreut! Solch lange Zeiträume waren groß genug, um seine Theorie der Evolution zu stützen. Die 24 Mio. Jahre des großen Lord Kelvin wären damit klar aus dem Rennen. Aber würde der erfolgsverwöhnte Physiker diese Niederlage auch akzeptieren? Im Mai 1904 bot sich für Rutherford die Chance, in einem Vortrag seinen Kollegen an der Royal Institution in London von seiner Entdeckung zu berichten. Rutherford war nervös, als er den halbdunklen Vortragssaal betrat, in dem sich mittlerweile mehrere Hundert Zuhörer eingefunden hatten. Mitten unter ihnen entdeckte er ihn: die altehrwürdige Eminenz der damaligen Physik – Lord Kelvin. Während Rutherford zunächst über andere Themen referierte, schielte er immer wieder hinüber zu dem Platz, wo sich Kelvin niedergelassen hatte. Zunächst sah es ganz so aus, als habe er Glück: Der ältere Herr schien eingeschlafen zu sein. Doch kaum kam Rutherford zum entscheidenden Punkt, war Kelvin auf einmal hellwach. Wie würde er reagieren, wenn Rutherford seine geliebte Theorie infrage stellte? Zum Glück konnte Rutherford gut mit Menschen umgehen, und so kam ihm auch hier die rettende Idee: Kelvin selbst hatte einst darauf hingewiesen, dass eine neue Wärmequelle im Gestein seine Berechnungen modifizieren könne. Nun war die Radioaktivität der Gesteine genau eine solche Wärmequelle, wie Rutherford sich beeilte zu erwähnen. Selbst wenn es nur Spuren radioaktiver Elemente im Gestein gab, so setzten deren radioaktive Zerfälle dennoch große Energiemengen frei, die man nicht ignorieren konnte. Kelvin war nicht wirklich überzeugt, aber Rutherford hatte den Konflikt geschickt entschärft. Etwas Diplomatie kann auch in der Wissenschaft nicht schaden, besonders wenn man als junger Wissenschaftler aus dem fernen Neuseeland, das eher für seine Schafzucht als für seine Wissenschaft bekannt ist, einer Legende der Physik die Stirn bietet.
12 J. Resag
Das Alter der Erde Rutherfords Erkenntnisse öffneten eine neue Tür in die Vergangenheit der Erde. Es stellte sich allerdings heraus, dass es keineswegs einfach war, die radioaktiven Uhren im Gestein präzise genug auszulesen. In den meisten Gesteinen kommen die relevanten Elemente wie Uran und Blei nämlich nur in geringen Spuren vor und ihre genauen Mengen sind nicht leicht zu bestimmen. Da können Verunreinigungen und Veränderungen in der Gesteinszusammensetzung die radioaktiven Uhren leicht verstellen und die Ergebnisse verfälschen. Hinzu kam, dass die Geologie, die im 19. Jahrhundert so viele Menschen in ihren Bann gezogen hatte, im frühen 20. Jahrhundert ziemlich aus der Mode gekommen war. So musste sich beispielsweise der britische Geologe Arthur Holmes, der sich immer wieder mit bescheidenen finanziellen Mitteln an der radiometrischen Altersbestimmung von alten Gesteinen versuchte, zeitweise sogar ganz aus der Wissenschaft verabschieden – er musste schlicht Geld verdienen und eröffnete ein Kuriositätengeschäft. Doch trotz dieser Schwierigkeiten gelang es ihm, das Alter verschiedener Gesteine relativ genau zu bestimmen. In seinem berühmten Buch The Age of the Earth beschrieb er im Jahr 1913 sehr alte sogenannte Gneise, deren Alter er auf rund 1,5 Mrd. Jahren gemessen hatte. Bischof James Ussher hätte sich angesichts solch unbiblisch hoher Zahlen womöglich im Grabe umgedreht. Wie sich herausstellte, ist es gar nicht einfach, noch deutlich ältere Gesteine zu finden. Unsere Erdoberfläche ist ständig im Wandel, neue Gesteine entstehen und werden von den Kräften der Erosion wieder zerstört. Da muss ein sehr alter Stein schon viel Glück haben, alle diese Veränderungen weitgehend unbeschadet zu überstehen. Der heute älteste bekannte Spitzenreiter unter den intakten Gesteinen ist der sogenannte Acasta-Gneis aus dem Nordwesten Kanadas, der es auf ein Alter von rund 4 Mrd. Jahren bringt. Vielleicht sind manche Gesteine im sogenannten Nuvvuagittuq-Grünsteingürtel an der Hudson Bay Kanadas mit bis zu 4,4 Mrd. Jahren sogar noch älter, aber die Ergebnisse sind umstritten. Gibt es auf der Erde etwas noch Älteres, dessen Alter wir bestimmen können? Bei intakten Gesteinen kommen wir hier an eine Grenze, aber es muss ja nicht unbedingt ein kompletter Stein sein. Mikroskopisch betrachtet bestehen Gesteine nämlich aus vielen, meist winzigen Mineralkristallen. Manche von ihnen wie beispielsweise Quarz sind sehr beständig und bleiben übrig, wenn das Gestein um sie herum verwittert – nicht umsonst gibt es in
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 13
der Wüste so viel Quarzsand. Ein bestimmtes Mineral ist besonders unverwüstlich: Zirkon. Zirkonkristalle bilden wahre Zeitkapseln. Das Besondere an ihnen ist, dass sie bei ihrer Entstehung gerne Uranatome, aber keine Bleiatome einlagern, denn Letztere passen nicht gut in ihr Kristallgitter. Damit ist ein neu entstandener Zirkonkristall wie eine frisch aufgezogene radioaktive Uhr. Die ältesten Zirkonkristalle, die man bis heute auf der Erde entdeckt hat, stammen aus den Jack Hills im Westen Australiens. Es sind winzige Körnchen, eingebacken in Sedimentgestein, das vor ungefähr 3 Mrd. Jahren entstanden ist. Die Zirkonkristalle selbst sind deutlich älter. Das Gestein, in dem sie einst entstanden sind, ist längst dem Zahn der Zeit zum Opfer gefallen. Liest man ihre radioaktive Uhr ab, so findet man ein Alter von bis zu 4,404 Mrd. Jahren. Das ist wirklich schon sehr alt, aber ist es auch das Alter der Erde? Wo könnte es noch ältere Relikte aus der Frühzeit der Erde geben? Darüber zerbrach sich in den frühen 1950er-Jahren der US-amerikanische Geochemiker Clair Cameron Patterson (1922–1995) den Kopf. Schließlich kam er auf eine geniale Idee: Es muss nicht unbedingt ein Stein von der Erde sein! Wenn die Erde und das restliche Sonnensystem mit allem, was darin umherfliegt, gemeinsam aus einer sich zusammenziehenden Gasund Staubwolke entstanden sind, dann hätten alle Himmelskörper darin ungefähr dasselbe Alter. Nun war beispielsweise an Mondgestein damals noch nicht heranzukommen, das sollte erst rund 20 Jahre später möglich werden. Aber es gibt Himmelskörper, die gelegentlich ganz freiwillig zur Erde kommen: Meteoriten. Wenn so ein Meteorit vor nicht allzu langer Zeit auf der Erde eingeschlagen ist, dann wäre er nicht über Jahrmilliarden hinweg den ständigen Umwälzungen auf der Erde ausgesetzt gewesen und hätte seinen ursprünglichen Zustand weitgehend bewahren können. Es war für Patterson nicht ganz einfach, an entsprechendes Meteoritenmaterial heranzukommen, aber er blieb hartnäckig. Schließlich gelang es ihm, Fragmente des berühmten Meteoriten Canyon Diablo zu ergattern, der vor rund 50.000 Jahren in der Wüste Arizonas eingeschlagen war und dabei den markanten Barringer-Krater hinterlassen hatte – heute eine beliebte Touristenattraktion. Aber es gab ein Problem: Pattersons Bleimessungen zeigten viel zu hohe Werte, sodass er die radioaktive Uhr des Meteoriten nicht ablesen konnte. Das war auch bei vielen anderen Gesteinen so. Wo kam all dieses Blei nur her?
14 J. Resag
Schließlich dämmerte es ihm: Es kam von draußen! Die gesamte Umwelt enthielt deutlich mehr Blei, als zu erwarten gewesen wäre. Überall war es zu finden, die Welt war geradezu mit Blei verseucht. Es kam aus den Auspuffrohren der Autos und stammte aus den organischen Bleiverbindungen, die man dem Benzin als Antiklopfmittel zusetzte, um störende Fehlzündungen zu vermeiden. Ich erinnere mich noch gut an das verbleite Benzin, das es früher an jeder Tankstelle zu kaufen gab. Man dachte sich nicht allzu viel dabei und tankte einfach munter den Wagen voll. Patterson war dagegen alarmiert! Niemanden schien es zu kümmern, dass so viel gesundheitsschädliches Blei in der Umwelt vorhanden war. In seinen späteren Jahren würde er es sich zur Aufgabe machen, unermüdlich auf dieses massive Problem hinzuweisen und eine Abschaffung von Bleizusätzen in Benzin zu erwirken. Es würde ein nervenaufreibender Kampf gegen einen mächtigen Gegner werden, der über viel Geld verfügte und überall an den wichtigen Schaltstellen der Gesellschaft Verbündete hatte. Man würde Patterson Forschungsgelder entziehen, ihn von wichtigen Gremien ausschließen und sogar versuchen, ihn an seiner Universität mundtot zu machen. Aber Patterson ließ sich nicht entmutigen. Ihm und anderen ist es zu verdanken, dass es heute kein verbleites Benzin an den Tankstellen mehr gibt. In den 1950er-Jahren war man von diesem Ziel noch weit entfernt. Patterson blieb also nichts anderes übrig, als sein Labor mit großem Aufwand hermetisch gegen die bleiverseuchte Außenwelt abzuschirmen. Damit schuf er eines der ersten sterilen Reinraumlabore der Welt. Im Jahr 1953 war er so weit und konnte endlich die winzigen Bleimengen im Material des Meteoriten zuverlässig bestimmen. Er konnte dessen radioaktive Uran-BleiUhr präzise ablesen und ermittelte damit als Erster das Alter des Meteoriten und damit des Sonnensystems mitsamt der Erde. Nach Jahrhunderten des Umherirrens hatte man endlich Gewissheit: Sonnensystem, Meteorit und Erde sind 4,55 Mrd. Jahre alt! Bis heute hat sich an diesem Wert praktisch nichts geändert. Im Gegenteil: Als man ab 1969 bei den Apollo-Mondmissionen immer mehr Mondgestein zur Erde brachte, konnte man auch dessen Alter mithilfe der darin eingebackenen radioaktiven Uhren bestimmen. Das älteste Mondgestein fand man in den Hochländern (Terrae) des Mondes, wo es die Zeiten seit seiner Entstehung weitgehend unbeschadet überdauern konnte. Mit einem Alter von 4,46 Mrd. Jahren ist es nur wenig jünger als Pattersons Meteorit. Damit können wir sicher sein: Das Rätsel vom Alter der Erde ist endgültig gelöst.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 15
Wie alt sind die Sterne? Mit Sternen ist es ein bisschen wie bei Menschen: Man sieht ihnen ihr Alter zwar an, aber das genaue Geburtsdatum ist ihnen nicht auf die Stirn geschrieben. Radioaktive Uhren besitzen Sterne auch nicht, und so bleibt einem nichts anderes übrig, als ihren typischen Entwicklungsweg vom Sternenkind bis zum Greis irgendwie zu rekonstruieren und daraus ungefähr abzulesen, wie alt so ein Stern gerade ist. Zum Glück wissen wir – anders als zu Lord Kelvins Zeiten – mittlerweile sehr genau, was im Inneren eines Sterns physikalisch geschieht. Das haben wir Forschenden wie dem britischen Astrophysiker Arthur Stanley Eddington (1882–1944) zu verdanken, der sich im Jahr 1920 Gedanken darüber machte, was einen Stern wie die Sonne über Milliarden von Jahren zum Leuchten bringt. Es konnte nicht alleine die Gravitation sein, wie es noch Lord Kelvin vorgeschlagen hatte – die reicht nur für einige 10 Mio. Jahre. Die Gesteinsuntersuchungen des Geologen Arthur Holmes hatten aber mittlerweile gezeigt, dass die Erde mindestens 1,5 Mrd. Jahre alt sein sollte. Das galt dann auch für die Sonne, denn kaum jemand zweifelte daran, dass das gesamte Sonnensystem ungefähr zeitgleich aus einer sich zusammenziehenden Gas- und Staubwolke entstanden war. Gibt es eine andere Quelle, die ausreicht, die Sonne über Jahrmilliarden mit genügend Energie zu versorgen? Lord Kelvin hatte hier noch mit den Schultern zucken müssen, aber Eddington kannte mittlerweile eine solche mögliche Quelle, die millionenfach mehr Energie erzeugt als jede chemische Reaktion: atomare Kernreaktionen! Sie können nicht nur das Innere der Erde aufheizen, sondern auch die Sonne in hellem Licht erstrahlen lassen. Radioaktive Zerfälle wie im Erdinneren würden dafür bei der Sonne allerdings nicht ausreichen. Aber es gibt eine andere Möglichkeit, wie Eddington vermutete: Die Sonne besteht zu rund 73 % aus Wasserstoff und zu rund 25 % aus Helium, bezogen auf die Masse. Alle anderen Elemente machen weniger als 2 % aus, wobei Sauerstoff und Kohlenstoff am häufigsten sind. Da wäre es doch möglich, dass die Sonne tief in ihrem sehr heißen und dichten Zentrum Wasserstoffatomkerne zu Heliumatomkernen fusioniert, wobei enorme Energiemengen frei werden. Die Kernfusion von Wasserstoff zu Helium wäre demnach die Energiequelle der Sonne! Damit lag Eddington genau richtig, wie alle nachfolgenden Forschungen bestätigten. Was für die Sonne gilt, gilt auch für die allermeisten Sterne. Eddington erkannte, dass sie riesige, sich selbst regulierende Fusionsreaktoren sind, bei
16 J. Resag
denen sich die starken Gravitationskräfte und der innere Strahlungsdruck durch die Kernfusion die Waage halten. Je mehr Masse ein Stern dabei besitzt, umso stärker sind seine Gravitationskräfte. Um von diesen nicht zusammengedrückt zu werden, muss der innere Strahlungsdruck ansteigen, d. h., die Kernfusion muss im Zentrum des Sterns mehr Energie erzeugen, was den Stern insgesamt heller und heißer macht. Eddington konnte mit seinen Sternmodellen sogar ziemlich genau ausrechnen, wie stark die Helligkeit eines Sterns mit seiner Masse ansteigt. Was er herausfand, war erstaunlich! Ein Stern mit 2 Sonnenmassen leuchtet nicht etwa doppelt so hell wie die Sonne, sondern mehr als 10-mal so hell. Bei 4 Sonnenmassen leuchtet er sogar mehr als 100-mal heller. Entsprechend schnell verbraucht ein massereicher Stern seinen Brennstoff. Auch wenn er mehr davon besitzt, so geht er doch viel zu verschwenderisch damit um. Wenn ein Stern mit 4 Sonnenmassen mehr als 100-mal so hell wie die Sonne leuchtet und entsprechend viel Energie verbraucht, aber nur 4-mal so viel Energievorrat in Form von Wasserstoff besitzt, dann reicht dieser Vorrat nur für maximal 4/100 = 1/25 der Zeit. Massereiche Sterne leben also sehr viel kürzer als massearme Sterne. Viele der Sterne, die wir nachts am Himmel sehen können, sind übrigens solche kurzlebigen massereichen Sterne, denn ihre enorme Leuchtkraft macht sie weithin sichtbar. Rigel, der helle bläuliche Stern unten rechts im Sternbild Orion, ist beispielsweise rund 20 Sonnenmassen schwer und leuchtet mehr als 50.000mal heller als die Sonne. Wenn Sie sich an einem klaren Frühlingsabend einmal das Orion-Sternbild am Himmel anschauen, können Sie tatsächlich sehen, dass Rigel bläulich funkelt, besonders im optischen Kontrast zum rötlich leuchtenden Riesenstern Beteigeuze oben links im Sternbild. Man kann es tatsächlich auch mit bloßem Auge gut erkennen: Die Sterne sind bunt! Schwere Sterne leben also sehr viel kürzer als leichte. Bleibt nur noch herauszufinden, wie lange sie leben. Das sollte eigentlich ganz einfach sein: Aus der Sternenmasse und dem Wasserstoffanteil kann man ablesen, wie groß der Wasserstoffvorrat eines Sterns ist. Die Helligkeit des Sterns legt dann fest, wie schnell dieser Vorrat verbraucht wird. In Wirklichkeit ist es nicht ganz so einfach, denn ein Stern kommt für die Kernfusion normalerweise nicht an den gesamten Wasserstoff heran, den er besitzt, sondern nur an den Wasserstoff in seinem Zentrum, wo auch die Kernfusion stattfindet. Man muss also schon etwas genauer hinschauen und am besten konkrete Sternmodelle im Computer durchrechnen. Für einen Stern wie unsere Sonne kommt dabei heraus, dass der Wasserstoffvorrat in ihrem Zentrum für gut 10 Mrd. Jahre reicht. Danach schließen sich für etwa 1 Mrd. Jahre noch einige kurze, aber heftige Entwicklungsphasen an,
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 17
bei denen die Sonne auch den Wasserstoff außerhalb des Zentrums teilweise anzapft und schließlich sogar das Helium in ihrem Zentrum zu Kohlenstoff und Sauerstoff fusioniert. Dabei bläht sie sich immer weiter zu einem Roten Riesen auf und steigert ihre Energieproduktion um mehr als das 1000 fache. Am Ende ihres Lebens stößt sie schließlich ihre äußeren Hüllen ab und bläst sie als sogenannten planetarischen Nebel hinaus in den Weltraum. Was als erdgroßer Weißer Zwerg übrig bleibt, ist nur noch ihr entblößtes, sehr kompaktes Zentrum – der ausgebrannte Überrest unseres einst stolzen Muttersterns. Für die Länge eines Sternenlebens sind diese späten turbulenten Phasen nicht so entscheidend, denn die meiste Zeit verbringt ein Stern ja damit, relativ ruhig den Wasserstoff in seinem Zentrum in Helium umzuwandeln. In dieser sogenannten Hauptreihenphase befindet sich aktuell – zum Glück, möchte man sagen – auch unsere Sonne. Aber können wir ihr auch ansehen, wie lange sie das schon tut? Mit anderen Worten: Wie alt ist unsere Sonne? Nun ja, wie eingangs bereits gesagt: Das genaue Geburtsdatum ist der Sonne nicht auf die Stirn geschrieben, aber ein bisschen zumindest sieht man ihr das Alter schon an. Ein Stern verändert sich nämlich allmählich, wenn in seinem Zentrum langsam der Heliumanteil ansteigt. Er wird immer heißer und heller. Rechnet man es mit Sternmodellen nach, dann findet man heraus, dass die Sonne zu Beginn nur rund 70 % ihrer heutigen Leuchtkraft besaß. Wenn am Ende der Hauptreihenphase der Wasserstoff im Sonnenzentrum komplett zu Helium umgewandelt sein wird, so wird sie gut doppelt so hell leuchten wie heute. Schon in 1 Mrd. Jahre wird sie unsere Erde so stark aufheizen, dass es für höheres Leben langsam eng wird – keine besonders rosigen Aussichten, aber zum Glück sind 1 Mrd. Jahre ja viel Zeit; bis dahin haben wir erst einmal ganz andere Probleme. Offenbar scheint sich die Sonne irgendwo in der Mitte ihrer gut 10 Mrd. Jahre währenden Hauptreihenphase zu befinden. Um es genauer zu sagen, muss man ihren Lebensweg mit Computermodellen im Detail nachstellen und schauen, nach welcher Zeit sie darin so aussieht wie heute. Das Alter, das sich dabei für die Sonne ergibt, stimmt gut mit den 4,55 Mrd. Jahren überein, die Patterson für das Alter der Erde ermittelt hatte. Es passt also alles wunderbar zusammen. Nun sind Sonne und Erde natürlich nicht der Maßstab für das Alter des Universums. Irgendwo in den Tiefen des Raums könnte es Sterne geben, die noch viel älter als die Sonne sind. Machen wir uns also auf die Suche nach den ältesten Sternen im Universum. Grellblau strahlende, massereiche Sterne wie Rigel kommen dafür nicht infrage. Solche Sterne hätten ihren Brennstoff längst aufgebraucht und
18 J. Resag
wären verglüht. Es sind also eher die kleineren, orange-rötlich leuchtenden Sterne, auf die wir unsere Suche konzentrieren müssen. Man nennt sie treffend Rote Zwerge. Im Universum sind Rote Zwergsterne die häufigsten Sterne. Da sie allerdings bei Weitem nicht so hell leuchten wie ihre massereichen Verwandten, fallen sie nicht so auf. Auch dürfen sie nicht allzu weit von der Erde entfernt sein, um sich noch gut beobachten zu lassen. Und wie schon bei der Sonne geben auch sie ihr Alter nicht auf den ersten Blick preis. Man muss ihr Erscheinungsbild vielmehr sorgfältig mit den Ergebnissen von Sternmodellen vergleichen, um auf ihr Alter schließen zu können. Besonders gute Kandidaten für sehr alte Sterne sind dabei diejenigen, die nur sehr wenige Elemente jenseits von Wasserstoff und Helium enthalten – Astronomen nennen sie etwas irreführend „metallarm“, aber sie meinen damit nicht nur Metalle, sondern alle Elemente außer Wasserstoff und Helium. Es ist nämlich so, dass es in den Gaswolken des frühen Universums, aus denen sich besonders alte Sterne einst gebildet haben müssen, kaum schwere Elemente gab. Die schweren Elemente sind erst im Lauf der Zeit im Inneren größerer Sterne entstanden und wurden an deren Lebensende in den Weltraum hinausgeschleudert, wo sie sich nach und nach anreicherten. Die knapp 2 % an schweren Elementen in unserer Sonne sind also ein klares Zeichen dafür, dass unser Heimatstern nicht zu den ersten Sternen im Universum gehört haben kann. Es muss schon Sternengenerationen vor unserer Sonne gegeben haben, die diese schweren Elemente erst erzeugt haben. Auch jedes einzelne Kohlenstoff- oder Sauerstoffatom in unserem Körper muss irgendwann im Inneren eines längst verloschenen Sterns entstanden sein – einen anderen Weg gibt es nicht. Das sind also die Sterne, die die Astronominnen und Astronomen auf der Suche nach den ältesten Sternen untersuchen müssen: metallarme Rote Zwergsterne. Hin und wieder geht ihnen dabei ein besonders altes Sternenexemplar ins Netz. Der Stern HD 140283, der später auch als MethusalemStern bezeichnet wurde, ist ein solches Fundstück. Bischof James Ussher hätte es sicher sofort gewusst: Methusalem ist der biblische Inbegriff der Langlebigkeit schlechthin. Seine 969 Lebensjahre machen ihn zum ältesten Menschen, der in der Bibel Erwähnung findet. Als Großvater von Noah lebte er laut Bibel noch vor der Sintflut. Der Zwergstern HD 140283 hat den Vorteil, dass er sich mit nur etwa 200 Lichtjahren Entfernung noch einigermaßen gut mit dem HubbleTeleskop beobachten lässt. Es handelt sich um einen metallarmen, bereits leicht aufgeblähten Stern von rund 0,8 Sonnenmassen – einen sogenannten
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 19
Unterriesen, der seinen Wasserstoffvorrat im Zentrum bereits seit Kurzem aufgebraucht hat. Neuere Berechnungen mithilfe von Sternmodellen ergeben für ihn ein Alter von 12 ± 0,5 Mrd. Jahren. Damit ist der Methusalem-Stern fast 3-mal so alt wie unsere Sonne – ein wahrer Sternengreis! Frühere Berechnungen seines Sternenalters hatten sogar noch um 2,5 Mrd. Jahre höher gelegen. Man sieht, wie schwierig es ist, für einen einzelnen Stern das Alter einigermaßen genau abzuschätzen. Zum Glück gibt es noch eine andere Möglichkeit: Man betrachtet nicht nur einen einzigen Stern, sondern sehr viele, von denen man weiß, dass sie nahezu zeitgleich aus einer gemeinsamen Gaswolke entstanden sind. Solche Sterne findet man in Sternhaufen und die besonders alten Sterne in den sogenannten Kugelsternhaufen.
Kugelsternhaufen und das Hertzsprung-RussellDiagramm In klaren, dunklen Nächten kann man die hellsten Kugelsternhaufen sogar mit bloßem Auge als kleine diffuse Nebelfleckchen am Himmel erkennen. Aber erst ein gutes Teleskop zeigt, was sie wirklich sind: etwa 100 Lichtjahre große, kugelförmige Sternhaufen aus mehreren Hunderttausend Sternen, die von der Gravitation zusammengehalten werden und sich zum Zentrum des Haufens hin immer dichter zusammendrängen (Abb. 1.5). In unserer Milchstraße, die 1000-mal größer ist, kennt man mittlerweile rund 150 solcher Kugelsternhaufen. Sie liegen aber nicht wie die meisten Sterne in der Scheibe unserer Galaxie, sondern sind über einen größeren kugelförmigen Bereich – dem Halo – verteilt, in dessen Mittelpunkt das Zentrum der Milchstraße liegt. Dabei umgibt der Halo die Scheibe der Milchstraße und reicht noch deutlich weiter in den Raum hinaus. Als der US-amerikanische Astronom Harlow Shapley (1885–1972) sich im Jahr 1918 die räumliche Verteilung der Kugelsternhaufen im Halo zum ersten Mal genauer ansah, machte er eine interessante Entdeckung: Unsere Sonne liegt nicht wie von vielen erwartet im Mittelpunkt der Halo-Kugel und damit im Zentrum der Milchstraße, sondern eher an deren Rand. „Weit draußen in den unerforschten Einöden eines total aus der Mode gekommenen Ausläufers des westlichen Spiralarms der Galaxis leuchtet unbeachtet eine kleine gelbe Sonne.“ Vielleicht kennen Sie diese Worte, mit denen es Douglas Adams in seinem Per Anhalter durch die Galaxis so wunderbar auf den Punkt gebracht hat.
20 J. Resag
Abb. 1.5 Der Kugelsternhaufen M80 in rund 30.000 Lichtjahren Entfernung, fotografiert vom Hubble-Weltraumteleskop. (Credit: NASA, The Hubble Heritage Team, STScI, AURA. Quelle: https://commons.wikimedia.org/wiki/File:A_Swarm_of_Ancient_ Stars_-_GPN-2000-000930.jpg)
Sind Sie vielleicht auch etwas desillusioniert? Nun ja, auch wenn uns unsere Lage im Universum offenbar nicht zu etwas Besonderem macht, so leben wir dennoch auf einem ganz besonderen Planeten. Es dürfte nicht allzu viele Orte in unserem lebensfeindlichen Universum geben, an denen sich höheres Leben und sogar eine technische Zivilisation entwickelt haben. Ich finde das durchaus tröstlich, denn unser Platz in der Welt scheint in diesem Sinn durchaus etwas Besonderes zu sein. Zurück zu den Kugelsternhaufen und dem Alter ihrer Sterne. Wir wissen bereits, dass die Sterne eines Kugelsternhaufens alle etwa gleich alt sein müssen, denn sie sind gemeinsam aus einer kontrahierenden Gaswolke entstanden. Aber sie sind nicht nur gleich alt, sie haben auch alle ziemlich genau die gleiche Entfernung von der Erde, sodass wir ihre Helligkeit direkt miteinander vergleichen können: Sterne, die heller aussehen, sind auch heller und nicht einfach bloß näher. Das macht es einfach, sie in ein sogenanntes Hertzsprung-Russell-Diagramm (kurz HRD ) einzutragen. Je heller ein Stern ist, umso weiter kommt er in dem Diagramm nach oben. Zusätzlich enthält das Diagramm auch noch die Temperatur des Sterns,
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 21
die wir an der Farbe seines Lichts ablesen können: Die besonders heißen, bläulich leuchtenden Sterne kommen weiter nach links, die mittelheißen, gelblich-weiß leuchtenden Sterne wie unsere Sonne kommen in die Mitte und die kühleren, rötlich leuchtenden Sterne kommen weiter nach rechts. Das HRD ist also eine Art x-y-Diagramm für Sterne, bei dem die y-Achse für die Helligkeit und die x-Achse für die Temperatur eines Sterns steht (wobei aus historischen Gründen die Temperatur nicht nach rechts, sondern nach links zunimmt). Wenn man nun die Sterne eines Kugelsternhaufens in dieses Diagramm einträgt, dann entsteht eine sehr interessante Struktur (Abb. 1.6). Zunächst einmal sieht man eine breite Linie von Sternen, die rechts unten bei den
Abb. 1.6 Hertzsprung-Russel-Diagramm des Kugelsternhaufens M55. Am oberen Rand ist die Temperaturskala der Sterntemperatur Teff angegeben (die Sonne läge hier bei rund 6000 K), rechts die Skala der Leuchtkraft L relativ zur Sonne. Die Hauptreihe zieht sich als breites Band von rechts unten bis ungefähr zur Mitte des Diagramms, wo sich der Abknickpunkt befindet. Von dort zieht sich eine Linie aus Roten Riesen nach rechts oben. (Credit: NASA, zusätzliche Beschriftung eingefügt. Quelle: https://apod.nasa.gov/apod/ap010223.html)
22 J. Resag
leuchtschwachen Roten Zwergen anfängt und nach links oben zu helleren, heißeren Sternen aufsteigt. Das ist die sogenannte Hauptreihe – diesen Begriff hatten wir oben bereits verwendet, aber erst jetzt wird klarer, wo er herkommt. Auf der Hauptreihe liegen alle Sterne, die sich in der Hauptreihenphase befinden und in aller Ruhe den Wasserstoff in ihrem Zentrum zu Helium fusionieren. Auch unsere Sonne würde in einem solchen Diagramm also auf der Hauptreihe liegen. Vielleicht fragen Sie sich, warum es überhaupt eine solche Hauptreihe gibt. Das liegt daran, dass die Sterne in einem Kugelsternhaufen zwar alle gleich alt sind, aber nicht gleich schwer. Und schwere Sterne müssen ja in ihrem Zentrum viel mehr Energie erzeugen als leichte, um dem enormen Gravitationsdruck etwas entgegenzusetzen – sie sind also umso heller und heißer, je mehr Masse sie besitzen. Die Masse der Sterne wächst also entlang der Hauptreihe nach links oben hin an. Das geht allerdings nur bis zu einem bestimmten Punkt, dem sogenannten Abknickpunkt (engl. „turn-off point“ ). Weiter nach links oben zu noch massiveren, helleren und heißeren Sternen führt die Hauptreihe nicht weiter. Die wenigen Sterne, die dort im Diagramm zu sehen sind, stammen aus sehr späten Entwicklungsstadien, die mit der Hauptreihenphase nichts mehr zu tun haben. Die imaginär nach links oben fortgeführte Hauptreihe ist also jenseits des Abknickpunktes wie leer gefegt. Woran liegt das? Vermutlich ahnen Sie es bereits: Massereiche Sterne verbrauchen ihren Brennstoff ja viel schneller als massearme Sterne. Wenn der Kugelsternhaufen also bereits seit langer Zeit existiert, dann sind seine massereichen Sternmitglieder längst am Ende ihrer Hauptreihenphase angekommen. Sie haben den Wasserstoff in ihrem Zentrum aufgebraucht und sich zu Roten Riesen aufgebläht, um in weiteren, viel kürzeren, aber zugleich intensiven Fusionsphasen auch noch den Wasserstoff im Außenbereich des Zentrums anzuzapfen sowie das Helium im Zentrum zu Kohlenstoff und Sauerstoff zusammenzubacken. Im Diagramm verlassen diese Sterne die Hauptreihe und bewegen sich nach rechts oben in den Bereich der Roten Riesen, die zwar einerseits sehr viel Energie abstrahlen – deswegen liegen sie im Diagramm oben –, zugleich aber wegen ihrer aufgeblähten Hülle außen etwas abkühlen und eher rötliches Licht abstrahlen – deswegen liegen sie weiter rechts. Damit sind wir am entscheidenden Punkt angekommen: Am Abknickpunkt der Hauptreihe liegen genau diejenigen Sterne mit der größten Masse, die ihren Wasserstoffvorrat im Zentrum nahezu aufgebraucht haben
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 23
und kurz davor sind, sich aus ihrer lange währenden Hauptreihenphase zu verabschieden und in ihre letzte, recht kurze Lebensphase als Rote Riesen einzutreten. Je älter der Kugelsternhaufen ist, umso weiter wandert dieser Abknickpunkt auf der Hauptreihe nach rechts unten. In einem besonders alten Kugelsternhaufen befinden sich dann nur noch die relativ massearmen Roten Zwerge auf der Hauptreihe. Allen schwereren Sternen ist dagegen der Wasserstoff im Zentrum bereits ausgegangen und sie haben die Hauptreihe verlassen. Wenn wir jetzt noch mithilfe von Sternmodellen ausrechnen, wie lange Sterne verschiedener Masse mit ihrem Wasserstoff im Zentrum auskommen und auf der Hauptreihe bleiben, dann können wir an der Position des Abknickpunktes im Diagramm ablesen, wie alt ein Kugelsternhaufen ist. Was dabei herauskommt, passt sehr gut zu unserem Methusalem-Stern von oben: Die ältesten Kugelsternhaufen bringen es auf ein Alter von 12,7 ± 0,7 Mrd. Jahre. Unsere Sonne hätte in diesem Alter ihre Hauptreihenphase bereits hinter sich und wäre im letzten Stadium ihres Lebens als Roter Riese angekommen. Wenn Sie genauer hinschauen, können Sie im Kugelsternhaufen M80 in Abb. 1.5 solche Roten Riesen als helle, rötliche Sterne gut erkennen. Mich beeindruckt diese Erkenntnis immer wieder: So theoretisch es mir auch manchmal erscheinen mag, dass unsere Sonne sich in ferner Zukunft zu einem Roten Riesen aufblähen soll – das Bild von M80 beweist, dass es wirklich geschehen wird und dort bereits geschehen ist. Die Zeichen verdichten sich also: Die ältesten Sterne sind ungefähr 12–13 Mrd. Jahre alt. Noch ältere Sterne hat noch niemand entdeckt, obwohl es sie durchaus geben könnte! Der kleine Rote Zwergstern Proxima Centauri, der nur 4,2 Lichtjahre von der Erde entfernt ist, würde mit seinen 0,12 Sonnenmassen beispielsweise locker mindestens 1000 Mrd. Jahre mit seinem Brennstoff auskommen. Das ist merkwürdig! Warum gibt es keine kleinen sparsamen Zwergsterne, die 100 oder gar 1000 Mrd. Jahre alt sind? Wäre unsere Welt ewig, dann müssten wir sie eigentlich finden. Irgendwie scheint es eine Art von Anfang gegeben zu haben, einen frühesten Startpunkt für die Entstehung von Sternen. Sind wir hier womöglich dem Beginn der Zeit auf der Spur? Hatte unsere Welt einen Anfang? Um das herauszufinden, müssen wir mehr über unser Universum herausfinden. Wir müssen besser verstehen, wie sich unsere Welt entwickelt. Dafür reicht der Blick auf unsere Milchstraße und ihre Sterne allerdings nicht aus. Wir müssen viel weiter in die Tiefen des Raumes hinausschauen.
24 J. Resag
Welteninseln In der 2. Hälfte des 18. Jahrhunderts betrachtete der französische Astronom Charles Messier (1730–1817) in dunklen Nächten gerne den klaren Himmel mit seinem Fernrohr. Messier war leidenschaftlicher Kometenjäger und es gelang ihm im Lauf seines langen Lebens tatsächlich, an die 20 Kometen zu entdecken. Das war gar nicht so einfach, denn das meiste, was er an diffusen, nebelartigen Objekten am Himmel sah, waren gar keine Kometen. Erst wenn sich ein Nebel am Himmel auch bewegte, konnte er sich sicher sein, einen Kometen entdeckt zu haben. Dafür musste Messier das Nebelobjekt über Wochen hinweg immer wieder beobachten und seine Bahn am Himmel verfolgen – eine ziemlich aufwendige Prozedur. Schön wäre es da natürlich, wenn man bei einem Nebel am Himmel sofort wüsste, ob sich die weitere Beobachtung überhaupt lohnt. Messier war klar, was er dafür brauchte: Er musste einen Katalog aller unbeweglichen Nebelobjekte, die er in seinem Teleskop sehen konnte, erstellen und ihre genauen Positionen am Himmel dort eintragen. Dann bräuchte er später nur noch nachzuschauen, ob er den Nebel schon kannte, und falls ja, konnte er sich die weitere Beobachtung gleich sparen. Im Lauf der Zeit wuchs sein Messier-Katalog, wie man ihn heute nennt, auf 109 Objekte an, die alle mit den Bezeichnungen M1, M2 usw. bis M109 durchnummeriert sind. Wie wir heute dank moderner Großteleskope wissen, handelt es sich dabei um vollkommen unterschiedliche Objekte. So ist M1, der berühmte Krebsnebel, der Überrest einer Supernova aus dem Jahr 1054. M2–M5 sind Kugelsternhaufen, ebenso wie M80 oder M55, die wir schon kennengelernt haben. Es gibt auch sogenannte offene Sternhaufen wie M6 und M7 – das sind relativ kleine Ansammlungen aus einigen Hundert bis Tausend Sternen in der Scheibe der Milchstraße, die sich erst vor wenigen Hundert Mio. Jahren aus einer gemeinsamen Gaswolke gebildet haben. Der Lagunennebel M8 ist so eine leuchtende Gas- und Staubwolke, in der gerade jetzt neue Sterne entstehen. Messier wird wohl nicht geahnt haben, was er da alles in seinen Katalog eintrug. Vielleicht ist ihm aber aufgefallen, dass manche dieser Objekte immer wieder ähnlich aussahen: linsen- bis kreisförmige Nebel wie der große Andromedanebel M31, den man in besonders dunklen Nächten sogar mit bloßem Auge noch erkennen kann. Ob ihn das besonders interessiert hat, wissen wir nicht – vermutlich war er zu sehr mit der Jagd nach Kometen beschäftigt. Was waren das für linsenartige Nebelobjekte? Ein junger Gelehrter aus Königsberg und Zeitgenosse Messiers interessierte sich brennend für diese
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 25
Frage. Dabei war er kein Astronom, sondern sollte sich in späteren Jahren zu einem der einflussreichsten Philosophen der Aufklärung in Deutschland entwickeln: Immanuel Kant (1724–1804). Wir sind ihm und seinen Antinomien bereits im Vorwort kurz begegnet. Viele von uns dürften ihn als Autor seines monumentalen Spätwerks kennen, der Kritik der reinen Vernunft. Weniger bekannt ist, dass sich Kant in jüngeren Jahren auch sehr für die großen Fragen der Naturphilosophie interessierte. Wie war der Kosmos entstanden? Woraus besteht unsere Milchstraße? Wie haben sich Sonne und Planeten gebildet? Der junge Kant hatte sich schlaugemacht. Er hatte Newtons Principia gelesen und wusste, wie die Kraft der Gravitation die Bahnen der Gestirne lenkt. Und er kannte die Schrift An original theory or new hypothesis of the Universe von Thomas Wright (1711–1786), die dieser ganz frisch im Jahr 1750 veröffentlicht hatte. Dort behauptete der englische Astronom, die Milchstraße sei eine rotierende Scheibe aus Sternen mit unserer Sonne mitten unter ihnen. Und sie sei nicht die Einzige ihrer Art, die merkwürdigen Nebelscheibchen am Himmel seien nichts anderes als weit entfernte Geschwister der Milchstraße. Diese Idee faszinierte Kant. Ganz im Sinne Wrights sind auch für Kant die merkwürdigen länglich runden Nebel am Himmel nichts anderes als kreisrunde, scheibenförmige Galaxien, die je nach Perspektive mal kreisrund oder mal länglich oval erscheinen. Ein gigantischer Kosmos mit unzähligen Galaxien oder Welteninseln, wie Kant sie nannte, entstanden als turbulente Wirbel durch die Anziehungs- und Abstoßungskräfte der Materie. „Gebet mir Materie, ich will eine Welt daraus bauen!“, schreibt er in seinem Buch Allgemeine Naturgeschichte und Theorie des Himmels, in dem er seine Ideen 1755 anonym veröffentlicht. Der Erfolg blieb dieser Idee allerdings lange Zeit versagt. Noch im Jahr 1915 behauptete Harlow Shapley, dem wir oben bei den Kugelsternhaufen bereits begegnet sind, steif und fest, die Milchstraße sei die einzige Galaxie im Universum und all die Nebel am Himmel seien Teile der Milchstraße – was für die Kugelsternhaufen und viele andere Nebel ja auch stimmt. Kühne Behauptungen reichen eben in der Wissenschaft alleine nicht aus. Wir brauchen Beweise!
Die Cepheiden der Henrietta Swan Leavitt Unser Problem ist das vielleicht wichtigste Kernproblem der Astronomie: Wie weit ist etwas, das wir am Himmel sehen, von uns weg? Das fängt schon bei den Sternen an. Niemand von uns kann intuitiv sagen, wie weit die
26 J. Resag
Sterne entfernt sind, die wir abends am Himmel sehen können. Wir können noch nicht einmal sagen, ob irgendein bestimmter Stern weiter weg als ein anderer Stern ist. So leuchtet der Rote Zwergstern Proxima Centauri, der uns mit 4,2 Lichtjahren Entfernung am nächsten ist, so schwach, dass man ihn mit bloßem Auge gar nicht sehen kann. Problemlos erkennt man dagegen Sirius, den hellsten Stern am Nachthimmel, der mit rund 8,6 Lichtjahren Entfernung doppelt so weit weg ist. Seine Leuchtkraft ist aber auch 25-mal so groß wie die der Sonne. Der zweithellste Stern am Nachthimmel, Canopus, ist noch viel weiter weg: ganze 310 Lichtjahre. Dabei ist er zugleich viel leuchtstärker als Sirius und strahlt 14.000-mal mehr Licht ab als die Sonne. Daher ahnen wir nicht, dass er über 30-mal weiter von uns entfernt ist als Sirius. Für uns erscheint er nur ein bisschen weniger hell. Helligkeit allein ist also kein guter Wegweiser für den Abstand eines Objekts am Himmel. Wir müssen schon wissen, wie viel Licht ein Objekt abstrahlt, damit uns die Helligkeit am Himmel etwas über seinen Abstand verrät. Solche Objekte mit bekannter Leuchtkraft nennt man in der Astronomie auch Standardkerzen. Sie sind absolut unentbehrlich, wenn es darum geht, den Abstand eines Sternhaufens oder einer Galaxie zu ermitteln. Nur leider ist es gar nicht so einfach, brauchbare Standardkerzen zu entdecken. Der Durchbruch gelang im Jahr 1908 einer Frau, die in der Astronomie des frühen 20. Jahrhunderts wohl niemand auf dem Schirm hatte: der US-Amerikanerin Henrietta Swan Leavitt (Abb. 1.7). Frauen hatten es damals sehr schwer, in der Wissenschaft Fuß zu fassen. Man nahm sie nicht ernst oder sah sie als unwillkommene Konkurrenz der Männer an, die ja schließlich eine Familie zu ernähren hatten. Da verbannte man sie gerne in die 2. Reihe, wo man sie duldete, wenn sie den Herren der Schöpfung zuarbeiteten und ihnen lästige Arbeiten abnahmen. So erging es auch Henrietta Leavitt. Sie begeisterte sich schon seit ihrer Jugendzeit für Astronomie und konnte schließlich immerhin eine Stelle als sogenannte „Rechnerin“ am Harvard Observatory ergattern. Mehr war für eine Astronomin damals nicht drin, an das Teleskop durften nur die Herren ran. Ihr Job war es, unzählige astronomische Fotografien auszuwerten und Parameter wie die Helligkeit und Lichtfarbe von Sternen zu berechnen. Mich erinnert das Ganze an den wunderbaren Film Hidden Figures – Unerkannte Heldinnen aus dem Jahr 2016. Vielleicht kennen Sie den Film. Er erzählt von den drei afroamerikanischen Mathematikerinnen Katherine Johnson, Dorothy Vaughan und Mary Jackson, die als schlecht bezahlte „farbige Rechnerinnen“ (engl. „colored computers“) mit einfachen Rechenmaschinen oder sogar von Hand unentwegt aufwendige Berechnungen für die NASA
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 27
Abb. 1.7 Henrietta Swan Leavitt (1868–1921). (Quelle: abgeleitet von https:// commons.wikimedia.org/wiki/File:Leavitt_aavso.jpg)
durchführen. Damit stellen sie beispielsweise sicher, dass es im Jahr 1962 gelingt, US-Kampfpilot John Glenn zu seiner ersten Erdumkreisung ins All zu schießen und auch wieder sicher zur Erde zurückzubringen. Im Film besteht Glenn darauf, dass die Flugdaten von Katherine geprüft werden, denn ihren herausragenden Fähigkeiten vertraut er. Doch trotz ihrer wichtigen Arbeit und mathematischen Expertise müssen die Frauen immer wieder um Anerkennung in der männerdominierten Welt der NASA kämpfen. So ähnlich stelle ich mir auch die Welt von Henrietta Leavitt rund 50 Jahre zuvor vor. Wenn man nun wie Henrietta Leavitt jeden Tag unzählige Sternenfotos betrachtet und auswertet, dann entwickelt man irgendwann ein spezielles „Auge“ für Besonderheiten, die den männlichen Kollegen am Teleskop entgehen. Als sie es wiederholt mit Aufnahmen der Kleinen und Großen Magellanschen Wolke zu tun bekam, entdeckte sie etwas Auffälliges: Manche der Riesensterne in der Wolke waren auf den verschiedenen Aufnahmen mal dunkler und mal heller, je nachdem, wann genau die Aufnahme aufgenommen worden war. Bei genauerer Betrachtung entdeckte sie, dass die Helligkeit dieser Sterne innerhalb von Tagen oder Wochen pulsiert wie ein regelmäßiger Herzschlag. Eigentlich war das nicht wirklich etwas Neues. Schon mehr als ein Jahrhundert zuvor, im Jahr 1784, hatte der englische Amateurastronom John Goodricke (1764–1786) entdeckt, dass der Stern Delta Cephei (sprich Cephei), den man schon mit bloßem Auge gut am Himmel erkennen kann,
28 J. Resag
regelmäßig pulsiert, wobei sich seine Helligkeit zwischen Minimum und Maximum ungefähr verdoppelt. Wie Goodricke in vielen Beobachtungsnächten herausfand, dauert ein Zyklus dabei genau 5 Tage, 8 h und 45 min. Viel Glück brachte ihm diese Erkenntnis allerdings nicht. In den vielen kalten Nächten zog er sich eine schwere Lungenentzündung zu, die ihn mit nur 22 Jahren aus dem Leben riss. Nach und nach entdeckte man immer mehr pulsierende helle Sterne, die man auf den Namen Cepheiden (sprich Cephe-iden) taufte. Es handelt sich um Gelbe Riesensterne von 4 bis 10 Sonnenmassen, die ihren Wasserstoff im Zentrum bereits verbraucht haben und auf Helium als Brennstoff zurückgreifen müssen. Während einer bestimmten Phase ihres späten Sternenlebens kommt es dabei zu einer physikalischen Rückkopplung in der Sternenatmosphäre, die das regelmäßige Pulsieren auslöst. Übrigens gehört auch der bekannte Polarstern zu den Cepheiden, wobei seine Helligkeit aber nicht so stark schwankt wie bei Delta Cephei. Auf ihren Sternenfotos der Magellanschen Wolken entdeckte Henrietta Leavitt solche Cepheiden zu Hunderten. Diese hellen Riesensterne, die 1000–10.000fach mehr Energie abstrahlen als unsere Sonne, waren auf den Aufnahmen gut zu sehen. Als sie deren Pulsationsperioden genauer analysierte, machte sie eine interessante Entdeckung: Je heller die Cepheiden im Mittel auf den Fotoplatten erscheinen, umso langsamer pulsieren sie. Das war sehr interessant, denn die Cepheiden in einer Magellanschen Wolke sind alle ungefähr gleich weit von uns entfernt. Wenn einer von ihnen heller aussieht, dann ist er auch heller und nicht einfach nur näher dran. Leavitt hatte die Perioden-Leuchtkraft-Beziehung der Cepheiden entdeckt: Je langsamer Cepheiden pulsieren, umso größer ist ihre Leuchtkraft. Leider konnte Henrietta Leavitt damals noch nicht wissen, wie weit die Magellanschen Wolken entfernt sind (es sind rund 163.000 Lichtjahre für die Große Magellansche Wolke und rund 200.000 Lichtjahre für die Kleine Magellansche Wolke). Daher konnte sie auch nicht sagen, wie leuchtkräftig die Cepheiden konkret sind. Um das herauszufinden, kann man sich beispielsweise auf nahe gelegene Cepheiden wie Delta Cephei konzentrieren und deren Abstand bestimmen (bei Delta Cephei wären das knapp 900 Lichtjahre). Damit kann man dann die Perioden-Leuchtkraft-Beziehung eichen. Wenn man beispielsweise irgendwo einen anderen Cepheiden findet, der genauso schnell pulsiert wie Delta Cephei, aber am Himmel 4-mal dunkler aussieht, dann muss er doppelt so weit weg sein.2 2 Die Lichtmenge, die von einem Stern auf der Erde ankommt, nimmt nämlich quadratisch mit wachsendem Abstand ab. Verdoppelt sich der Abstand, viertelt sich die Lichtmenge.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 29
Da auch die nächstliegenden Cepheiden schon relativ weit weg sind, ist es gar nicht so einfach, ihren Abstand auch nur einigermaßen genau zu ermitteln. Immer wieder kam es daher in der Geschichte der Astronomie zu Fehleichungen der Perioden-Leuchtkraft-Beziehung. Außerdem stellte sich später heraus, dass es verschiedene Typen von Cepheiden gibt, die bei gleicher Leuchtkraft verschieden schnell pulsieren. Angesichts dieser Schwierigkeiten wundert es nicht, dass sich beispielsweise Harlow Shapley deutlich verschätzte, als er im Jahr 1918 mithilfe von Cepheiden die Entfernung von Kugelsternhaufen bestimmte. Seinen Berechnungen zufolge erschienen sie rund 3-mal weiter entfernt, als sie es in Wirklichkeit sind. Entsprechend überschätzte er auch die Größe der Milchstraße. Doch trotz dieser anfänglichen Schwierigkeiten erwies sich die Entdeckung von Henrietta Leavitt als ungemein nützlich. Endlich würde sich das Rätsel lösen lassen, was es mit den merkwürdigen Welteninseln am Himmel auf sich hat.
Andromeda Spätestens seit das nach ihm benannte Weltraumteleskop im Jahr 1990 ins Weltall gestartet ist, dürfte der Name dieses Astronomen vielen Menschen bekannt sein: Edwin Hubble (Abb. 1.8). Gut 2 Jahrzehnte nach Henrietta
Abb. 1.8 Edwin Hubble (1889–1953). (Credit: Johan Hagemeyer (1884–1962), Quelle: https://commons.wikimedia.org/wiki/File:Studio_portrait_photograph_of_Edwin_ Powell_Hubble_(cropped).JPG)
30 J. Resag
Leavitt in einer kleinen Stadt im US-Bundesstaat Missouri geboren, sollte er sich zu einem der einflussreichsten Astronomen des frühen 20. Jahrhunderts entwickeln. Hubble wird manchmal wie der Prototyp eines modernen Supermanns beschrieben. Schon in jungen Jahren konnte er einfach alles. Mit seinen vielfältigen Begabungen war er nicht nur ein sehr guter Schüler, sondern auch ein herausragender Sportler, und dazu sah er auch noch verboten gut aus. Eben ein echter Siegertyp, charmant, zielstrebig und erfolgreich – und durchaus bereit, seine unbestreitbaren Qualitäten ins rechte Licht zu rücken. In seiner Doktorarbeit über die „Photographische Untersuchung schwacher Nebel“ beschäftigte sich Hubble intensiv mit den Welteninseln am Himmel, bis der 1. Weltkrieg seine wissenschaftliche Laufbahn unterbrach. Natürlich machte Hubble auch beim Militär schnell Karriere und brachte es bis zum Bataillonskommandeur und Major. Nach Kriegsende ergab sich für ihn dann die Chance, nach Kalifornien an die Mount Wilson Sternwarte zu gehen, die über ein brandneues 2,5-m-Spiegelteleskop verfügte. Es war das beste, was es damals in der Welt gab. Aufgrund der Erfahrungen mit seiner Doktorarbeit ahnte Hubble, was sich mit einem solchen Teleskop bei der Erforschung der fernen Weltennebel erreichen ließ, und so ergriff er konsequent die Gelegenheit. Bereits seine erste Beobachtungsnacht am Mount Wilson rief in ihm helle Begeisterung hervor, obwohl die Sichtverhältnisse in dieser Nacht eigentlich eher schlecht waren. Wenn man sogar bei widrigen Bedingungen solche Aufnahmen machen konnte, wie würden dann erst die Aufnahmen an besseren Tagen sein! Das Teleskop hielt, was sich Hubble von ihm versprach. Besonders der gut sichtbare Andromeda-Nebel M31 ließ sich damit wunderbar beobachten (Abb. 1.9 zeigt eine ältere Aufnahme). Hubble konnte sogar helle Riesensterne darin ausmachen, unter ihnen auch einige, deren regelmäßige Helligkeitsschwankungen sie als Cepheiden auswies. Das war ein Glücksfall, denn dank der Entdeckung von Henrietta Leavitt hatte er jetzt ein Mittel in der Hand, um den Abstand des geheimnisvollen Nebels zu bestimmen. Was Hubble dabei im Jahr 1923 herausbekam, übertraf alles, was man an Entfernungen bis dahin gemessen hatte: Andromeda ist mindestens 900.000 Lichtjahre von uns entfernt! Die seit Langem schwelende Diskussion war damit endgültig entschieden: Der Andromeda-Nebel konnte nicht innerhalb unserer Milchstraße liegen, die nur gut 100.000 Lichtjahre misst. Der Nebel musste anders als die bekannten Kugelsternhaufen weit außerhalb liegen und er enthielt ganz offensichtlich weit mehr Sterne als jeder Kugelsternhaufen. Wie Kant
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 31
Abb. 1.9 Der Andromeda-Nebel, aufgenommen im Jahr 1887 von Edward Emerson Barnard, einem der Wegbereiter der Astrofotografie. (Quelle: https://commons. wikimedia.org/wiki/File:MS0031-Andromeda-slide21_(crop).png)
vermutet hatte, ist der Andromeda-Nebel eine Welteninsel, eine komplette Galaxie ähnlich unserer Milchstraße. Das was in einfachen Teleskopen als diffuser Nebel erscheint, ist in Wirklichkeit das Licht mehrerer 100 Mrd. Sterne in einer fremden Galaxie. Spätere Messungen mit einer besser geeichten Perioden-LeuchtkraftBeziehung für die Cepheiden sowie anderen Methoden korrigierten Hubbles Entfernungsangaben weiter nach oben auf rund 2.500.000 Lichtjahre. Andere Welteninseln liegen noch weiter entfernt, wie man bald herausfand, sodass sich Andromeda als unsere direkte Nachbargalaxie entpuppte. Man kann sich kaum vorstellen, wie sehr sich durch die Entdeckungen Hubbles in den 1920er-Jahren das Weltbild wandelte. Schien die Welt zuvor für viele Menschen auf unsere noch einigermaßen übersichtliche Milchstraße mit ihren Spiralarmen, Nebeln und Kugelsternhaufen beschränkt zu sein, so tat sich nun ein viel größeres Universum mit Tausenden von Galaxien auf, von denen unsere Milchstraße nur ein Exemplar unter vielen ist, das wie die anderen etwas verloren in den Weiten des Alls dahingleitet. Aber es sollte noch besser kommen und wieder würde Edwin Hubble dabei eine Schlüsselrolle spielen. Doch bevor wir uns das
32 J. Resag
genauer anschauen, wollen wir uns auf einen kleinen Exkurs mehr als 2 Jahrhunderte zurück in die Vergangenheit begeben – in die Zeit Isaac Newtons.
Flüchtende Galaxien Wenn ich an Isaac Newton (1642–1726) denke, dann fällt mir als Erstes natürlich seine berühmte Principia ein, in der er im Jahr 1687 die 3 Bewegungsgesetze und das Gesetz der Gravitation niederschrieb und damit die Grundlagen der Mechanik legte, inklusive der Bewegungen aller Gestirne. Aber Newton interessierte sich auch für viele andere Dinge. Besonders in jungen Jahren faszinierte ihn das Phänomen der Farben. Was ist eine Farbe eigentlich? Wie hängen Farben und Licht zusammen? Newton hatte im Jahr 1665 gerade erst seinen Bachelorabschluss am Trinity College in Cambridge bestanden, da brach in England die Große Pest aus. Die Universität wurde wegen Quarantäne geschlossen und Newton kehrte zurück in seinem kleinen, verschlafenen Geburtsort Woolsthorpe. Hier hatte er die nächsten beiden Jahre viel Zeit, um in aller Ruhe seinen vielfältigen wissenschaftlichen Interessen nachzugehen und auch dem Phänomen der Farben nachzuspüren. Dass Farben eng mit Licht zusammenhängen, ahnt man schon, wenn nach einem Regenschauer die Sonne hervorkommt und ein bunter Regenbogen am Himmel erscheint. Andere Farbenspiele kann man beispielsweise beobachten, wenn sich das Licht der Sonne in einer Glasscherbe bricht und am Boden ein buntes Fleckchen Licht zu sehen ist. Was ist hier los? Newton wollte es genau wissen und dachte sich ein kleines Heimexperiment aus: Er verdunkelte sein Zimmer und machte ein kleines Loch in den geschlossenen Fensterladen, durch das ein dünner Sonnenstrahl ins Zimmer fiel. Direkt hinter der Öffnung befestigte er ein Prisma, das den Sonnenstrahl zur Wand gegenüber hin brach. Nach dem bereits bekannten Brechungsgesetz hätte nun eigentlich an einer bestimmten Stelle der Wand ein runder, weißer Fleck Sonnenlicht erscheinen müssen. Stattdessen erschien eine länglich ovale Ellipse, in der nebeneinander sämtliche Farben des Regenbogens zu sehen waren. Newton experimentierte noch weiter mit weißem und farbigem Licht herum und zog schließlich die richtigen Schlüsse aus seinen Beobachtungen: Weißes Licht wird durch das Prisma aufgefächert und in seine einzelnen farbigen Bestandteile zerlegt, da diese im Prisma unterschiedlich stark gebrochen werden.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 33
Diese Erkenntnis mag uns heute trivial erscheinen, doch es ist keineswegs selbstverständlich, diesen Schluss zu ziehen. Schließlich empfinden wir auch Weiß als eine Art von „Farbe“. Warum also sollte diese dann zusammengesetzt sein, während es die Farbe Rot nicht ist? Noch über 100 Jahre später wollte der deutsche Dichterfürst Johann Wolfgang von Goethe (1749– 1832) nicht an Newtons Farbentheorie glauben und entwarf seine eigene alternative Farbenlehre. Heute wissen wir, dass Newton recht hatte. Und wir wissen dank der Arbeiten des schottischen Physikers James Clerk Maxwell seit dem Jahr 1864 auch, dass Licht eine elektromagnetische Welle ist und dass seine verschiedenen Farben unterschiedlichen Wellenlängen entsprechen, wobei rotes Licht die größte Wellenlänge (knapp 800 nm, also millionstel Millimeter) und blaues Licht die kürzeste Wellenlänge (400 nm) besitzt. Weißes Licht ist also eine Überlagerung aus vielen elektromagnetischen Wellen mit unterschiedlicher Wellenlänge. Ein Prisma trennt diese Wellenlängen voneinander, sodass die zugehörigen Farben sichtbar werden. Im Lauf der Zeit wurden Prismen und optische Instrumente immer weiter verbessert, sodass man sich das in seine Bestandteile zerlegte Farbspektrum des Sonnenlichts immer genauer anschauen konnte. Dabei entdeckten im Jahr 1802 der englische Arzt und Chemiker William Hyde Wollaston und unabhängig 12 Jahre später auch der deutsche Optiker Joseph von Fraunhofer einige dunkle Linien im Sonnenspektrum. Das Licht der Sonne war also nicht gleichmäßig aus allen Farben des Regenbogens zusammengesetzt. An ganz bestimmten Stellen im Farbspektrum, also bei ganz bestimmten Wellenlängen, fehlte etwas Licht. Einige Jahrzehnte später wurde dann klar, was dahintersteckte: Die dunklen Linien entstehen durch die verschiedenen chemischen Elemente in der Sonne, wobei jedes Element seinen eigenen Linienfingerabdruck besitzt. Die Atome der einzelnen chemischen Elemente können nämlich nur ganz bestimmte charakteristische Quantenschwingungen ausführen, wobei sie Licht der entsprechenden Wellenlängen, also Farben, absorbieren oder aussenden. Die dunklen Absorptionslinien im Sonnenspektrum verraten uns also, aus welchen Elementen unsere Sonne gemacht ist. Was mit der Sonne funktioniert, sollte auch mit dem Licht der Sterne und der Galaxien möglich sein. Dafür braucht man allerdings ausreichend starke Teleskope, um genügend Sternenlicht einzufangen. Und damit sind wir nach unserem kurzen Exkurs wieder zurück in der Zeit von Edwin Hubble. Es war allerdings nicht Hubble selbst, sondern der zurückhaltende und bescheidene US-amerikanische Astronom Vesto Slipher, der sich in den
34 J. Resag
Jahren um 1915 am Lowell-Observatorium in Arizona die Lichtspektren von gut einem Dutzend Galaxien genauer anschaute. Dabei fand er dieselben typischen dunklen Linienmuster, die man auch im Spektrum der Sonne sieht. Bei den meisten Galaxien lagen diese Linien aber nicht an denselben Stellen wie bei der Sonne, sondern sie waren typischerweise mehr oder weniger zu roten Farben und damit längeren Wellenlängen hin verschoben. Slipher ahnte, was das zu bedeuten hatte: Die Galaxien mit den ins Rote verschobenen Lichtspektren müssen sich von uns entfernen, denn dann wird jede neue Lichtschwingung von den dortigen Atomen in etwas größerem Abstand zu uns ausgesendet, sodass die Wellenlänge insgesamt gestreckt wird. Dieser Doppler-Effekt, benannt nach dem österreichischen Physiker Christian Doppler (1803–1853), tritt nicht nur bei Licht, sondern auch beispielsweise bei Schallwellen auf. Vermutlich ist Ihnen dieser Effekt schon einmal selbst aufgefallen: Wenn beispielsweise ein Krankenwagen mit eingeschalteter Sirene schnell an uns vorbeifährt, dann hört sich seine Sirene bei der Annäherung höher an, als wenn sie sich wieder von uns entfernt. Genau das ist der Doppler-Effekt bei Schall. Bei Licht ist es ähnlich, nur dass sich hier nicht die Tonhöhe, sondern die Lichtfarbe ändert. Von den Sternen der Milchstraße kannte man bereits ähnliche Rot- und Blauverschiebungen, je nachdem, ob sie auf uns zukommen oder von uns wegfliegen. Die Rotverschiebungen bei den Galaxien waren aber zumeist viel größer, sie mussten sich also deutlich schneller von uns entfernen. Das war bereits ein erster deutlicher Hinweis darauf, dass die merkwürdigen Galaxiennebel am Himmel nicht Teil unserer Milchstraße sind. Doch erst als Hubble rund ein Jahrzehnt später die Entfernung zur AndromedaGalaxie bestimmte, waren auch die letzten Zweifler überzeugt. Andromeda selbst ist übrigens eine der wenigen Ausnahmen: Unsere direkte Nachbargalaxie entfernt sich nicht, sondern kommt mit rund 110 km/s auf die Milchstraße zu und wird in einigen Mrd. Jahren mit ihr kollidieren. Letztlich werden beide Galaxien dabei zu einer einzigen riesigen Galaxie miteinander verschmelzen. Eigentlich schade, dass in dieser fernen Zukunft niemand auf der Erde mehr da sein wird, um dieses grandiose Himmelsschauspiel zu bewundern. Unsere immer heißer werdende Sonne wird bereits lange zuvor jedes Leben auf unserem heute noch blauen Planeten hinweggebrannt haben. Mitte der 1920er-Jahre begann auch Hubble, sich für das Phänomen der Rotverschiebung zu interessieren. Dank seiner Untersuchungen zu Andromeda war er mittlerweile unbestrittener Experte für die Entfernungsbestimmung von Galaxien, und so fragte er sich, welche Galaxien besonders
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 35
schnell von uns wegflogen. Gab es so etwas auch bei den Galaxien in unserer Nähe oder nur bei den weiter entfernten Welteninseln? Mit seinem 2,5-m-Teleskop auf dem Mount Wilson war Hubble ideal dafür gerüstet, solche Fragen zu klären. Zielstrebig machte er sich ans Werk und entwickelte neue Verfahren, mit denen er auch die Entfernung der nur schwach sichtbaren Galaxien am Himmel zumindest grob abschätzen konnte. Damit konnte er bis zum Jahr 1929 klar herausarbeiten, was manche seiner Kollegen bisher nur vage vermuten konnten: Je weiter eine Galaxie von uns entfernt ist, umso schneller bewegt sie sich im Mittel von uns fort. Diese Beziehung ist sogar linear: Eine doppelte Entfernung bedeutet auch eine doppelte Fluchtgeschwindigkeit. Es gibt zwar kleinere Abweichungen von dieser Regel, siehe Andromeda, aber besonders bei den weiter entfernten Galaxien fallen diese Abweichungen gegenüber den großen Fluchtgeschwindigkeiten kaum noch ins Gewicht. Hubbles Entdeckung erzeugte bei seinen Kollegen große Aufmerksamkeit. Wer hätte das gedacht? Die Galaxien driften nicht einfach zufällig durch den Raum, sondern sie streben voneinander weg. Hubble versuchte sogar abzuschätzen, wie stark sie das tun. Allerdings verschätzte er sich dabei ziemlich deutlich, da seine Entfernungsbestimmungen wie schon bei Andromeda noch nicht genau genug waren. Entfernungen sind nun einmal die Achillesferse der Astronomie. Es würden noch viele Jahrzehnte dauern, bis man Hubbles linearen Zusammenhang zwischen Entfernung und Fluchtgeschwindigkeit genau genug vermessen konnte. Noch in meiner Studienzeit in den frühen 1990er-Jahren lagen die Einschätzungen der Experten um den Faktor 2 auseinander, was teilweise zu heftigen Auseinandersetzungen zwischen den verschiedenen Lagern führte. Ich erinnere mich noch gut an ein Seminar am physikalischen Institut, in dem der Experte uns klarzumachen versuchte, warum die Gegenseite völlig auf dem Holzweg war. In Wirklichkeit lagen sie aber alle noch ziemlich daneben. Dank moderner Messungen ist das Gesetz von Hubble mittlerweile auf ungefähr 10 % genau bekannt: Galaxien, die 1 Megaparsec3 von uns entfernt sind, das sind 3,26 Mio. Lichtjahre, also etwas mehr als die Entfernung zu Andromeda, bewegen sich im Mittel mit 68–74 km/s von uns weg. Der sogenannte Hubble-Parameter (früher auch Hubble-Konstante genannt), der die Ausdehnungsgeschwindigkeit des Universums zusammenfasst, hat also einen Wert zwischen 68 und 74 km/s pro Megaparsec. 3 Ein
Parsec (engl. „parallax second“) ist die Entfernung, aus der man den mittleren Abstand zwischen Erde und Sonne unter einem Winkel von einer Bogensekunde sieht; 1 Parsec entspricht 3,26 Lichtjahren und 1 Megaparsec sind 1 Mio. Parsec.
36 J. Resag
Bei den nahen Galaxien in nur 1 Megaparsec Entfernung überlagert allerdings noch der Einfluss der Gravitation die allgemeine Fluchtbewegung (siehe Andromeda). Relevant wird Hubbles Gesetz erst bei größeren Entfernungen. So sagt der Hubble-Parameter beispielsweise, dass in 1000 Megaparsec (3,26 Mrd. Lichtjahren) Entfernung die Fluchtgeschwindigkeit schon bei 68.000–74.000 km/s liegt, also bei fast einem Viertel der Lichtgeschwindigkeit. Das dominiert bei Weitem jede andere Bewegung. Wenn wir nun die gegenseitige Fluchtbewegung der Galaxien in der Zeit zurückverfolgen, dann geschieht etwas Faszinierendes: Der Abstand zwischen sämtlichen Galaxien schrumpft genau zum selben Zeitpunkt auf null – egal, wie weit sie heute voneinander entfernt sind. Wenn sie nämlich doppelt so weit voneinander weg sind, dann fliehen sie auch doppelt so schnell voneinander, was in der Rückschau immer denselben Zeitpunkt ergibt, an dem ihre Entfernung einst gleich null war. An dieser Stelle können wir nun etwas Faszinierendes tun: Wenn wir die Schwerkraft zwischen den Galaxien vernachlässigen und davon ausgehen, dass die Fluchtgeschwindigkeit der Galaxien schon immer dieselbe war wie heute, dann können wir leicht ausrechnen, wann sich alle Galaxien in der Rückschau am selben Punkt treffen. Wenn Sie Lust haben, es geht so: 1 Lichtjahr sind 9,46 Billionen Kilometer (9,46 ∙ 1012 km), also sind 3,26 Mio. Lichtjahre rund 3 ∙ 1019 km. Bei einer Fluchtgeschwindigkeit von 70 km/s dauert es etwa 4,4 ∙ 1017 s, bis der Abstand in der Rückschau auf null geschrumpft ist – das sind rund 14 Mrd. Jahre.4 Das Ergebnis liegt nur wenig über den 13,8 Mrd. Jahren, die man mit modernen Methoden für das Weltalter erhält. Man hat hier einfach Glück, dass sich verschiedene Korrekturen zu unserer doch sehr einfachen Überlegung gegenseitig nahezu aufheben, sodass wir zufällig ziemlich genau beim heute akzeptierten Weltalter landen. Oben hatten wir uns noch gefragt, warum die ältesten Sterne, die man jemals gefunden hat, maximal 12–13 Mrd. Jahre alt sind, obwohl die kleineren unter ihnen viel länger leben könnten. Nun liefert uns die gegenseitige Flucht4 Wenn
Sie sich für die mathematischen Details interessieren: Der Hubble-Parameter H ist gleich der Fluchtgeschwindigkeit v irgendeiner Galaxie, dividiert durch ihren Abstand d zu uns: H = v/d. Wegen des Hubble-Gesetzes ist es egal, welche Galaxie wir nehmen, solange sie nicht allzu nahe ist – der Quotient v/d ist nämlich bei allen Galaxien derselbe. Wenn nun die Fluchtgeschwindigkeit v der Galaxie schon immer unverändert war, dann ist ihr Abstand d zu uns einfach gleich dieser Geschwindigkeit v mal der Zeit t, die seit dem Zeitpunkt verstrichen ist, als der Abstand null war: d = v ∙ t. Das können wir in der Formel für H einsetzen und v wegkürzen: H = v/d = v/(v ∙ t) = 1/t. Der Hubble-Parameter ist also in diesem Beispiel anders als die Fluchtgeschwindigkeit nicht konstant, sondern er fällt umgekehrt proportional mit der Zeit t ab, die verstrichen ist, seit sich alle Galaxien in der Rückschau am selben Punkt trafen. Umgekehrt gibt sein Kehrwert diese Zeit an: t = 1/H.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 37
bewegung der Galaxien eine mögliche Antwort. Es sieht ganz so aus, als hätte es in unserem Universum vor etwa 14 Mrd. Jahren einen Moment gegeben, in dem jegliche Materie auf extrem engem Raum zusammengeballt gewesen war. Es muss ein unglaublich dichter Feuerball gewesen sein, der damals irgendwie „explodiert“ ist und dann im Lauf seiner Expansion all die Sterne und Galaxien hervorgebracht hat, die wir heute beobachten. Sind wir hier dem Anfang der Welt auf der Spur? War dieser Moment, dieser Urknall (Big Bang), wie er von dem britischen Astronomen Fred Hoyle im Jahr 1949 in einer BBC-Radiosendung sehr eingängig genannt wurde, gar der Anbeginn der Zeit selbst? Es ist verführerisch, das zu glauben, aber wir sollten zunächst versuchen, noch mehr zu erfahren. Was spricht für diese Idee? Gibt es irgendeine Theorie, die die Fluchtbewegung der Galaxien erklärt und die Idee eines Urknalls nahelegt?
Einsteins Theorie von Raum und Zeit Vermutlich gibt es kaum ein physikalisches Sachbuch, das ohne Albert Einstein (Abb. 1.10) auskommt. Auch das vorliegende Werk bildet da keine Ausnahme. Der Grund ist einfach: Sobald man über Raum und
Abb. 1.10 Albert Einstein (1879–1955) im Patentamt Bern um 1905. (Quelle: https:// commons.wikimedia.org/wiki/File:ETH-BIB-Einstein,_Albert_(1879-1955)_im_Patentamt_Bern-Portrait-Portr_05937.tif)
38 J. Resag
Zeit nachdenkt, ist Albert Einsteins Relativitätstheorie einfach unverzichtbar. Man kann leicht ganze Bücher über diese Theorie schreiben und ich habe sie an anderer Stelle auch schon ausführlich besprochen.5 Für das vorliegende Buch genügt es, wenn wir uns auf die wesentlichen Kernaussagen beschränken. Genau genommen gibt es dabei nicht nur eine Relativitätstheorie, sondern zwei, die aufeinander aufbauen. Die Spezielle Relativitätstheorie entstand im Jahr 1905, als der junge Einstein noch als technischer Experte 3. Klasse am Patentamt in Bern arbeitete. In seiner Freizeit dachte er über Fragen nach, die die elektromagnetischen Kräfte betrafen und die damals viele Physiker bewegten. Der große schottische Physiker James Clerk Maxwell (1831–1879), ein Zeitgenosse von Lord Kelvin, hatte 4 Jahrzehnte zuvor eine umfassende Theorie des Elektromagnetismus formuliert, die bis heute Bestand hat. Mit wenigen mathematischen Gleichungen beschreibt Maxwell darin im Detail, wie elektrische Ladungen und Ströme elektrische und magnetische Felder erzeugen und welche Kräfte diese wiederum auf geladene Teilchen ausüben. Besonders interessant ist dabei, dass sich nach Maxwells Gleichungen die Felder von vibrierenden Ladungen komplett ablösen und als elektromagnetische Wellen mit Lichtgeschwindigkeit in den Raum hinein ausbreiten können. Auch Licht ist eine solche Welle aus schwingenden elektrischen und magnetischen Feldern. Es gab jedoch merkwürdige Asymmetrien in diesen Gleichungen. So erzeugen nur bewegte Ladungen ein Magnetfeld, ruhende Ladungen dagegen nicht. Nur was soll „ruhend“ hier bedeuten? Was, wenn ich irgendein elektromagnetisches Experiment in ein Raumschiff packe und die Luken schließe? Kann ich als Passagier dann am Ausgang des Experiments auch bei geschlossenen Luken erkennen, ob sich das Raumschiff bewegt? Ich könnte beispielsweise einen Laser mitnehmen und im Inneren des Raumschiffs einen kurzen Lichtpuls nach vorne in Richtung Bug schicken. Würde dieser Lichtpuls dann aus meiner Sicht als Passagier des Raumschiffs langsamer fliegen, wenn sich das Raumschiff schnell bewegt? Ich würde ja dem Lichtpuls hinterherfliegen. Und wenn sich das Raumschiff selbst mit Lichtgeschwindigkeit bewegt, scheint dann der Lichtpuls im Inneren des Raumschiffs stillzustehen? Könnte ich das Licht gewissermaßen „einholen“? Das Problem ist: Einen stehenden Lichtpuls kann es nach Maxwells Gleichungen gar nicht geben, denn Licht bewegt sich laut den Gleichungen 5 Siehe
mein Buch Mehr als nur schön: Wie Symmetrien unsere Naturgesetze formen, Springer (2020).
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 39
immer mit Lichtgeschwindigkeit. Aber bedeutet „immer“, dass ich das auch im Inneren des Raumschiffs bei geschlossenen Luken so sehe, egal, ob das Raumschiff ruht oder pfeilschnell durch den Raum gleitet? Einsteins verblüffend einfache Antwort lautet: JA! Licht bewegt sich für jeden Beobachter, der ruht oder sich gleichförmig bewegt, immer mit Lichtgeschwindigkeit. Und auch die elektromagnetischen Gesetze, wie sie die Maxwell-Gleichungen beschreiben, sind für alle diese Beobachter immer dieselben. Ich kann an keiner elektromagnetischen Apparatur im Inneren des Raumschiffs ablesen, ob das Raumschiff ruht oder sich gleichmäßig bewegt. So etwas wie ein „absolut ruhendes“ Raumschiff gibt es nicht. Man muss schon genau angeben, in Bezug auf was das Raumschiff ruht oder sich bewegt. Für rein mechanische Phänomene hatte bereits fast 3 Jahrhunderte zuvor der große italienische Naturforscher Galileo Galilei (1564–1641) dieselbe Erkenntnis formuliert: Unter Deck eines Schiffes könne man ohne einen Blick nach draußen nicht erkennen, ob dieses noch ruhig im Hafen liegt oder gleichmäßig über den Ozean dahingleitet. Damit konnte Galilei seinen Zeitgenossen klar machen, warum wir die Bewegung der Erde um die Sonne herum nicht spüren. Dieses mechanische Relativitätsprinzip hatte Einstein nun auch auf die elektromagnetischen Phänomene inklusive Licht ausgedehnt – daher der Name Relativitätstheorie. Auf diese scheinbar so naheliegende Idee war bisher noch keiner seiner Physikerkollegen gekommen, denn dafür muss man auch akzeptieren, dass Licht für jeden Beobachter immer gleich schnell ist, selbst wenn dieser dem Licht nach Meinung eines anderen Beobachters hinterherfliegt. Intuitiv scheint so etwas unmöglich zu sein und wir müssen noch einmal gründlich über das Verhalten von Raum und Zeit nachdenken, damit es möglich wird. Genau das hat Albert Einstein im Jahr 1905 getan. Letztlich bestimmt dabei das Licht, wie zeitliche und räumliche Abstände definiert sind, wobei verschiedene Beobachter zu unterschiedlichen Ergebnissen kommen können. Es gibt keine universell festliegenden zeitlichen und räumlichen Abstände „an sich“ mehr, sondern man muss immer dazu sagen, über welchen Beobachter man spricht. Anders als noch von Isaac Newton in seiner Principia gefordert, gibt es weder einen absoluten Raum noch eine absolute Zeit, die „an sich und vermöge ihrer Natur gleichförmig und ohne Beziehung auf irgendeinen äußeren Gegenstand verfließt“, wie Newton es ausdrückte. Raum und Zeit existieren nur in einem physikalischen Kontext, der diese Begriffe festlegt. „Zeit ist das, was man an der Uhr abliest“, hat Einstein gesagt – und man muss schon genau angeben, welche Uhr man meint, denn nicht alle Uhren laufen gleich schnell. Mechanik und Elektromagnetismus gehorchen also laut Galilei und Einstein dem Relativitätsprinzip. Und was ist mit dem Rest? Müssten dann
40 J. Resag
nicht sämtliche fundamentalen Naturgesetze diesem Prinzip genügen? Alles andere wäre doch sehr merkwürdig. Albert Einstein sah das ebenso, und so machte er sich ans Werk, auch die zweite damals bekannte Grundkraft, die Gravitation, in den Rahmen der Relativitätstheorie einzufügen. Das war nicht einfach, denn nach der Relativitätstheorie ist die Lichtgeschwindigkeit für alles Physikalische die maximal mögliche Geschwindigkeit, sei es nun ein Raumschiff, eine elektromagnetische Welle oder der Einfluss einer Kraft. Das muss dann auch für die Gravitation gelten. Newtons Gravitationsgesetz sagt aber, dass sich die Gravitationskraft beispielsweise der Sonne augenblicklich ohne jede Zeitverzögerung auf die Erde auswirkt – ein Widerspruch, den Einstein auflösen musste. Nur wie? Die Kernidee, auf die der geniale Physiker schließlich stieß, bestand darin, die Gravitation nicht wie bei Newton durch eine Kraft zu beschreiben. Wenn man sich fallen lässt, spürt man die Gravitation nicht: Es scheint keinerlei Kraft mehr zu wirken! Und wenn man sich in einer fensterlosen Raumkapsel befindet und das eigene Gewicht spürt, dann weiß man nicht, ob die Kapsel noch auf der Startrampe steht oder mit eingeschalteten Raketen irgendwo im leeren Weltraum beschleunigt. Innerhalb der Kapsel ist die Auswirkung der Gravitation gleichwertig zu einer Beschleunigung der Kapsel. Es dauerte mehrere Jahre, bis Einstein diese Idee, das sogenannte Äquivalenzprinzip, unter Mithilfe seines Studienfreundes, dem Schweizer Mathematiker Marcel Grossmann, auch mathematisch formulieren konnte. Die dafür notwendige Mathematik war für einen Physiker ungewohnt und viel komplizierter als bei der Speziellen Relativitätstheorie, sodass das Vorhaben zu einer wahren Plackerei ausartete. Aber Einstein ließ sich nicht beirren und hielt entschlossen durch. Letztlich läuft es darauf hinaus, dass man Raum und Zeit eine geometrische Struktur aufprägt, eine Art von Krümmung, durch die sich die Gravitation beschreiben lässt. Anders gesagt: Die Sonne krümmt Raum und Zeit in ihrem Umfeld, und diese Krümmung bestimmt, wie sich die Planeten bewegen. Damit werden Raum und Zeit selbst zu physikalischen Akteuren, die aktiv am Geschehen teilhaben. Newtons absoluter Raum und seine absolute Zeit, die nur als statische Bühne für die physikalischen Vorgänge dienen, haben bei Einstein ausgedient. Seine Allgemeine Relativitätstheorie der Gravitation, die Albert Einstein im November 1915 präsentierte, war ein ziemlicher Kulturschock für viele seiner Kollegen, und es dauerte seine Zeit, bis sich seine Erkenntnisse durchsetzen konnten. Es ist eben auch für Physiker nicht einfach, sich von
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 41
lieb gewordenen Vorstellungen zu verabschieden. Manchmal braucht es dafür sogar einen kompletten Generationenwechsel, denn der wissenschaftliche Nachwuchs tut sich meist sehr viel leichter mit solchen Perspektivwechseln als die gestandene ältere Generation. Besonders überzeugend ist es da, wenn Experimente die Vorhersagen einer Theorie untermauern können. Der britische Astrophysiker Arthur Stanley Eddington, der uns bereits in der Sternenphysik begegnet ist, war als überzeugter Fan der Relativitätstheorie fest entschlossen, diesen Nachweis zu führen. Dafür nutze er im Jahr 1919 eine Sonnenfinsternis, die es ihm erlaubte, die Position von Sternen direkt neben der verdunkelten Sonne zu beobachten. Das Licht dieser Sterne kommt auf dem Weg zu uns nämlich ziemlich dicht an der Sonne vorbei, wo deren Gravitation laut Einstein Raum und Zeit krümmt. Diese Krümmung zwingt das Sternenlicht, einen kleinen Bogen um die Sonne zu machen, wodurch sich die sichtbare Position der Sterne ein wenig verändert. Genau das konnte Eddington tatsächlich nachweisen. Eddingtons Fotoplatten der Sonnenfinsternis mit den leicht veränderten Sternpositionen stießen auch in der breiten Öffentlichkeit auf großes Interesse. „Lichter am Himmel alle schief“, titelte die New York Times, und die Londoner Times schrieb: „Wissenschaftliche Revolution. Neue Theorie des Universums. Newtons Vorstellung gestürzt.“ Gleichsam über Nacht wurde Einstein zu einem berühmten Mann, der sogar den großen Isaac Newton in den Schatten stellte. Bis heute haben auch alle weiteren Experimente die Gültigkeit von Einsteins Spezieller und Allgemeiner Relativitätstheorie ausnahmslos und mit großer Genauigkeit bestätigt. Diese Theorien gehören damit zu den zentralen Grundpfeilern der modernen Physik.
Das expandierende Universum Raum, Zeit und Materie – das sind die Zutaten, die unser Universum ausmachen. Seit gut einem Jahrhundert haben wir dank Einstein eine Theorie in der Hand, die genau beschreibt, wie sich diese Zutaten auf kosmischen Skalen gegenseitig beeinflussen. Können wir damit womöglich das Universum als Ganzes verstehen? Können wir nachvollziehen, wie es sich im Lauf der Zeit entwickelt hat und wie es sich in Zukunft noch entwickeln wird? Einen Versuch ist es allemal wert! Das dachte sich auch Einstein und versuchte im Jahr 1917, ein Modell des Universums zu entwerfen, das den Regeln seiner Relativitätstheorie gehorcht. Damit das Ganze nicht
42 J. Resag
zu kompliziert wurde, machte er eine vereinfachende Annahme: Er vernachlässigte die genaue Verteilung der Galaxien im Raum und ging einfach davon aus, dass sich alle Materie überall gleichmäßig im Universum verteilt. Wenn man über Skalen von einigen Hundert Mio. Lichtjahren mittelt, stimmt das auch recht gut, wie wir heute wissen. Und da wir uns ja für das gesamte Universum interessieren und nicht für einzelne Galaxien, sollte die Betrachtung dieser großen Skalen vollkommen ausreichen. Das Universum sieht also im Großen und Ganzen überall und in jeder Richtung ziemlich gleich aus, und kein Ort ist gegenüber anderen Orten bevorzugt. Mit diesen Annahmen im Gepäck konnte Einstein die Gleichungen seiner Allgemeinen Relativitätstheorie für das Universum tatsächlich so weit vereinfachen, dass er konkrete Aussagen über dessen Entwicklung machen konnte. Aber was er dabei sah, gefiel ihm überhaupt nicht. Die Gleichungen sagten nämlich, dass das Universum nicht statisch sein kann. Es muss sich entweder ausdehnen oder zusammenziehen. Das widersprach allem, was man im Jahr 1917 noch über das Universum zu wissen glaubte. Zwar hatte Vesto Slipher bereits bei einigen Galaxien eine Rotverschiebung des Lichts beobachtet, aber noch war die Welt nicht bereit, daraus die richtigen Schlüsse zu ziehen. Es war noch nicht einmal klar, worum es sich bei den elliptischen Nebeln am Himmel überhaupt handelte. Schon wenige Jahre später würde sich das dank Hubble grundlegend ändern, aber das konnte Einstein natürlich noch nicht wissen. Einstein suchte also nach einer Zutat für seine Gleichungen, die mit seiner Theorie verträglich war und die sein Modelluniversum stabilisieren konnte, sodass sich die großräumig gemittelte Materiedichte darin nicht mit der Zeit ändert. Tatsächlich entdeckte er eine solche Möglichkeit: Er konnte den Gleichungen eine zusätzliche kosmologische Konstante, wie er sie nannte, hinzufügen. Diese wirkt wie eine abstoßende Gravitation, die die anziehende Gravitation zwischen den Galaxien im Mittel ausgleichen kann – allerdings nur, wenn sie genau die richtige Größe hat. Eine abstoßende Gravitation? Muss denn Gravitation nicht immer anziehend sein? Normalerweise schon, aber in der Allgemeinen Relativitätstheorie ist die Sache komplizierter. Massen wirken wie bei Newton anziehend und Energien nach Einstein auch, denn laut Relativitätstheorie sind lokalisierte Energien und Massen nicht unterscheidbar. Einsteins berühmte Formel E = mc2 drückt diesen Zusammenhang quantitativ aus, wobei E die Energie, m die Masse und c die Lichtgeschwindigkeit sind. Diese Äquivalenz von Masse und Energie ist nichts Exotisches, sondern allgegenwärtig: Meine rund 80 kg, die mir meine Waage morgens anzeigt, stammen zum größten Teil aus der Bindungsenergie, die die Quarks in den
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 43
Protonen und Neutronen der Atomkerne zusammenhält. So gesehen sind Sie und ich fast reine Energie (auch, wenn das früh morgens irgendwie nicht beim Aufstehen hilft). So weit, so gut, aber wo bleibt die abstoßende Gravitation? Hier kommt sie, denn es gibt in der Relativitätstheorie neben Massen und Energien noch eine 3. Quelle für die Gravitation: Druck! Gewöhnlicher Druck wie bei einem komprimierten Gas, das nach außen drückt, erzeugt dabei eine anziehende Gravitation. Negativer Druck, also innere Zugkräfte wie bei einem gespannten Gummiband, wirkt dagegen gravitativ abstoßend. Normalerweise spielt das keine große Rolle, denn bei den üblichen Druck- und Zugkräften in der Materie dominiert ganz klar die anziehende Gravitation der Massen und Energien. Wenn der Druck aber sehr stark wird, dann wird auch seine Gravitationswirkung immer wichtiger. Das geschieht beispielsweise, wenn das Zentrum eines sehr großen Sterns an dessen Lebensende bei einer Supernovaexplosion zusammenbricht und seine enorm starke Gravitation alle Atome darin zu einem nur stadtgroßen Neutronenstern komprimiert. Nur der extreme Gegendruck dieser Neutronen kann den Neutronenstern dann noch stabilisieren. Damit kann allerdings ein Teufelskreis in Gang kommen, denn dieser starke positive Gegendruck erzeugt eine zusätzliche anziehende Gravitation, die den Stern noch stärker zusammendrückt, was dieser mit noch mehr Gegendruck kompensieren muss usw. Wird der Neutronenstern zu massiv, kann nach heutigem Wissen nichts mehr diesen Teufelskreis aufhalten. Der Neutronenstern kollabiert und schrumpft immer weiter zu einem Schwarzen Loch – wir werden die Schwarzen Löcher später in diesem Buch noch genauer kennenlernen. Nun zur kosmologischen Konstante: Physikalisch kann man sie sich als eine Art unsichtbare, konstante Raumenergie vorstellen, die den kompletten Raum gleichmäßig durchdringt und einen negativen Druck aufweist – die Raumenergie würde sich also gerne zusammenziehen, wenn sie das denn könnte. Dazu fehlt ihr allerdings die Angriffsfläche, da sie ja den Raum überall gleichmäßig erfüllt. Ihr negativer Druck erzeugt dabei so viel abstoßende Gravitation, dass diese die anziehende Gravitation aufgrund ihrer Energiedichte um das 3fache übertrifft.6 In Summe wirkt also die kosmische Raumenergie, die Einstein als kosmologische Konstante in seine Gleichungen eingebaut hatte, mit ihrer abstoßenden Gravitation der Anziehung zwischen den Galaxien entgegen.
6 Das liegt daran, dass unser Raum 3-dimensional ist und dass die abstoßende Gravitation des Drucks für jede Raumdimension einmal gezählt werden muss.
44 J. Resag
Einstein war sich sicher, auf diese Weise ein stabiles, statisches Universum konstruiert zu haben, so wie es dem damaligen Wissensstand entsprach. Dabei hatte er allerdings, ohne es zu merken, einen überraschend trivialen Fehler gemacht, wie ihm der belgische Astrophysiker Georges Lemaître (Abb. 1.11, Mitte) 10 Jahre später nachwies: Das Gleichgewicht zwischen Anziehung und Abstoßung ist instabil! Wenn die Galaxien nur ein kleines bisschen auseinanderdriften, dann schwächt das ihre gegenseitige Anziehung, während sich ihre gravitative Abstoßung durch die konstante Raumenergie vergrößert – es liegt ja jetzt mehr energiegefüllter Raum zwischen ihnen. Die Galaxien treiben also immer schneller auseinander. Nähern sie sich dagegen aus ihrer Gleichgewichtslage heraus einander ein wenig an, so ist es genau umgekehrt, und sie stürzen immer schneller aufeinander zu. Man könnte meinen, Einstein hätte so etwas Einfaches eigentlich sehen müssen. Ich habe keine Ahnung, warum es ihm entging. Vielleicht freute er sich einfach zu sehr darüber, mit der kosmologischen Konstante ein scheinbar statisches Universum konstruiert zu haben, und kam gar nicht auf die Idee, sich über die Stabilität dieses Gleichgewichts zwischen Anziehung und Abstoßung den Kopf zu zerbrechen. Vielleicht ist er auch zu mathematisch an das Problem herangegangen und hat sich gar nicht so viele Gedanken darüber gemacht, was eine kosmologische Konstante physikalisch bedeutet.
Abb. 1.11 Georges Lemaître (1894–1966) in der Mitte, zusammen mit Albert Einstein (rechts) und Robert A. Millikan (links) im Jahr 1933. (Quelle: https://commons. wikimedia.org/wiki/File:MillikanLemaitreEinstein.jpg)
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 45
Andererseits finde ich es auch sehr tröstlich, dass der vermutlich größte Physiker des 20. Jahrhunderts solche einfachen Fehler machen kann. Einstein ist damit immer ganz offen umgegangen und hatte kein Problem damit, sich, wenn nötig, zu korrigieren. Auch bei der Formulierung seiner Allgemeinen Relativitätstheorie hatte er über viele Jahre hinweg immer wieder Fehler gemacht, war Irrwegen gefolgt und hatte sich langsam, aber sicher bis hin zur Lösung vorwärtsgeirrt. Nicht seine Unfehlbarkeit, sondern sein Gespür für die richtigen Ideen, seine Findigkeit, Intuition und sein enormes Durchhaltevermögen haben ihn schließlich ans Ziel geführt. Einstein war nicht der Einzige, der sich an einer relativistischen Beschreibung des gesamten Universums versuchte. Ein niederländischer Kollege, der Mathematiker und Astronom Willem de Sitter (1872–1934), formulierte im selben Jahr wie Einstein ein ähnliches Modell, das auf den ersten Blick ebenfalls ein statisches Universum zu beschreiben schien. Doch dieser Eindruck trog, wie man einige Jahre später herausfand: De Sitters Raum-Zeit-Geometrie sah zwar mathematisch in den von ihm gewählten Raum-Zeit-Koordinaten statisch aus, aber das bedeutete physikalisch nicht, dass sein Universum auch statisch war. Im Gegenteil: Die Galaxien würden immer schneller auseinanderdriften, denn de Sitter hatte anziehende Gravitationskräfte komplett vernachlässigt und stattdessen eine kosmologische Konstante eingebaut – und die erzeugt ja eine abstoßende Gravitation, wie wir wissen. Sie sehen, wie schwierig der Umgang mit der Allgemeinen Relativitätstheorie selbst für die Experten sein kann, denn das Fehlen eines absoluten Raums und einer absoluten Zeit macht es immer wieder notwendig, die mathematischen Ausdrücke physikalisch richtig zu interpretieren. Wenn man da nicht haargenau aufpasst, kann das schon mal ins Auge gehen. Entsprechend groß war die Verwirrung, die de Sitters nur scheinbar statisches Universum hervorrief. Es schien sogar die Rotverschiebung der Sternenspektren allein durch die Wirkung der Gravitation ohne jede Fluchtbewegung der Galaxien zu erklären – eine mathematische Illusion. Es gab zwei Wissenschaftler, die nicht so stark auf ein statisches Universum fixiert waren wie Einstein und de Sitter: der russische Physiker Alexander Friedmann (Abb. 1.12) und der Belgier Georges Lemaître, der zugleich auch Theologe und katholischer Priester war und Einstein die Instabilität seines Universums nachgewiesen hatte. Friedmann und Lemaître gingen ganz unvoreingenommen an die Sache heran und entdeckten unabhängig voneinander in den Jahren 1922 (Friedmann) und 1927 (Lemaître), dass ein gleichmäßig mit Materie gefülltes Universum gar nicht statisch sein kann. Es muss entweder expandieren oder sich zusammenziehen – das sagten die Gleichungen ganz eindeutig. Als Friedmann seine Ergebnisse Albert Einstein zusandte, reagierte dieser zunächst reserviert. Er glaubte, einen Rechenfehler
46 J. Resag
Abb. 1.12 Alexander Friedmann (1888–1925). (Quelle: https://commons.wikimedia. org/wiki/File:Aleksandr_Fridman.png)
bei Friedmann entdeckt zu haben, und fand ein expandierendes Universum auch physikalisch verdächtig. Kurz darauf korrigierte Einstein jedoch seine Einschätzung und hielt Friedmanns Resultate immerhin für korrekt und aufklärend. So richtig glaubte aber damals noch niemand an ein expandierendes Universum, und Friedmanns und Lemaîtres Arbeiten wurden weitgehend ignoriert. Das änderte sich erst im Jahr 1929, als Hubble nachwies, dass sich die Galaxien umso schneller von uns entfernen, je weiter weg sie von uns sind. Genau wie es die Gleichungen von Friedmann und Lemaître vorhersagten. Leider konnte Friedmann diesen Durchbruch nicht mehr miterleben. Er starb im Jahr 1925 mit nur 37 Jahren an Typhus. Nachdem klar war, dass unser Universum wirklich expandiert, stampfte Einstein seine kosmologische Konstante zähneknirschend ein und bezeichnete sie der Legende nach als seine „größte Eselei“. Dass er damit gleich einen weiteren, allerdings nicht trivialen Fehler machte, konnte er wieder nicht ahnen. Es gab für ihn damals einfach keinen Grund mehr, an dieser scheinbar überflüssigen Konstante festzuhalten. Mathematisch bleibt sie im Rahmen seiner Relativitätstheorie aber weiterhin erlaubt, und sie würde gegen Ende des 20. Jahrhunderts noch eine unerwartete Renaissance erleben. Einstein, der im Jahr 1955 starb, hat davon leider nichts mehr mitbekommen. Ob er dann wohl seine Eselei-Aussage als noch größere Eselei gebrandmarkt hätte?
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 47
Jedenfalls war nach Hubbles Entdeckung der Damm gebrochen und ein expandierendes Universum wurde hoffähig. Es gab zwar noch ein Problem, denn Hubble hatte aufgrund fehlerhafter Entfernungsberechnungen die Expansionsrate des Universums um das 7fache überschätzt. Wenn man damit unsere Abschätzung des Weltalters von oben wiederholt, kommen statt 14 Mrd. Jahren nur noch 2 Mrd. Jahre heraus. Das erschien doch etwas wenig, denn man ahnte bereits, dass unsere Erde älter sein könnte. Lemaître führte sogar zwischenzeitlich die kosmologische Konstante wieder ein, um dieses Problem zu beheben. Ab den 1950er-Jahren löste sich das Problem dann von selbst, als man die Expansionsrate genauer bestimmen konnte. Ein expandierendes Universum! Was genau bedeutet das eigentlich? Was expandiert da? Bisher haben wir uns dazu einfach vorgestellt, dass sich alle Galaxien voneinander entfernen und in den Raum hinausfliegen, und zwar umso schneller, je weiter sie von uns entfernt sind. Diese Vorstellung fliehender Galaxien ist in vielen Fällen sehr nützlich, wie wir gesehen haben. Vielleicht ist Ihnen dabei ein Problem aufgefallen: Wenn eine Galaxie extrem weit von uns entfernt ist, dann müsste ihre Fluchtgeschwindigkeit ab einer bestimmten Entfernung oberhalb der Lichtgeschwindigkeit liegen. Wie kann das sein? Geschwindigkeiten jenseits der Lichtgeschwindigkeit sind ja nach Einsteins Relativitätstheorie verboten! Nun ja, mit Geschwindigkeiten ist das in der Allgemeinen Relativitätstheorie so eine Sache. So kann man unsere Geschwindigkeit und die Geschwindigkeit einer entfernten Galaxie nicht ohne Weiteres miteinander vergleichen. Wir werden nie eine Galaxie am Himmel sehen, die sich mit Überlichtgeschwindigkeit von uns entfernt. Leiten wir die Fluchtgeschwindigkeit einer Galaxie aus ihrer Rotverschiebung ab, dann liegt diese immer unterhalb der Lichtgeschwindigkeit. Da es weder einen absoluten Raum noch eine absolute Zeit gibt, gibt es auch keine absolute Geschwindigkeit. Es hängt immer vom physikalischen Kontext ab, was eine Geschwindigkeit bedeuten soll. Die „heutige“ Fluchtgeschwindigkeit einer Galaxie ist nie beobachtbar, genauso wenig wie wir ihre „heutige“ Entfernung direkt ausmessen können. Es gibt eine alternative Anschauung, die das Problem mit der Überlichtgeschwindigkeit fliehender Galaxien umgeht. Man stellt sich dabei nicht vor, dass die Galaxien „durch den Raum hindurch“ von uns wegfliegen. Vielmehr ist es der Raum selbst, der sich zwischen den Galaxien ausdehnt, während die Galaxien sich nur wenig in diesem expandierenden Raum bewegen und daher die Lichtgeschwindigkeit auch nicht überschreiten. Die Expansion des Raums unterliegt dabei keinen Beschränkungen, sodass der Abstand zwischen Galaxien auch mit Überlichtgeschwindigkeit anwachsen
48 J. Resag
Abb. 1.13 Das expandierende Universum als Gummituch. Auch Lichtwellen (unten links) werden auf dem Weg zu uns gedehnt (Rotverschiebung). Die Galaxien selbst werden aber nicht größer, denn sie werden durch die Gravitation zusammengehalten. (Quelle: Eigene Grafik)
darf, weil sich der Raum zwischen ihnen wie ein Hefeteig ausdehnt. Die Rotverschiebung in den Lichtspektren ferner Galaxien entsteht dabei nicht mehr durch den Doppler-Effekt aufgrund der Fluchtgeschwindigkeit, sondern dadurch, dass die Lichtwellen auf ihrem Weg zu uns mitsamt dem Raum, in dem sie sich befinden, gedehnt werden.7 Am besten kann man sich einen expandierenden Raum vielleicht vorstellen, wenn wir eine Raumdimension weglassen. Der Raum ähnelt dann einem elastischen Gummituch, das man eindrücken (also krümmen) und dehnen kann. Wir selbst wären 2-dimensionale Wesen, winzige 2-D-Ameisen, die auf diesem Gummituch leben und die sich eine 3. Raumdimension überhaupt nicht vorstellen können. Alles, was wir kennen, geschieht auf diesem Gummituch. Auch sämtliche Materie befindet sich dort. Stellen Sie sich gerne kleine Staubpartikel vor, die an dem Gummituch kleben. Wenn sich das Gummituch ausdehnt, entfernen sich die Staubpartikel voneinander, genau wie dies auch die Galaxien tun (Abb. 1.13).
7 Die Vorstellung des sich ausdehnenden Raums wird oft als „korrekter“ angesehen als das Bild der auseinanderfliegenden Galaxien. Aber auch letzteres Bild ist nützlich, wenn man den Begriff der Fluchtgeschwindigkeit geeignet definiert. Mehr dazu findet man beispielsweise in den Arbeiten von Markus Pössel im Literaturverzeichnis am Ende des Buchs.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 49
Dabei wächst die Entfernung zwischen 2 beliebigen Galaxien umso schneller, je größer sie bereits ist. Das sich ausdehnende Gummituch zeigt also ganz anschaulich, wie Hubbles Gesetz zustande kommt. Und es zeigt auch, dass alle Galaxien vollkommen gleichberechtigt sind. Es gibt kein Zentrum der Expansion, sondern jeder Punkt auf dem Gummituch entfernt sich von jedem anderen. Das Bild mit dem Gummituch hat auch den Vorteil, dass man es auf das gesamte Universum anwenden kann. Wir können uns also fragen: Wie sieht das Gummituch des Universums insgesamt aus? Einstein stellte sich in seinem statischen Modelluniversum beispielsweise den Raum wie die Gummihaut eines runden Luftballons vor. Das geht mathematisch auch problemlos in 3 Raumdimensionen, sodass der Raum die 3-dimensionale „Oberfläche“ einer 4-dimensionalen Kugel bildet. Dabei krümmt sich der Raum gewissermaßen „in sich selbst“ zurück, so wie das auch die 2-dimensionale Gummihaut des Luftballons tut. Ein solches Universum hätte keine Grenze, die Gummihaut des Luftballons hat ja auch keine. Bei einem statischen Kugeloberflächenuniversum könnte man immer weiter geradeaus fliegen und würde irgendwann wieder an seinem Ausgangspunkt ankommen. Das Universum wäre grenzenlos und doch endlich. Als ich als Jugendlicher das erste Mal von solchen Ideen hörte, habe ich immer versucht, mir das irgendwie vorzustellen. Wenn man sich der „Grenze“ des Universums nähert, dann müsste man irgendwie seitlich abgelenkt werden, ohne es zu merken, sodass man die Grenze nie erreichen kann. Als ich später das wunderbare Buch Krabat von Otfried Preußler las, begegnete mir diese Vorstellung erneut. Der Waisenjunge Krabat versucht dort in einem Traum mehrfach, von der Mühle seines finsteren Meisters zu fliehen. Doch was er auch versucht, am Schluss steht er jedes Mal wieder vor der Mühle. „Du hast Recht gehabt, Juro – man kann hier nicht weglaufen“, sagt er bitter zu seinem Mitgesellen. Auch aus einem geschlossenen Kugeloberflächenuniversum kann man nicht entkommen. Und es würde eine der Antinomien, also Widersprüche, von Immanuel Kant auflösen, denen wir im Vorwort begegnet sind. Vielleicht erinnern Sie sich: Eine unendliche Welt ist schwer vorstellbar. Wenn aber die Welt nicht unendlich ist, muss sie dann nicht Grenzen haben, und was ist dann jenseits der Grenze? Muss sie dann nicht doch unendlich sein? Ein endlicher gekrümmter Raum muss aber gar keine Grenzen haben, sodass die Frage, was denn hinter der Grenze ist, entfällt. Mathematisch ist das kein Problem, wohl aber für unsere menschliche Vorstellungskraft, die sich einen in sich gekrümmten 3-dimensionalen Raum nun einmal nicht
50 J. Resag
vorstellen kann. Unser Wirbeltiergehirn hat sich im Lauf der Evolution nie mit solchen Fragen auseinandersetzen müssen und besitzt keine inneren Strukturen, die damit intuitiv umgehen können. Kant meinte noch, eine Frage wie die nach der Endlichkeit des Raums „übersteige alles Vermögen der menschlichen Vernunft“. Vielleicht müsste man eher von den Grenzen der Vorstellungskraft sprechen, denn ausgerüstet mit den mächtigen Werkzeugen der Mathematik ist unsere Vernunft sehr wohl in der Lage, die Fesseln der Vorstellungskraft zu sprengen. Kein Mensch kann sich die Raumzeit der Relativitätstheorie wirklich vorstellen, auch Einstein nicht. Und doch war er in der Lage, in jahrelanger mühsamer Arbeit die Gesetze der Relativitätstheorie mathematisch zu formulieren. Deshalb bin ich immer misstrauisch, wenn jemand behauptet, die Naturwissenschaft werde niemals in der Lage sein, gewisse Fragen zu beantworten. Das mag hier und da durchaus stimmen, aber ich bin doch immer wieder überrascht, wie weit es uns gelingt, die Wirklichkeit naturwissenschaftlich zu entschlüsseln. Noch vor gut einem Jahrhundert hielt fast jeder den Versuch, das Universum als Ganzes zu verstehen und seinen Ursprung zu ergründen, für unwissenschaftlichen Hokuspokus. Nie würden Menschen dazu in der Lage sein. Heutzutage hat sich die Kosmologie zu einer präzisen Wissenschaft entwickelt. Sag niemals nie! Ob unser Universum tatsächlich ein endliches geschlossenes Kugeloberflächenuniversum ist, wie von Einstein vermutet, ist übrigens eine offene Frage. Es könnte mathematisch auch ein unendliches, „flaches“ Universum ohne großräumige Raumkrümmung oder sogar ein unendliches, negativ gekrümmtes Universum sein (das 2-D-Analogon wäre hier eine Satteloberfläche). Laut Relativitätstheorie bestimmt die Materiedichte im Universum, welcher dieser 3 Fälle realisiert ist. Viel Materie führt zu einem Kugeloberflächenuniversum, weniger Materie zu einem flachen oder gar einem Satteloberflächenuniversum. Es ist also durchaus möglich, dass das elegante endliche Kugeloberflächenuniversum in der Natur gar nicht realisiert ist und damit die Frage nach der Unendlichkeit bestehen bleibt.
Der Urknall als Fusionsreaktor Was bedeutet ein expandierendes Universum nun eigentlich für den Anfang der Welt? Können wir die Expansion wirklich vor unserem geistigen Auge einfach zurücklaufen lassen, bis sich alle Materie in einem einzigen Punkt, einem Uratom oder kosmischen Ei, wie Lemaître es nannte, zusammenballt? Ist dieses Ei wirklich in einem kosmischen Hitzeblitz explodiert und hat
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 51
dabei unser Universum erschaffen? Lemaître war jedenfalls davon überzeugt und freute sich als katholischer Priester darüber, dass er den Bibelworten „es werde Licht“ eine physikalische Entsprechung geben konnte. Sogar die katholische Kirche übernahm im Jahr 1951 die Urknalltheorie und sprach vom Beweis des göttlichen Schöpfungsaktes. Damit war sie deutlich fortschrittlicher als manche christlich-fundamentalistischen Kreise, die selbst heute noch streng den Bibelberechnungen von James Ussher folgen und unbeirrt daran festhalten, die Welt sei im Jahr 4004 v. Chr. erschaffen worden. Natürlich sind in der Wissenschaft begründete Zweifel immer erlaubt, und nicht jeder folgte der Urknalltheorie Lemaîtres. Manch einen störte die gedankliche Nähe zu einem göttlichen Schöpfungsakt, und es gab auch alternative Ideen wie die Steady-State-Theorie, die von den Astronomen Fred Hoyle, Hermann Bondi und Thomas Gold gegen Ende der 1940erJahre entwickelt wurde. Nach dieser Theorie ist die gesamte Materie nicht in einem einzigen Moment zu Beginn erzeugt worden, sondern sie wird kontinuierlich während der Expansion des Universums überall im Raum nachgebildet, um so die ständige Materieverdünnung durch die Expansion exakt auszugleichen. Auf diese Weise entsteht ein Fließgleichgewicht, das immer gleich aussieht und ewig andauert. Einen Big Bang oder Urknall, wie Fred Hoyle die Theorie Lemaîtres plakativ nannte, braucht man hier nicht. Auch wenn Hoyle diese Bezeichnung eher scherzhaft gemeint hatte, verfing der Begriff und ist heutzutage in aller Munde. Fast jeder hat schon einmal etwas von der Big-Bang-Theorie gehört – und sei es als Titel der bekannten US-amerikanischen Sitcom mit den etwas verschrobenen Physikern Leonard, Sheldon, Howard und Raj. Lassen sich die Zweifel an der Urknalltheorie ausräumen? Gibt es neben der Fluchtbewegung der Galaxien weitere Hinweise darauf, dass unser Universum einst in einem sehr heißen und dichten Blitz aus Strahlung und Materie entstand? Angenommen, die Idee mit dem Urknallblitz würde stimmen. Dann hätten wir es Sekundenbruchteile nach dem Urknall mit einer sehr heißen und dichten Suppe, einem sogenannten Plasma, aus Materie zu tun, in der sämtliche Materieteilchen auf engstem Raum zusammengedrängt sind. Dieses „Urplasma“ erfüllt den gesamten existierenden Raum und dehnt sich nach der Relativitätstheorie gemeinsam mit dem Raum aus. Gerne können Sie sich hier wieder als 2-D-Analogie die Gummihaut eines Luftballons vorstellen, den man aufbläst. Das Urplasma befände sich dann auf der Gummihaut und nicht etwa in dem Luftballon, denn die 2-dimensionale Gummihaut repräsentiert ja unser Universum!
52 J. Resag
Ein Gas oder Plasma, das sich ausdehnt, kühlt sich ab. Am einfachsten kann man sich das bei einem Gas erklären, das in einem Kasten eingeschlossen ist. Die ungeordnete Wärmebewegung lässt dabei ständig die Gasatome gegen die Wände prallen. Wenn wir jetzt den Kasten gleichmäßig größer werden lassen, dann weichen die Wände vor den heranrasenden Gasatomen zurück, sodass diese mit weniger Geschwindigkeit zurückprallen, als sie angeflogen kommen. Die Gasatome verlieren also Energie und entsprechend sinkt die Temperatur des Gases. In einem expandierenden Universum gibt es zwar keine Wände, aber auch hier verlieren die Gasatome Energie. Wenn nämlich ein Gasatom in ein weiter entferntes Raumgebiet wechselt, dann weicht dieses Raumgebiet ja aufgrund der Raumexpansion vor dem heranfliegenden Gasatom zurück. Ein Beobachter in diesem Raumgebiet würde das Gasatom also mit geringerer Geschwindigkeit ankommen sehen, als ein Beobachter es im Startraumgebiet wegfliegen sieht. Und wie ist das bei Licht und anderen elektromagnetischen Wellen? Hier sorgt die Expansion des Raums dafür, dass die Wellenlänge gedehnt wird, was zu der bekannten Rotverschiebung der Lichtspektren entfernter Galaxien führt. Und eine längere Wellenlänge bedeutet eine geringere Energie für die Lichtteilchen, die Photonen, aus denen laut Quantenmechanik die Lichtwellen letztlich bestehen. Da es im Universum damals wie heute milliardenfach mehr Photonen als Protonen, Neutronen oder Elektronen gibt, sind letztlich sie es, die die mittlere Temperatur des Universums bestimmen. Also halten wir noch einmal fest: Ein Gas oder Plasma, das sich ausdehnt, kühlt sich ab. Dabei gilt eine sehr einfache Regel: Wenn sich die mittleren Abstände im expandierenden Universum verdoppeln, so halbiert sich die Temperatur, wobei wir wie immer von der absoluten Temperatur sprechen, die in Kelvin (K) gemessen wird. Die Kelvin-Temperaturskala entspricht von den Gradabständen her der gewohnten Celsius-Skala, nur dass der Nullpunkt verschoben ist: 0 K entsprechen –273,15 °C, d. h., Eis schmilzt bei 273,15 K (also 0 °C). Der Grund für diese Verschiebung des Nullpunkts ist fundamental: Kältere Temperaturen als 0 K sind nicht möglich, da an diesem absoluten Nullpunkt jegliche Wärmebewegung der Atome zum Stillstand kommt. Das ist auch der Grund dafür, warum man in der Physik viel lieber Kelvin statt Grad Celsius verwendet. Immer wenn sich im expandierenden Universum die mittleren Abstände verdoppeln, halbiert sich die absolute Temperatur in Kelvin und rückt so immer näher an den absoluten Nullpunkt (0 K) heran. Im Umkehrschluss heißt das: Je näher wir bei unserer Rückschau an den Urknall heranrücken, umso dichter und heißer wird die Materie.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 53
Sekundenbruchteile vom Urknall entfernt ist sie so heiß, dass weder Atome noch Atomkerne existieren können. Die Welt besteht aus einer extrem dichten Suppe aus frei herumwabernden Kernbausteinen (Protonen und Neutronen), Elektronen und Gammastrahlen (sehr energiereichen Photonen) sowie den sogenannten Neutrinos – das sind nahezu masselose Geisterteilchen, die in großer Zahl im Universum vorkommen, aber trotzdem meist unbemerkt bleiben, da sie kaum mit Atomen wechselwirken.8 Was passiert, wenn sich dieses gleißende Urplasma ausdehnt und dabei abkühlt? Diese Frage stellten sich in den späten 1940er-Jahren die jungen US-Physiker Ralph Alpher und Robert Herman zusammen mit dem Leiter ihrer Arbeitsgruppe, dem sowjetischen Physiker George Gamow, der 1933 in die USA geflohen war. Mittlerweile war die Physik der Teilchen im Urplasma gut genug bekannt, sodass die Physiker ziemlich genau nachvollziehen konnten, was in den ersten Minuten nach dem Urknall geschah. Die bei Weitem stärkste Kraft, die sogenannte starke Kernkraft, wirkt dabei zwischen den Protonen und Neutronen im Plasma. Sie versucht immer wieder, Pärchen aus einem Proton und einem Neutron zu bilden: einen sogenannten Deuteriumkern oder kurz Deuteron, also den Atomkern von schwerem Wasserstoff. Doch zu Beginn ist es noch so heiß, dass diese relativ empfindlichen Atomkerne sofort wieder zerstört werden. Und die Wahrscheinlichkeit, dass gleichzeitig mehrere Protonen und Neutronen zusammenstoßen und noch schwerere Atomkerne bilden, ist so gering, dass solche Prozesse praktisch nicht stattfinden. Erst einmal passiert also nichts. Das ändert sich, sobald etwa 1 min nach dem Urknall die Temperatur des Plasmas den Wert von rund 1 Mrd. Kelvin unterschreitet (das ist fast 70-mal heißer als im Zentrum der Sonne). Jetzt überleben immer mehr Deuteriumkerne, sodass sich weitere Protonen und Neutronen an diese anlagern können. Das frühe Universum verwandelt sich in einen globalen Kernreaktor, in dem lawinenartig Fusionsprozesse in Gang kommen. Dabei entstehen im Wesentlichen die sehr stabilen Heliumkerne, die aus 2 Protonen und 2 Neutronen bestehen. Innerhalb von nur etwa 5 min enden so fast alle verfügbaren Neutronen in Heliumkernen. Andere empfindlichere Atomkerne wie Lithium-7, Tritium (überschwerer Wasserstoff) oder das seltene Helium-3 überleben das Inferno dagegen nur in geringen Spuren. Und schwerere Atomkerne entstehen überhaupt nicht, denn der Weg zu ihnen ist versperrt: Sobald sich ein Proton oder Neutron an einen Helium- oder
8 Die
sogenannte Dunkle Materie, auf die wir später noch zurückkommen werden, lassen wir hier zur Vereinfachung erst einmal weg.
54 J. Resag
Lithiumkern anlagert, zerfällt dieser sehr instabile Kern sofort wieder und es gibt keine reelle Chance, dass sich zuvor noch weitere Protonen oder Neutronen anlagern können. Wenige Minuten nach dem Urknall ist bereits alles gelaufen. Temperatur und Dichte sind jetzt für weitere Fusionsprozesse zu niedrig, sodass der globale Fusionsreaktor seine Arbeit einstellt. Die Welt besteht jetzt aus einem immer noch glühend heißen Plasma aus reichlich Wasserstoffkernen (Protonen), Heliumkernen, Elektronen, Photonen und Neutrinos sowie Spuren einiger leichter Atomkerne. Schwerere Atomkerne anderer Elemente wie beispielsweise Sauerstoff oder Kohlenstoff gibt es nicht, und für die Bildung stabiler Atome aus Atomkernen und Elektronen ist es noch viel zu heiß. Wasserstoff und Helium sind also die beiden Elemente, die im heißen Plasma einige Minuten nach dem Urknall den Ton angeben. Das Geniale an den Modellen von Alpher, Gamow und Herman war nun, dass sie ziemlich genau ausrechnen konnten, wie viele Heliumkerne sich gebildet haben müssen. Dafür mussten sie nämlich nur ausrechnen, wie viele Neutronen in dem heißen Urplasma ursprünglich vorhanden waren, denn diese landen nahezu vollständig in Heliumkernen. Die Rechnung ist im Grunde relativ einfach und geht im Prinzip so: Bei den sehr hohen Temperaturen in den ersten Sekundenbruchteilen nach dem Urknall wandeln sich Protonen und Neutronen noch ständig ineinander um, sodass sie in nahezu gleich großen Mengen vorhanden sind. Zwar sind die Neutronen ein kleines bisschen (etwa 0,14 %) schwerer als die Protonen, sodass man nach Einsteins berühmter Formel E = mc2 Energie braucht, um ein Proton in ein Neutron zu verwandeln und die zusätzliche Masse zu erzeugen. Diese Energie ist aber zu Beginn noch reichlich vorhanden. Wenn aber die Temperatur absinkt, ändert sich das, und das Gleichgewicht verschiebt sich zugunsten der etwas leichteren Protonen. Schließlich reicht die Energie für die Umwandlung nicht mehr aus und die instabilen Neutronen beginnen langsam zu zerfallen. So kommt es, dass im entscheidenden Moment, wenn die Deuteriumkerne nicht mehr ständig zerstört werden und die Kernfusion in Richtung Helium an Fahrt gewinnt, nur noch 1 Neutron auf 7 Protonen kommt. Anders ausgedrückt: 1/8 aller Nukleonen (Protonen und Neutronen) sind Neutronen und 7/8 sind Protonen. Da sich nun bei der Bildung von Helium jedes Neutron noch ein Proton schnappt, landet am Ende 1/4 aller Nukleonen in einem Heliumkern (Abb. 1.14). Andere Kerne spielen kaum eine Rolle, und so macht der heiße Urknall eine wichtige Vorhersage: Unsere Welt sollte im Wesentlichen
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 55
Abb. 1.14 In den ersten Minuten nach dem Urknall verbinden sich fast alle vorhandenen Neutronen (graue Kugeln) mit Protonen (schwarze Kugeln) und bilden Heliumkerne (Kasten rechts). (Quelle: Eigene Grafik)
zu etwa 75 % aus Wasserstoff und zu etwa 25 % aus Helium bestehen, bezogen auf die Masse – auf 3 kg Wasserstoff kommt also 1 kg Helium und sonst fast nichts. Zumindest sollte das wenige Minuten nach dem Urknall so gewesen sein. Das stimmt ziemlich gut mit den Verhältnissen überein, die wir noch heute im Universum vorfinden. Die Sonne und die meisten Sterne bestehen zu rund 3/4 aus Wasserstoff und zu 1/4 aus Helium. Daran haben auch die in den Sternen ablaufenden Fusionsreaktionen bis heute nicht allzu viel geändert. Und ein winziger Planet wie unsere Erde, der hauptsächlich aus Eisen, Sauerstoff und Silizium besteht, fällt gegenüber der viel größeren Sonne kaum ins Gewicht. Das hätte doch eigentlich jeden überzeugen müssen, so könnte man annehmen. Doch damals war der Heliumanteil in den Sternen noch nicht so gut bekannt wie heute. Außerdem meinten Urknallkritiker wie Fred Hoyle, das vorhandene Helium hätte auch komplett im Inneren der Sterne entstehen können, so wie auch all die anderen Elemente. Bei den schwereren Elementen jenseits von Helium und Lithium hatte er damit sogar recht, nicht jedoch beim Helium selbst, denn dafür kommt es im Universum einfach zu häufig vor. Nur der Fusionsreaktor des Urknalls war in der Lage, so viel Helium zu erzeugen. Das war aber der wissenschaftlichen Gemeinde damals noch nicht klar.
Die kosmische Hintergrundstrahlung Alpher, Gamow und Herman leiteten noch eine weitere, sehr wichtige Vorhersage aus dem heißen Urknall her. Dazu mussten sie in ihren Berechnungen den Film des expandierenden Universums einfach weiterlaufen lassen und sich anschauen, was nach der Entstehung des Heliums
56 J. Resag
weiter passiert. Und das ist zunächst sehr einfach, denn für einige Hunderttausend Jahre geschieht so gut wie gar nichts mehr. Das glühend heiße Plasma dehnt sich einfach zusammen mit dem Raum immer weiter aus, wird dünner und kühlt immer weiter ab. Für stabile Wasserstoff- und Heliumatome ist es aber immer noch viel zu heiß. Doch dann, etwa 380.000 Jahre nach dem Urknall, kommt der Wendepunkt. Die Temperatur unterschreitet die kritische Marke von rund 3000 K, und erstmals in der Geschichte des Universums ist es kalt genug für die Bildung von Atomen. Die Protonen und Heliumkerne können jetzt die frei herumschwirrenden Elektronen einfangen und mit ihnen stabile Wasserstoff- und Heliumatome bilden. Damit fehlt den vielen herumfliegenden Photonen plötzlich der Spielpartner, denn Atome interessieren sich wesentlich weniger für Photonen als die frei herumfliegenden Elektronen zuvor. Das Universum wird durchsichtig und entlässt die Teilchen des Lichts, die zuvor im glühend heißen Plasma gefangen waren, in die Freiheit. Man kann sich gut vorstellen, wie dieses Licht damals aussah: Es entspricht dem Licht, das eine rund 3000 K heiße Halogenlampe ausstrahlt – das ist ungefähr halb so heiß wie auf der Sonnenoberfläche und 2- bis 3-mal heißer als das Innere einer Kerzenflamme. Wären wir damals schon Teil des Universums gewesen, dann wäre dieses grelle heiße Licht von allen Seiten auf uns eingestrahlt, so als ob wir mitten in der heißen Halogenlampe säßen. Einmal in die Freiheit entlassen, kann das Licht nahezu ungehindert für alle Zeiten das Universum durchqueren, wobei es sich durch die Expansion des Raums immer weiter abkühlt. Es ist wie im Inneren eines einst glühend heißen Backofens, der immer kälter wird. Gamows Gruppe erkannte, dass das auch am heutigen Tag noch so sein sollte. Da das Universum sich seit der Freilassung des Lichts um etwa das 1100fache ausgedehnt hat, muss die Temperatur der Strahlung um das 1100fache gesunken sein. Aus den heißen 3000 K müssten also mittlerweile eiskalte 2,7 K geworden sein, also nur 2,7 ° über dem absoluten Nullpunkt (der damals vorhergesagte Wert von rund 5 K lag noch etwas darüber, war aber in der richtigen Größenordnung). Unser Universum müsste also heutzutage ein sehr kalter Backofen geworden sein, erfüllt von einer dünnen 2,7-K-Mikrowellenstrahlung, die mit dem einst glühend heißen Licht nicht mehr viel gemein hat. Leider schätzte man damals die Chancen, diese schwache kosmische Hintergrundstrahlung irgendwie nachweisen zu können, als relativ schlecht ein, sodass sich niemand die Mühe machte, der Sache auf den Grund zu gehen. So kam es, dass sich die 3 Forscher nicht weiter mit Kosmologie beschäftigten und ihre Vorhersage in der Versenkung verschwand.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 57
Es dauerte mehr als ein Jahrzehnt bis zum Jahr 1964, als eine andere Forschungsgruppe um Robert („Bob“) Dicke in Princeton die Idee des heißen Urknalls erneut aufgriff, ohne die Ergebnisse der Gamow-Gruppe zu kennen. Dicke bat seinen jungen Mitarbeiter James („Jim“) Peebles, die theoretischen Berechnungen durchzuführen. Für Peebles war es der Start einer großen Karriere in der Kosmologie, die ihm mehr als 50 Jahre später, im Jahr 2019, den Physiknobelpreis einbringen sollte – besser spät als nie. Wie von Dicke bereits vermutet, zeigten auch Peebles Rechnungen, dass gleichsam als Echo des heißen Urknalls eine kosmische Hintergrundstrahlung im heutigen Universum existieren sollte. Anders als Gamows Gruppe war Dicke aber entschlossen, diesem ältesten Licht im Universum, das die kosmische Expansion zu einer schwachen Mikrowellenstrahlung von nur wenigen Kelvin gedehnt und ausgedünnt hat, auf den Grund zu gehen. Er bat daher seine beiden anderen Mitarbeiter Peter Roll und David Wilkinson, einen empfindlichen Mikrowellenempfänger zu bauen. Entweder würde sich die Strahlung damit nachweisen lassen, oder man müsste die spekulative Idee eines heißen Feuerballs am Beginn des Universums wohl beerdigen. Man hätte dieser Gruppe den Erfolg sicher sehr gegönnt, aber wie es der Zufall so will, kamen ihnen 2 andere Forscher zuvor. Die beiden jungen Physiker Arno Penzias und Robert Wilson versuchten zu dieser Zeit nämlich an den Bell Laboratories der Telefongesellschaft AT&T, nur 50 km von Princeton entfernt, mit ihrer Hornantenne die Mikrowellenstrahlung der Milchstraße zu beobachten. Dafür musste die Antenne empfindlich genug sein, und es galt, alle störenden Einflüsse zu vermeiden. Doch es war wie verhext! Ein ständiges Hintergrundrauschen störte die Messungen, und es war völlig unklar, wo es herkam. Wohin auch immer man die Antenne am Himmel ausrichtete, das Rauschen verschwand nie. Eigentlich kannten die Ingenieure an den Bell Laboratories dieses störende Rauschen bereits – sie hatten es schon öfter bei ihren Antennen beobachtet, konnten sich aber keinen Reim darauf machen. Schließlich gingen sie einfach davon aus, dass sich irgendeine Störstrahlung aus der Umgebung in ihre Antennen verirrte. Penzias und Wilson, die neu an die Bell Laboratories gekommen waren, wollten sich mit dieser Erklärung aber nicht zufriedengeben. Sie ließen nicht locker und versuchten wirklich alles, um die Quelle der Störung dingfest zu machen. Kam das Störsignal wirklich aus der Umgebung? Oder rauschten die elektronischen Instrumente mehr als gedacht? Schließlich reinigten sie sogar ihre Antenne, denn dort hatten sich zwischenzeitlich einige Tauben häuslich niedergelassen. Aber nichts half. Wie so oft in der Wissenschaft war es der Zufall, der Penzias und Wilson auf die richtige Spur brachte. Eines Tages unterhielt sich Penzias mit dem
58 J. Resag
Astronomen Bernard Burke und erwähnte das unerklärliche Rauschen, das nicht wegzubekommen war. Da erinnerte sich Burke an die laufenden Arbeiten in Robert Dickes Gruppe im nahen Princeton und erzählte Penzias davon. Natürlich rief Penzias in Princeton an und schilderte sein Problem. Dort wusste man sofort, was los war: Ohne es zu ahnen, waren Penzias und Wilson ihnen zuvorgekommen und hatten die kosmische Hintergrundstrahlung entdeckt. Dieses ferne Relikt des heißen Urknalls verfing sich in ihrer Hornantenne und rief das merkwürdige Rauschen hervor, das die beiden Forscher einfach nicht loswerden konnten. Im Jahr 1978 wurden Penzias und Wilson dafür mit dem Physiknobelpreis geehrt, während alle anderen damals leer ausgingen. Das mag man ungerecht finden, aber Glück spielt eben auch in der Wissenschaft eine wichtige Rolle. Und ohne ihre Hartnäckigkeit hätten die beiden Forscher wohl nie herausgefunden, dass es der kosmische See aus Mikrowellenstrahlung war, der ihr unerklärliches Antennenrauschen hervorrief. Sie hatten nicht aufgegeben und waren schließlich mithilfe von Dickes Gruppe zum Kern des Problems vorgedrungen. Der Nachweis der kosmischen Hintergrundstrahlung war der entscheidende Beweis, der nach und nach auch die letzten Zweifler überzeugte. Unser Universum expandiert nicht nur, sondern es war vor rund 14 Mrd. Jahren ein sehr heißer und dichter Feuerball, in dem alle Materie entstanden ist, die wir heute kennen. Haben wir damit den Anbeginn der Zeit entdeckt? Hat Gott die Welt in einem heißen Urknall aus einem explodierenden kosmischen Ei unendlicher Dichte und Temperatur erschaffen, wie Lemaître es sich vorstellte? Aber was war dann vor dem Urknall? Oder ist diese Frage sinnlos, weil es vor dem Urknall gar keine Zeit gab? In einem praktischen Sinn war der Urknall auf jeden Fall ein Anfang für unsere Welt. Sollte es irgendein „Davor“ gegeben haben, so dürfte wohl jede Erinnerung daran in dem Feuerblitz des Urknalls verloren gegangen sein. Eine definitive Antwort können wir dazu aber nach heutigem Wissen noch nicht geben, denn unsere etablierten physikalischen Theorien versagen, wenn wir näher als einige Sekundenbruchteile an den Urknall herankommen und Temperatur und Dichte zu groß werden. Wir können aber sehr wohl einige Vermutungen dazu anstellen. Beispielsweise wissen wir, dass sehr nah am Urknall die Quantenmechanik wichtig wird und sehr wahrscheinlich verhindert, dass unsere Welt in Richtung Urknall wirklich auf einen unendlich kleinen Punkt schrumpft. Wenn wir uns das Universum noch einmal genauer ansehen, dann finden wir außerdem einige Auffälligkeiten, die unser bisheriges Bild in gewisse
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 59
Schwierigkeiten bringen. Ganz am Anfang muss etwas Besonderes passiert sein, das diese Auffälligkeiten erklären kann. Was das sein könnte, werden wir uns im nächsten Kapitel genauer anschauen. Zuvor wollen wir uns aber noch einer anderen Frage zuwenden. Über die Vergangenheit haben wir ja mittlerweile einiges gelernt, aber was sagt das expandierende Universum über unsere Zukunft? Wird unsere Welt ewig weiter existieren, oder kommt die Zeit irgendwann an ein Ende?
Supernovae und beschleunigte Expansion Als der US-amerikanische Astrophysiker Adam Riess im Jahr 2011 gemeinsam mit Saul Perlmutter und Brian Schmidt seinen Physiknobelpreis überreicht bekam (Abb. 1.15), begann er seine Nobelpreisrede mit den Worten: „Ich denke, eine der erstaunlichsten Erkenntnisse über das Universum ist, dass es sich ausdehnt. Das hätte ich nie vermutet.“ Dem hätte Albert Einstein sicher nur allzu gerne zugestimmt. Kurz darauf fährt Riess in seiner Rede fort: „Dann lernte ich, dass wenn wir das sich ausdehnende
Abb. 1.15 Saul Perlmutter, Brian Schmidt und Adam Riess auf der Nobelpreispressekonferenz 2011. (Credit: Holger Motzkau, Wikipedia/Wikimedia Commons, CC BY-SA 3.0. Quelle: https://commons.wikimedia.org/wiki/File:Nobel_Prize_2011-Press_ Conference_KVA-DSC_7900.jpg)
60 J. Resag
Universum vermessen könnten, so wie wir das Wachstum eines Kindes mit Markierungen an einem Türrahmen festhalten, wir das Alter des Universums bestimmen und sein endgültiges Schicksal vorhersagen könnten. Das war atemberaubend! Ich wusste, das ist es, was ich tun wollte.“ Riess blieb diesem Vorsatz tatsächlich treu. In den 1990er-Jahren schloss er sich einem internationalen Team von Astronomen an, die es sich zum Ziel gesetzt hatten, die Expansionsgeschichte des Universums zu entschlüsseln. Wie schnell schwächt sich die Expansion des Universums ab? Das wollte das Team herausfinden. Denn dass die Expansion mit der Zeit langsamer werden sollte, stand für die Mitglieder des Teams außer Frage – schließlich ziehen sich sämtliche Galaxien des Universums gegenseitig an, was ihre Fluchtbewegung abbremsen müsste. Eine bestimmte Galaxie, die sich heute mit 50.000 km/s von uns entfernt, sollte sich irgendwann früher einmal beispielsweise mit 70.000 km/s von uns entfernt haben. Je größer die mittlere Massendichte im Universum ist, umso stärker müsste diese Abbremsung sein. Ab einer bestimmten Massendichte, der sogenannten kritischen Dichte, wäre die Abbremsung sogar so groß, dass die Flucht der Galaxien eines Tages komplett zum Stillstand kommen und die Galaxien wieder aufeinanderzustürzen würden – wie bei einem hochgeworfenen Stein, der nach Erreichen des höchsten Punktes wieder zur Erde zurückfällt. Das zukünftige Schicksal des Universums hängt also davon ab, ob seine mittlere Dichte unterhalb oder oberhalb der kritischen Dichte liegt. Wird es ewig weiter expandieren oder wieder in sich zusammenfallen? Astronomische Beobachtungen ließen vermuten, dass unser Universum für eine Umkehr der Expansion nicht genügend Materie enthält. Aber so ganz genau wusste das niemand. Umso reizvoller erschien das Vorhaben, die Abbremsung der Expansion direkt zu vermessen und so die Frage endgültig zu klären. Nur wie macht man das? Wie man die heutige Expansion des Universums bestimmt, hatte schon Edwin Hubble mehr als 60 Jahre zuvor gezeigt. Aus der Helligkeit bestimmter Standardkerzen wie den Cepheiden hatte er die Entfernung der Galaxien und aus der Rotverschiebung ihrer Lichtspektren ihre Fluchtgeschwindigkeit bestimmt. Daraus hatte er sein berühmtes Gesetz abgeleitet: Je weiter eine Galaxie von uns entfernt ist, umso schneller entfernt sie sich von uns. Genau genommen stimmt der Ausdruck „heutige Expansion“ dabei aber nicht ganz, denn ein Blick in die Ferne ist wegen der endlichen Lichtgeschwindigkeit immer auch ein Blick in die Vergangenheit. Je weiter eine Galaxie von uns entfernt ist, umso länger benötigt ihr Licht, um zu uns zu gelangen. Wir sehen sie also so, wie sie vor Tausenden oder gar Millionen
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 61
Jahren aussah. Bei den relativ nahen Galaxien, die Hubble beobachten konnte, spielt dies gegenüber den rund 14 Mrd. Jahren seit dem Urknall noch kaum eine Rolle. Wenn wir aber weiter in das Universum hinausblicken, ändert sich das. Damit war das Ziel klar: Man muss Galaxien mit möglichst großen Rotverschiebungen in ihren Lichtspektren finden, denn diese sind nach Hubbles Gesetz zugleich auch die entferntesten, sodass man sie so sieht, wie sie vor Milliarden Jahren aussahen. Aus ihrer Rotverschiebung kann man dann ablesen, wie schnell sie sich damals von uns entfernt haben. Was man jetzt noch braucht, ist die Entfernung selbst. Und dafür braucht man wie Hubble Standardkerzen, also Objekte, von denen man weiß, wie viel Licht sie aussenden. Ihre Helligkeit am Himmel verrät dann, wie weit sie heute von uns entfernt sind, denn ihr damals ausgesendetes Licht ist heute über eine Kugeloberfläche um die Lichtquelle herum verteilt, die uns gerade heute überstreicht. Der Radius der Lichtkugel entspricht also der heutigen Entfernung zur Lichtquelle, und die bei uns heute ankommende Lichtintensität spiegelt den aktuellen Radius dieser Lichtkugel wider. Welche Standardkerzen können wir dazu nutzen? Leider kommen die Cepheiden dafür nicht infrage, denn auch wenn sie sehr helle, pulsierende Riesensterne sind, so sind sie doch viel zu schwach, um in sehr großen Entfernungen noch sichtbar zu sein. Wir brauchen etwas, das nicht nur so hell wie ein Stern ist, sondern so hell wie eine ganze Galaxie. Galaxien selbst sind allerdings keine guten Standardkerzen, denn wir wissen nicht genau genug, wie viel Licht eine Galaxie am Himmel aussendet. Zum Glück stießen Adam Riess und seine Kollegen auf andere Objekte, die besser geeignet erschienen: thermonukleare Supernovae (auch Supernovae vom Typ Ia genannt). Sie entstehen, wenn in einer Galaxie ein Weißer Zwerg eine bestimmte Massegrenze überschreitet, beispielsweise indem er Gas von einem eng benachbarten Partnerstern absaugt oder mit einem anderen Weißen Zwerg verschmilzt. Weiße Zwerge sind kompakte Zentren ausgebrannter Sterne, die in einem nur erdgroßen Volumen eine ganze Sternmasse unterbringen. Auch unsere Sonne wird ihr Leben als Weißer Zwerg beschließen, sobald sie all ihre Möglichkeiten zur Kernfusion erschöpft hat und am Ende ihr weiß glühendes Zentrum entblößt, indem sie ihre äußeren Schichten in den Weltraum bläst. Die Gravitation eines Weißen Zwergs ist gnadenlos, 100.000fach stärker als auf der Erde. Ohne innere Energiequelle müsste der Weiße Zwerg eigentlich von seiner eigenen Schwerkraft regelrecht zerdrückt werden. Aber die Elektronen in seiner Materie wehren sich dagegen. Ein quantenmechanisches
62 J. Resag
Prinzip, das Pauli-Prinzip, sorgt dafür, dass Elektronen lieber auf Abstand bleiben, sodass sich ein innerer Quantengegendruck aufbaut. Aber dieser Gegendruck hat Grenzen. Sobald der Weiße Zwerg zu viel Masse aufgesammelt hat, gewinnt die Gravitation die Oberhand und drückt den kleinen massiven Stern zusammen. Doch dieser kollabiert nicht einfach. Vielmehr zündet in seinem Inneren explosionsartig eine neue Fusionsreaktion, bei der die reichlich vorhandenen Kohlenstoffkerne, die als Fusionsasche am Lebensende des Sterns übrig geblieben waren, miteinander zu schwereren Kernen verschmelzen. Der ursprüngliche Stern selbst war noch nicht in der Lage gewesen, diese Fusionsreaktion zu zünden, aber der eng zusammengedrückte Weiße Zwerg schafft das. Innerhalb von Sekundenbruchteilen verwandelt er sich in eine erdgroße Atombombe, deren nukleare Explosion den kleinen dichten Stern komplett zerreißt. Bei dieser Explosion wird so viel Energie frei, dass die nukleare Supernova für kurze Zeit so hell wie eine komplette Galaxie erstrahlen kann. Und da der Weiße Zwerg genau dann explodiert, wenn seine Masse eine bestimmte Grenze überschreitet, erreichen alle diese nuklearen Supernovae ziemlich genau dieselbe maximale Leuchtkraft. Wenn man also eine hellere und eine dunklere nukleare Supernova am Himmel entdeckt, dann muss die dunklere Supernova weiter entfernt sein, und man kann anhand ihrer Helligkeit sogar ausrechnen, wie weit das sein muss. Zudem sind diese Supernovae so hell, dass sie sich auch noch in sehr weiter Ferne beobachten lassen. Wir haben sie also gefunden: die idealen Standardkerzen, um die Expansion des Universums zu vermessen. Natürlich steckt der Teufel auch hier im Detail. Man muss sich beispielsweise die Lichtkurven, also den zeitlichen Verlauf der aufleuchtenden und wieder verglühenden Explosion, genauer anschauen, um wirklich ein gutes Vergleichsmaß für die verschiedenen Supernovae zu haben. Auch kann es sein, dass interstellarer Staub das Licht einer Supernova verdunkelt, was man an der Verfärbung ihres Lichts erkennen kann – Staub schwächt blaues Licht stärker als rotes, weshalb beispielsweise eine untergehende Sonne rötlich aussieht. All dies muss man mithilfe aufwendiger Computerprogramme berücksichtigen, wenn man saubere Resultate erzielen möchte. Und dann muss man natürlich noch genügend Beobachtungszeit an den großen Teleskopen der Welt ergattern, um die sich viele Astronomen reißen. Adam Riess und seine Kollegen im High-Z Supernova Search Team, das von Brian Schmidt geleitet wurde, hatten also mehr als genug zu tun (das High-Z in Namen steht übrigens für große Rotverschiebung und damit weit entfernte Supernovae). Außerdem saß ihnen ein anderes Forscherteam namens Supernova Cosmology Project unter der Leitung von Saul Perlmutter
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 63
im Nacken, das versuchte, ihnen zuvorzukommen. Diese Art von freundschaftlicher Konkurrenz ist in der Wissenschaft oft sehr nützlich. Es bedeutet zwar Stress, aber zugleich spornt es alle an, ihr Bestes zu geben. Und wenn beide Teams nachher zum selben Ergebnis kommen, hat man das gute Gefühl, auf dem richtigen Weg zu sein. Was würden wir für die nuklearen Supernovae in ihren weit entfernten Muttergalaxien erwarten, wenn sich die Expansion des Universums durch die Anziehungskraft zwischen den Galaxien abschwächt? Angenommen, das Licht einer solchen Supernova braucht 1 Mrd. Jahre, um zu uns zu gelangen. Dann sagt uns die Rotverschiebung des Lichtspektrums, wie schnell sich die Supernova mitsamt ihrer Muttergalaxie vor 1 Mrd. Jahre von uns entfernt hat. Ihre Helligkeit sagt uns dagegen, wie weit sie heute von uns entfernt ist, denn ihr damals ausgesendetes Licht verteilt sich heute über eine Kugeloberfläche mit dem entsprechenden Radius – das hatten wir uns oben bereits überlegt.9 Wenn sich nun ihre Fluchtgeschwindigkeit in der letzten Jahrmilliarde verringert hat, dann müsste sie uns heute näher sein, als wenn sie mit unverminderter Geschwindigkeit weitergeflogen wäre. Entsprechend müsste sie heller leuchten, als das in einem ungebremst expandierenden Universum der Fall wäre. Das war also das, was alle damals erwarteten. In seiner Nobelpreisrede erzählt Adam Riess, wie sie im April 1995 in seinem High-Z-Team tatsächlich die erste weit entfernte Supernova am Himmel entdeckten – Brian Schmidt hatte sie aufgespürt. Die Wellenlänge ihres Lichts hatte sich durch die kosmische Rotverschiebung um 47,8 % verlängert (was Astronomen als z = 0,478 bezeichnen). Das war ein neuer Rekord! Riess Aufgabe war es nun, aus der zeitlichen Leuchtentwicklung die maximale Helligkeit und damit die Entfernung zu berechnen. Als er sein Ergebnis dem Rest des Teams zeigte, erntete er ein nervöses Lachen. Die Supernova war dunkler und damit weiter entfernt, als das bei einer abgebremsten Expansion des Universums hätte sein dürfen. Nun ja, dachten sie sich – vielleicht hatten sie mit dieser Supernova einfach Pech gehabt, oder es hatten sich irgendwelche Fehler eingeschlichen.
9 Genau
genommen muss man hier konkrete Berechnungen im Rahmen der Allgemeinen Relativitätstheorie anstellen, denn mit den anschaulichen Vorstellungen ist das oft so eine Sache. Einen absoluten Raum und eine absolute Zeit gibt es ja nicht, sodass Begriffe wie Abstand und Geschwindigkeit oft vieldeutig sind und eigentlich genauer spezifiziert werden müssen. Ich hoffe, das anschauliche Argument macht aber zumindest plausibel, worum es hier geht.
64 J. Resag
Bis zum Herbst 1997 hatte das High-Z-Team gut 30 weitere entfernte Supernovae beobachtet (Abb. 1.16). Das sollte eine bessere Datenbasis bieten als der Ausrutscher gut 2 Jahre zuvor, und so machte sich Riess an die Arbeit, aus diesen Daten die Abbremsung der Expansion und damit die mittlere Dichte aller Massen im Universum zu berechnen. Was er dabei herausbekam, war verblüffend: Abbremsung und mittlere Massendichte waren negativ! Die Supernovae waren etwa 10–20 % weniger hell und damit weiter weg als erwartet. Das konnte nur eines bedeuten: Die Expansion des Universums verlangsamte sich nicht – ganz im Gegenteil: Sie beschleunigt sich sogar! Die negative Massendichte, die Riess herausbekam, war natürlich Unsinn, das konnte nicht sein. Riess erkannte schnell, was hier schieflief: Er hatte eine zu einfache Gleichung verwendet. Wie damals üblich, hatte er Einsteins kosmologische Konstante mit ihrer abstoßenden Gravitation weggelassen
Abb. 1.16 Bilder der 3 weit entfernten Supernovae a SN 1997cj, b SN 1997ce und c SN 1997ck, aufgenommen mit dem Hubble-Weltraumteleskop im April 1997. Die Bilder oben zeigen eine weiträumigere Ansicht, die Bilder unten die vergrößerte Detailansicht. (Credit: Peter Garnavich, Harvard-Smithsonian Center for Astrophysics, the High-z Supernova Search Team, and NASA/ESA, CC BY 4.0. Quelle: https:// esahubble.org/images/opo9802a/)
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 65
und war davon ausgegangen, dass die Expansion des Universums allein durch die anziehende Schwerkraft der Materie beeinflusst wird. Damit lässt sich aber eine beschleunigte Expansion nicht erklären, bei der die Galaxien immer schneller auseinanderfliegen. Erst als Riess die kosmologische Konstante hinzunahm, passte alles wunderbar zusammen. Konnte das sein? War die ungeliebte kosmologische Konstante real? Oder hatte sich irgendein Fehler eingeschlichen? Das war nicht unwahrscheinlich, denn schon so manche „Entdeckung“ hatte sich in der Geschichte der Physik als simpler Fehler entpuppt. Also überprüfte Riess minutiös alle seine Berechnungen, konnte aber keinen Fehler finden. Alles schien zu stimmen. Schließlich informierte er Brian Schmidt, der dasselbe Ergebnis herausbekam. Die Reaktionen im Team waren durchwachsen und schwankten laut Riess irgendwo zwischen Erstaunen und Entsetzen. Aber das Ergebnis hielt jeder Überprüfung stand. Auch wenn niemand damit gerechnet hatte, so war die kosmologische Konstante nicht wegzudiskutieren. Das ist für mich das Wunderbare an den Naturwissenschaften: Die Natur nimmt keine Rücksicht auf menschliche Vorurteile und sagt einem unmissverständlich, wenn man mit seinen Erwartungen falschliegt. Sollte man sich trauen, mit diesem unerwarteten Ergebnis an die Öffentlichkeit zu gehen? Was, wenn es sich doch als falsch herausstellen würde? Das Gespött der Kollegen wäre einem sicher! Aber es half nichts, irgendwann muss man sich entscheiden. Allen war klar: Vermutlich würden sie nie wieder in ihrem Leben die Chance erhalten, eine wissenschaftliche Entdeckung verkünden zu können, die aufregender ist. Also traute man sich, und die Neuigkeit machte schließlich die Runde. Tatsächlich waren mittlerweile auch die Kollegen im Supernova Cosmology Project um Saul Perlmutter zum selben Ergebnis gelangt, und beide Teams veröffentlichten ihre Entdeckung noch im selben Jahr 1998.
Dunkle Energie erfüllt den Raum Es war eine Zeitenwende in unserem Verständnis des Universums. Einsteins kosmologische Konstante hatte ein fulminantes Comeback hingelegt. Seine „größte Eselei“ hatte sich 80 Jahre später als Geniestreich erwiesen. Dabei bedeutet die Existenz der kosmologischen Konstante, dass das Weltall von einer unsichtbaren Dunklen Energie erfüllt sein muss, einer unsichtbaren Raumenergie mit negativem Druck, deren abstoßende Gravitation die Galaxien immer schneller auseinandertreibt.
66 J. Resag
Worum es sich bei dieser Dunklen Energie handelt, weiß bis heute niemand. Es könnte eine Art Quantenenergie sein, denn laut Quantenmechanik ist der scheinbar leere Raum von ständig fluktuierenden Quantenfeldern erfüllt. Wenn man aber deren Energiedichte ausrechnet, erhält man absurd hohe Zahlen, die unser Universum sofort explodieren lassen würden – ein deutliches Zeichen, dass man hier etwas Wesentliches noch nicht verstanden hat. Die Dunkle Energie, deren Wirkung man in unserem Universum heute beobachtet, ist viel kleiner als die Ergebnisse der Quantenrechnungen. Ihre Dichte liegt bei gut dem Doppelten der mittleren Dichte aller Massen im Universum, wenn man diese über Einsteins Formel E = mc2 in Energie umrechnet. Damit hat die abstoßende Gravitation der Dunklen Energie heute die Oberhand über die anziehende Gravitation der Galaxien und aller sonstigen Massen. Aber war das schon immer so? Immerhin lagen die Galaxien vor Jahrmilliarden deutlich dichter beisammen als heute. Wenn sich der Abstand zwischen den Galaxien im Rückblick halbiert, dann bedeutet das eine 8-mal größere mittlere Massendichte im Universum. Kann es sein, dass in dieser fernen Vergangenheit die Dunkle Energie im Hintertreffen war und die anziehende Gravitation der Massen den Ton angab? Hat sich die Fluchtbewegung der Galaxien damals noch abgebremst und nicht wie heute beschleunigt? Um in diese Zeit zurückzuschauen, muss man Supernovae finden, deren Wellenlänge sich durch die kosmische Expansion auf dem langen Weg zu uns mindestens verdoppelt hat (entsprechend einer Verlängerung der Wellenlänge um mindestens 100 %, also einer Rotverschiebung von z ≥ 1,0). Solche Supernovae sind so weit von uns entfernt, dass sie sich nur mit dem Hubble-Weltraumteleskop gerade noch erkennen lassen. Ab den frühen 2000er-Jahren gelang es, immer mehr dieser Sternexplosionen aus der fernen Vergangenheit am Himmel aufzuspüren. Und tatsächlich: Sie waren deutlich heller und damit näher, als sie es hätte sein dürfen, wenn sie ihre damalige Fluchtgeschwindigkeit unvermindert beibehalten hätten. Die Fluchtgeschwindigkeit hat damals also noch abgenommen, d. h., die Expansion des Universums wurde damals noch gebremst. Erst vor rund 5 Mrd. Jahren, als das Universum bereits knapp 9 Mrd. Jahre alt war, überflügelte die Dunkle Energie die sich ständig verdünnende Materie und die Fluchtbewegung der Galaxien begann, sich langsam, aber stetig zu beschleunigen. Es mag ein verrückter Zufall sein, aber just zu dieser Zeit formte sich auch unser Sonnensystem. 9 Mrd. Jahre der Abbremsung und seitdem eine zunehmende Beschleunigung – irgendwie schon ein etwas verrücktes Szenario, das kaum
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 67
jemand erwartet hatte. „Hätte der allmächtige Gott mich konsultiert, bevor er die Schöpfung in Angriff nahm, hätte ich etwas Einfacheres empfohlen!“, zitiert Adam Riess in seiner Nobelpreisrede den weisen König Alfons X. von Kastilien. Im Hinblick auf das Weltalter heben sich Abbremsung und spätere Beschleunigung übrigens gegenseitig nahezu auf. Deshalb haben wir weiter oben mit unserer simplen Annahme einer konstanten Fluchtgeschwindigkeit auch einen so guten Wert für das Weltalter erhalten, nämlich 14 Mrd. Jahre, was sehr nahe an den 13,8 Mrd. Jahren liegt, die man bei einer genaueren Betrachtung herausbekommt. Das war weder tiefsinnig noch genial, sondern einfach nur Glück. Manchmal kann man eben auch mit einem groben Schätzwert einen Zufallstreffer landen. Vielleicht fragen Sie sich an dieser Stelle, warum sich die Dunkle Energie bei der kosmischen Expansion nicht ebenso verdünnt wie die Dichte der Galaxien und sonstigen Materie. Das liegt am negativen Druck dieser Energie, also ihren inneren Zugkräften. Wenn sich der Raum mitsamt der darin enthaltenen Dunklen Energie aufgrund ihrer abstoßenden Gravitation ausdehnt, dann muss die Gravitation dabei gegen diese Zugkräfte ankämpfen und entsprechend Arbeit investieren. Bei der richtigen Stärke der Zugkräfte erzeugt diese Arbeit genau die Energiemenge, die nötig ist, damit sich genügend Dunkle Energie nachbildet und diese nicht ausdünnt.10 Es wandert gewissermaßen Energie aus dem unerschöpflichen Vorrat der Gravitation in die Dichte der Dunklen Energie, sodass diese immer konstant bleiben kann. Was diese Dunkle Energie, die als unsichtbare Raumenergie unser Universum lückenlos ausfüllt, eigentlich ist, bleibt dabei bis heute wortwörtlich „im Dunkeln“.
10 Wenn
Sie Lust haben, ist hier ein kleines Rechenbeispiel zur Veranschaulichung: Stellen Sie sich vor, Sie könnten Dunkle Energie der Energiedichte ρ in einen Zylinder mit der Grundfläche A füllen, der einen beweglichen Kolben besitzt. Die Dunkle Energie im Zylinder besitzt einen negativen Druck p und zieht den Kolben mit der Kraft F = p∙A nach innen. Wenn Sie nun aber den Kolben festhalten und ein kleines Stück s aus dem Zylinder herausziehen, dann müssen sie gegen diesen Zug ankämpfen und die Arbeit W = F∙s aufwenden. Diese Arbeit erzeugt im Zylinder die Energiemenge E = F∙s = p∙A∙s = p∙V, wobei V = A∙s das Zusatzvolumen ist, das durch das Herausziehen des Kolbens neu hinzukommt. Dieses Zusatzvolumen kann mit der neu erzeugten Energie E gefüllt werden, was darin zu einer Energiedichte E/V = p führt (stellen sie dazu einfach die obige Formel E = p∙V nach p frei). Wenn nun der negative Druck betragsmäßig genau gleich der Dunklen Energiedichte ist (also p = ρ ), dann wird auch das Zusatzvolumen mit derselben Energiedichte gefüllt, die die Dunkle Energie im Zylinder zuvor schon besaß: E/V = p = ρ. Das Herausziehen des Kolbens verdünnt die Dunkle Energie im Zylinder also nicht, denn diese wird durch die aufgewendete Arbeit genau im richtigen Maß nachgeliefert. Umgekehrt muss die Dunkle Energie einen negativen Druck vom Betrag der Energiedichte (p = ρ ) haben, um bei der Expansion konstant bleiben zu können.
68 J. Resag
Das Ende der Zeit Für die Zukunft des Universums spielt die Dunkle Energie eine entscheidende Rolle. Falls sie wirklich zeitlich konstant ist – und alle heute bekannten astronomischen Daten sprechen dafür –, dann wird sie mit ihrer abstoßenden Gravitation die Galaxien immer schneller auseinandertreiben. Ungefähr alle 10 Mrd. Jahre werden sich die Abstände der auseinanderfliegenden Galaxien verdoppeln, sodass die anziehende Gravitation zwischen ihnen schon bald kaum noch eine Rolle spielt. Zeitgleich wird sich auch ihre Rotverschiebung, also die Wellenlänge des Lichts, das bei uns ankommt, mitverdoppeln. Das Licht ferner Galaxien wird immer röter und zugleich schwächer werden. Das hat eine sehr interessante Konsequenz. Nehmen wir als Beispiel den Galaxienhaufen El Gordo (amtlich auch ACT-CL J0102-4915 genannt), was „der Dicke“ bedeutet und auch für die berühmte spanische Weihnachtslotterie mit ihrem fetten Hauptgewinn steht. Und „dick“ ist dieser Galaxienhaufen allemal, denn er ist einer der größten und massereichsten Galaxienhaufen, die wir kennen. Mit rund 7 Mrd. Lichtjahren ist er zugleich sehr weit von uns entfernt. Seine Rotverschiebung liegt bei z = 0,87, d. h., die Wellenlänge seines Lichts hat sich auf dem langen Weg zu uns um 87 % verlängert, sagen wir also hier vereinfacht, sie hat sich nahezu verdoppelt. Entsprechend hat sich die Frequenz seines Lichts nahezu halbiert, wenn es bei uns eintrifft. Stellen Sie sich nun vor, um eine der unzähligen Sonnen in El Gordo würde ein bewohnter Planet kreisen, auf dem intelligente Aliens leben. Und stellen Sie sich weiter vor, die Aliens in El Gordo hätten eine Atomuhr gebaut, die vom Licht bestimmter schwingender Atome gesteuert wird. Immer wenn 500 Billionen Schwingungen vergangen sind, tickt die Atomuhr um 1 s weiter, d. h., die Atome und ihr Licht schwingen mit einer Frequenz von 500 THz (Terahertz, also 1012 Hz). Mal angenommen, wir hätten auf der Erde ein fantastisches Megateleskop, das so unglaublich gut ist, dass wir alles auf dem fernen Alienplaneten in El Gordo erkennen können, auch die tickende Atomuhr und das Licht der Atome, die sie steuern. Was würden wir sehen? In unserem Megateleskop erschiene eine rötliche Welt in Zeitlupe. Die Atome in der fernen Atomuhr würden wegen der Rotverschiebung mit rund 250 THz nur halb so schnell schwingen, denn mit dieser halbierten Frequenz kommt ihr Licht bei uns an. Entsprechend würden die Sekunden auf der Atomuhr nur mit halber Geschwindigkeit verstreichen, denn die Lichtschwingungen steuern die Uhr. Und auch jeder andere physikalische
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 69
Vorgang in El Gordo wäre entsprechend verlangsamt, denn sonst wären die Atomuhr und die Alienwelt nicht synchron miteinander. Es ist, als liefe die Zeit selbst dort nur mit halber Geschwindigkeit ab. Aus Sicht der Aliens verstreicht die Zeit dagegen ganz normal. Sie würden umgekehrt in ihrem Megateleskop sehen, wie bei uns die Zeit nur mit halber Geschwindigkeit abläuft. Sie erinnern sich: Es gibt keine absolute Zeit! Lassen Sie uns jetzt einmal 10 Mrd. Jahre in die Zukunft gehen. Das ist eine lange Zeit, fast so viel, wie seit dem Urknall bis heute verstrichen ist. Unsere Sonne wäre bis dahin ausgebrannt und hätte unsere Erde an ihrem Lebensende geröstet. Aber einmal angenommen, unsere sehr fernen Nachfahren hätten sich in ein benachbartes Sonnensystem gerettet und das Megateleskop mitgenommen. Was würden sie sehen? El Gordo wäre in 10 Mrd. Jahren etwa doppelt so weit weg wie heute, d. h., seine Helligkeit am Himmel wäre auf ein Viertel gesunken. Zugleich würde sein Licht nur noch mit einem Viertel der Frequenz bei uns ankommen, mit der es in El Gordo gestartet ist, und die Atomuhr würde nur noch mit 25 % Geschwindigkeit ticken. Wenn bei uns 1 s vergeht, sehen wir im Teleskop, wie auf El Gordo nur 1/4 s verstreicht. Die Zeit im fernen Galaxienhaufen hat sich weiter verlangsamt. Dieses Spiel können wir immer weiterspielen. Alle 10 Mrd. Jahre verdoppelt sich die Entfernung, halbiert sich die Frequenz und viertelt sich die Helligkeit. Das hört sich vielleicht harmlos an, aber diese exponentiellen Veränderungen haben es in sich. Es bedeutet nämlich, dass nach 100 Mrd. Jahren die Entfernung ungefähr auf das Tausendfache anwächst, die Frequenz auf ein Tausendstel abfällt und die Helligkeit sogar um den Faktor 10002 = 1.000.000, also das Millionenfache absinkt. Nach weiteren 100 Mrd. Jahren sind Entfernung und Frequenz bereits auf das Millionenfache gewachsen bzw. abgefallen usw. Trotz Megateleskop wird es also immer schwieriger, im schwächer und röter werdenden Licht El Gordos noch etwas zu erkennen. Zugleich friert die Zeit dort immer weiter ein. Und das bedeutet, dass wir die ferne Zukunft von El Gordo niemals sehen können. Sie liegt gleichsam jenseits unseres Horizonts. Warum das so ist, kann man sich leicht klarmachen: Stellen Sie sich vor, wir hätten bis heute auf El Gordo etwa 10 Mrd. Jahre verstreichen sehen (sein Licht braucht ja Zeit, um zu uns zu gelangen). Ich habe die Zahlen etwas vereinfacht, damit das Prinzip deutlicher wird. In den nächsten 10 Mrd. Jahren werden wir auf El Gordo nur noch rund 5 Mrd. Jahre verstreichen sehen, danach 2,5 Mrd. Jahre usw. Wenn wir unendlich viele Zahlen, die sich immer weiter halbieren, zusammenzählen, ergibt das ein endliches Ergebnis: Die Summe 10 + 5 + 2,5 + 1,25 + 0,625 + … nähert sich
70 J. Resag
immer mehr der Zahl 20, ohne sie je zu überschreiten. Wir werden also auf El Gordo nur etwa 20 Mrd. Jahre vergehen sehen, auch wenn wir den immer schneller entschwindenden Galaxienhaufen noch ewig beobachten. Er wird einfach mit exponentieller Geschwindigkeit immer kleiner, blasser und röter und die Zeit dort scheint immer weiter einzufrieren. Irgendwann wird El Gordo mit seinen Aliens und ihrer Atomuhr auch im allerbesten Megateleskop, das man sich vorstellen kann, nicht mehr zu sehen sein. Genau dasselbe geschieht auch mit jeder anderen Galaxie, die weit genug von uns entfernt ist, sodass die Gravitation sie nicht an unsere Milchstraße bindet. Übrig bleiben in ferner Zukunft nur die Galaxien unserer lokalen Gruppe, zu der neben unserer Milchstraße und der Andromeda-Galaxie noch einige Dutzend kleinerer Zwerggalaxien gehören. Alles andere wird von der kosmischen Expansion immer schneller in die Weiten des Weltalls hinausgetrieben und zunehmend aus unserem Blickfeld verschwinden. Der Himmel, an dem wir heute noch Milliarden von Galaxien sehen können, wird immer leerer erscheinen. Ebenso wird die kosmische Hintergrundstrahlung immer schwächer und langwelliger werden, bis auch sie selbst von den besten Instrumenten nicht mehr aufgespürt werden kann. Es ist schon grotesk: In einigen Hundert bis Tausend Mrd. Jahren wird nichts am Himmel mehr verraten, dass wir in einem expandierenden Universum leben. Die kosmische Expansion selbst wird praktisch alle Hinweise auf ihre Existenz für immer vernichtet haben. Sogar die energiereichen Gammastrahlen ferner Galaxien werden so stark rotverschoben sein, dass sie nicht mehr wahrnehmbar sind. Sollte es zu dieser Zeit noch irgendwelche intelligenten Nachfahren von uns geben, dann wird bei ihnen wohl niemand mehr auf die Idee kommen, dass es einmal einen Urknall gegeben haben könnte. Alles, was sie sehen werden, ist ihre große Heimatgalaxie, in der sich alle heutigen Galaxien der lokalen Gruppe vereint haben. Es ist, als hätte es all die anderen Galaxien nie gegeben. Im Lauf der nächsten 100.000 Mrd. Jahren wird dann unserer lokalen Großgalaxie langsam, aber sicher das Gas ausgehen. Zwar pusten immer mal wieder sterbende Sterne ihre äußeren Hüllen ins Weltall, aber nach und nach wird immer mehr Materie in den ausgebrannten Sternresten, Weißen Zwergen, Neutronensternen oder Schwarzen Löchern, gefangen sein. Und das bedeutet, dass sich keine neuen Sterne mehr bilden können. Immer mehr Sterne verlöschen, erst die massereichen, dann auch die massearmen und nach 10.000 Mrd. Jahren auch die genügsamsten Roten Zwergsterne. Es wird immer dunkler und kälter im Universum. Die Lichter gehen aus.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 71
Hin und wieder kann in dieser trostlosen Welt noch einmal das eine oder andere Licht angehen. Weiße Zwerge können kollidieren und eine nukleare Supernova zünden oder einen Heliumstern bilden. Braune Zwerge, das sind verhinderte Sterne, deren Masse zu gering war, um die Kernfusion zu zünden, können sich vereinen und so doch noch die Schwelle zur Kernfusion überschreiten. Aber das sind Einzelereignisse, die am Schicksal der Welt wenig ändern. Und es kommt noch schlimmer: Unsere verlöschende Großgalaxie ist dynamisch instabil. Immer wenn sich zwei ihrer ausgebrannten Sternleichen auf ihren Flugbahnen nahekommen, tauschen sie Bewegungsenergie aus, wobei typischerweise das schwerere Objekt langsamer und das leichtere Objekt schneller wird. Immer wieder werden einzelne Sternüberreste dabei so schnell, dass sie dem Gravitationsfeld der Galaxie entkommen können und auf Nimmerwiedersehen in den Weiten des Weltalls verschwinden. Die Galaxie verliert also ständig Mitglieder, während der klägliche Rest immer dichter zusammenrückt und in einem letzten großen Aufleuchten in das massive Schwarze Loch im Zentrum der Galaxie hineinfällt. Auf ganz lange Sicht (es werden hier Zahlen wie 1040 Jahre gehandelt, also Zehntausend-Milliarden-Milliarden-Milliarden-Milliarden Jahre) wird wohl nahezu alle Materie in Schwarzen Löchern enden. Doch selbst diese Schwerkraftmonster sind sehr wahrscheinlich angesichts der Ewigkeit nicht stabil, wie wir noch sehen werden. Quanteneffekte lassen sie sehr langsam zerstrahlen, ein Prozess, der bis zu 10100 Jahren dauern kann (ich spare es mir, diese unvorstellbare Zahl noch irgendwie mit vielen „Milliarden“ hinzuschreiben). Sollte irgendwo Materie dem Sog der Schwarzen Löcher entkommen sein, so wird auch diese wahrscheinlich nicht den unermesslichen Zeiträumen widerstehen können. Jeder noch so langsame Prozess wird irgendwann zum Tragen kommen. So vermutet man beispielsweise im Rahmen moderner physikalischer Theorien, dass die Bausteine der Atomkerne, die Protonen und Neutronen, mit Halbwertszeiten von vielleicht 1037 Jahren in leichtere Teilchen zerfallen könnten. Nach 10100 Jahren wäre von ihnen also praktisch nichts mehr übrig. Es sieht also ganz so aus, als ob der Zahn der Zeit vor fast nichts Halt macht. Alle Atome werden ihm wahrscheinlich zum Opfer fallen, und am Ende bleibt nichts übrig als ein Hauch leichter Teilchen wie Elektronen, Photonen und Neutrinos, die sich in den unendlichen Weiten des Alls verlieren und deren Energie durch die kosmische Expansion immer weiter absinkt.
72 J. Resag
Eine solche Welt ist von leerem Raum kaum noch zu unterscheiden. Es gibt keine makroskopischen (also „großen“) Objekte mehr, und sämtliche Energiereste sind zufällig auf die wenigen noch vorhandenen Elementarteilchen verteilt, die einsam wie ein unmerkliches Flüstern das All durchstreifen. Im Grunde „geschieht“ in einer solchen Welt nichts mehr – zumindest in dem Sinne, dass sich makroskopisch noch irgendetwas ändert. An keiner makroskopischen Uhr lässt sich noch der Gang der Zeit erkennen. Die gesamte Welt ist ausgelaugt, dunkel, leer und kalt. „Zeit ist das, was man an der Uhr abliest“, waren Einsteins Worte, aber Uhren in jeglichem Sinn existieren in dieser Welt nicht mehr. Damit ist das, was wir normalerweise unter Zeit verstehen, an einem Ende angekommen. Die „makroskopische Zeit“ ist tot, denn es gibt auch keine makroskopischen Objekte wie Sie und mich, Sterne, Raumschiffe oder Uhren mehr, die sich verändern könnten. Ebenso wenig gibt es noch makroskopische Energieunterschiede, die irgendetwas „antreiben“ könnten. Der Tank ist leer und der Motor hat sich aufgelöst. „Alles vergeht und wird bald zum Märchen und sinkt rasch in völlige Vergessenheit“, hat Mark Aurel zu Beginn dieses Kapitels gesagt. Er hat wohl nicht ahnen können, wie sehr er damit recht hatte. Ich muss zugeben, sonderlich erfreulich finde ich diese Aussichten nicht. Nicht nur wir Menschen wären biologisch dem Tod ausgeliefert, sondern auch das gesamte Universum scheint ihm nicht zu entkommen. Zwischen dem Urknall und dem Vergehen in der Leere des Raums scheint es nur eine endliche Zeitspanne zu geben, in der komplexe Strukturen wie Sterne, Planeten und letztlich Leben entstehen und überleben können. Natürlich weiß heute niemand, ob es wirklich so kommen wird, auch wenn dieses Szenario eines beschleunigt expandierenden Universums mit konstanter Dunkler Energie nach heutigem Wissen ziemlich wahrscheinlich erscheint. Die Dunkle Energie könnte andererseits in Zukunft auch an Kraft verlieren und die kosmische Expansion weniger dramatisch verlaufen. Oder aber sie könnte sogar immer stärker werden und die gesamte Welt mitsamt aller Materie in einem finalen „Big Rip“ auseinanderreißen. Wie es auch kommen mag, ein Ende der Welt und mit ihr der Zeit, wie wir sie kennen, scheint in jedem Fall unausweichlich. Vielleicht könnte nach einem „Big Crunch“ ein neuer Urknall die Welt wie einen Phönix aus der Asche wieder zum Leben erwecken, oder irgendein unwahrscheinlicher Zufall könnte in einem toten expandierenden Universum einen neuen Urknall auslösen. Es wäre aber eine neue Welt in einer neuen Zeit, die vermutlich keinerlei Erinnerung an die Welt davor enthält – gewissermaßen ein kosmischer Filmriss.
1 Die Grenzen der Ewigkeit: Anfang und Ende der Zeit 73
Es sieht also momentan nicht so aus, als folge unsere Welt einem großen göttlichen Plan, der uns Menschen auf ewig immer weiter in eine paradiesische Zukunft führt. „Je begreiflicher uns das Universum wird, um so sinnloser erscheint es auch“, sagt der bekannte theoretische Physiker Steven Weinberg in seinem Bestseller Die ersten drei Minuten. Eine göttliche Weltharmonie, eine himmlische Sphärenmusik, wie sie vor rund 400 Jahren der deutsche Astronom Johannes Kepler in den Bahnen der Planeten entdecken wollte, scheint es so wohl nicht zu geben. Und doch strahlt unser Universum auf mich in seiner bizarren Größe eine tiefe Faszination aus. Es mag vielleicht unserem Leben keinen tieferen Sinn geben, diesen müssen wir wohl eher im Zusammenleben mit unseren Mitmenschen suchen. Aber es ist doch ein unglaubliches Gebilde und es macht einfach Spaß, immer tiefer in seine Geheimnisse vorzudringen und zu schauen, welche Überraschungen es noch für uns bereithält.
2 Die Grenzen des Raums: Wo endet die Welt?
Der Raum ist die Ordnung gleichzeitig existierender Dinge, wie die Zeit die Ordnung des Aufeinanderfolgenden
Als der deutsche Gelehrte Gottfried Wilhelm Leibniz diese Zeilen im Jahr 1712 in einem Brief an den Jesuiten Bartholomäus Des Bosses zu Papier brachte, konnte er noch nicht ahnen, wie sehr sich unser Verständnis von Raum und Zeit durch die Relativitätstheorie Einsteins noch wandeln würde. Und dennoch hatte Leibniz intuitiv hier einen entscheidenden Punkt erkannt: Der Raum ist die Ordnung gleichzeitig existierender Dinge! Bei Newton, mit dem sich Leibniz jahrelang darüber gestritten hatte, wer von beiden die Infinitesimalrechnung erfunden habe (sie hatten sie beide unabhängig voneinander entwickelt), findet man so einen Bezug zur Gleichzeitigkeit nicht. „Der absolute Raum bleibt vermöge seiner Natur und ohne Beziehung auf einen äußeren Gegenstand stets gleich und unbeweglich“, schreibt er in seiner Principia. Mit diesem Konzept eines ewig gleichen absoluten Raums, der wie ein unabhängiger Behälter für Materie funktioniert, hatte Newton durchaus Erfolg. So konnte er damit beispielsweise die Fliehkräfte in einem sich drehenden Wassereimer erklären, die darin den Wasserspiegel zum Rand hin ansteigen lassen: Der Eimer und das enthaltene Wasser drehten sich einfach relativ zum absoluten Raum. Für Leibniz war ein solcher absoluter Raum, der auch ganz ohne Materie existieren kann, völlig undenkbar: Erst die relativen Positionen der Dinge zueinander verleihen dem Raumbegriff einen Sinn. Und dafür muss man wissen, wo sich die Dinge zur selben Zeit befinden! © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Resag, Grenzen der Wirklichkeit, https://doi.org/10.1007/978-3-662-67400-0_2
75
76 J. Resag
Vielleicht hört sich das für Sie wie eine Selbstverständlichkeit an, die man kaum zu erwähnen braucht. Wenn Sie mit einem Zollstock 1 m abmessen, liegen ja auch ganz automatisch sämtliche Markierungen gleichzeitig an der abzumessenden Strecke an. Aber was geschieht, wenn es sich bei dem abzumessenden Gegenstand beispielsweise um das Raumschiff Enterprise handelt, das mit halber Lichtgeschwindigkeit an unserem Zollstock vorbeifliegt? Wann genau kommt welcher Teil der Enterprise an welcher Markierung des Zollstocks vorbei? Auch wenn wir über das Universum nachdenken, stellen sich solche Fragen. Was meinen wir eigentlich damit, wenn wir danach fragen, wie unser Universum heute aussieht? Was bedeutet es, wenn wir nach der Unendlichkeit des Raums fragen? Der Raum ist die Ordnung der gleichzeitig existierenden Dinge – in diesem Fall beispielsweise Galaxien. In welchem Sinn befinden sich die Galaxien gleichzeitig in einem bestimmten Abstand zueinander, wenn wir doch immer nur ein längst vergangenes Abbild der Galaxien am Himmel sehen können? Dass die Frage nach der Gleichzeitigkeit keineswegs trivial ist, erkannte als Erster Albert Einstein im Jahr 1905. Und er fand eine überraschende Antwort: Gleichzeitigkeit liegt gewissermaßen im Auge des Betrachters!
Gleichzeitigkeit ist relativ Stellen Sie sich einmal folgendes Szenario vor:1 Captain James T. Kirk und sein wissenschaftlicher Offizier Spock haben der guten alten Erde wieder einmal einen Kurzbesuch abgestattet und starten von dort mit halber Lichtgeschwindigkeit in Richtung Mond, der zufällig auf ihrem Weg liegt. Auf halbem Weg setzen sie eine Nachricht ab, die sie verschlüsselt als kurze Lichtpulse gleichzeitig sowohl zur Erde als auch zum Mond schicken. Rund 0,65 s später trifft die Nachricht simultan auf der Erde und dem Mond ein. Das muss auch so sein, denn die Lichtpulse wurden ja genau in der Mitte zwischen Erde und Mond losgeschickt und bewegen sich beide unabhängig von der Geschwindigkeit der Enterprise mit Lichtgeschwindigkeit auf Erde und Mond zu. Wie sehen Captain Kirk und Mr. Spock diesen Vorgang, während sie mit halber Lichtgeschwindigkeit von der Erde zum Mond unterwegs sind?
1 Ein ähnliches Beispiel finden Sie auch in meinem Buch Mehr als nur schön – Wie Symmetrien unsere Naturgesetze formen, in dem ich noch ausführlicher auf die Relativitätstheorie eingehe.
2 Die Grenzen des Raums: Wo endet die Welt? 77
Nach der Relativitätstheorie können sie ihr Raumschiff mit demselben Recht als ruhend definieren, wie wir dies vorher für Erde und Mond in Anspruch genommen haben. Sie können also sagen, dass Erde und Mond mit halber Lichtgeschwindigkeit an ihnen vorbeiziehen. Genau in der Halbzeit zwischen den Passagen der beiden Himmelskörper senden sie die beiden Lichtpulse aus, die sich, nun aus Sicht der Enterprise, mit Lichtgeschwindigkeit in beide Richtungen auf den Weg machen. Das ist ja das Besondere an der Relativitätstheorie: Licht ist für jeden Beobachter immer gleich schnell! Natürlich wird dann der Lichtpuls auf dem Mond eher ankommen als auf der Erde, denn der Mond fliegt dem Lichtpuls ja entgegen, während die Erde vor ihm davonfliegt. Das ist schon sehr merkwürdig und widerspricht unserer intuitiven Vorstellung von Gleichzeitigkeit. Aber wenn das Licht sowohl aus Sicht der Erde als auch aus der Sicht von Kirk und Spock immer gleich schnell unterwegs ist, dann müssen sie zu unterschiedlichen Ergebnissen kommen, was die Gleichzeitigkeit der ankommenden Lichtpulse betrifft. Es gibt keine absolute Gleichzeitigkeit von Ereignissen. In der Relativitätstheorie ist nun oft die Rede von der sogenannten Raumzeit – das ist der Raum aller Ereignisse, wobei ein Ereignis in unserem Beispiel bedeutet, dass sich ein Ding (Erde, Mond, Raumschiff oder ein Lichtpuls) zu einer bestimmten Zeit an einem bestimmten Ort befindet. Wenn wir nur eine Raumdimension betrachten, können wir uns die Raumzeit wie eine 2-dimensionale Ebene vorstellen, in der eine Richtung, sagen wir die waagerechte x-Richtung, für den Raum und die andere Richtung, also die senkrechte y-Richtung, für die Zeit steht. Jeder Punkt in dieser Ebene steht für ein Ereignis, gekennzeichnet durch die Angabe seines Ortes (x-Koordinate) und der Zeit (y-Koordinate), zu der es stattfindet. Die Orte aller Ereignisse, die zur selben Zeit stattfinden, definieren jetzt den Raum zu dieser Zeit, denn der Raum ist ja die Ordnung der gleichzeitig existierenden Dinge. Jede waagerechte Linie in dem Diagramm entspricht also dem Raum zu dieser Zeit, und die Punkte auf dieser Linie geben an, wo sich die Dinge in diesem Moment befinden. Wir zerschneiden gewissermaßen die Raumzeit in viele einzelne Räume der Gleichzeitigkeit. Vielleicht haben Sie den Eindruck, wir hätten hier einfach nur Raum und Zeit zu einer gemeinsamen Raumzeit zusammengeklebt, die wir jederzeit auf triviale Weise wieder in Raum und Zeit zerlegen können. Doch dieser Eindruck täuscht, denn wir haben bisher nur die Raumzeit aus Sicht der Erde dargestellt! Wenn nämlich Captain Kirk und Mr. Spock die aus ihrer Sicht gleichzeitigen Ereignisse mit Linien im Diagramm verbinden und damit Räume der Gleichzeitigkeit definieren, erhalten sie ein anderes Ergebnis als
78 J. Resag
Abb. 2.1 Die Raumzeit aus Sicht der Erde. Die Zeit läuft nach oben, während die Räume der gleichzeitigen Ereignisse waagerecht liegen (schwarz gestrichelte Linien). (Aus Sicht des Raumschiffs (blaue schräge Linie) liegen gleichzeitige Ereignisse dagegen auf den schrägen, blau gestrichelten Linien, da andere Ereignisse als gleichzeitig angesehen werden. Die ausgesendeten Lichtpulse laufen entlang der roten Linien durch die Raumzeit. Aus Sicht der Erde kommen sie gleichzeitig bei Erde und Mond an, aus Sicht des Raumschiffs dagegen zuerst beim Mond und dann bei der Erde. Quelle: Eigene Grafik)
wir aus Sicht der Erde. Ihre Räume der Gleichzeitigkeit liegen schräg über den unseren (siehe die schrägen, blau gestrichelten Linien in Abb. 2.1). Das muss auch so sein, denn für sie erfolgt das Eintreffen der Lichtpulse ja nicht gleichzeitig. Kirk und Spock zerschneiden also die Raumzeit auf andere Weise in Räume der Gleichzeitigkeit als wir auf der Erde.
Räume der Gleichzeitigkeit im Universum Was bedeutet diese Relativität der Gleichzeitigkeit für unser expandierendes Universum? Welche Punkte der Raumzeit würden wir hier als gleichzeitig betrachten und als „das Universum zu dieser Zeit“ zusammenfassen? Oder
2 Die Grenzen des Raums: Wo endet die Welt? 79
anders gesagt: Wie sieht das Universum beispielsweise heute aus? Wann ist heute für eine ferne Galaxie am Nachthimmel? Am besten versteht man die Zusammenhänge, wenn man die abbremsende und beschleunigende Wirkung der Gravitation erst einmal weglässt, so als würden die auseinanderstrebenden Galaxien sich untereinander gar nicht anziehen und als gäbe es keine Dunkle Energie. In diesem expandierenden Universum ohne Gravitation, das man auch als Milne-Universum bezeichnet, verändern sich also die Fluchtgeschwindigkeiten der auseinanderfliegenden Galaxien nicht.2 Das Weglassen der Gravitation hat den Vorteil, dass wir die relativ einfachen Regeln der Speziellen Relativitätstheorie anwenden können und uns nicht um so komplizierte Dinge wie die Krümmung der Raumzeit kümmern müssen. Das bedeutet auch, dass sich keine Galaxie schneller als mit Lichtgeschwindigkeit von uns entfernen kann. Wir müssen das Hubble-Gesetz also etwas abändern: Weiter entfernte Galaxien bewegen sich zwar schneller von uns weg, aber ihre Geschwindigkeit wächst nicht mehr proportional zur Entfernung an, sondern liegt immer näher bei der Lichtgeschwindigkeit. Daher kann auch keine Galaxie im Milne-Universum heute weiter von uns entfernt sein als 13,8 Mrd. Lichtjahre, denn weiter kann sie in den 13,8 Mrd. Jahren seit dem Urknall einfach nicht gekommen sein. Wie würden wir nun Räume der Gleichzeitigkeit aus Sicht unserer Milchstraße in diesem Universum definieren? Das geht wie in unserem vorherigen Beispiel mithilfe des Lichts: Angenommen, wir hätten vor 1 Mrd. Jahren einen Lichtpuls zu einer weit entfernten Galaxie geschickt, wo er reflektiert und als Lichtecho zu uns zurückgeschickt wird. Und angenommen, das reflektierte Lichtecho käme in der fernen Zukunft in genau 1 Mrd. Jahren wieder bei uns an. Dann muss der Lichtpuls genau heute bei der Galaxie eingetroffen und dort reflektiert worden sein. Die Reflexion ereignet sich also genau in dem Raum, den wir aus unserer Sicht als das heutige Universum bezeichnen würden, und in diesem Raum ist die Galaxie heute genau 1 Mrd. Lichtjahre von uns entfernt. Es funktioniert also ganz ähnlich wie bei einem Radar, mit dem wir die Umgebung abtasten: Aus den wieder bei uns eintreffenden Lichtechos rekonstruieren wir im Nachhinein, wann sie wo reflektiert wurden. Die zeitliche Mitte zwischen Aussenden und Wiederkehr ist der Moment der Reflexion, und 2 Wenn
Sie sich für die mathematischen Details zum Milne-Universum interessieren, die ich in diesem Abschnitt nur grob anreißen kann, finden Sie diese hervorragend erklärt in Markus Pössels Text Das Milne-Universum: Die Expansion des Kosmos als relativistische Explosion (im Internet, siehe Literaturverzeichnis).
80 J. Resag
aus der halben Laufzeit des Lichtechos können wir die Entfernung des Reflexionspunktes bestimmen, denn die Lichtgeschwindigkeit kennen wir ja. Dafür müssen wir allerdings abwarten, bis das Lichtecho auch wieder bei uns eintrifft, und das kann Millionen oder gar Milliarden Jahre dauern. Das Ganze ist also mehr ein theoretisches Konstrukt als eine praktikable Vorgehensweise, aber Information braucht nun einmal ihre Zeit, um die Weiten des Universums zu durchqueren. Vielleicht haben Sie den Eindruck, dass unsere Milchstraße im MilneUniversum eine Sonderrolle spielt und sich „in der Mitte“ aller auseinanderfliegenden Galaxien befindet, doch dieser Eindruck täuscht. Die Gesetze der Speziellen Relativitätstheorie sorgen dafür, dass das Milne-Universum von jeder Galaxie aus betrachtet gleich aussieht: Die jeweils anderen Galaxien entfernen sich mit konstanter Geschwindigkeit, und zwar umso schneller, je weiter weg sie sind, wobei die Lichtgeschwindigkeit die obere Grenze ist. Das mag unserer Anschauung widersprechen, aber bedenken Sie, dass Raum, Zeit, Abstände und Geschwindigkeiten von den verschiedenen Galaxien aus unterschiedlich betrachtet werden, da sich die Galaxien relativ zueinander bewegen. Die Räume gleichzeitiger Ereignisse, die Aliens in verschiedenen Galaxien über Lichtechos definieren, sind unterschiedlich, so wie das auch bei der Erde und dem vorbeifliegenden Raumschiff der Fall war. Was uns als gleichzeitig erscheint, ist für ein Alien in einer fernen Galaxie keineswegs gleichzeitig. Macht sich bei Ihnen da auch ein leichtes Unwohlsein breit? Das würde ja bedeuten, dass es DAS heutige Universum gar nicht gibt. Jede Galaxie hätte ihr eigenes „heutiges Universum“, das alle aus ihrer Sicht „heutigen“ Ereignisse (beispielsweise die heutigen Positionen der Galaxien) umfasst. Und es wird noch merkwürdiger! In der Relativitätstheorie ist es nämlich so, dass die Zeit in einem Objekt, das sich uns gegenüber schnell bewegt, aus unserer Sicht langsamer verstreicht als die Zeit bei uns. Diesen Effekt nennt man auch Zeitdilatation, was so viel wie Zeitdehnung bedeutet. Der Grund dafür liegt wieder darin, dass die Lichtgeschwindigkeit für jeden Beobachter immer dieselbe ist, egal wie schnell er sich bewegt. Stellen Sie sich beispielsweise wieder unser Raumschiff vor, das mit hoher Geschwindigkeit an uns vorbeifliegt. Und stellen Sie sich weiter vor, Mr. Spock würde innerhalb des Raumschiffs einen Lichtpuls mithilfe zweier Spiegel ständig zwischen Backbord und Steuerbord, also senkrecht zur Flugrichtung, hin- und herpendeln lassen. Mr. Spock liebt dieses präzise regelmäßige Pendeln des Lichtpulses und verwendet es gerne als Borduhr für die Enterprise. Wie sehen wir das Ganze aus Sicht der Erde? Da die Enterprise rasend schnell an uns vorbeirauscht, sehen wir, wie der Lichtpuls auf einer
2 Die Grenzen des Raums: Wo endet die Welt? 81
Zickzackbahn zwischen den beiden an Back- und Steuerbord befestigten Spiegeln hin- und herpendelt. Der Weg zwischen den bewegten Spiegeln verläuft aus unserer Sicht jetzt schräg und ist damit länger als der gerade Weg, den Mr. Spock an Bord sieht. Der Lichtpuls braucht also mehr Zeit, um diesen längeren Weg zurückzulegen, sodass er aus unserer Sicht langsamer hin- und herpendelt als aus Sicht von Mr. Spock, der neben den Spiegeln steht. Mit anderen Worten: Die Borduhr des vorbeirasenden Raumschiffs tickt aus unserer Sicht langsamer als aus Sicht von Mr. Spock. Die Zeit in einem bewegten Objekt läuft langsamer und friert bei Annäherung an die Lichtgeschwindigkeit immer weiter ein. Dieser Effekt ist keine Einbildung von uns oder von Mr. Spock, sondern er lässt sich mit modernen Atomuhren ganz konkret nachweisen. Was für die Enterprise gilt, muss auch für die Fluchtbewegung der Galaxien gelten. Je weiter eine Galaxie von uns entfernt ist und umso schneller sie deshalb nach Hubble von uns wegfliegt, umso langsamer vergeht dort aus unserer Sicht die Zeit. Wenn wir also in jeder Galaxie seit dem Urknall eine Uhr laufen lassen, dann zeigt unsere Milchstraßenuhr heute 13,8 Mrd. Jahre an, während die Weltzeituhr einer anderen Galaxie gleichzeitig beispielsweise nur 9,3 Mrd. Jahre anzeigt.3 Dieser Effekt wird umso stärker, je weiter die Galaxie von uns entfernt ist und je näher ihre Fluchtgeschwindigkeit demnach bei der Lichtgeschwindigkeit liegt. Würde die Galaxie im (nicht erreichbaren) Extremfall sogar mit Lichtgeschwindigkeit von uns wegfliegen, so wäre auf ihrer Uhr noch gar keine Zeit abgelaufen und wir landen beim Urknall. Das würden wir aber nicht sehen können, denn das Licht einer solchen lichtschnellen Galaxie wäre unendlich weit ins Rote verschoben und damit jeglicher Energie beraubt. Eine von uns wegfliegende Galaxie wird also aus unserer Sicht erst irgendwann in der Zukunft das heutige Alter der Milchstraße von 13,8 Mrd. Jahren erreichen. Wenn wir uns das expandierende Milne-Universum in einer Raum-Zeit-Grafik wie in Abb. 2.2 veranschaulichen und das heutige – über Lichtechos aus unserer Sicht definierte – Universum darin durch eine waagerechte grüne Gegenwartslinie kennzeichnen, dann liegen gleich alte Galaxien gar nicht auf dieser grünen Linie. Sie liegen vielmehr auf einer blau eingezeichneten Hyperbellinie, die mit wachsender Entfernung immer weiter in die Zukunft führt.
3 Wir
nehmen hier einfach an, dass alle Galaxien bereits seit dem Urknall existieren, was natürlich nicht wirklich stimmt. Wenn Sie das stört, stellen Sie sich stattdessen einfach die entsprechende Materie vor, in welcher Form auch immer.
82 J. Resag
Das Ganze ist schon ziemlich seltsam. Müssten denn nicht „heute“ alle Galaxien gleich alt sein? Schließlich sind sie alle zusammen im Urknall entstanden, und alle Galaxien sollen doch gleichwertig sein. Unsere Milchstraße ist schließlich nichts Besonderes. Doch halt! Wenn wir die Gleichzeitigkeit von Ereignissen über Lichtechos definieren, die zu uns reflektiert werden, dann sind wir in diesem Sinn natürlich schon etwas Besonderes. Die grüne Gegenwartslinie in Abb. 2.2 ist in diesem Sinn unser heutiges Universum. In diesem Universum sind entfernte Galaxien heute jünger als unsere Milchstraße, da ihre Uhren aufgrund ihrer hohen Fluchtgeschwindigkeit aus unserer Sicht langsamer laufen. Ein Alien in einer solchen fernen Galaxie würde es natürlich genau andersherum sehen, denn sein „heutiges“ Universum ist nicht dasselbe wie unseres.
Abb. 2.2 Die Raumzeit des gravitationslosen expandierenden Milne-Universums aus der Sicht unserer Milchstraße. Die Zeit läuft nach oben, während die Räume der Gleichzeitigkeit waagerechten Linien entsprechen (die grüne Gegenwartslinie repräsentiert in diesem Sinn unser heutiges Universum). Dabei ist die Gleichzeitigkeit von Ereignissen über Lichtsignale definiert, die wir aussenden und die zu uns als Lichtecho reflektiert werden, ganz ähnlich wie bei einem Radar. Die Maßeinheiten sind so gewählt, dass sich das Licht auf diagonalen Linien bewegt. Unsere Milchstraße ist die senkrechte Linie in der Mitte, während die anderen Galaxien die schräg nach oben verlaufenden grauen Linien bilden. Ihre Fluchtgeschwindigkeiten sind konstant und umso näher an der Lichtgeschwindigkeit, je weiter sie von uns entfernt sind. Die blauen Hyperbellinien kennzeichnen das Alter der Galaxien, also die Zeit, die dort seit dem Urknall verstrichen ist. Die roten Linien zeigen den Weg des Lichts, das uns heute erreicht. Diese Lichtlinien kennzeichnen damit die Ereignisse, die wir heute am Himmel sehen. (Quelle: Eigene Grafik)
2 Die Grenzen des Raums: Wo endet die Welt? 83
Das mag zwar alles so korrekt sein, und natürlich ist es das auch, aber es widerspricht doch sehr unserer Anschauung. Wenn alle Galaxien gleichwertig sind und sie alle im Urknall zusammen entstanden sind, dann sollten sie „heute“ auch alle gleich alt sein, nämlich 13,8 Mrd. Jahre, gemessen an ihren jeweils mitgeführten Uhren. Wie bekommen wir das in den Griff? Es ist verblüffend einfach: Wir definieren das heutige Universum nicht mehr wie bisher über Lichtsignale, die wir zu anderen Galaxien schicken und die von dort als Lichtecho zu uns zurückkehren, sondern über die mitgeführten Uhren aller auseinanderstrebenden Galaxien zugleich. Wenn also die Aliens in einer fernen Galaxie sagen, seit dem Urknall seien bei ihnen 13,8 Mrd. Jahre vergangen, also genau dasselbe, was auch wir heute sagen, und bei ihnen sei gerade eine Supernova explodiert, dann würden wir das so interpretieren, dass diese Supernova im heutigen Universum hochgegangen ist. Es würde allerdings einige Zeit dauern, bis uns die Kunde von dieser Explosion erreichen kann. Der Vorteil dieser alternativen Sichtweise von Gleichzeitigkeit liegt darin, dass sie universell ist und sich nicht mehr von Galaxie zu Galaxie unterscheidet. Zwei Ereignisse in verschiedenen Galaxien werden einfach dann als gleichzeitig angesehen, wenn seit dem Urknall dieselbe Zeitspanne in diesen Galaxien verstrichen ist. Damit sind auch alle Galaxien gleichzeitig gleich alt, so wie wir das intuitiv auch erwarten würden. Genau so haben wir „gleichzeitig“ ja gerade definiert. Das „heutige Universum“ wäre in Abb. 2.2 dann nicht mehr durch die grüne waagerechte Gegenwartslinie gegeben, die wir wie bei einem Radar über Lichtechos definiert hatten, sondern über die gebogene blaue Hyperbellinie, die Galaxien mit demselben Alter von 13,8 Mrd. Jahren miteinander verbindet. Ist das alles erlaubt? Können wir hier einfach machen, was wir wollen? Ja, das geht, solange wir genau sagen, was wir tun. Wir können nämlich das heutige Universum gar nicht am Himmel sehen. Das müssen wir uns immer wieder bewusst machen, denn im Alltag sind wir es gewohnt, dass das, was wir sehen, auch gerade jetzt geschieht. Aber in den Weiten des Universums braucht das Licht viel Zeit, um zu uns zu gelangen. Wir können deshalb nicht erkennen, was „jetzt gerade“ geschieht. Wir wissen nicht, ob gerade eben im fernen Galaxienhaufen El Gordo eine Supernova explodiert ist, denn ihr Licht kann uns erst in einigen Mrd. Jahren erreichen. Wann eine Supernova dort explodiert ist, können wir erst im Nachhinein rekonstruieren. Dazu gibt es verschiedene Möglichkeiten. Wir könnten ähnlich wie ein Radarsender ständig Lichtsignale ins Universum hinausschicken und aus
84 J. Resag
den Lichtechos ermitteln, wann sie wo im Universum angekommen sind. Oder aber wir bitten freundliche Aliens in El Gordo, uns im Moment der Explosion einen Funkspruch zu schicken, in dem sie uns mitteilen, wie viel Zeit bei ihnen seit dem Urknall verstrichen ist. Beides sind plausible Methoden, die aber nicht dasselbe Ergebnis liefern. Wenn wir also vom heutigen Universum sprechen, müssen wir immer dazu sagen, wie wir dieses Universum nachträglich rekonstruiert haben, denn das heutige Universum „an sich“ gibt es nicht. Wenn wir da nicht aufpassen, können sich alle möglichen Missverständnisse einschleichen. Ein solches Missverständnis betrifft die Krümmung des Raums. Wenn wir die Weltzeituhren in den Galaxien verwenden, um das heutige Universum zu definieren, dann ist dessen Raum gekrümmt, so wie die blauen Hyperbellinien in Abb. 2.2 gekrümmt sind, und das, obwohl wir im MilneUniversum die Gravitation weggelassen haben. Das liegt daran, dass wir mit den blauen Hyperbellinien in der Raumzeit krummlinige Koordinaten eingeführt haben, damit gleich alte Galaxien dieselbe kosmische Zeitkoordinate aufweisen (nämlich ihr Alter). Die zugehörigen Räume der Gleichzeitigkeit haben dann eine räumliche Krümmung, auch ganz ohne Gravitation. Ein weiteres Missverständnis entsteht, wenn wir beim Begriff des räumlichen Abstandes nicht aufpassen. Wenn wir das heutige Universum als den Raum gleich alter Galaxien definieren und Abstände in diesem Universum bestimmen wollen, dann können wir diese Abstände nicht mehr einfach mithilfe von Lichtechos ermitteln, das wäre ja die andere radarähnliche Methode. Wir müssen uns vielmehr in kleinen Schritten von Galaxie zu Galaxie an der blauen Hyperbellinie entlanghangeln. So ist garantiert, dass wir die Galaxien immer im selben Alter erwischen. Man kann sich das so vorstellen, als würde in jeder Galaxie ein Alien sitzen, das heute (seine Weltzeituhr zeigt also 13,8 Mrd. Jahre an) die Abstände zu seinen direkten Nachbargalaxien ermittelt. Aus all diesen Entfernungsangaben der verschiedenen Aliens setzen wir dann eine komplette Karte des heutigen Universums zusammen und lesen in dieser Karte die heutigen Abstände zwischen den Galaxien ab. Wenn Sie sich die blauen Hyperbeln in Abb. 2.2 noch einmal ansehen, dann fällt Ihnen vielleicht auf, dass sie nie an ein Ende kommen. Sie erstrecken sich unendlich weit nach links und rechts oben. Das bedeutet, dass der entsprechende Raum gleich alter Galaxien unendlich groß ist und Platz für unendlich viele Galaxien hat, die sich gleichförmig in diesem Raum verteilen. Unsere Karte dieses Raums, die wir anhand der Angaben der Aliens gerade gezeichnet haben, wäre also ebenfalls unendlich. Diese Karte
2 Die Grenzen des Raums: Wo endet die Welt? 85
entspricht genau dem Gummituch und den darauf gleichmäßig verteilten Staubkörnern, mit dem wir uns im vorherigen Kapitel den Raum und die darin befindlichen Galaxien veranschaulicht haben. Wenn die kosmische Zeit voranschreitet und die Galaxien gleichzeitig älter werden, dann entfernen sie sich gleichmäßig voneinander, so als würden wir das Gummituch auseinanderziehen. Dabei gilt exakt das Hubble-Gesetz: Je größer der Abstand zwischen 2 Galaxien ist, umso schneller entfernen sie sich voneinander. Ab einem bestimmten Abstand geschieht das sogar mit Überlichtgeschwindigkeit! Im letzten Kapitel hatten wir uns das noch so erklärt, dass es der Raum selbst sei, der sich zwischen den Galaxien ausdehnt, während die Galaxien sich praktisch kaum in diesem expandierenden Raum bewegen. Das ist ein brauchbares Bild, aber wir kennen den wahren Grund jetzt noch ein bisschen besser: Die Überlichtgeschwindigkeit ist ein Scheinproblem, erzeugt durch ein spezielles krummliniges Koordinatensystem für Raum und Zeit, in dem gleich alte Galaxien dieselbe kosmische Zeitkoordinate aufweisen (blaue Hyperbellinien in Abb. 2.2). Wie wir sehen, ist es nicht ganz einfach, ein zutreffendes Bild von Raum und Zeit in unserem Universum zu gewinnen. Wer hätte gedacht, dass die Frage nach der Unendlichkeit des Raums davon abhängen könnte, was wir unter Gleichzeitigkeit verstehen? Ich kann mir kaum vorstellen, dass selbst ein so großer Philosoph wie Kant, der intensiv über Raum und Zeit nachgedacht hat, sich so etwas hätte ausdenken können. Und Leibniz hatte zwar geahnt, dass Gleichzeitigkeit wichtig ist, aber dass diese mehrdeutig sein kann, hätte ihn sicher erstaunt. Die menschliche Sprache ist wenig geeignet, solche Zusammenhänge präzise auszudrücken, und unsere Anschauung führt uns schnell in die Irre. Hier zeigt sich der enorme Fortschritt, den die moderne Naturwissenschaft gebracht hat. Mit der Sprache der Mathematik schafft sie es, einen präzisen Überblick über das wahre Verhalten von Raum und Zeit zu gewinnen. Auch ein Genie wie Einstein wäre ohne Mathematik nicht ans Ziel gekommen, und auch er brauchte einige Zeit, um mithilfe seines Studienfreundes Marcel Grossmann, der mittlerweile Mathematikprofessor in Zürich geworden war, die passende mathematische Sprache zu finden und den Umgang mit ihr zu erlernen. „Grossmann, Du musst mir helfen, sonst werd' ich verrückt!“, soll er beim Kampf mit den mathematischen Formeln verzweifelt ausgerufen haben. Leider lässt sich diese Mathematik nur schwer in unsere gewohnten menschlichen Begriffe übersetzen. Außerdem müssen wir im Hinterkopf
86 J. Resag
behalten, dass die Bilder, die dabei entstehen, vor allem in unserer Vorstellung existieren. So ist auch der Begriff des heutigen Universums letztlich eine abstrakte Idee, eine nützliche Fiktion, die wir anhand bestimmter Kriterien für Gleichzeitigkeit bilden. Wir haben keinerlei direkten Zugang zum heutigen Universum und können es weder anfassen noch durchstreifen, denn alles, was wir am Himmel sehen, ist immer ein Blick in die Vergangenheit, gekennzeichnet durch die roten Lichtlinien in Abb. 2.2. Aber welches „heutige Universum“ existiert nun „real“ in dieser Sekunde? Das über Lichtechos definierte, in dem Galaxien umso jünger sind, je weiter sie von uns entfernt sind, oder das Universum, in dem alle Galaxien heute gleich alt sind? Wie kann es hier eine Mehrdeutigkeit geben? Realität sollte doch klar und eindeutig sein. Für den bekannten Philosophen und Begründer der amerikanischen Psychologie William James (1842–1910) war es kein Wunder, dass wir bei solchen Fragen ins Grübeln kommen. Er wusste, dass unser Primatengehirn als Ergebnis einer langen Evolution gar nicht dafür gemacht ist, so etwas wie das heutige Universum zu begreifen. Es ist vielmehr darauf optimiert, dass wir uns in unserer Umwelt zurechtfinden und darin überleben können. Das, was wir als wahr oder real betrachten, sind für James letztlich mentale Orientierungspunkte, die sich für unser Überleben als zweckdienlich bewährt haben. Sie sind für uns real, wenn wir sie aufgrund unserer Erfahrungen für real halten. Eine Wasserstelle, die unser Überleben sichert und deren Ort wir uns einprägen, ist für uns real. Bei so etwas Abstraktem wie dem heutigen Universum geraten wir aber schnell an unsere Grenzen, denn Erfahrungen haben wir damit natürlich nicht. Die Galaxien am Himmel können wir dank moderner Teleskope direkt sehen, und auch die kosmische Hintergrundstrahlung können wir messen. Sie sind für uns damit eindeutig real. Aber wir versuchen natürlich, aus diesen messbaren Erscheinungen in unserem Geist etwas Größeres zu konstruieren, eine Welt, die alles umfasst und in sich vereint. Für James hat dieses ideelle Ganze keine Realität, sondern entspringt unserem menschlichen Bedürfnis nach einem konsistenten Überbau, in dem alles seinen Platz hat. Als Physiker wäre ich da etwas vorsichtiger. Für mich ist ein abstrakter Begriff wie das heutige Universum umso realer, je besser wir damit die Welt um uns herum begreifen können. Letztlich trifft diese Überlegung auf die meisten Begriffe zu, die in physikalischen Theorien auftauchen, sei es nun der Teilchenbegriff, das elektromagnetische Feld oder die quantenmechanische Wellenfunktion. Je besser sie sich bei der Beschreibung unserer Welt bewähren, umso realer erscheinen sie uns. „Das elektromagnetische Feld ist für den modernen Physiker nicht minder wirklich als der Stuhl, auf
2 Die Grenzen des Raums: Wo endet die Welt? 87
dem er sitzt“, hat Albert Einstein einmal gesagt.4 Man ahnt, wie überaus nützlich das theoretische Konstrukt des elektromagnetischen Feldes in der Physik sein muss.
Raumkrümmung und kritische Dichte Es ist also eine Frage der Nützlichkeit, was wir als das heutige Universum ansehen wollen und für wie real wir es in seiner Gesamtheit halten. Manchmal ist es hilfreich, das heutige Universum mithilfe reflektierter Lichtechos zu rekonstruieren (grüne waagerechte Gegenwartslinie), denn dann werden wir nie auf so etwas wie Überlichtgeschwindigkeit stoßen. Aber wenn wir das Universum in seiner Gesamtheit verstehen wollen, dann hat sich die andere Sichtweise insgesamt als nützlicher erwiesen, da sie von Anfang an alle Galaxien als gleichberechtigt betrachtet. Ab sofort wollen wir daher dieser zweiten Sichtweise den Vorzug geben, die auf der kosmischen Zeit (definiert durch die Weltzeituhren der auseinanderstrebenden Galaxien) und den zugehörigen Räumen der Gleichzeitigkeit basiert. Gerne können Sie sich dieses Universum analog zu einem Gummituch vorstellen, auf dem gleich alte Galaxien wie Staubkörner festkleben. Mit fortschreitender kosmischer Zeit dehnt sich dieses Gummituch immer weiter aus, wobei alle Galaxien simultan älter werden und sich die Abstände zwischen ihnen vergrößern. Das Gummituch entspricht genau der Karte, die wir erhalten, wenn wir die vielen lokalen Abstandsangaben der Aliens zu ihren Nachbargalaxien zu einer bestimmten kosmischen Zeit zu einem konsistenten Ganzen zusammensetzen. Den Abstand, den wir aus dieser Karte zwischen zwei beliebigen gleich alten Galaxien ablesen, wollen wir als den kosmischen Abstand (engl. „proper distance“ ) bezeichnen. An jedem Ort im Universum entspricht dieser kosmische Abstandsbegriff dem, was dort ansässige Alien in ihrer direkten Umgebung als Abstand ansehen würden – genau so hatten wir die Karte des Universums ja konstruiert. Wie sieht nun das Raum-Zeit-Diagramm des Milne-Universums aus, wenn wir es an unsere neue Sichtweise anpassen? Wenn wir die kosmische Zeit und den kosmischen Abstand für die x- und die y-Achse verwenden, sodass gleich alte Galaxien auf waagerechten Linien liegen? Dafür müssen wir unser altes Diagramm aus Abb. 2.2 gleichsam verbiegen, sodass aus
4 Einstein,
Albert und Infeld, Leopold: Die Evolution der Physik; Von Newton bis zur Quantentheorie, rororo, 1956 (englisches Original The Evolution of Physics von 1938), S. 103.
88 J. Resag
den blauen Hyperbeln waagerechte Linien werden, denn sie sind die neuen Räume der Gleichzeitigkeit. Das Ergebnis dieses Verbiegens sehen wir in unserem neuen Raum-Zeit-Diagramm in Abb. 2.3. Die bisherige grüne Gegenwartslinie, die auf den Lichtechos basiert, krümmt sich jetzt nach unten. Dasselbe geschieht mit den roten Linien des Lichts, das uns heute erreicht: Sie biegen sich in Richtung Urknall, so als würde der expandierende Raum das Licht mit sich ziehen. Außerdem sind die Galaxien zu jeder Zeit gleichmäßig über den unendlichen Raum verteilt, wobei sie immer weiter auseinanderdriften, je weiter die kosmische Zeit nach oben hin voranschreitet. Nun ist das Milne-Universum natürlich nur ein recht einfaches Modell eines expandierenden Universums, da es die Gravitation völlig außer Acht lässt. Trotzdem kann man in diesem Modell eine Menge über Raum und Zeit lernen; deshalb haben wir es hier auch so ausführlich besprochen. Wir sind also nun gut vorbereitet, um den nächsten Schritt zu gehen und die Gravitation zwischen den Galaxien hinzuzunehmen. Wie wird sich das Universum dadurch verändern? Wie sieht das Diagramm aus kosmischer Zeit und kosmischem Abstand für unser echtes Universum aus?
Abb. 2.3 Die Raumzeit des Milne-Universums in kosmischen Koordinaten. Es sind nur einige der schrägen grauen Galaxienlinien eingezeichnet. Eigentlich wird die blaue Linie des heutigen Universums (das ist hier der Raum, in dem alle Galaxienweltzeituhren 13,8 Mrd. Jahre anzeigen) auch in beliebiger Entfernung noch gleichmäßig dicht von Galaxienlinien geschnitten. Die grüne Linie entspricht der Gegenwartslinie, die wir zuvor über reflektierte Lichtechos definiert hatten. (Quelle: Eigene Grafik)
2 Die Grenzen des Raums: Wo endet die Welt? 89
Das kommt darauf an, wie viel Materie unser Universum enthält und wie groß der Anteil der Dunklen Energie dabei ist. Wir hatten uns das im letzten Kapitel bereits angeschaut und dabei gesehen, was die Teams um Saul Perlmutter, Brian Schmidt und Adam Riess bei ihren Beobachtungen ferner Supernovaexplosionen herausgefunden haben: Viele Milliarden Jahre lang hat die anziehende Gravitation zwischen den Galaxien die Fluchtbewegung abgebremst, bis vor rund 5 Mrd. Jahren die Dunkle Energie die Oberhand gewann und seitdem die Fluchtbewegung exponentiell beschleunigt. Und wir hatten noch etwas gesehen: Es hängt laut Allgemeiner Relativitätstheorie von der Materiedichte ab, wie der Raum konstanter kosmischer Zeit, also das expandierende Gummituch, gekrümmt ist. Ist nur wenig Materie und damit wenig Gravitation vorhanden, dann ist der Raum negativ gekrümmt. Das Gummituch wäre dann wie eine Sattelfläche, die sich unendlich weit in den Raum hinein erstreckt. Der Extremfall wäre hier das Milne-Universum, bei dem wir die Gravitation ganz weggelassen haben, so als gäbe es bis auf einige federleichte Galaxien gar keine Materie. Wundern Sie sich nicht, dass von dieser Krümmung in Abb. 2.3 nichts zu sehen ist, denn dort haben wir die Räume konstanter kosmischer Zeit ja absichtlich platt gedrückt (blaue waagerechte Linie). Je größer die Materiedichte ist, umso mehr positive Krümmung steuert die Gravitation bei. Dabei ist es egal, um was für Materie es sich handelt und ob die Gravitation anziehend oder – wie bei der Dunklen Energie – aufgrund starken negativen Drucks abstoßend wirkt. Allein die Dichte der Materie oder Energie zählt, wobei man beide über Einsteins E = m ∙ c2 ja immer wahlweise in Massen- oder Energieeinheiten angeben kann. Bei wachsender Materiedichte wird also der negativ gekrümmte Raum immer flacher, bis er bei einer bestimmten kritischen Dichte komplett flach ist und keine Krümmung mehr aufweist. Das entsprechende Gummituch wäre also dann flach wie ein Stück Papier und immer noch unendlich groß. Ist die Materiedichte noch größer, so bekommt der Raum eine positive Krümmung und schließt sich wie die Oberfläche eines Luftballons. Wir erhalten ein endliches geschlossenes Kugeloberflächenuniversum. Gäbe es nur anziehende Gravitation, dann würde die Expansion dieses geschlossenen Universums irgendwann an ein Ende geraten und es würde wieder in sich zusammenfallen, so als ließe man die Luft aus dem Ballon heraus. Die Galaxien würden wieder aufeinander zustürzen und sich in einem großen Endknall in einem einzigen Punkt miteinander vereinen. Wenn aber ein genügend großer Anteil der Materiedichte aus Dunkler Energie besteht, dann kann sich auch das geschlossene Kugeloberflächenuniversum ewig
90 J. Resag
weiter ausdehnen. In älteren Büchern über Kosmologie werden Sie diesen Fall meist gar nicht finden, denn mit der Dunklen Energie hatte damals noch niemand gerechnet. Also schien es damals allgemein klar, dass oberhalb der kritischen Dichte das Universum wieder kollabieren würde. Wie wir aber aus den Supernovadaten gelernt haben, beschleunigt sich die Expansion dank der Dunklen Energie stattdessen sogar! Und trotz dieser Beschleunigung könnte die Dichte des Universums oberhalb der kritischen Dichte liegen und unser Universum wäre wie die Oberfläche einer Kugel in sich geschlossen. Diesen geschlossenen Raum mögen viele Physikerinnen und Physiker am liebsten, denn er löst das Problem mit der Unendlichkeit auf elegante Weise: Der Raum wäre endlich, ohne dass wir irgendwo an eine Grenze stoßen. Aber nur weil etwas schön ist und uns gefällt, muss es noch lange nicht wahr sein. Wir brauchen Beweise, konkrete Beobachtungen, aus denen sich die Materiedichte des Universums ablesen lässt. Auf den ersten Blick scheint es gar nicht so schwer zu sein, die kritische Dichte zu übertreffen und das Universum zu schließen, denn die kritische Dichte entspricht gegenwärtig gerade einmal der Masse von ungefähr 5 Wasserstoffatomen pro Kubikmeter. Das ist nach irdischen Maßstäben ein extrem gutes Vakuum, weit besser als alles, was sich technisch in einem Labor erreichen lässt. Und doch würde die anziehende Gravitation dieser wenigen Wasserstoffatome, gäbe es die Dunkle Energie nicht, gerade eben ausreichen, um die Fluchtbewegung der Galaxien immer langsamer werden zu lassen. Wäre die Dichte nur ein kleines bisschen größer (und gäbe es die Dunkle Energie nicht), würde die Fluchtbewegung sogar eines Tages ganz stoppen und sich umkehren. Damit ist klar, dass die kritische Dichte von der Fluchtgeschwindigkeit der Galaxien abhängt. Je schneller diese in einem bestimmten Abstand von uns wegfliegen, umso größer muss die kritische Dichte sein, um sie gerade eben stoppen zu können (wenn sie rein anziehend wirken würde). Die Rechnung zeigt, dass die kritische Dichte proportional zum quadrierten Hubble-Parameter H2 ist.5 Da sich dieser normalerweise mit der Zeit verändert, bleibt auch die kritische Dichte nicht konstant. Das wird später noch wichtig werden.
5 Die genaue Formel für die kritische Dichte lautet ρc = 3H 2 /8πG mit der Kreiszahl π, der Gravitationskonstante G und dem Hubble-Parameter H = v/d, der angibt, mit welcher Geschwindigkeit v sich Galaxien in der Entfernung d nach dem Hubble-Gesetz von uns entfernen.
2 Die Grenzen des Raums: Wo endet die Welt? 91
Wie viel wiegt das Universum? Auch wenn die Masse von 5 Wasserstoffatomen pro Kubikmeter nicht viel erscheint, so ist doch keineswegs klar, ob die mittlere Dichte der Materie im heutigen Universum es schafft, diese kritische Dichte zu übertreffen und damit den Raum zu einem geschlossenen Kugeluniversum zu krümmen. Zwischen den Sternen und Galaxien liegen schließlich riesige Entfernungen, und wenn man sich die Materie gleichförmig über diese riesigen Räume verteilt denkt, bleibt für den einzelnen Kubikmeter womöglich nicht mehr viel übrig. Erste Abschätzungen bestätigen diese Befürchtung. Wenn man aus dem Licht der Sterne auf ihre Masse schließt und daraus ihre mittlere Massendichte im Universum berechnet, dann landet man nämlich bei nur 0,5 % der kritischen Dichte. Das Universum wäre demnach unendlich, offen und negativ gekrümmt, ganz ähnlich wie beim Milne-Universum mit seinen ungebremst fliehenden Galaxien. Nun wissen wir aber aus den Supernovadaten bereits, dass die Fluchtbewegung der Galaxien sich in den ersten rund 9 Mrd. Jahren deutlich abgebremst hat. Es muss also mehr Materie vorhanden sein, als wir direkt in Form von Sternen sehen können. Kandidaten für diese nicht leuchtende Materie gibt es viele: Gas- und Staubwolken, ausgebrannte Sternüberreste oder Braune Zwerge (das sind gescheiterte Sterne, deren Masse nicht ausreicht, um die Kernfusion zu zünden). Nicht jedes Atom im Universum muss schließlich in einem leuchtenden Stern stecken. Wie kann man diese Materie ausfindig machen? Nun ja, es muss ja nicht immer sichtbares Licht sein. Gaswolken können beispielsweise Radiostrahlung oder, wenn sie sehr heiß sind, sogar Röntgenstrahlung aussenden und sich so verraten. Staubwolken können wiederum Licht absorbieren und so vor dem Hintergrund der Sterne sichtbar werden. Am einfachsten ist es aber, das auszunutzen, was jede Materie auszeichnet: Sie bewirkt Gravitation! Einer der ersten, der schon in den 1930er-Jahren auf diese Weise die Menge an Materie im Coma-Galaxienhaufen bestimmte, war der Schweizer Astronom Fritz Zwicky (1898–1974). Er schaute sich an, wie schnell sich die Galaxien in dem Haufen bewegen, und berechnete so die Gesamtmasse des Haufens. Wie er herausfand, muss diese Gesamtmasse viel größer sein als die Masse der darin sichtbaren Sterne. Die Galaxien im Coma-Haufen bewegen sich nämlich ziemlich schnell und müssten aus dem Haufen fliegen, würden sie nicht durch die Anziehungskraft großer Materiemengen im Haufen
92 J. Resag
daran gehindert. Gäbe es diese großen Materiemengen nicht, hätte sich der Galaxienhaufen längst aufgelöst. Diese eigentlich sehr bemerkenswerte Schlussfolgerung interessierte damals leider kaum jemanden und geriet bald wieder in Vergessenheit. Es war ein bisschen wie bei Alpher, Gamow und Herman, die wir im letzten Kapitel kennengelernt haben. Ihre Berechnung der Heliumentstehung in den ersten heißen Minuten nach dem Urknall wurde in den späten 1940er-Jahren ebenso ignoriert wie ihre Vorhersage der kosmischen Hintergrundstrahlung. Aber wichtige Erkenntnisse lassen sich nicht ewig aufhalten. So wurden ähnlich wie bei Gamow und seinem Team auch die Ergebnisse von Zwicky in etwas anderer Form fast 3 Jahrzehnte später wiederentdeckt, und zwar von einer astronomiebegeisterten Frau namens Vera Rubin (1928–2016), die sich schon als junges Mädchen aus einer Pappröhre und einer Linse ihr eigenes kleines Teleskop gebaut hatte. Als man ihr später den Zugang zum Masterstudium an der Princeton University wegen ihres Geschlechts verweigerte, ging sie an die Cornell University und promovierte schließlich im Jahr 1954 bei George Gamow an der Georgetown University. Dabei war es für die junge Frau nicht leicht, in der von Männern dominierten Wissenschaftswelt Fuß zu fassen, zumal sie früh geheiratet hatte und im Lauf der Zeit 4 Kinder bekam. Doch Vera Rubin sah es nicht ein, zugunsten ihrer Karriere auf eine Familie zu verzichten. Sie war entschlossen, beides unter einen Hut zu bekommen. Dabei konnte sie auf ihre Eltern zählen, die sie immer tatkräftig unterstützten. Einmal fuhren ihre Eltern sie und ihr gerade erst geborenes Kind fast 500 km durch Eis und Schnee und passten auf das kleine Baby auf, damit Vera auf einer Tagung persönlich ihre Masterarbeit vortragen konnte. Diese Gelegenheit wollte sie niemand anderem überlassen. Lästig waren die vielen kleinen Benachteiligungen, die sie als Frau erdulden musste. Aber immerhin erhielt sie als eine der ersten Frauen Zutritt zum Palomar-Observatorium bei San Diego. Die Zeiten hatten sich also in den 6 Jahrzehnten seit Henrietta Swan Leavitt (Stichwort Cepheiden) durchaus gebessert. Eine Damentoilette gab es am Observatorium allerdings nicht, was oft als Argument dafür herhalten musste, Frauen den Zutritt zu verwehren. Doch Vera Rubin schnitt sich einfach aus einem Stück Papier das Bild eines kleinen Damenrocks zurecht und klebte es auf die Toilettentür: Jetzt hatte sie ihre Damentoilette. Anders als Zwicky in den 1930er-Jahren interessierte sich Rubin in den 1970er-Jahren nicht für die Bewegung der Galaxien in Galaxienhaufen, sondern für die Bewegung der Sterne in Galaxien. Bei Spiralgalaxien wie unserer Milchstraße oder der Andromeda-Galaxie kreisen die meisten Sterne
2 Die Grenzen des Raums: Wo endet die Welt? 93
in einer gemeinsamen Scheibe um das Zentrum. Unsere Sonne bewegt sich dabei mit einer Geschwindigkeit von 220 km/s und braucht für einen kompletten Umlauf rund 230 Mio. Jahre. Als Vera Rubin sich die Umlaufbewegung der Sterne in der AndromedaGalaxie und später auch in anderen Galaxien anschaute, machte sie eine überraschende Entdeckung. Eigentlich hatte sie erwartet, dass die Sterne weiter außen langsamer um das Zentrum kreisen als weiter innen. So müsste es zumindest der Fall sein, wenn sich ein großer Teil der Materie zum Zentrum der Galaxien hin konzentrieren würde, wo die Sterne sehr viel dichter beieinanderliegen als weiter außen. Es sollte eigentlich so ähnlich sein wie bei unserem Sonnensystem, wo die Planeten weiter außen auch langsamer um die Sonne kreisen als weiter innen. Doch die Beobachtungen, die sie machte, zeigten ein ganz anderes Bild: Auch ganz außen kreisen die Sterne mit ungefähr derselben Geschwindigkeit um das Zentrum wie weiter innen. Außerdem waren sie mit rund 200–300 km/s ziemlich schnell unterwegs und müssten eigentlich aus der Kurve fliegen, wenn nur die Anziehungskraft der sichtbaren Materie in der Galaxie sie in Richtung Zentrum ziehen würde. Die sichtbare Materie reicht also nicht aus, um die Bewegungen der Sterne zu erklären. Es muss noch jede Menge an unsichtbarer Materie geben. Diese kann nicht alleine im Zentrum der Galaxie konzentriert sein, denn sonst müssten die Sterne weiter außen deutlich langsamer kreisen als weiter innen. Die unsichtbare Materie muss vielmehr weit über die sichtbare Galaxienscheibe in den Raum hinausreichen, wie man aus den Sternbewegungen ableiten kann. Das, was wir als leuchtende Galaxie am Himmel sehen, ist offenbar in eine riesige Wolke, einen sogenannten Halo, aus unsichtbarer Materie eingebettet. Die Beobachtungen von Vera Rubin waren sehr überzeugend, und nach und nach setzte sich die Gewissheit durch, dass es sehr viel mehr Materie im Universum geben muss, als wir direkt sehen können. Immer wieder zeigte sich die Gravitationswirkung dieser unsichtbaren Materie. Beispielsweise wird Licht, das am Rande großer Galaxienhaufen vorbeifliegt, auf dem Weg zu unserer Erde durch die Gravitation des Haufens von seinem geraden Weg abgelenkt, sodass der Haufen wie eine sogenannte Gravitationslinse wirkt. Über diesen Gravitationslinseneffekt kann man die Masse des Galaxienhaufens abschätzen, und siehe da: Sie muss viel größer sein als die Masse, die seine sichtbaren Sterne auf die Waage bringen. Viele ihrer Kolleginnen und Kollegen hätten Vera Rubin für ihre bahnbrechende Entdeckung den Nobelpreis gegönnt, doch es kam anders. Irgendwie konnten sich die Verantwortlichen zeitlebens nicht dazu durchringen,
94 J. Resag
und so starb sie schließlich im Jahr 2016 mit 88 Jahren, ohne ihn erhalten zu haben. Immerhin wurde ihr posthum die Ehre zuteil, dass im Januar 2020 das Vera C. Rubin Observatory in Chile nach ihr benannt wurde. Sie hätte sich sicher sehr über diese Würdigung ihrer Arbeit gefreut. Zu schade, dass sie diese Ehrung nicht mehr miterleben konnte. Bleibt die Frage: Wie viel Materie, sichtbare wie unsichtbare, enthält nun das heutige Universum? Gibt es genug Materie, um die kritische Dichte zu übertreffen und den Raum zu einem endlichen Kugeloberflächenuniversum abzuschließen? Nimmt man alle Beobachtungsdaten zusammen, dann schält sich heraus, dass die gesamte Materiedichte im Universum bei rund 30 % der kritischen Dichte liegt. Das wäre demnach zu wenig. Aber wir haben noch etwas vergessen. Bisher haben wir nur die Materie betrachtet, die sich in Galaxien und Galaxienhaufen zusammenballt und sich dort über ihre anziehende Gravitation bemerkbar macht. Aber wir haben im letzten Kapitel noch eine ganz andere Form von Materie kennengelernt: die Dunkle Energie. Sie ist vollkommen gleichmäßig im Raum verteilt und besitzt aufgrund ihres negativen Drucks eine abstoßende Gravitation, mit der sie seit rund 5 Mrd. Jahren das Universum immer schneller auseinandertreibt. Aus den Supernovadaten kann man ablesen, dass ihre Dichte bei etwas mehr als dem Doppelten der Dichte aller anziehend wirkenden Massen im Universum liegt, nämlich bei rund 70 % der kritischen Dichte (wobei wir wie immer jederzeit über E = mc2 Energie in Masse umrechnen können und umgekehrt). Damit ist das Materiemenü unseres Universums komplett: rund 30 % anziehend wirkende Materie, konzentriert in Galaxien und Galaxienhaufen, sowie etwa 70 % Dunkle Energie, gleichmäßig im Raum verteilt und gravitativ abstoßend. Das ergibt zusammen rund 100 %, also ungefähr die kritische Dichte. Wie genau dieses Ergebnis ist, werden wir später noch sehen, aber es ist schon ziemlich bemerkenswert. Wären es genau 100 %, dann wäre der Raum der gleich alten Galaxien ohne jede mittlere Raumkrümmung und damit gleichsam flach, so wie wir uns den 3-dimensionalen Raum normalerweise vorstellen. Nach einem Zufall sieht das nicht aus, und es ist sehr wahrscheinlich auch keiner, mehr dazu später.
Dunkle Materie Mit 30 % der kritischen Dichte gibt es im Universum weit mehr anziehend wirkende Materie, als die Sterne mit ihren kläglichen 0,5 % auf die Waage bringen. Es muss also jede Menge Materie im Universum geben, die nicht
2 Die Grenzen des Raums: Wo endet die Welt? 95
in leuchtenden Sternen gebunden ist. Sternleichen und interstellares Gas kämen dafür prinzipiell infrage. Aber das scheint nicht auszureichen. Mehr Sternleichen als Sterne wird es wohl kaum geben, denn so alt ist unser Universum noch nicht; die zahlreichen kleineren Sterne leben alle noch. Und große Mengen an interstellarem Gas würden uns normalerweise auffallen, denn dieses Gas strahlt je nach Temperatur meist entweder Licht, UVStrahlung, Röntgenstrahlen oder Radiowellen ab. Und dennoch sehen wir einen Großteil der anziehend wirkenden Materie nicht, weder im sichtbaren Licht noch in anderen Bereichen des elektromagnetischen Spektrums. Der größte Teil scheint wirklich unsichtbar zu sein und sich nur durch seine Gravitation bemerkbar zu machen. Diese Materie bleibt komplett im Dunkeln, weshalb wir sie als Dunkle Materie bezeichnen wollen. Woraus besteht diese Dunkle Materie? Wären es Atome, dann würden wir vermutlich in irgendeinem Teil des elektromagnetischen Strahlungsspektrums auf sie stoßen. Aber muss denn nicht jede Materie aus Atomen bestehen? Es gibt tatsächlich eine Möglichkeit, das zu überprüfen. Wir können nämlich herausfinden, wie viele Protonen und Neutronen es im heutigen Universum geben muss, und in diesen Kernbausteinen steckt fast die gesamte Masse aller Atome. Dafür müssen wir zu den ersten Minuten nach dem Urknall zurückkehren, also in die Zeit, als unser Universum ein einziger nuklearer Fusionsreaktor war. Auf 7 Protonen kam damals 1 Neutron, und nahezu alle Neutronen endeten in Heliumkernen, sodass auch heute noch etwa 3/4 der atomaren Masse als Wasserstoff und rund 1/4 als Helium (also Helium-4) vorliegt. Schwerere Elemente wie Sauerstoff oder Kohlenstoff sind erst später im Zentrum großer Sterne entstanden. Leider können wir aus dem Heliumanteil nicht auf die räumliche Dichte der Protonen und Neutronen rückschließen, denn zur Erklärung reicht es aus, dass das Proton-Neutron-Verhältnis damals bei 7:1 lag. Aber die Fusion der Protonen und Neutronen zu Helium ist nicht perfekt. Zu schnell fallen Temperatur und Dichte im heißen Urplasma ab, sodass einige wenige Atomkerne übrig bleiben, die den Sprung bis zum Helium nicht mehr geschafft haben. Ein gutes Beispiel sind die Deuteriumkerne, also die Atomkerne von schwerem Wasserstoff, bestehend aus einem Proton und einem Neutron. Sie bilden die Eintrittspforte für die Fusionsreaktionen in Richtung Helium und fangen normalerweise ein weiteres Proton und Neutron ein, sodass sich ein stabiler Heliumkern bildet. Aber sobald Dichte und Temperatur zu weit abgefallen sind, gelingt das einigen von ihnen nicht mehr: Sie bleiben übrig. Das bedeutet umgekehrt: Je größer die Anzahl der Nukleonen, also der Protonen und Neutronen, ist, umso länger bleibt ihre Dichte in einem
96 J. Resag
Bereich, in dem die Fusion in Richtung Helium möglich ist, und umso weniger Deuteriumkerne bleiben ohne Fusionspartner übrig. Ähnliche Überlegungen kann man auch für Helium-3 oder Lithium anstellen. Auch wenn diese Elemente am Ende der heißen Fusionsphase kurz nach dem Urknall nur in relativ geringen Mengen übrig bleiben, so ist ihr Anteil doch sehr empfindlich auf die Zahl der Nukleonen, die es damals gab und die es auch heute noch im Inneren der Atomkerne gibt. Wenn man die Fusionsprozesse im frühen Universum in Computermodellen nachrechnet, dann erhält man die beste Übereinstimmung mit den gemessenen Konzentrationen von Deuterium, Helium-3 und Lithium, wenn im heißen Fusionsplasma ein Nukleon auf rund 1,6 Mrd. Photonen kommt. Dieses Zahlenverhältnis hat sich bis heute kaum geändert. Wir können also aus der heutigen Dichte der Photonen, etwa 400 Mio. Photonen pro Kubikmeter, direkt auf die heutige Dichte der Nukleonen schließen. Sie muss bei 0,25 Nukleonen pro Kubikmeter liegen. Das ist 1/20 oder 5 % der kritischen Dichte, die bei rund 5 Nukleonenmassen pro Kubikmeter liegt. Für mich ist es immer wieder erstaunlich, dass solche Argumentationen überhaupt möglich sind. Wenn wir die Theorie des heißen Urknalls ernst nehmen, dann können wir aus den Häufigkeiten von Deuterium, Helium-3 und Lithium tatsächlich ausrechnen, dass die Massendichte aller Atome im heutigen Universum bei rund 5 % der kritischen Dichte liegen muss. Das ist immerhin 10-mal mehr als die Masse, die in den Sternen steckt (0,5 % der kritischen Dichte) und bedeutet, dass ein Großteil der Atome nicht in den leuchtenden Sternen, sondern im interstellaren Gas sowie in gescheiterten oder ausgebrannten Sternen zu finden ist. Was wissen wir also jetzt über die anziehend wirkende Materie im Universum, die 30 % der kritischen Dichte ausmacht? Offenbar besteht nur 1/6 davon, das sind 5 % der kritischen Dichte, aus Atomen. Der gesamte Rest, also 25 % der kritischen Dichte, muss aus etwas anderem bestehen. Das ist genau die Dunkle Materie, die wir nirgends im elektromagnetischen Spektrum sehen können und die sich bisher nur durch ihre anziehende Gravitation bemerkbar macht. Wenn es nicht Atome sind, aus denen die Dunkle Materie besteht, was könnte es sonst sein? Um ehrlich zu sein: Wir wissen es nicht. Vieles spricht dafür, dass es sich um noch unbekannte, relativ schwere Elementarteilchen handelt, wie sie von vielen modernen Teilchentheorien gefordert werden. In großen Wolken hüllen diese Teilchen die Galaxien ein und interessieren sich weder für Licht oder sonstige elektromagnetische Strahlung noch für
2 Die Grenzen des Raums: Wo endet die Welt? 97
Abb. 2.4 Zusammensetzung der gesamten Materie- und Energiedichte im heutigen Universum. Dunkle Materie und Atome besitzen eine anziehende Gravitation und formen Galaxien und Galaxienhaufen, während die gleichmäßig verteilte Dunkle Energie aufgrund ihres starken negativen Drucks eine abstoßende Gravitation besitzt und das Universum immer schneller auseinandertreibt. (Quelle: Eigene Grafik)
Atome. Sie sind unsichtbar und fliegen vermutlich in großer Zahl sogar ständig durch Sie, durch mich und durch unsere komplette Erde hindurch, ohne irgendwo anzuecken oder Spuren zu hinterlassen. Deshalb ist es auch so schwer, sie aufzuspüren, obwohl dies in vielen Experimenten auf der Welt intensiv versucht wird. So wie die Dunkle Energie ist auch die Dunkle Materie bis heute ein großes Mysterium, das wir noch nicht verstehen. Oder anders gesagt: Bis heute kennen wir nur 5 % der gesamten Materie und Energie im Universum (Abb. 2.4).
Spurensuche in der kosmischen Hintergrundstrahlung „Außergewöhnliche Behauptungen erfordern außergewöhnlich starke Beweise“, hat der US-amerikanische Astronom und Schriftsteller Carl Sagan in der Fernsehserie Unser Kosmos einmal gesagt. Und die Behauptung, nur 5 % aller Materie im Universum bestünde aus Atomen, 25 % aus irgendeiner unbekannten Dunklen Materie und sogar 70 % aus rätselhafter
98 J. Resag
Dunkler Energie, ist zweifellos außergewöhnlich. Es wäre also gut, wenn wir noch weitere stichhaltige Beweise finden könnten, die dieses Ergebnis untermauern. Wie sich zeigt, ist es wieder einmal die allgegenwärtige kosmische Hintergrundstrahlung, die uns weiterhilft. Schon in den Jahren nach 1964, als Penzias und Wilson sie als störendes Hintergrundrauschen in ihrer Antenne entdeckten, hatte sie der Theorie des heißen Urknalls zum Durchbruch verholfen. Und auch bei der Zusammensetzung des Universums kann sie uns wieder wichtige Hinweise liefern. Auf den ersten Blick sieht es allerdings gar nicht so aus, als enthielte diese schwache kosmische Mikrowellenstrahlung außer ihrer Temperatur von 2,7 K überhaupt noch irgendwelche anderen wertvollen Informationen. Vollkommen gleichmäßig scheint sie uns von jeder Stelle des Himmels zu erreichen. Das war zumindest der Eindruck bei den Messungen, die nach ihrer Entdeckung vom Erdboden aus vorgenommen wurden. Leider lässt sich die kosmische Hintergrundstrahlung vom Boden aus nur eingeschränkt beobachten, da die Erdatmosphäre einen Teil der Strahlung abblockt. Also schickte die NASA im Jahr 1989 den Satelliten COBE (Cosmic Background Explorer) in die Erdumlaufbahn. Er sollte in der Lage sein, die Hintergrundstrahlung viel genauer zu vermessen, als dies von der Erde aus möglich war. Die Resultate, die COBE lieferte, waren wegweisend: Ganz so gleichmäßig, wie es zuerst schien, ist die Mikrowellenstrahlung am Himmel nämlich gar nicht. Dabei sind die Messungen nicht ganz einfach zu interpretieren, denn es gibt störende Objekte im Universum, die ebenfalls Mikrowellenstrahlung aussenden. Ihre Störstrahlung verfälscht das Bild und muss aufwendig berechnet und abgezogen werden. Ein weiterer störender Effekt entsteht durch die Eigenbewegung der Erde. Bisher haben wir uns die Expansion des Universums nämlich etwas idealisiert vorgestellt: Wie Staubkörner, die auf einem sich ausdehnenden Gummituch festkleben, sollten sich die Galaxien umso schneller voneinander entfernen, je größer ihr Abstand bereits ist. Diese reine unverfälschte Fluchtbewegung bezeichnet man auch als Hubble-Fluss. Aber ganz so fest kleben die Staubkörner in Wirklichkeit gar nicht an dem Gummituch. Sie können sich vielmehr langsam darauf bewegen. So kommt beispielsweise unsere Nachbargalaxie Andromeda mit rund 110 km/s auf die Milchstraße zu, anstatt sich von uns zu entfernen. Solche Abweichungen vom Hubble-Fluss entstehen durch die Anziehungskräfte zwischen einzelnen Galaxien und liegen meist bei wenigen 100 km/s. Relativ zur Lichtgeschwindigkeit von 300.000 km/s ist das im Promillebereich.
2 Die Grenzen des Raums: Wo endet die Welt? 99
Zum Vergleich: Die Fluchtgeschwindigkeit des rund 7 Mrd. Lichtjahre entfernten Galaxienhaufens El Gordo liegt bei etwa der halben Lichtgeschwindigkeit, da machen einige Promille mehr oder weniger kaum etwas aus. Bei großen Entfernungen dominiert also klar der Hubble-Fluss. Die Eigenbewegung der Erde relativ zum Hubble-Fluss spiegelt sich in der kosmischen Hintergrundstrahlung wider, die wir am Himmel sehen. In Flugrichtung, in der wir der Hintergrundstrahlung entgegenfliegen, erscheint diese etwas heißer, was einer etwas geringeren Rotverschiebung entspricht. In der Gegenrichtung erscheint sie dagegen etwas kälter. Der Effekt ist nicht groß und beträgt gerade einmal 0,0036 K. Das entspricht rund 1 ‰. Daraus kann man ableiten, dass sich unsere Erde mit 370 km/s relativ zum Hubble-Fluss bewegt. Um die kosmische Hintergrundstrahlung vollkommen unverfälscht zu sehen, müssen wir neben störenden Vordergrundquellen auch den Einfluss der Erdbewegung aus den COBE-Daten herausrechnen. Was übrig bleibt, ist ein klarer Blick auf das heiße Plasma, so wie es 380.000 Jahre nach dem Urknall unser Universum erfüllte. Es ist sein Licht, das wir heute als kosmische Hintergrundstrahlung am Himmel messen, wenn auch dank der kosmischen Expansion um das Tausendfache kälter, als es bei seiner Entstehung einst war. Wäre dieses heiße Plasma damals vollkommen gleichmäßig im Raum verteilt gewesen, dann hätten sich niemals Sterne, Galaxien und Galaxienhaufen daraus entwickeln können. Die Gravitation hätte schlicht keinen Ansatzpunkt gehabt, um diese Materie im Lauf der Zeit irgendwo zusammenziehen zu können. Erst wenn es in einem Raumbereich einen kleinen Materieüberschuss gibt, ist dessen zusätzliche Gravitation in der Lage, weitere Materie in den Bereich zu ziehen und damit den Materieüberschuss zu vergrößern. Dieser sich selbst verstärkende Prozess erhöht im Lauf der Zeit die anfänglichen Dichteunterschiede und lässt schließlich die Galaxien entstehen, die wir heute am Himmel sehen. Es muss also zumindest kleine räumliche Dichteunterschiede im heißen Plasma gegeben haben, und die sollten sich in der räumlichen Temperaturverteilung der Hintergrundstrahlung am Himmel widerspiegeln. Die spannende Frage im Jahr 1989 war: Würden die Instrumente von COBE empfindlich genug sein, diese geringen Schwankungen aufzuspüren? Das COBE-Team wurde nicht enttäuscht. Tatsächlich fanden die Instrumente winzige Abweichungen von etwa einem Hunderttausendstel (also 0,001 %), die sich wie ein Flickenteppich über den Himmel erstrecken. Es gibt größere und kleinere Temperaturflecken, die mal etwas heißer oder etwas kälter als die Durchschnittstemperatur sind, wobei die
100 J. Resag
größten Flecken ungefähr eine Ausdehnung von einem Winkelgrad am Himmel haben. Das ist etwa doppelt so groß wie der sichtbare Winkeldurchmesser des Vollmonds. Stellen Sie sich also einen Vollmond mit doppeltem Durchmesser vor, dann haben Sie einen guten Eindruck davon, wie groß die größten Temperaturflecken in der Hintergrundstrahlung am Himmel sind. Genau genommen war COBE mit seiner Winkelauflösung von 7 ° nur in der Lage, ein sehr unscharfes Bild der Temperaturflecken am Himmel zu sehen. Man konnte nur grob erkennen, dass die Temperatur der Hintergrundstrahlung nach Abzug aller Störeffekte nicht überall am Himmel exakt dieselbe war. Eine viel bessere Auflösung erreichten in den 2000erJahren die US-amerikanische Raumsonde WMAP (Wilkinson Microwave Anisotropy Probe) und ihr Nachfolger, das europäische Planck-Weltraumteleskop. Sie zeichneten ein immer genaueres Bild des Fleckenmusters, in dem alle größeren und kleineren Temperaturflecken gut zu erkennen sind (siehe Abb. 2.5). COBE, WMAP und Planck haben also klar gezeigt, dass es feine Temperaturunterschiede und damit Dichteunterschiede im heißen Urplasma gibt, die die Gravitation im Lauf der Jahrmilliarden zu Sternen, Galaxien und Galaxienhaufen verdichten konnte. Das hatten wir ja auch nicht anders erwartet. Doch in dem wie zufällig aussehenden Fleckenmuster am Himmel
Abb. 2.5 So sieht das Planck-Weltraumteleskop das schwache Temperaturfleckenmuster in der kosmischen Hintergrundstrahlung am Himmel. Die etwas wärmeren Himmelsbereiche sind in rötlichen, die etwas kälteren Bereiche in bläulichen Farbtönen dargestellt. Die gesamte Himmelskugel ist hier in der sogenannten MollweideProjektion dargestellt, die man auch oft für die Darstellung der Erdoberfläche verwendet. (Credit: ESA and the Planck Collaboration, CC BY-SA 4.0. Quelle: https:// www.esa.int/ESA_Multimedia/Images/2013/03/Planck_CMB)
2 Die Grenzen des Raums: Wo endet die Welt? 101
steckt noch weit mehr Information, als es zunächst den Anschein hat. Und um diese aus dem Fleckenmuster herauslesen zu können, müssen wir genauer verstehen, wie es zustande kommt. Nehmen wir einmal an, dass es bereits wenige Sekunden nach dem Urknall dichtere und dünnere Bereiche in der heißen expandierenden Urmaterie gab. Wie diese entstanden sein könnten, werden wir uns später in diesem Buch noch genauer ansehen, es braucht uns hier erst einmal nicht weiter zu interessieren. Die Dichteunterschiede sind nur gering und verteilen sich zufällig über verschiedene Größenbereiche, d. h., es gibt kleinere und größere Bereiche mit etwas dichterer oder dünnerer Materie. Was geschieht mit diesen Bereichen in den 380.000 Jahren, bis das Plasma durchsichtig wird und sein Licht als kosmische Hintergrundstrahlung freigibt? In den dichteren Bereichen ist das Plasma etwas heißer und sein Druck ist größer, sodass sich der Bereich ausdehnt und dabei abkühlt. Wie ein Pendel schwingt das Plasma dabei über seine Gleichgewichtslage hinaus, sodass aus dem dichten, heißen Bereich schließlich ein dünner, kühler Bereich mit geringerem Druck wird. Danach kehrt sich die Schwingung um, und der Bereich verwandelt sich schließlich wieder zurück in einen dichteren, heißeren Bereich. Diese Schwingungen zwischen dicht-heiß nach dünn-kühl und zurück laufen umso langsamer ab, je größer der Bereich ist. Es ist ähnlich wie bei einer Gitarrensaite, die umso langsamer schwingt, je länger sie ist. Die besonders großen Bereiche schwingen also nur sehr langsam. Sie schaffen in den 380.000 Jahren bis zur Freigabe der Hintergrundstrahlung nur eine halbe Schwingung, d. h., dicht-heiße Plasmabereiche verwandeln sich in dieser Zeit in dünn-kühle und umgekehrt. Diese Bereiche bilden die größten Temperaturflecken, die wir im Fleckenmuster der Hintergrundstrahlung sehen. Ein etwas kleinerer Plasmabereich, der etwas schneller schwingt, schafft dagegen vielleicht eine 3/4 Schwingung und bleibt so genau zwischen dicht-heiß und dünn-kühl hängen, wenn die Hintergrundstrahlung entsteht und sich das Plasma in durchsichtiges Gas verwandelt. Wir werden ihn also nicht als heißen oder kalten Fleck in der Hintergrundstrahlung am Himmel sehen. Erst wenn der Bereich ungefähr die halbe Größe hat und damit doppelt so schnell schwingt, schafft er eine volle Dicht-dünn-dichtSchwingung (oder umgekehrt) und ist wieder gut als Temperaturfleck sichtbar. Im Temperaturfleckenmuster der Hintergrundstrahlung werden also nicht alle Fleckengrößen mit gleicher Intensität vorkommen. Es sollte besonders intensive Flecken bei den Fleckengrößen geben, die in den 380.000 Jahren
102 J. Resag
seit dem Urknall eine halbe Schwingung (große Flecken), eine ganze Schwingung (halb so große Flecken), 3 halbe Schwingungen usw. schaffen. Das war die Erwartung der Physikerinnen und Physiker, als sie das Fleckenmuster untersuchten, und tatsächlich fanden sie genau dieses Intensitätsmuster darin wieder (siehe Abb. 2.6). Das Schöne an diesem Intensitätsmuster ist, dass in ihm wertvolle Informationen über unser Universum stecken. Man kann nämlich sehr genau berechnen, wie schnell und wie heftig das Plasma der verschieden großen Dichtebereiche schwingen sollte und wie sich das auf das Intensitätsmuster der verschieden großen Flecken auswirkt. Ein Beispiel sind die großen Flecken mit einer Winkelgröße von 1 ° am Himmel, die dem hohen Peak links in Abb. 2.5 entsprechen. Da diese Bereiche in der Zeit vom Urknall bis zur Freigabe der Hintergrundstrahlung genau eine halbe Schwingung (dicht-dünn oder umgekehrt) geschafft haben, kennt man ihre Schwingungsfrequenz und kann daraus berechnen, wie groß sie damals gewesen sein müssen: Große Bereiche schwingen ja langsamer als kleine. Außerdem weiß man genau, wann sie entstanden sind, und kann so aus der Expansion des Universums auf ihre Entfernung schließen. Und wenn man weiß, wie groß und wie weit entfernt etwas ist, dann weiß man auch, wie groß es uns am Himmel erscheinen muss. Dabei gibt es allerdings eine Feinheit zu beachten: Falls das Universum nicht flach ist, sondern eine mittlere Raumkrümmung besitzt, dann wirkt diese Raumkrümmung wie eine gigantische Linse, die die sichtbare Größe
Abb. 2.6 Stärke der Temperaturabweichungen in der kosmischen Hintergrundstrahlung für verschiedene Fleckengrößen. (Credit: ESA and the Planck Collaboration, CC BY-SA 4.0. Quelle: https://www.esa.int/ESA_Multimedia/Images/2013/03/Planck_ Power_Spectrum (Beschriftung verändert))
2 Die Grenzen des Raums: Wo endet die Welt? 103
der Flecken am Himmel verändert. Ist der Raum positiv gekrümmt wie bei einem endlichen geschlossenen Kugeloberflächenuniversum, dann erscheinen die Temperaturflecken größer als in einem flachen, nicht gekrümmten Universum. Ist der Raum dagegen negativ gekrümmt wie die Oberfläche eines Sattels, dann erscheinen sie kleiner. Das eröffnet eine faszinierende Möglichkeit: Da wir wissen, wie groß und wie weit entfernt die großen Temperaturflecken sind, können wir aus ihrer sichtbaren Winkelgröße am Himmel herauslesen, ob und wie stark unser Universum gekrümmt ist. Wir können tatsächlich herausfinden, ob der Raum des Weltalls wie eine einzige riesige Linse wirkt oder nicht. Das Ergebnis lautet: Wir können keinerlei mittlere Krümmung des Universums feststellen, d. h., das Universum ist flach, so wie wir uns den 3-dimensionalen Raum normalerweise auch vorstellen. Und da Krümmung und Materiedichte miteinander zusammenhängen, bedeutet das zugleich, dass die mittlere Dichte aller Massen und Energien im Universum der kritischen Dichte entspricht, und zwar mit einer maximalen Abweichung von höchstens 1 %. Ich vermute, Carl Sagan, der Ende 1996 verstorben ist, wäre begeistert gewesen. Seine Forderung nach starken Beweisen für außergewöhnliche Behauptungen haben wir klar erfüllt, denn unser Ergebnis passt hervorragend zu unserem früheren Resultat, dass sich die Dichte der Atome, der Dunklen Materie und der Dunklen Energie insgesamt zur kritischen Dichte aufsummieren. Und man kann sogar noch mehr aus dem Fleckenmuster der kosmischen Hintergrundstrahlung herauslesen. Dafür müssen wir uns anschauen, wie sich die Dunkle Materie nach dem Urknall verhält. Anders als das heiße Plasma, aus dem später die Wasserstoff- und Heliumatome entstehen, schwingt die Dunkle Materie nämlich nicht zwischen dicht und dünn hin und her. Ihre noch unbekannten Teilchen sind ziemlich apathische Einzelgänger, die kaum Notiz von den herumschwirrenden Protonen, Heliumkernen, Elektronen und der aggressiven elektromagnetischen Strahlung nehmen, in der sie baden. Unbeirrt folgen sie allein dem Ruf der Schwerkraft, sodass sich die Dunkle Materie in den dichteren Bereichen langsam, aber sicher immer weiter verdichtet. Kurz nach dem Urknall sind Dunkle Materie und das heiße Urplasma noch im Gleichtakt. Dort wo das Plasma dicht ist, hat auch die Dunkle Materie eine höhere Dichte. Doch in den großen Bereichen kehrt sich dieses Verhältnis durch die halbe Plasmaschwingung von dicht nach dünn bzw. von dünn nach dicht komplett um. Bei der Freigabe der Hintergrundstrahlung 380.000 Jahre nach dem Urknall ist in den großen
104 J. Resag
Dichtebereichen das Plasma dort dünn, wo die Dunkle Materie dicht ist (und umgekehrt). Dünnes Plasma bedeutet niedrigere Temperatur und energieärmeres Licht, das sich auch noch aus dem Schwerkraftsog der dichteren Dunklen Materie befreien muss und dadurch weitere Energie verliert. Die Effekte der Schwerkraft und der Plasmaschwingung wirken bei den großen Dichtebereichen in dieselbe Richtung und verstärken dadurch die Temperaturunterschiede der großen Flecken am Himmel. Das ist der Grund dafür, warum der erste Peak links in Abb. 2.6 so hoch ist. Bei den halb so großen Bereichen, deren Plasma eine ganze Dicht-dünn-dichtSchwingung schafft, wirken die beiden Effekte dagegen gegenläufig, was den zweiten Peak von links abschwächt. Man kann ziemlich genau ausrechnen, wie stark die Dichte des Plasmas (aus dem ja später die Atome entstehen) und die Dichte der Dunklen Materie die Höhen der einzelnen Peaks beeinflussen. Daher kann man umgekehrt aus der Höhe der Peaks auf das Dichteverhältnis von atomarer und Dunkler Materie im Universum zurückschließen. Das Ergebnis passt hervorragend zu unseren bisherigen Erkenntnissen: Ein weiterer starker Beweis für unsere außergewöhnlichen Behauptungen.
Vom Gas zu Galaxien Man kann noch weitere Eigenschaften unseres Universums aus dem Temperaturmuster der kosmischen Hintergrundstrahlung ableiten und sie mit anderen astronomischen Beobachtungen abgleichen. Die Details würden hier zu weit führen. Wichtig für uns ist nur, dass alles sehr gut zusammenpasst. Alles in allem ergibt sich so ein konsistentes Bild für unseren Kosmos, das man als das kosmologische Standardmodell bezeichnet. Dieses Modell fasst alles zusammen, was wir bisher über das heutige Universum herausgefunden haben: Es ist 13,8 Mrd. Jahre alt und entstand in einem heißen Urknall. Seitdem expandiert es. Es ist räumlich flach (also ohne mittlere Raumkrümmung), d. h., seine Materie-Energie-Dichte entspricht der kritischen Dichte, wobei etwa 30 % davon anziehend wirkende Materie sind (5 % Atome und 25 % Dunkle Materie), die sich in Galaxien und Galaxienhaufen zusammenballen, während der Rest von 70 % auf die gleichmäßig im Raum verteilte Dunkle Energie entfällt, deren abstoßende Gravitation unser Universum seit 5 Mrd. Jahren immer schneller auseinandertreibt. Neutrinos oder Photonen brauchen wir für die heutige Materiedichte nicht weiter zu beachten. Sie sind zwar sehr zahlreich, tragen aber im heutigen Universum nur noch sehr wenig Energie.
2 Die Grenzen des Raums: Wo endet die Welt? 105
In der wissenschaftlichen Literatur bezeichnet man dieses kosmologische Standardmodell auch kurz als ΛCDM-Modell (sprich: Lambda-CDMModell ). Der griechische Buchstabe Λ steht dabei für Einsteins kosmologische Konstante, also für die zeitlich konstante Dunkle Energie, und das CDM bedeutet „cold dark matter“ (kalte dunkle Materie). Dabei bedeutet „kalt“, dass man davon ausgeht, dass die Dunkle Materie aus relativ schweren, noch unbekannten Teilchen besteht, die sich ähnlich wie Atome nur langsam und träge im Raum bewegen. Bestünde sie stattdessen aus sehr leichten oder gar masselosen Teilchen ähnlich den Neutrinos oder Photonen, dann wären diese Teilchen mit viel höheren Geschwindigkeiten bis hin zur Lichtgeschwindigkeit unterwegs. Das nennt man dann „heiße“ Dunkle Materie. Aber woher weiß man eigentlich, dass die Dunkle Materie „kalt“ und ihre Teilchen schwer und träge sein sollten? Man hat schließlich noch kein einziges dieser Teilchen entdeckt, geschweige denn seine Masse bestimmt. Nun ja, direkt sehen können wir die Dunkle Materie nicht, sondern nur ihre Gravitationswirkung beobachten. Und die sagt uns, dass sich die Dunkle Materie gerne in großen Wolken in und um die Galaxien und Galaxienhaufen zusammenballt und diese gleichsam einhüllt, durchdringt und umgibt. Dann aber darf die Dunkle Materie nicht allzu flüchtig sein. Wäre sie „heiß“ und bestünde sie aus sehr leichten Teilchen, dann wären diese Wolken weitaus diffuser, denn ihre Teilchen würden nur allzu leicht in den Tiefen des Raums entschwinden. Ein sehr starker Hinweis auf die Existenz „kalter“ Dunkler Materie ist die Art und Weise, wie sich die Materie im heutigen Universum zu Galaxien, Galaxienhaufen und Superhaufen zusammengefunden hat. So bildet unsere Milchstraße zusammen mit der Andromeda-Galaxie und einigen Dutzend kleinerer Zwerggalaxien die Lokale Gruppe – ein recht kleiner Galaxienhaufen, der wiederum Teil des riesigen Virgo-Superhaufens ist. Betrachtet man noch größere Abstände, dann erkennt man, wie Galaxienhaufen und Superhaufen eine riesige schaumartig wabenförmige Struktur bilden. In den Knotenpunkten dieser Wabenstruktur liegen die besonders großen Superhaufen. Sie sind durch dünnere, fadenartige Filamente und Wände aus Galaxien miteinander verbunden, die etwa 300 Mio. Lichtjahre große, nahezu leere Hohlräume (sogenannte „Voids“) umspannen (siehe Abb. 2.7). Kann das kosmologische Standardmodell diese kosmischen Wabenstrukturen erklären? Um das herauszufinden, hat man in aufwendigen Computermodellen simuliert, wie sich die Materie seit dem Urknall unter dem Einfluss der Gravitation verhält. Kann die Gravitation die anfänglichen
106 J. Resag
Abb. 2.7 Großräumige Verteilung der Galaxien bis zu einer Entfernung von 2 Mrd. Lichtjahren. (Credit: The 2dF Galaxy Redshift Survey, CC BY-SA 4.0. Quelle: http:// www.2dfgrs.net/ (Beschriftung verändert))
geringen Dichteunterschiede nach und nach so verstärken, dass sich die netzartige Galaxienstruktur herausbildet? Wie die Computermodelle zeigen, hätte man ohne die Dunkle Materie keine Chance. Der Strahlungsdruck des heißen Plasmas verhindert nämlich in den ersten 380.000 Jahren, dass sich dichtere Bereiche darin dauerhaft weiter verdichten – stattdessen schwingt es lokal zwischen dicht und dünn hin und her. Erst nachdem es sich in durchsichtiges Gas verwandelt hat, kann die Gravitation ihre Wirkung entfalten. Aber das Gas wäre dann schon viel zu dünn und die Dichteunterschiede zu gering, um in nennenswertem Umfang Galaxien hervorzubringen. Ohne Dunkle Materie gäbe es heute kaum Galaxien, und auch unsere Milchstraße wäre wohl gar nicht erst entstanden. Mit Dunkler Materie sieht das ganz anders aus. Schon während das heiße Plasma noch mit seinen Dichteschwingungen beschäftigt ist, kann die Gravitation die Dunkle Materie weiter verdichten, denn der Strahlungsdruck des heißen Plasmalichts hat keinerlei Wirkung auf sie. Und da sie insgesamt 5-mal mehr Masse auf die Waage bringt als das Plasma bzw. die daraus entstehenden Atome, gibt sie auch später die Richtung vor. Die Wasserstoff- und Heliumatome folgen der Gravitation der dichter werdenden Wolken aus Dunkler Materie und können schließlich in diesen
2 Die Grenzen des Raums: Wo endet die Welt? 107
Wolken Sterne und Galaxien bilden. Die Dunkle Materie selbst kann sich übrigens nicht so stark verdichten, wie die Atome das können, denn ihre unsichtbaren Teilchen haben Probleme damit, ihre Bewegungsenergie loszuwerden; als Licht abstrahlen können sie diese Energie ja nicht. Die Simulationen zeigen sehr schön, wie die wabenartige Struktur der Galaxien entsteht. Stellen Sie sich eine elliptische Wolke aus Materie vor. Wie wird sie sich unter dem Einfluss der Gravitation entwickeln? Am schnellsten kollabiert sie entlang ihrer kürzesten Achse, denn hier wirkt die Gravitation am stärksten. Aus der elliptischen Wolke wird nach und nach eine immer flachere elliptische Materieschicht. Über längere Zeiträume wirkt sich dann auch die Gravitation entlang der mittellangen Achse aus. Die Schicht wird zu einem immer dünneren fadenartigen Filament. Wenn auch dieses noch entlang der 3. Achse kollabiert, entsteht schließlich eine dichte, ziemlich kugelförmige Wolke: Ein Halo, wie er viele Galaxien und Galaxienhaufen einhüllt. Die ganze Entwicklung verläuft dabei von unten nach oben, d. h., zuerst kontrahieren kleinere Wolken zu Galaxien, die sich zu größeren Galaxien vereinen und schließlich zu Galaxienhaufen zusammenballen. Die noch größeren Superhaufen sind heute immer noch im Entstehungsprozess, sodass sie teilweise unregelmäßig aussehen und noch schicht- und filamentartige Strukturen haben, was das Wabenmuster in der großräumigen Materieverteilung erklärt. Viele von ihnen werden sich wohl nicht mehr endgültig zu kugelförmigen Superhaufen zusammenballen können, denn die abstoßende Gravitation der Dunklen Energie treibt ihre Bestandteile mittlerweile immer stärker auseinander, je weiter sie voneinander entfernt sind. Das großräumige Wabenmuster friert immer mehr ein und folgt nur noch dem Lauf der kosmischen Expansion. Noch größere Super-Superhaufen wird es also nicht mehr geben. Wenn wir weit genug in den Raum hinaus- und damit immer tiefer in die Vergangenheit hineinschauen, können wir tatsächlich sehen, wie die Galaxien immer kleiner und unregelmäßiger werden, je näher wir dem Urknall kommen, und wie sie miteinander zu größeren Galaxien verschmelzen (siehe Abb. 2.8). Die Computersimulationen der kosmischen Strukturbildung sind ein starker Beweis für die Existenz der kalten Dunklen Materie, bestehend aus relativ schweren unsichtbaren Teilchen. Wäre die Dunkle Materie heiß und bestünde aus sehr leichten oder masselosen Teilchen, dann wäre die Strukturbildung anders abgelaufen, nicht von unten nach oben, sondern von oben nach unten. Es hätten sich also erst sehr große Strukturen gebildet, denn nur diese hätten die leichten Teilchen mit ihrer Gravitation einigermaßen festhalten können. Unser Universum sähe ganz anders aus.
108 J. Resag
Abb. 2.8 In den Tiefen des Raums können die modernen Teleskope kleine unregelmäßige Galaxien aufspüren, die wir heute so sehen, wie sie weniger als 1 Mrd. Jahre nach dem Urknall aussahen. Damals waren sie noch 100fach kleiner als unsere Milchstraße. Die untere Bildreihe zeigt 5 vergrößerte Ausschnitte zusammen mit dem z-Rotverschiebungswert (z = 4,0 bedeutet beispielsweise, dass wir die Wellenlänge des Lichts um 400 % vergrößert sehen, also aufgrund der kosmischen Expansion um das 5fache gestreckt). Manche dieser Galaxien scheinen sogar miteinander zu verschmelzen. (Credit: NASA/ESA Hubble Ultra Deep Field. Quelle: https://www.nasa.gov/images/content/188582main_p0731a8x10w-1.jpg)
Es ist schon faszinierend, wie sehr die Dunkle Materie, deren Teilchen uns heute noch völlig unbekannt sind, die Gestalt und Struktur unseres Universums bestimmt. Wie kleine Schaumkronen schwimmt die sichtbare Materie der Sterne und Galaxien in einem unsichtbaren Meer aus Dunkler Materie, die das eigentliche materielle Gerüst des Kosmos bildet. Die anziehende Gravitation dieser Dunklen Materie hat die gigantische Wabenstruktur der Galaxienhaufen, Filamente und nahezu leeren „Voids“ in Jahrmilliarden entstehen lassen, und die Dunkle Energie bläht diese Struktur mit ihrer abstoßenden Gravitation nun wie bei einem Luftballon immer weiter
2 Die Grenzen des Raums: Wo endet die Welt? 109
auf und friert sie dabei zunehmend ein. Was für ein merkwürdiges Universum ist das doch, in dem wir leben. Und wie erstaunlich ist es zugleich, dass wir mittlerweile so viel darüber herausgefunden haben.
Unsere Raumzeit und ihre kosmischen Horizonte Mit dem Wissen, das wir jetzt haben, sind wir in der Lage, uns einen guten Überblick über die Raumzeit unseres Universums zu verschaffen. Wie verändert sich die Raumzeit des gravitationslosen Milne-Universums, wenn wir die Gravitation der Atome, der Dunklen Materie und der Dunklen Energie berücksichtigen? Oder anders ausgedrückt: Wie sieht die Raumzeit des kosmologischen Standardmodells aus? Dabei wollen wir wieder die kosmische Zeit (abgelesen auf den Weltzeituhren der Galaxien) nach oben und die entsprechenden Räume der Gleichzeitigkeit mit dem zugehörigen kosmischen Abstand in der Waagerechten eintragen. Das Ergebnis sehen Sie in Abb. 2.9, wobei wir diesmal aus Platzgründen nur die rechte Hälfte des Diagramms dargestellt haben, d. h., die Milchstraße befindet sich nicht mehr in der Mitte, sondern am linken Rand beim Abstand 0. Die fehlende linke Hälfte können Sie sich gerne jederzeit spiegelbildlich dazu denken.
Abb. 2.9 Die Raumzeit unseres Universums nach dem kosmologischen Standardmodell in kosmischen Koordinaten. Die Milchstraße befindet sich links beim Abstand 0, während andere Galaxien als schräge graue Linien dargestellt sind. (Quelle: Eigene Grafik)
110 J. Resag
Was sehen wir in der Abbildung? Wenn wir uns die grauen Linien der Galaxien genauer anschauen, dann erkennen wir, dass diese Linien anders als im Milne-Universum keine geraden Linien mehr bilden, sondern erst leicht nach oben und später leicht nach rechts gekrümmt sind. Das bedeutet, dass sich die Galaxien nicht mehr mit unveränderter Geschwindigkeit von uns entfernen, sondern zunächst langsamer und dann wieder schneller werden. Hier zeigt sich die Wirkung der Gravitation, die in den ersten Jahrmilliarden die Fluchtbewegung der Galaxien abbremst und sie später wieder beschleunigt. Was wir auch sehen, ist die gebogene rote Linie des Lichts, das auf uns zufliegt und uns in der Gegenwart erreicht. Beim Milne-Universum in Abb. 2.3 sah diese Linie ganz ähnlich aus, wenn wir kosmische Koordinaten verwenden. In der Nähe des Urknalls reißt die rasante Raumexpansion das Licht gleichsam von uns weg. Erst später gelingt es dem Licht, sich gegen die schwächer werdende Expansion durchzusetzen und sich uns anzunähern. Die rote Lichtlinie krümmt sich nach links und erreicht uns schließlich in der Gegenwart. Diese Lichtlinie zeigt uns genau, was wir heute am Himmel sehen können. Ihre Schnittpunkte mit den Linien der Galaxien bestimmen, in welchem Alter wir diese am Himmel sehen und wie weit sie damals, als sie ihr Licht zu uns auf den Weg schickten, von uns entfernt waren. Wenn wir die Galaxienlinien dann weiter nach rechts oben bis hin zur Gegenwart verfolgen, dann können wir ablesen, wie weit diese Galaxien heute von uns entfernt sind (wobei „heute“ natürlich meint, dass ihre mitgeführten Galaxienuhren 13,8 Mrd. Jahre anzeigen, so wie unsere eigene Galaxienuhr). An den einzelnen Galaxienlinien sehen wir außerdem eine zusätzliche Beschriftung wie z = 1 oder z = 3. Das ist die Rotverschiebung, mit der wir das Licht der Galaxien heute sehen. Beispielsweise bedeutet z = 1, dass sich die Wellenlänge des Lichts auf dem Weg zu uns um 100 % gestreckt hat. Die Wellenlänge hat sich also seit der Zeit, als das Licht zu uns aufgebrochen ist, verdoppelt, ebenso wie die Abstände zwischen den Galaxien, die damals nur halb so groß waren wie heute. Dieses Verhältnis der Galaxienabstände im Vergleich zu heute drückt der sogenannte Skalenfaktor a am rechten Rand aus. Der Skalenfaktor sagt also, wie stark das Gummituch des Universums im Vergleich zu heute gedehnt oder gestaucht ist. Was wir noch in der Grafik sehen können, sind 3 Linien für den HubbleRadius, das sichtbare Universum (Teilchenhorizont) und den Ereignishorizont. Was es damit auf sich hat, wollen wir uns jetzt der Reihe nach anschauen.
2 Die Grenzen des Raums: Wo endet die Welt? 111
Hubble-Radius und Überlichtgeschwindigkeit Das Hubble-Gesetz besagt, dass zu jeder gegebenen kosmischen Zeit der kosmische Abstand einer Galaxie umso schneller anwächst, je größer er bereits ist. Dieses Proportionalitätsgesetz gilt in jedem expandierenden Universum, wenn sich die Materie auf großen Skalen im Mittel gleichmäßig im Raum verteilt und das Universum in allen Richtungen gleich aussieht, wenn also das Universum homogen und isotrop ist. Manchmal liest man, dass bei sehr großen Abständen das HubbleGesetz modifiziert werden muss. Das stimmt nur dann, wenn man nicht den kosmischen Abstand für Räume gleicher kosmischer Zeit verwendet. Als wir uns zu Beginn das Milne-Universum angesehen und Abstände sowie Gleichzeitigkeit noch über reflektierte Lichtechos definiert haben, blieb die Fluchtgeschwindigkeit der Galaxien immer unterhalb der Lichtgeschwindigkeit und die Galaxien drängten sich in größerer Entfernung immer dichter zusammen. Es galt also weder das Hubble-Gesetz noch war die Materiedichte im Universum homogen verteilt. Betrachten wir dasselbe Universum in kosmischen Koordinaten, dann ist die Materie homogen verteilt und das Hubble-Gesetz gilt. Die Räume gleicher kosmischer Zeit können wir uns dabei wie ein expandierendes Gummituch vorstellen, auf dem sich die Galaxien wie Staubkörner im Mittel gleichmäßig verteilen. Das sich überall gleichmäßig ausdehnende Gummituch gibt dabei exakt das Hubble-Gesetz wieder. Licht verhält sich in kosmischen Koordinaten auf spezielle Art und Weise. Man kann sich das so vorstellen, als bewege es sich relativ zum Gummituch und den dort festklebenden Galaxien lokal mit Lichtgeschwindigkeit, ähnlich wie eine Ameise, die auf dem Gummituch gleichmäßig vorwärts krabbelt. Das liegt an den Eigenheiten der kosmischen Koordinaten, die an jedem Ort die lokale Sichtweise dort ansässiger Aliens widerspiegeln. Die Aliens sehen einen Lichtpuls immer mit Lichtgeschwindigkeit an sich vorbeirauschen, während sie sich selbst als ruhend empfinden. In diesem Sinn kann man sagen, Licht bewegt sich mit Lichtgeschwindigkeit durch den Raum (wie eine Ameise über das Gummituch), während der kosmische Abstand zweier Galaxien, die jeweils im Raum ruhen (am Gummituch festkleben), durch die Expansion des Raums auch schneller als mit Lichtgeschwindigkeit anwachsen kann. Den Abstand, ab dem Letzteres geschieht, nennt man Hubble-Radius. Er beträgt im heutigen Universum rund 14,4 Mrd. Lichtjahre, war aber in früheren Zeiten kleiner. Galaxien,
112 J. Resag
deren Licht wir heute mit einer Rotverschiebung von ungefähr z = 1,5 am Himmel sehen, befinden sich gegenwärtig beim Hubble-Radius. Der kosmische Abstand einer Galaxie zu uns, die sich jenseits des Hubble-Radius befindet, wächst also mit Überlichtgeschwindigkeit an. Ein Lichtstrahl, der sich von einer solchen Galaxie in unsere Richtung auf den Weg macht, wird durch die kosmische Expansion von uns weggetrieben. Sein kosmischer Abstand zu uns wird größer, denn der Raum zwischen uns und dem Licht expandiert so schnell, dass das Licht ihn nicht überwinden kann. Wenn das ewig so bleibt, kann der Lichtstrahl uns niemals erreichen. Die Galaxie wäre für uns unsichtbar. Es gibt allerdings einen Ausweg: Wenn sich die Expansion abschwächt, so wie das in den ersten Jahrmilliarden nach dem Urknall der Fall war, dann kann es passieren, dass irgendwann der Raum zwischen dem Lichtstrahl und uns nicht mehr schnell genug expandiert, um das Licht aufzuhalten. Der Hubble-Radius wächst an und das Licht befindet sich auf einmal auf der richtigen Seite, sodass es uns näherkommen kann. Das ist genau der Moment, in dem die nach rechts aufsteigende rote Lichtlinie in Abb. 2.9 nach links abbiegt und uns schließlich doch noch erreicht. Insofern ist der Hubble-Radius keine Grenze, hinter der alle Galaxien für uns grundsätzlich unsichtbar sind. Tatsächlich befanden sich in den ersten 4–5 Mrd. Jahren nach dem Urknall alle Objekte, deren Licht wir heute sehen können, jenseits des Hubble-Radius und bewegten sich damals mit Überlichtgeschwindigkeit von uns weg. So wuchs beispielsweise der kosmische Abstand der Plasmateilchen, die 380.000 Jahre nach dem Urknall die kosmische Hintergrundstrahlung freiließen, damals mit ungefähr 58facher Lichtgeschwindigkeit zu uns an – und dennoch können wir ihre Strahlung heute empfangen!
Das sichtbare Universum (Teilchenhorizont) Welche Galaxien können wir also heute am Himmel sehen? Wie weit können wir ins Universum hinausschauen? Wie groß ist das heute sichtbare Universum? Da ein Blick in die Ferne zugleich ein Blick in die Vergangenheit ist, scheint es unausweichlich, dass es eine Grenze geben sollte, denn weiter zurück als bis zum Urknall können wir nicht schauen. Wie weit weg ist also heute ein Materieteilchen, das unmittelbar nach dem Urknall sein Licht zu uns ausgesendet hat, wobei wir für den Moment einmal vergessen wollen,
2 Die Grenzen des Raums: Wo endet die Welt? 113
dass das Universum erst nach 380.000 Jahren durchsichtig wurde? Wie groß ist also heute die Strecke, die ein ungestörter Lichtstrahl seit dem Urknall überwunden haben kann? Die Frage ist gar nicht so leicht zu beantworten. Je näher wir dem Urknall kommen, umso dichter liegen alle Teilchen beisammen, sodass das Licht kurz nach dem Urknall in Sekundenbruchteilen Strecken überwinden konnte, die heute wegen der Raumexpansion viel größer sind. Daher wollen wir uns in immer kleiner werdenden Zeitschritten systematisch in Richtung Urknall zurückarbeiten und uns anschauen, was aus den Wegstrecken, die das Licht im jeweiligen Zeitabschnitt zurückgelegt hat, im Zuge der kosmischen Expansion bis heute geworden ist. Unser Universum ist heute rund 14 Mrd. Jahre alt. Ein Lichtstrahl, der seit dem Urknall zu uns unterwegs ist und uns heute erreicht, hat also aus seiner Sicht 14 Mrd. Lichtjahre zurückgelegt. Schauen wir uns im 1. Schritt die letzten 3/4 dieses Wegstücks an, also die 10,5 Mrd. Lichtjahre, die das Licht von 3,5 Mrd. Jahre nach dem Urknall bis heute hinter sich gebracht hat. Insgesamt hat sich dieses Wegstück durch die kosmische Expansion bis heute ungefähr verdoppelt, wobei die älteren Teile, die das Licht früher durchlaufen hat, stärker gewachsen sind als die jüngeren. Das gesamte Wegstück ist also heute 21 Mrd. Lichtjahre lang. Im 2. Schritt wiederholen wir dieses Vorgehen für das verbliebene erste Viertel des Lichtweges. Wir schauen uns wieder die letzten 3/4 dieses Wegstücks an, die das Licht in der Zeit von 0,875 bis 3,5 Mrd. Jahre nach dem Urknall zurückgelegt hat. Das ergibt eine Weglänge von 2,625 Mrd. Lichtjahren, ist also nur 1/4 des längeren Wegstücks, das wir im Schritt zuvor betrachtet haben. Aber dieses Wegstück hatte mehr Zeit, sich im Zuge der kosmischen Expansion auszudehnen, denn das Licht hat es früher durchlaufen. Es hat sich bis heute nicht nur verdoppelt, sondern vervierfacht, ist also heute 4 x 2,625 = 10,5 Mrd. Lichtjahre groß und damit halb so lang wie das erste Wegstück. Das Spiel können wir unendlich oft wiederholen und uns damit beliebig nahe zum Urknall vorarbeiten (siehe Abb. 2.10). Jedes Mal schauen wir uns die letzten 3/4 des noch verbliebenen Wegviertels aus dem vorherigen Schritt in Richtung Urknall an, sodass der entsprechende Lichtweg nur noch 1/4 im Vergleich zum vorherigen Schritt beträgt. Und jedes Mal verdoppelt sich die Ausdehnung dieses Wegstücks durch die kosmische Expansion im Vergleich zum Schritt davor, sodass das Wegstück heute jeweils halb so groß ist wie das Wegstück des vorherigen Schritts.
114 J. Resag
Abb. 2.10 Die Strecke von rund 14 Mrd. Lichtjahren, die ein Lichtstrahl seit dem Urknall zurücklegt, wächst durch die kosmische Expansion bis heute auf rund das 3Fache an. Je früher ein Teilstück des Weges dabei vom Licht durchlaufen wird, umso mehr kann es sich bis heute ausdehnen. (Quelle: Eigene Grafik)
Wenn man all diese unendlich vielen Wegstücke aufsummiert, kann man leicht ausrechnen, was aus den gesamten 14 Mrd. Lichtjahren, die das Licht seit dem Urknall zurückgelegt hat, bis heute geworden ist. Es sind 21+10,5+2,625+. . . = 21·(1 + 1/2 + 1/4 + . . . ) = 21·2 = 42 Mrd. LJ .
Die unendlich lange Summe der sich ständig halbierenden Brüche in der Klammer rückt nämlich mit jedem Schritt immer näher an die 2 heran, sodass sie im Grenzfall unendlich vieler Summanden von der 2 nicht mehr zu unterscheiden ist. Die zurückgelegte Lichtstrecke von 14 Mrd. Lichtjahren ist also heute 3-mal so lang, nämlich 42 Mrd. Lichtjahre. Man kann diese Rechnung noch sehr viel genauer durchführen, als wir es hier gemacht haben. Dafür teilt man den Lichtweg in unendlich kleine (infinitesimale) Wegstücke auf und berücksichtigt für jedes winzige Teilstück den exakten Ausdehnungsfaktor bis heute. Das Ergebnis liegt mit rund 46 Mrd. Lichtjahren nicht weit weg von dem Ergebnis unserer recht groben Abschätzung. Ein Teilchen, dessen Licht uns heute erreicht, kann demnach gegenwärtig maximal 46 Mrd. Lichtjahre von uns entfernt sein, sonst hätte sein Licht den langen Weg bis zu uns nicht schaffen können und wir könnten es nicht sehen. Deshalb bezeichnet man diesen Abstand auch als die Grenze des sichtbaren Universums oder auch als den Teilchenhorizont. Je näher sich heute ein Teilchen bei dieser Grenze befindet, umso kürzer nach dem Urknall hat es sein Licht zu uns auf den Weg geschickt und umso stärker wurde die Wellenlänge seines Lichts bis heute gedehnt. Letztlich repräsentiert der Teilchenhorizont bei unserem Blick in die Tiefen des Raums den Urknall, den wir aber nicht sehen können, denn sein Licht ist bis zur Unkenntlichkeit
2 Die Grenzen des Raums: Wo endet die Welt? 115
gedehnt. Dort, wo das Universum vor unseren Blicken endet, befindet sich der Urknall, unsichtbar eingefroren in der Zeit. In Wirklichkeit endet unser Blick in den Raum noch etwas früher, nämlich dort, wo 380.000 Jahre nach dem Urknall das heiße Plasma sich in durchsichtiges Gas verwandelte und die kosmische Hintergrundstrahlung freiließ, die uns heute 1000fach gedehnt erreicht. In der Ferne sehen wir also jenseits aller Sterne und Galaxien diese kosmische Wand aus Plasma am Himmel. Im Raum-Zeit-Diagramm unseres Universums (Abb. 2.9) ist der Teilchenhorizont nicht nur für die Gegenwart, sondern auch für alle andere Zeiten eingezeichnet. Früher war das sichtbare Universum demnach kleiner als heute, und nach und nach rücken immer weiter entfernte Teilchen langsam in unseren Blick, die zuvor noch jenseits des Horizonts lagen. Der Horizont ist also keine absolute Grenze des Raums, an dem die Welt aufhört. Die Welt ist größer, als unser Auge sehen kann. Ein weiteres Argument für die Existenz der Welt über unseren Horizont hinaus liegt darin, dass dieser Teilchenhorizont eine sehr persönliche Angelegenheit ist. Jedes Alien in irgendeiner fernen Galaxie hat sein eigenes sichtbares Universum, das seine Galaxie heute wie eine Kugel von 46 Mrd. Lichtjahren Radius umgibt. Die Aliens im rund 7 Mrd. Lichtjahre entfernten Galaxienhaufen El Gordo sehen Teilchen, Sterne und Galaxien, die jenseits unseres Horizonts liegen und damit für uns unsichtbar sind. Erst recht gilt dies für Aliens in noch weiter entfernten Galaxien wie beispielsweise HD1, die mit z = 13,27 eine der höchsten bekannten Rotverschiebungen aller Galaxien aufweist. Wir sehen HD1 heute so, wie sie nur 0,33 Mrd. Jahre nach dem Urknall aussah (Abb. 2.11). Ihre heutige kosmische Entfernung liegt bei rund 33 Mrd. Lichtjahren. Das ist gar nicht mehr so weit vom Rand des für uns sichtbaren Universums bei rund 46 Mrd. Lichtjahren entfernt. Von HD1 aus sollte man also einen deutlich anderen Ausschnitt des Universums sehen können als von unserer Milchstraße aus. Und warum sollte die sichtbare Welt eines Aliens in HD1 weniger real sein als unsere eigene sichtbare Welt? Es bleibt nur eine sinnvolle Schlussfolgerung: Hinter dem Horizont geht’s weiter! Vielleicht ist Ihnen aufgefallen, dass wir beim gravitationslosen MilneUniversum kein Wort über den Teilchenhorizont und das sichtbare Universum verloren haben. Der Grund ist einfach: Ohne die abbremsende Wirkung der Gravitation in der Zeit nach dem Urknall gibt es keinen Teilchenhorizont. Im Milne-Universum kann man von jeder Galaxie aus im Prinzip jedes andere Teilchen sehen. In der Praxis würde man auch hier an
116 J. Resag
Abb. 2.11 Die Galaxie HD1 ist eine der entferntesten bekannten Galaxien. Am Himmel sehen die modernen Teleskope sie als winzigen diffusen rötlichen Punkt. Das von HD1 aus sichtbare Universum umfasst Teilchen, Sterne und Galaxien, die außerhalb unseres sichtbaren Universums liegen. (Credit: Harikane et al. (ALMA Observatory), CC BY 4.0. Quelle: https://commons.wikimedia.org/wiki/File:Threecolor_image_of_galaxy_HD1.jpg)
Grenzen stoßen, denn je weiter das Teilchen entfernt ist, umso näher am Urknall würde man es sehen und umso stärker wäre die Wellenlänge seines Lichts gedehnt, bis es irgendwann nicht mehr nachweisbar wäre. Aber grundsätzlich kann uns sein Licht erreichen. In unserem Universum ist das anders: Je näher wir dem Urknall kommen, umso schneller expandiert unsere Welt. Diese rasante Expansion reißt das Universum gleichsam auseinander und sorgt dafür, dass wir bei Weitem nicht jedes Teilchen sehen können, das es gibt.
Ein Ereignishorizont teilt die Raumzeit Wenn wir über den Teilchenhorizont und das sichtbare Universum nachdenken, richtet sich unser Blick in die Vergangenheit: Wie weit weg darf ein Teilchen heute maximal von uns entfernt sein, sodass uns sein in der Vergangenheit ausgesendetes Licht heute erreicht? Wie groß ist die maximale heutige Entfernung einer Galaxie, deren Bild aus längst vergangenen Tagen wir heute sehen können, und sei es auch nur das 1000fach rotverschobene Bild des heißen Urplasmas, aus dem sie hervorging?
2 Die Grenzen des Raums: Wo endet die Welt? 117
Jetzt wollen wir unseren Blick in die Zukunft richten und uns fragen: Wie weit weg darf ein Teilchen heute maximal von uns entfernt sein, sodass sein heute ausgesendetes Licht uns irgendwann in der Zukunft erreichen wird? Wie groß ist die maximale heutige Entfernung einer Galaxie, deren aktuelles Bild wir irgendwann in der Zukunft sehen können? Oder anders gesagt: Wie groß ist der Teil des heutigen Universums, über den wir irgendwann in der Zukunft etwas in Erfahrung bringen können, und sei die Zeit bis dahin auch noch so lang? Die Grenze, die diese heutigen Ereignisse, die wir irgendwann sehen können, von denen trennt, deren Licht uns niemals erreicht, nennt man Ereignishorizont. Auch er ist im Raum-Zeit-Diagramm unseres Universums (Abb. 2.9) eingezeichnet, und zwar wie beim Teilchenhorizont und dem Hubble-Radius nicht nur für die Gegenwart, sondern auch für alle anderen Zeiten. Dabei bildet der Ereignishorizont eine scharfe Grenze in der Raumzeit: Rechts dieser Horizontlinie liegen die Ereignisse, die wir niemals sehen können, egal, wann sie stattfanden oder noch stattfinden werden, denn sie lagen zu ihrer Zeit jenseits des Ereignishorizonts. Für uns wird dieser Teil der Raumzeit also immer ein unbekanntes Land bleiben, eine Terra incognita, aus dem uns nie eine Kunde erreichen wird. Heute liegt der Ereignishorizont in einer kosmischen Entfernung von etwa 17 Mrd. Lichtjahren. Damit ist er deutlich kleiner als der heutige Teilchenhorizont von 46 Mrd. Lichtjahren, der unseren Blick in die Vergangenheit beschränkt. Zugleich ist er etwas größer als der Hubble-Radius, jenseits dessen sich die Galaxien mit Überlichtgeschwindigkeit von uns entfernen. In der fernen Zukunft, wenn die Dunkle Energie das Ruder komplett übernommen hat und die Galaxien bei konstantem Hubble-Parameter mit immer schnellerer Geschwindigkeit auseinandertreibt, werden Hubble-Radius und Ereignishorizont miteinander verschmelzen und einen konstanten Wert annehmen. Dann wird wirklich alles, was sich mit Überlichtgeschwindigkeit von uns entfernt, auf ewig vor unseren Blicken verborgen sein. Auf mich wirkt ein solcher Ereignishorizont immer etwas beängstigend. Ihm haftet etwas gnadenlos Endgültiges an, denn er ist eine Grenze ohne jede Wiederkehr. Wenn noch nicht einmal Licht in der Lage ist, von jenseits der Grenze zu uns zu gelangen, dann schaffen es eine Galaxie oder ein Raumschiff erst recht nicht. Captain Kirk sollte also aufpassen, mit seiner Enterprise immer diesseits dieser Grenze zu bleiben, sonst werden er und seine Crew niemals zur Erde zurückkehren können. Mehr als 17 Mrd. Lichtjahre sollte sich die Enterprise also nicht von der Erde entfernen. Was geschieht eigentlich, wenn eine Galaxie – oder die Enterprise – den Ereignishorizont überschreitet, sodass wir ihre weitere Zukunft nicht mehr
118 J. Resag
sehen können? Verschwindet sie vor unseren Augen plötzlich am Himmel wie eine verlöschende Kerzenflamme? Das wäre schon sehr merkwürdig, und es geschieht auch nicht. Was wir wirklich am Himmel beobachten, haben wir im letzten Kapitel schon am Beispiel des Galaxienhaufens El Gordo gesehen: Er wird immer blasser und röter, bis ihn auch das beste Teleskop nicht mehr erkennen kann, fast wie ein Stück glühende Kohle, das im Dunkeln langsam erkaltet. Dabei scheint die Zeit auf El Gordo immer mehr einzufrieren, sodass uns seine ferne Zukunft verborgen bleibt. Wir werden also nie sehen, wie El Gordo den Ereignishorizont überschreitet, denn am Ereignishorizont bleibt aus unserer Sicht die Zeit stehen. Stattdessen sehen wir, wie El Gordo einem Galaxienalter von rund 20 Mrd. Jahren immer näher rückt, ohne es je zu erreichen, denn in diesem Alter überschreitet der Galaxienhaufen unseren Ereignishorizont. Die Aliens auf El Gordo merken davon nichts. Sie leben einfach völlig ungestört ihr Leben weiter und sehen umgekehrt in ihrem Teleskop, wie sich unsere immer blasser und röter werdende Milchstraße zunehmend aus ihrer Welt verabschiedet. Natürlich gibt es auch Galaxien, die bereits heute den Ereignishorizont überqueren. Wir sehen sie am Himmel gegenwärtig mit einer Rotverschiebung von ungefähr z = 1,8. Damit sind sie die entferntesten Objekte, über deren heutigen Zustand wir theoretisch noch etwas erfahren können, wenn auch erst in der unendlich fernen Zukunft (und leider wieder unendlich verblasst und rotverschoben). Was ab heute mit ihnen geschieht, wird für immer vor uns verborgen bleiben. Fernere Galaxien mit noch größeren Rotverschiebungen liegen heute bereits jenseits des Ereignishorizonts. So hat die sehr ferne Galaxie HD1 aus Abb. 2.11 (Rotverschiebung z = 13,27) bereits in einem Alter von 3 bis 4 Mrd. Jahren unseren Ereignishorizont überschritten, sodass wir nie sehen werden, wie sie dieses Alter hinter sich lässt. Letztlich wird früher oder später jede Galaxie den Ereignishorizont überschreiten, wenn sie nicht wie Andromeda gravitativ an unsere Milchstraße gebunden ist. Der Zeitpunkt, an dem das geschieht, definiert das letzte Bild, das uns in unendlich ferner Zukunft von ihr noch erreichen kann, allerdings bis zur Unkenntlichkeit verblasst und rotverschoben. In der Realität wird die begrenzte Empfindlichkeit unserer Teleskope schon früher dafür sorgen, dass wir alle Galaxien außerhalb unserer Lokalen Gruppe aus dem Blick verlieren. Das Universum um uns herum wird kalt, dunkel und leer aussehen. Wir kennen dieses ziemlich trostlose Szenario ja schon aus dem letzten Kapitel.
2 Die Grenzen des Raums: Wo endet die Welt? 119
Es gibt ein Problem mit dem Teilchenhorizont Wie kommt es eigentlich, dass die kosmische Hintergrundstrahlung bis auf winzige Schwankungen von gerade einmal einem Hunderttausendstel überall am Himmel dieselbe Temperatur von 2,7 K aufweist? Nun ja, werden Sie vielleicht sagen, Temperaturen tendieren eben dazu, sich auszugleichen. Schließlich kühlt eine heiße Tasse Kaffee auch so lange ab, bis sie ebenso warm wie ihre Umgebung ist. Warum sollte das mit dem heißen Plasma im frühen Universum anders gewesen sein? Die Temperaturen werden sich darin eben im Lauf der 380.000 Jahre ausgeglichen haben, die bis zum Freisetzen der Hintergrundstrahlung vergangen sind. Die Idee ist grundsätzlich richtig, übersieht aber etwas Wesentliches: Die Abstände zwischen den verschiedenen Regionen sind viel zu groß und die verfügbare Zeit viel zu knapp, als dass ein Temperaturausgleich hätte stattfinden können. Schaut man genauer hin, dann stellt man nämlich fest, dass nicht einmal Licht in der Lage gewesen wäre, in der Zeit seit dem Urknall die schnell wachsenden Distanzen zu überbrücken. Der Teilchenhorizont war im frühen Universum einfach viel zu klein, und er ist es zum Teil sogar heute noch. Eine einfache Überlegung macht das grundlegende Problem deutlich: Stellen wir uns vor, Penzias und Wilson hätten in den 1960er-Jahren ihre Hornantenne auf die Himmelsregion über dem westlichen Horizont ausgerichtet. Die kosmische Hintergrundstrahlung, die sie von dort empfangen, stammt aus einer Region des Universums, die heute fast so weit von uns entfernt ist wie der Teilchenhorizont. Sie liegt also ziemlich nah am Rand unseres sichtbaren Universums und dürfte heute rund 45 Mrd. Lichtjahre von uns entfernt sein. Nun drehen Penzias und Wilson ihre Hornantenne um 180 ° und blicken mit ihr nach Osten. Auch von dort empfangen sie die kosmische Hintergrundstrahlung, und die entsprechende Materie, von der sie stammt, ist heute ebenfalls rund 45 Mrd. Lichtjahre von uns entfernt, nur in der entgegengesetzten Richtung. Zweimal 45 Mrd. Lichtjahre macht 90 Mrd. Lichtjahre – so weit sind diese beiden Regionen am westlichen und östlichen Himmel heute voneinander entfernt. Das Licht kann aber vom Urknall bis heute maximal eine Distanz von 46 Mrd. Lichtjahren überbrückt haben, denn dies ist der heutige Teilchenhorizont. Die beiden Regionen haben also niemals in der Geschichte des Universums Kontakt zueinander gehabt und hatten nie die
120 J. Resag
Möglichkeit, ihre Temperatur einander anzugleichen. Und doch empfangen wir heute ihre Hintergrundstrahlung mit derselben Temperatur von 2,7 K. Diesen merkwürdigen Umstand nennt man auch Horizontproblem. Das Argument ist zwar schlüssig, kommt einem aber doch auf den ersten Blick etwas merkwürdig vor. Wie kann es sein, dass die beiden Regionen niemals die Möglichkeit zum Wärmeaustausch hatten, wenn sie doch in der Frühzeit des Universums viel dichter beieinanderlagen? Das ist zwar richtig, aber nicht nur der Abstand war damals kleiner, sondern auch die Zeit, die das Licht oder die Wärme hatten, diesen Abstand seit dem Urknall zu überbrücken. Der Teilchenhorizont wächst mit zunehmender Zeit nämlich schneller an, als sich der kosmische Abstand ausdehnt, da ja zum einen die bisher zurückgelegte Lichtstrecke expandiert und zusätzlich das Licht weiter voranschreitet. Deshalb überholt der Teilchenhorizont die davoneilenden Galaxien. Wenn wir umgekehrt in der Zeit zurückblicken, dann schrumpft der Teilchenhorizont schneller als die kosmischen Abstände. Als das heiße Plasma 380.000 Jahre nach dem Urknall die Hintergrundstrahlung freigab, war der Teilchenhorizont im Vergleich zu den kosmischen Abständen viel kleiner und umfasste viel weniger Teilchen als heute. Am Himmel entspricht dieser damalige Teilchenhorizont einem Winkel von ungefähr 1,5 °. Das ist 3-mal so groß wie der Vollmond (0,5 °) und rund 1,5-mal so groß wie die großen Temperaturflecken in der kosmischen Hintergrundstrahlung. Jetzt verstehen wir auch, warum diese Temperaturflecken nicht viel größer sein können: Die Druckwelle hätte sich im heißen Plasma gar nicht viel weiter ausbreiten können, um die koordinierte Plasmaschwingung hervorzurufen. Im Grunde ist es absolut faszinierend, was wir da in Form der Hintergrundstrahlung am Himmel sehen. Lassen wir unseren Blick von einem Punkt am Himmel um nur 3 Vollmonddurchmesser weiterwandern, dann verlassen wir das damals sichtbare Universum dieses Punktes und überschreiten seinen einstigen Teilchenhorizont. Wir können heute klar am Himmel sehen, was man von diesem Punkt aus damals nur vermuten konnte: Das Universum geht hinter dem Teilchenhorizont weiter! Und es gibt absolut keinen Grund, warum das heute bei unserem aktuellen Teilchenhorizont anders sein sollte. Die Welt jenseits der Grenze unseres sichtbaren Universums geht weiter. Nur wie haben es dann diese damals vollkommen voneinander isolierten Bereiche am Himmel geschafft, ihre Temperatur in den ersten 380.000 Jahren so genau aufeinander abzustimmen, dass uns ihre Strahlung heute von überall her mit ziemlich genau 2,7 K erreicht?
2 Die Grenzen des Raums: Wo endet die Welt? 121
Das kosmologische Standardmodell liefert dafür keine Erklärung, denn es sagt, dass sich das Universum in der Frühzeit so rasant ausgedehnt hat, dass die Zeit für einen Temperaturausgleich nicht ausreichte; der Teilchenhorizont war einfach zu klein. Andererseits beschreibt das Modell aber unseren Kosmos ganz hervorragend, angefangen von der Entstehung der Protonen und Neutronen und deren nuklearer Fusionsphase bis hin zur Freisetzung der kosmischen Hintergrundstrahlung. Wir können also davon ausgehen, dass wir mit dem kosmologischen Standardmodell bis sehr nahe an den Urknall richtig liegen. Aber können wir dem Modell auch wirklich ganz bis zum Urknall trauen, bis zum Zeitpunkt null, an dem laut Modell alle Abstände komplett verschwinden und sich alle Materie mit unendlicher Dichte in einem einzigen Punkt vereint? Diese sogenannte Urknallsingularität könnte sehr wohl ein Zeichen dafür sein, dass das kosmologische Standardmodell hier an seine Grenzen kommt und dass wir ihm nicht wirklich bis zum Zeitpunkt null folgen sollten. Außerdem bietet das Modell keinen Mechanismus für den Urknall selbst an, warum er überhaupt stattfand und was da eigentlich „knallte“. Vielleicht ist also ganz zu Beginn etwas geschehen, das den Urknall und die gleichmäßige Temperatur der Hintergrundstrahlung erklären kann. Und wie wir gleich sehen werden, muss dieses „Etwas“ sogar noch mehr erklären!
Warum ist das Universum flach? Es gibt nämlich neben der gleichmäßigen Hintergrundstrahlung eine weitere Eigenschaft unseres Universums, für die das kosmologische Standardmodell keine Erklärung liefert: die Flachheit des Raums, also die Tatsache, dass er keine erkennbare mittlere Raumkrümmung aufweist und sich im Großen so verhält, wie wir uns den 3-dimensionalen Raum für gewöhnlich vorstellen. Dass das so ist, wissen wir sehr genau aus der Größe der Temperaturflecken in der Hintergrundstrahlung. Daraus folgt, dass die mittlere Materiedichte auf 1 % genau der kritischen Dichte entspricht, denn die Materiedichte bestimmt die Raumkrümmung im Universum. Aber warum sollte die Materiedichte ausgerechnet gleich der kritischen Dichte sein, wenn sie doch genauso gut jeden anderen Wert haben könnte? Das sieht nicht nach einem Zufall aus. Es sollte irgendeinen Grund geben, irgendeinen Mechanismus, der die Materiedichte des Universums auf diesen speziellen Wert festlegt.
122 J. Resag
Nun ist es so, dass sich die kritische Dichte durch die Expansion im Lauf der Zeit verändert. Wenn wir uns auf das frühe Universum beschränken, in dem die Dunkle Energie noch keine Rolle spielt, dann beschreibt die kritische Dichte nämlich genau den Grenzfall, bei dem die anziehende Gravitation die auseinanderstrebenden Teilchen gerade eben nicht mehr einfangen kann, sodass sie – auch ohne die Dunkle Energie – auf ewig auseinanderstreben würden. Dabei würden sie immer langsamer, ohne jemals komplett anzuhalten und umzukehren. Wenn sich die Teilchen auf diese Weise bewegen und dem Stillstand immer näher kommen, ohne ihn je zu erreichen, dann ist ihre abnehmende räumliche Dichte zu jedem Zeitpunkt genau gleich der kritischen Dichte. Es gilt also: einmal kritische Dichte, immer kritische Dichte. Dabei gibt es allerdings ein Problem: Das diffizile Gleichgewicht zwischen schwächer werdender Gravitation und schwindender Bewegungsenergie, das bei der kritischen Dichte exakt aufgeht, ist instabil und kippt sehr schnell. Angenommen, die Dichte der Teilchen wäre im frühen Universum ein klein wenig größer als die kritische Dichte gewesen. Dann wirkt die Gravitation ein bisschen stärker und bremst die Teilchen etwas mehr ab als im Fall der kritischen Dichte, sodass deren Abstände nicht so schnell anwachsen. Dadurch schwindet wiederum die Gravitation weniger schnell, was deren Bremswirkung stärker bleiben und die Teilchen weniger schnell auseinanderdriften lässt. Dieser sich selbst verstärkende Prozess sorgt dafür, dass die Gravitation immer mehr die Oberhand gewinnt und die Bewegungsenergie schließlich komplett aufgebraucht wird, sodass die Teilchen sogar wieder aufeinander zu fallen. Die Dichte der Teilchen entfernt sich also immer weiter von der kritischen Dichte. Umgekehrt ist es, wenn die Dichte der Teilchen in der Frühzeit des Kosmos etwas kleiner als die kritische Dichte ist. Dann bremst die Gravitation etwas weniger und die Teilchen können sich weiter voneinander entfernen, was wiederum die Gravitation schwächt. Diese schafft es deshalb nicht, die Bewegungsenergie bis gegen null immer weiter aufzuzehren, sodass die Teilchen eine bestimmte Fluchtgeschwindigkeit nie unterschreiten. Auch hier entfernt sich ihre Dichte immer weiter von der kritischen Dichte, allerdings in der entgegengesetzten Richtung. Fazit: Egal, ob die Dichte der Teilchen nach dem Urknall etwas oberhalb oder unterhalb der kritischen Dichte lag, so müssten sich dieser Unterschied in jedem Fall in den ersten Jahrmilliarden immer weiter verstärkt haben, zumal die Dunkle Energie mit ihrer abstoßenden Gravitation damals kaum eine Rolle spielte.
2 Die Grenzen des Raums: Wo endet die Welt? 123
Die Abweichung von der kritischen Dichte wächst dabei ziemlich schnell an. Angenommen, 1 s nach dem Urknall hätte die Materiedichte nur um 1 % über der kritischen Dichte gelegen. Dann wäre sie innerhalb von nicht einmal 1 min bei mehr als dem Doppelten der kritischen Dichte angekommen, und das Universum wäre innerhalb von wenigen Minuten wieder komplett in sich zusammengefallen. So schnell kann es gehen, wenn die Gravitation auch nur ein wenig die Oberhand gewinnt und die auseinanderstrebende Materie schließlich zur Umkehr zwingt. Und wenn die Materiedichte 1 s nach dem Urknall um 1 % unter der kritischen Dichte gelegen hätte? Schon nach 1 Jahr wäre sie 300.000-mal kleiner als die kritische Dichte gewesen. Das Universum wäre so schnell expandiert und die Materiedichte hätte sich so schnell ausgedünnt, dass niemals Sterne oder Galaxien entstanden wären. Nun liegt aber die Materiedichte auch heute noch sehr genau bei der kritischen Dichte. Die maximale Abweichung beträgt 1 %. Das bedeutet im Umkehrschluss, dass sie 1 s nach dem Urknall höchstens um ein Zehnmillionstel-Milliardstel (10−16) von der kritischen Dichte abgewichen sein kann.6 Wie hat es das Universum geschafft, den Dichtewert so genau auf die kritische Dichte zu justieren, dass er 1 s nach dem Urknall zwischen 0,999.999.999.999.999.9 und 1,000.000.000.000.000.1 lag? Das kosmologische Standardmodell kann diese Feinabstimmung der Dichte ebenso wenig erklären wie die gleichmäßige Temperatur der kosmischen Hintergrundstrahlung. Es bleibt anscheinend nur ein Ausweg: In den allerersten Sekundenbruchteilen muss etwas geschehen sein, das die Dichte extrem genau auf die kritische Dichte einjustiert hat, sodass selbst die Jahrmilliarden danach diesen Unterschied nicht auf mehr als 1 % vergrößern konnten. Zugleich muss das Plasma schon von Beginn an mit ausgeglichener Temperatur in seine reguläre kosmische Standardmodellexpansion gestartet sein. Das kosmologische Standardmodell hat keine Antwort darauf, welcher Mechanismus diese Wunder vollbracht haben könnte. Viele Wissenschaftlerinnen und Wissenschaftler fragten sich denn auch, ob die Physik überhaupt in der Lage sei, solche grundlegenden Fragen über den Beginn des Universums zu beantworten. Vielleicht verlangen wir hier zu viel von den Naturwissenschaften, und das Rätsel des Urknalls gehört eher in den
6 Die
Beispielzahlen in diesem Abschnitt und die Rechnung dazu finden Sie in dem sehr informativen Buch Kosmologie für alle, die mehr wissen wollen von Delia Perlov und Alex Vilenkin (Springer 2021).
124 J. Resag
Bereich der Philosophie oder der Religion. Überschreiten wir hier die Grenzen der Naturwissenschaft? Das erschien durchaus möglich. Doch nicht jeder war bereit, so schnell aufzugeben, unter ihnen der amerikanische Physiker Alan Guth.
Alan Guth und die inflationäre Expansion Alan Guth (Abb. 2.12) wurde im Jahr 1947 im US-Bundesstaat New Jersey geboren, wo er auch seine Kindheit und Jugend verbrachte. Nach dem Schulabschluss blieb er der Ostküste der USA treu und ging für sein Physikstudium an das rund 400 km nordöstlich gelegene MIT (Massachusetts Institute of Technology) bei Boston, wo er im Jahr 1972 seinen Doktortitel erlangte. Kurz zuvor hatte er Susan Tisch, seine Highschoolliebe, geheiratet, mit der er einen Sohn und eine Tochter bekam. Es folgte das leider nur allzu typische unstete Leben eines jungen Wissenschaftlers, der sich von einer befristeten Postdocstelle zur nächsten hangelt in der Hoffnung, eines Tages eine der seltenen unbefristeten Positionen als Assistenzprofessor zu ergattern. Auf 3 Jahre in Princeton folgten 3 Jahre an der Columbia University, weitere 2 Jahre an der Cornell University und schließlich, diesmal an der Westküste, 2 Jahre am Stanford Linear Accelerator Center (SLAC) in Kalifornien.
Abb. 2.12 Alan Guth (geboren 1947) im Jahr 2007. (Credit: Betsy Devine, CC BY-SA 3.0. Quelle: https://commons.wikimedia.org/wiki/File:AlanGuthCambridge.jpg)
2 Die Grenzen des Raums: Wo endet die Welt? 125
Die ständigen Wechsel und die finanzielle Unsicherheit befristeter Stellen waren für seine junge Familie sicher eine Belastung. Rein wissenschaftlich haben sie sich aber gelohnt, den Guth lernte auf diese Weise all die Zutaten kennen, die er für seine Ideen zum Urknall brauchte. So lernte er an der Cornell University bei einem Vortrag des damals bereits über 60-jährigen Physikers Robert Dicke (1916–1997) das Flachheitsproblem des Universums kennen: Warum ist das Universum heute noch räumlich flach und warum besitzt seine Materie immer noch die kritische Dichte, obwohl die abgebremste Expansion des Kosmos die Dichte von diesem kritischen Grenzwert wegtreibt? Das konnte die etablierte Urknalltheorie nicht erklären, wie Dicke klarstellte. Guths Neugier war geweckt. Von dem großen Physiker Steven Weinberg (1933–2021) erfuhr Guth wiederum Details zur Grand Unified Theory (GUT), mit der man seit Mitte der 1970er-Jahre versuchte, die drei bekannten Grundkräfte zwischen den Teilchen (mit Ausnahme der Gravitation) als Spielarten einer einzigen Grundkraft zu begreifen. Für zwei Grundkräfte, die elektromagnetische und die schwache Wechselwirkung, war dies bereits in den 1960er-Jahren gelungen. Steven Weinberg war Experte auf diesem Gebiet und hatte selbst entscheidende Beiträge dazu geleistet, die später mit dem Nobelpreis belohnt wurden. Dabei spielen Symmetrieprinzipien und das sogenannte Higgs-Feld, das die Symmetrie spontan bricht, eine entscheidende Rolle. Die Grundidee können wir hier nur kurz umreißen, was aber für unsere Zwecke vollkommen ausreicht.7 Dazu wollen wir uns folgende Frage stellen: Was brauchen wir eigentlich, um die Physik der Materie bis ins kleinste Detail zu verstehen? Nun, dafür müssen wir natürlich wissen, woraus Materie besteht. Ist sie kontinuierlich und immer weiter teilbar? Oder besteht sie aus winzigen unteilbaren Bausteinen, den Atomen (altgriech. „átomos“, unteilbar)? Das war über Jahrtausende hinweg umstritten, und die Gelehrten fochten teils erbitterte Diskussionen dazu aus. Seit gut einem Jahrhundert ist die Frage entschieden: Materie besteht aus Atomen. Diese sind aber keine unteilbaren kleinen Kugeln, wie man zuvor annahm, sondern bestehen ihrerseits aus winzigen Teilchen: den Elektronen in der Atomhülle und den Protonen und Neutronen im Atomkern.
7 Wesentlich
ausführlicher habe ich dieses Thema in meinem Buch Mehr als nur schön – Wie Symmetrien unsere Naturgesetze formen dargestellt.
126 J. Resag
In den 1960er-Jahren fand man dann heraus, dass auch Protonen und Neutronen aus kleineren Teilchen bestehen, denen einer ihrer Entdecker, der US-Physiker Murray Gell-Mann, in Anlehnung an ein Werk von James Joyce den Namen Quarks gab. Ein Proton besteht dabei aus 2 Up- und 1 Down-Quark (kurz uud ), ein Neutron dagegen aus 1 Up- und 2 DownQuarks (udd). Nach dem heutigem Stand des Wissens besteht Materie also aus Atomen, die wiederum aus Elektronen sowie Up- und Down-Quarks bestehen. Wenn wir jetzt noch herausfinden, welche Grundkräfte zwischen diesen 3 Teilchen wirken und wie diese Kräfte die Teilchen beeinflussen und zu Atomen vereinen, dann sollten wir die Physik der Materie verstehen. Die erste dieser Grundkräfte oder Wechselwirkungen, wie man auch sagt, ist die elektromagnetische Kraft. Sie bindet die negativ geladenen Elektronen an die positiv geladenen Atomkerne und erklärt ganz nebenbei auch Phänomene wie Licht (das eine elektromagnetische Welle ist) oder den Magnetismus. Nun ist es in der Mikrowelt der Atome so, dass man sich Elektronen und Quarks nicht wie kleine Kügelchen vorstellen kann, die im Atom ihre wohldefinierte Bahn ziehen. Sie ähneln eher Schwingungen oder Wellen, die in dem Atom gefangen sind, so wie die Schwingung einer Gitarrensaite. Je stärker die Schwingung dabei irgendwo ist, umso eher kann man dort ein Elektron oder Quark antreffen, wenn man explizit nach ihm sucht. Die Teilchen erscheinen dabei wie Punkte ohne jede messbare Ausdehnung. Atome bestehen also im Wesentlichen aus leerem Raum, in dem stehende Elektronenwellen und (im Atomkern) Quarkwellen schwingen, wobei die räumliche Ausdehnung der stehenden Wellen die Größe des Atoms bzw. Atomkerns bestimmt. Atome sind also keineswegs solide Kugeln, sondern ähneln eher zarten schwingenden Gebilden. Da ist es schon erstaunlich, dass uns der Boden unter unseren Füßen so solide vorkommt. Aber wenn die Energien groß genug sind, dann werden diese zarten Atomgebilde zerstört und in Elektronen und Atomkerne zerlegt. So war es in den ersten 380.000 Jahren, als die Temperatur des Universums noch bei über 3000 K lag. Und in den allerersten Sekundenbruchteilen war die Temperatur sogar so hoch, dass auch die stehenden Quarkwellen in den Protonen und Neutronen nicht existieren konnten und die Quarks dicht an dicht frei umherschwirrten. Es war die vielleicht größte Revolution der Physik, als man in den 1920er-Jahren nach längerem Herumrätseln endlich die Wellennatur der Atombausteine erkannte und die entsprechende Theorie, die Quanten-
2 Die Grenzen des Raums: Wo endet die Welt? 127
mechanik, formulieren konnte. Wir werden sie uns später in diesem Buch noch genauer anschauen. Interessanterweise sagt die Quantentheorie, dass der Zusammenhang zwischen Teilchen und Wellen nicht auf die Bausteine der Atome beschränkt ist, sondern ganz universell gilt, sogar in umgekehrter Richtung. Das bedeutet, dass beispielsweise Lichtwellen auf Atome wie eine Strömung aus masselosen Lichtteilchen, Photonen genannt, wirken können. Und da Licht aus schwingenden elektromagnetischen Feldern besteht, ist es da nur konsequent, wenn alle elektromagnetischen Felder in der subatomaren Quantenwelt mit Photonen verbunden sind, auch diejenigen, die die Elektronen an die Atomkerne binden. Wenn Sie also gefragt werden, woraus Atome bestehen, könnten Sie jetzt in einem ersten Anlauf sagen: aus Elektronen und Atomkernen, die von Photonen, also elektromagnetischen Kräften, zusammengehalten werden. Was nun allerdings die Protonen und die Neutronen in den Atomkernen aneinanderbindet, ist damit nicht erklärt. Elektrische Kräfte scheiden hier aus, denn sie wirken abstoßend zwischen den positiv geladenen Protonen und interessieren sich nicht für die elektrisch neutralen Neutronen. Ebenso unklar bleibt, was die Quarks in den Protonen und Neutronen zusammenhält. Offenbar ist hier eine neue Kraft im Spiel, die deutlich stärker als die elektrische Kraft sein muss, denn sonst hätte sie gegen die elektrische Abstoßung zwischen den Protonen in größeren Atomkernen keine Chance. Man nennt diese Kraft auch starke Kernkraft oder starke Wechselwirkung. Wie Harald Fritzsch, Heinrich Leutwyler und Murray Gell-Mann um 1973 herausfanden, wirkt diese starke Kraft direkt zwischen den Quarks und fügt sie in Dreiergrüppchen zu Protonen und Neutronen zusammen. Das quantenmechanische Wechselwirkungsteilchen, das analog zum Photon dabei die Kräfte zwischen den Quarks vermittelt, nannten sie Gluon (von engl. „glue“, kleben). Die Anziehungskraft zwischen den Protonen und Neutronen entpuppt sich dabei als Nebeneffekt, der nur über sehr kurze Entfernungen wirkt (ähnlich wie elektrische Kräfte Wassermoleküle zu flüssigen Wassertropfen vereinen). Wenn Sie also erneut gefragt werden, woraus Atome bestehen, könnten Sie jetzt im zweiten Anlauf sagen: aus Elektronen und Atomkernen, die durch hin- und hereilende Photonen aneinandergebunden werden, wobei die Atomkerne wiederum aus Protonen und Neutronen bestehen, die als Dreiergrüppchen aus Up- und Down-Quarks von Gluonen zusammengehalten werden. Kurzum: Um Atome zu bauen, brauchen wir Elektronen und Quarks sowie die starke und die elektromagnetische Wechselwirkung, die durch Photonen und Gluonen vermittelt werden.
128 J. Resag
Das könnte es eigentlich gewesen sein. Aber tatsächlich fehlt noch etwas! Damit meinen wir nicht die Gravitation, die in der Welt der Atome praktisch keine Rolle spielt, da sie dafür viel zu schwach ist. Erst wenn sich unzählige Atome zu Himmelskörpern wie unsere Erde zusammentun, wirkt sich deren gemeinsame Gravitationskraft spürbar aus. Wir lassen die Gravitation daher erst einmal außen vor. Die fehlende Kraft oder besser Wechselwirkung ist die sogenannte schwache Wechselwirkung. Sie übt keine typischen Anziehungs- oder Abstoßungskräfte aus, wie wir das bisher kennen, sondern sie kommt besonders dann ins Spiel, wenn sich Teilchen ineinander umwandeln, beispielsweise wenn ein Atomkern radioaktiv zerfällt. Dabei kann sich in einem Neutron ein Down-Quark in ein Up-Quark umwandeln, sodass aus dem Neutron ein Proton wird. Die frei werdende Energie materialisiert sich in Form eines Elektrons und eines Elektron-Antineutrinos, die als hochenergetische radioaktive Betastrahlung das Weite suchen. Dabei entsteht direkt nach der Umwandlung des Neutrons in das Proton für einen winzigen Moment ein negativ geladenes Zwischenteilchen, ein sogenanntes W-Boson (gleichsam das „Photon“ der schwachen Wechselwirkung), das wiederum das Elektron und sein Antineutrino hervorbringt. Damit ist die Welt der Materie komplizierter geworden, als es zunächst den Anschein hatte. Es gibt Up- und Down-Quarks, Elektronen und Elektron-Neutrinos sowie Photonen, Gluonen und W-Bosonen (und zusätzlich sogenannte Z-Bosonen) als Übermittlungsteilchen der elektromagnetischen, starken und schwachen Wechselwirkung. Und es gibt zu jedem Teilchen ein Antiteilchen (z. B. das Elektron-Antineutrino) – eine direkte Folge des Zusammenwirkens von Spezieller Relativitätstheorie und Quantentheorie. War es das jetzt? Fast, aber noch nicht ganz! Es stellt sich nämlich heraus, dass die kleine Zweierfamilie aus Up- und Down-Quark noch zwei schwerere Geschwisterfamilien besitzt, deren Mitglieder man Charm- und Strange-Quark bzw. Top- und Bottom-Quark nennt. Und auch die Zweierfamilie aus Elektron und Elektron-Neutrino bekommt zwei schwerere Geschwisterfamilien aus Myon und Myon-Neutrino sowie Tauon und Tauon-Neutrino hinzu. In der Welt der Atome spielen diese schweren Geschwister praktisch keine Rolle, da sie (bis auf die nahezu masselosen Neutrinos) instabil sind und schnell in die leichteren Familien zerfallen. Dennoch aber gibt es sie. Sie entstehen beispielsweise in der oberen Atmosphäre durch den Sonnenwind, und wir können sie auch selbst an den modernen Teilchenbeschleunigern für Sekundenbruchteile erzeugen.
2 Die Grenzen des Raums: Wo endet die Welt? 129
Damit haben wir also insgesamt 6 Quarks und 6 Leptonen (so fasst man Elektron, Myon, Tauon und ihre Neutrinos zusammen), die über die elektromagnetische (Photon), starke (Gluon) und schwache Wechselwirkung (W+, W− und Z-Boson) einander beeinflussen und sich sogar zum Teil über die beiden W-Bosonen ineinander umwandeln können. Diese Bausteine bestimmen die Physik der Materie, die wir heute kennen. Man spricht deshalb auch vom Standardmodell der Teilchenphysik (Abb. 2.13). Dieses Standardmodell gehört zum Allerbesten, was die moderne Physik jemals hervorgebracht hat. Bis heute ist es nicht gelungen, irgendwelche Abweichungen von diesem Modell in der Natur zu finden, sodass es zum absoluten Grundpfeiler der modernen Physik geworden ist. Allerdings bleibt der Wermutstropfen, dass die Gravitation nicht Teil dieses Modells ist und dass weder Dunkle Materie noch Dunkle Energie im Standardmodell erklärt werden können. Allumfassend ist das Standardmodell der Teilchen also nicht. Was dieses Standardmodell so genial macht, sind die Symmetrieprinzipien, die seine mathematische Struktur weitgehend festlegen. Eines dieser Symmetrieprinzipien fasst beispielsweise die beiden Teilchen in jeder Quark- oder Leptonfamilie in einem bestimmten Sinn als gleichwertig auf. Das hat zur Folge, dass sie durch die W-Bosonen ineinander umgewandelt werden können. Außerdem betrachtet das Standardmodell
Abb. 2.13 Das Standardmodell der Teilchenphysik massen sind in der Energieeinheit Elektronenvolt (MeV, Millionen eV) sowie Gigaelektronenvolt (GeV, Vergleich: Protonen und Neutronen wiegen knapp schwerer als ein Elektron. (Quelle: Eigene Grafik)
in der Übersicht. Die Teilchen(eV) bzw. Megaelektronenvolt Milliarden eV) angegeben. Zum 1 GeV, sind also rund 2000-mal
130 J. Resag
die elektromagnetische und die schwache Wechselwirkung als zwei Facetten einer einzigen übergreifenden Wechselwirkung, die man elektroschwache Wechselwirkung nennt. Damit das funktioniert und man verschiedene Teilchen als gleichwertig betrachten kann, müssten alle Teilchen des Standardmodells eigentlich masselos sein8. Nur so passt alles zusammen und nur so funktioniert das grundlegende Symmetrieprinzip. Allerdings sind die meisten Teilchen keineswegs masselos. Manche wie beispielsweise die W- und Z-Bosonen oder das Top-Quark sind sogar ziemlich schwer! Wie passt das zusammen? Der Trick ist, ihnen erst nachträglich eine Masse zu verleihen, und zwar durch Kontakt mit einem allumfassenden Feld: dem Higgs-Feld. Etwas vereinfacht können wir uns dieses Higgs-Feld wie einen unsichtbaren Nebel vorstellen, der den gesamten Raum komplett und gleichmäßig durchdringt, ohne dass wir ihn sehen können. Die meisten Teilchen des Standardmodells spüren aber sehr wohl die Existenz dieses Higgs-Feldes. Das Feld bricht nämlich die ursprüngliche Symmetrie zwischen den Teilchen und verändert so deren Quantenwellen, wenn sie es durchqueren, was sich im Ergebnis wie eine Masse für die Teilchen auswirkt. Nur die Photonen und Gluonen bemerken nichts von der Existenz des Higgs-Feldes, weshalb sie masselos bleiben. Kein Wunder also, dass wir das Higgs-Feld nicht sehen können – die Photonen des Lichts werden von ihm schlicht nicht beeinflusst. Aber wie können wir sicher sein, dass es dieses überall existierende Higgs-Feld, den alles durchdringenden Higgs-Nebel, wirklich gibt? Hat es neben den Teilchenmassen sonst noch irgendwelche Auswirkungen, die wir beobachten können? Die hat es tatsächlich, denn das Feld kann nicht nur wie ein statischer Hintergrund für andere Teilchen wirken, sondern auch selbst eine Dynamik entfalten. So kann man z. B. in Teilchenbeschleunigern Störungen in diesem Higgs-Feld erzeugen, die sich als Wellen in dem Feld ausbreiten. Das funktioniert ganz ähnlich wie bei elektromagnetischen Wellen, nur dass es diesmal Higgs-Wellen sind. Und so wie es laut Quantenmechanik zu den elektromagnetischen Wellen Photonen gibt, so existieren zu den Higgs-Wellen ebenfalls Teilchen: die berühmten Higgs-Teilchen. Als Peter Higgs, François Englert und andere diese Idee in den 1960erJahren formulierten, war noch völlig unklar, ob es das Higgs-Feld und die zugehörigen Higgs-Teilchen wirklich gibt. Vielleicht war das Ganze auch nur
8 Masselose Teilchen sind dank der Speziellen Relativitätstheorie kein Problem. Sie besitzen Energie und Impuls und bewegen sich immer mit Lichtgeschwindigkeit. Das Photon, also das Teilchen des Lichts, ist das Paradebeispiel eines masselosen Teilchens.
2 Die Grenzen des Raums: Wo endet die Welt? 131
eine verrückte Idee, eine Fiktion, ersonnen von verzweifelten Physikern, die nicht wussten, wie sie ansonsten die grundlegenden Symmetrieprinzipien ihrer Theorie mit der Existenz von Teilchenmassen vereinbaren konnten. Es dauerte mehr als 4 Jahrzehnte und erforderte einen ganz neuen, besonders leistungsfähigen Teilchenbeschleuniger, den Large Hadron Collider (LHC) bei Genf, bis der Nachweis des Higgs-Teilchens im Jahr 2012 tatsächlich gelang. Die Idee war also richtig gewesen. Das Higgs-Feld existiert tatsächlich! Ein Feld, das den gesamten Raum gleichmäßig durchdringt – kommt Ihnen das irgendwie bekannt vor? Genau! Die Dunkle Energie durchdringt ebenfalls gleichmäßig das gesamte Weltall und treibt mit ihrer abstoßenden Gravitation die Galaxien immer schneller auseinander. Ist das Higgs-Feld womöglich die Ursache der Dunklen Energie? Nach heutigem Wissen ist das nicht der Fall, denn das Higgs-Feld besitzt gegenwärtig zwar überall im Raum eine bestimmte Feldstärke – also eine gewisse Nebeldichte –, aber seine Energiedichte ist gleich null. Das ist ziemlich ungewöhnlich, denn normalerweise würden wir erwarten, dass ein stärkeres Feld auch eine höhere Energie besitzt. Das Higgs-Feld verhält sich aber anders, wie Abb. 2.14 zeigt. Schon bei Feldstärken nahe null, wenn das Feld also fast verschwindet, besitzt es eine ziemlich hohe Energiedichte (siehe den Energieberg links in der Grafik). Diese Energiedichte fällt mit wachsender Feldstärke erst langsam und dann immer schneller ab, bis sie bei einem bestimmten Wert der Feldstärke die Energietalsohle mit Energiedichte null erreicht. Wächst die Feldstärke noch weiter an, so nimmt auch die Energiedichte wieder zu. Im heutigen kalten Universum hat das Higgs-Feld also all seine Energie seit langer Zeit verloren und sich beim Energieminimum mit der Energiedichte null rechts in der Grafik eingependelt. Aber war das schon immer so? Könnte
Abb. 2.14 So hängt die Energiedichte des Higgs-Feldes von seiner Feldstärke ab. (Quelle: Eigene Grafik)
132 J. Resag
es nicht sein, dass sich das Feld zu Beginn des Universums für Sekundenbruchteile noch auf dem Energiegipfel ganz links in der Grafik befand? Das hätte dann bedeutet, dass es mit seiner enormen Energiedichte und dem damit einhergehenden negativen Druck das Weltall anfangs auseinandergetrieben hätte – negativer Druck erzeugt ja eine abstoßende Gravitation. Alan Guth war von solchen Ideen elektrisiert. Was würde eine solche kurze inflationäre Expansionsphase, wie er es nannte, für unser Universum bedeuten? Hatte er womöglich den Mechanismus des Urknalls entdeckt? Konnte er so das Horizontproblem lösen und die kritische Dichte des heutigen Universums erklären? Guth begann zu rechnen und probierte verschiedene Ideen aus. Schnell war ihm klar: Je größer die Energiedichte zu Beginn ist, umso kürzer darf die inflationäre Expansionsphase sein, um die Probleme mit dem Horizont und der kritischen Dichte in den Griff zu bekommen. Die Grand Unified Theory (GUT), die Guth von Steven Weinberg kennengelernt hatte, funktionierte dabei sogar noch besser als das Standardmodell der Teilchen mit seinem Higgs-Feld. Das liegt daran, dass die GUT die Symmetrien des Standardmodells erweitert und auch Quarks und Leptonen als teilweise gleichartig betrachtet, sodass sich diese ineinander umwandeln können. Anschließend bricht die GUT diese Symmetrie über weitere Higgs-ähnliche Felder und erzeugt so die Massen und andere Unterschiede zwischen den Teilchen. Diese Higgs-ähnlichen Felder ermöglichen dabei noch höhere Energiedichten als das Higgs-Feld des Standardmodells. Nun ist die GUT bis heute umstritten, denn eindeutige experimentelle Nachweise für ihre Relevanz stehen noch aus. Es kommt aber auch gar nicht so genau darauf an, welches Feld die inflationäre Expansion antreibt – Hauptsache, das Feld kann eine sehr hohe Energiedichte aufweisen, die sich so ähnlich wie in Abb. 2.14 verhält. Wir wollen daher ab sofort ganz unverbindlich von einem Inflatonfeld sprechen und das zugehörige Teilchen Inflaton nennen. Sowohl das Higgs-Feld des Standardmodells als auch die potenziellen Higgs-ähnlichen Felder der GUT stimmen uns zuversichtlich, dass es ein oder sogar mehrere Inflatonfelder geben könnte, auch wenn viele Details heute noch unklar sind. Stellen Sie sich das Inflatonfeld gerne wieder wie einen Nebel im Raum vor, der eine enorme Energiedichte besitzen kann. Diese Energie geht mit einem starken negativen Druck einher, der zu einer starken abstoßenden Gravitation führt. Das ist genau das, was wir zu Beginn des Universums brauchen, um eine ultrakurze, aber sehr heftige Expansion auszulösen. Diese inflationäre Expansion ist dann genau das, was damals im Urknall „knallte“.
2 Die Grenzen des Raums: Wo endet die Welt? 133
Wie die inflationäre Expansion funktioniert Um es gleich zu sagen: Alles, was ab jetzt in diesem Kapitel zur inflationären Expansion kommt, ist spekulativ. Wir verlassen den Bereich des kosmologischen Standardmodells, das mit seinem heißen Urknall weithin akzeptiert ist, und betreten unsicheres Terrain. Vieles von dem, was jetzt kommt, erscheint den meisten Physikern zumindest plausibel und wird von vielen akzeptiert, aber es gibt auch durchaus Kritik. Das ist nicht ungewöhnlich, wenn man den Bereich etablierter Theorien verlässt und sich der Front der Forschung nähert. Absolute Sicherheit gibt es da nicht, aber die Ideen von Alan Guth und vielen seiner Kolleginnen und Kollegen sind so einleuchtend und haben so weitreichende Konsequenzen, dass sie unbedingt in dieses Buch gehören. Starten wir mit einer einfachen Frage: Wie groß muss die Energiedichte des Inflatonfeldes während der inflationären Expansionsphase sein, und wie lange muss diese Phase am Beginn des Universums andauern, um die heutige kritische Dichte und Flachheit des Universums zu erklären und das Horizontproblem zu lösen? Legt man die GUT zugrunde, dann sind die erreichbaren Energiedichten extrem groß, weit größer als beispielsweise die in Energie umgerechnete Massendichte eines Atomkerns oder eines Neutronensterns; 1 cm3 dieses Inflatonfeldes enthielte weit mehr Masse bzw. Energie als unser gesamtes sichtbares Universum. Zum Glück braucht man aber keinen ganzen Kubikzentimeter, um die inflationäre Expansion zu starten. Ein winziges Volumen, milliardenfach kleiner als ein Proton und gefüllt mit hochenergetischem Inflatonfeld, reicht schon aus. Je nach Größe wiegt ein solches Keimvolumen zu Beginn nicht allzu viel, vielleicht nur einige Gramm oder weniger. Aber das ändert sich schnell. Die stark abstoßende Gravitation des Inflatonfeldes lässt das winzige Keimvolumen nämlich nahezu blitzartig auf enorme Größen anwachsen. Mit den Energiedichten, die im Rahmen der GUT möglich sind, würde sich der Durchmesser des Keimvolumens beispielsweise alle 10−38 s verdoppeln, also jede Hundert-Milliardstel-Milliardstel- Milliardstel-Milliardstel Sekunde. Bei einer derart kurzen Verdopplungszeit würde sich das winzige Keimvolumen in der ebenfalls winzigen Zeitspanne von nur 10−35 s schon 1000-mal verdoppeln. Das hört sich vielleicht harmlos an, aber schon 10 Verdoppelungen ergeben ungefähr eine Ausdehnung auf das Tausendfache. Wenn man das dann 100-mal nacheinander macht, um auf 1000 Verdoppelungen zu kommen, dann ergibt das 100-mal eine Ausdehnung um
134 J. Resag
das Tausendfache, also eine 10300-fache Ausdehnung9 – das ist eine Eins mit 300 Nullen. Da können Sie auch mit einem Keimvolumen starten, das sehr viel kleiner als ein Proton ist, und landen am Ende der inflationären Expansion dennoch bei einem Raumvolumen, das viel größer ist als unser sichtbares Universum (das grob rund 1026 m Durchmesser besitzt). Man kann hier noch viel mit Zahlen herumspielen und die verschiedensten Annahmen hineinstecken. Wenn Sie in verschiedene Texte zu dem Thema hineinschauen, werden Sie auch abweichende Zahlen finden. Das Fazit ist jedoch immer dasselbe: Es reicht schon ein winziges Keimvolumen aus, um nach Sekundenbruchteilen der inflationären Expansion ein großes Raumvolumen zu erhalten, das wir sehr gut als Start für die weitere „normale“ Expansion des Raums verwenden können. Dabei rutscht das Inflatonfeld am Schluss von seinem Energieberg hinunter in das Energietal, wobei sich seine Energie in ein sehr heißes und dichtes Plasma aus den verschiedensten Teilchen verwandelt. Das ist der Beginn für unser normales Szenario des heißen Urknalls, der nun nicht mehr beim Zeitpunkt null mit unendlicher Dichte beginnt, sondern nach einer ultrakurzen Phase inflationärer Expansion mit einem heißen Plasma endlicher Dichte startet. Ab hier läuft alles nach dem Schema des kosmologischen Standardmodells ab: Der Raum dehnt sich weiter aus, aber nicht mehr inflationär, sondern abgebremst, und das Plasma kühlt sich immer mehr ab. Es folgen die Minuten, in denen das Universum einem nuklearen Fusionsofen gleicht, und schließlich bilden sich nach 380.000 Jahren stabile Atome, die die kosmische Hintergrundstrahlung in die Freiheit entlassen (Abb. 2.15). Was Alan Guth besonders an der inflationären Expansion beeindruckte, war die Tatsache, dass diese Theorie einen plausiblen physikalischen Mechanismus für den Urknall selbst liefert. Die Standardurknalltheorie kann das nicht. Sie rechnet einfach nur die aktuelle Expansion immer weiter zurück, bis sie im Zeitpunkt null bei einem unphysikalischen Zustand unendlicher Dichte landet. Woher dieser Zustand kommt und warum er sich überhaupt ausdehnt, erklärt diese Theorie nicht, d. h., sie ist eigentlich gar keine Theorie über den Urknall, sondern eine Theorie für die Zeit nach dem Urknall. Anders sieht die Sache bei der inflationären Expansion aus. Als Zutaten benötigt diese Theorie nur Einsteins Gravitationstheorie, nach der ein negativer Druck eine abstoßende Gravitation erzeugt, und ein winziges
9 Denn wenn man etwas 100-mal hintereinander um das 1000Fache ausdehnt, ergibt das eine Ausdehnung um den Faktor 1000100 = (103)100 = 10300.
2 Die Grenzen des Raums: Wo endet die Welt? 135
Abb. 2.15 Radius des Raumbereichs, der heute dem für uns sichtbaren Universum entspricht. Zeit und Radius sind in logarithmischer Skala dargestellt. (Quelle: Eigene Grafik)
Fleckchen, gefüllt mit einem sehr hochenergetischen Inflatonfeld ähnlich dem Higgs-Feld oder den Higgs-ähnlichen Feldern, wie sie in der GUT vorkommen. Wenn dieses Feld nur für einen Sekundenbruchteil in seinem hochenergetischen Zustand auf dem Energieberg verharrt, dann dehnt sich das winzige Keimvolumen nach Einsteins Gravitationstheorie nahezu blitzartig aus – ein Vorgang, den man durchaus als Urknall bezeichnen kann. Bestimmt kennen Sie den Spruch „von nichts kommt nichts“. Woher also kommt all die Materie, die seit dem Urknall unser expandierendes Universum bevölkert? Bisher wussten wir darauf keine Antwort. Aber die inflationäre Expansion ändert das, denn sie behauptet: Aus fast nichts kann ein ganzes Universum entstehen. Dieses „fast nichts“ ist das winzige Keimvolumen mit hochenergetischem Inflatonfeld, das je nach Größe nur einige Gramm oder weniger auf die Waage bringt. Man muss keinerlei Energie zuführen, damit sich dieses Fleckchen samt Inflatonfeld ausdehnen und unser Universum hervorbringen kann, denn die abstoßende Gravitation stellt als unerschöpfliches Reservoir immer ausreichend Energie zur Verfügung, sodass die Energiedichte des Inflatonfeldes bei der Expansion
136 J. Resag
nicht ausdünnt. Die positive Energie des Inflatonfeldes wird dabei durch die negative Energie der Gravitation ausgeglichen. Es ist genau derselbe Mechanismus, der auch im heutigen Universum die Dunkle Energie konstant hält, nur dass die Dunkle Energie um viele Größenordnungen schwächer ist als die Energiedichte des Inflatonfeldes. Die inflationäre Expansion sorgt also dafür, dass unser Universum zu einer Art Gratismahlzeit wird, die für ein klein wenig Startenergie zu haben ist. Sobald der Keim gelegt ist, kümmert sich die abstoßende Gravitation des Inflatonfeldes um den Rest. Am Ende der kurzen, aber heftigen inflationären Expansionsphase, wenn sich das Inflatonfeld in seinem Energietal einpendelt, erschafft es aus seiner dabei frei werdenden Feldenergie all die Materie, die noch heute unser Universum bevölkert. Der Schwung, den diese Materie dabei anfangs mitbringt, lässt das Universum bis heute weiter expandieren. Es ist ein wunderbares, ziemlich einleuchtendes Szenario, das erklärt, warum es so etwas wie einen Urknall überhaupt geben kann. Noch überzeugender wird es dadurch, dass es auch ganz nebenbei die Probleme mit dem Horizont und der kritischen Dichte löst, wie Alan Guth herausfand. Zunächst zum Horizontproblem: Es liegt nahe anzunehmen, dass Energie und Temperatur in dem Keimvolumen bereits sehr schnell ausgeglichen waren, denn dieses Volumen ist winzig. Die inflationäre Expansion erzeugt daraus dann ein viel größeres aufgeblähtes Raumvolumen mit nahezu ausgeglichener Temperatur. Es ist also nicht notwendig, dass die verschiedenen Bereiche dieses aufgeblähten Raumes anschließend noch ihre Temperatur einander angleichen, denn das wurde bereits in dem winzigen Keimvolumen erledigt. Daher stört es auch nicht, wenn diese Bereiche nach dem Ende der inflationären Expansion zu weit voneinander entfernt sind, um bis heute Kontakt zueinander aufnehmen zu können – sie hatten ja ganz am Anfang im Keimvolumen sehr engen Kontakt. Nun zum Flachheitsproblem und der kritischen Dichte: Stellen Sie sich einen kleinen Luftballon vor, den Sie – gewissermaßen inflationär – auf Galaxiengröße aufblasen. Und stellen Sie sich vor, sie wären eine kleine Ameise auf diesem Luftballon. Dann würde Ihnen der Teil des riesigen Luftballons, den Sie von Ihrem Standpunkt aus sehen können, absolut flach vorkommen, so wie uns auch der Erdboden unter unseren Füßen flach erscheint. Analog können wir auch in dem für uns sichtbaren Teil des heutigen Universums keinerlei Raumkrümmung feststellen, denn wir sehen nur einen winzigen Teil des viel größeren Raumgebietes, das durch die inflationäre Expansion aus dem Keimvolumen entstanden ist. Sie wissen ja: Hinter unserem Horizont geht es weiter! Und da in einem flachen
2 Die Grenzen des Raums: Wo endet die Welt? 137
Universum nach Einstein die kritische Dichte herrschen muss, ist es auch nicht verwunderlich, dass wir die kritische Dichte vorfinden. Man kann auch ganz konkret nachrechnen, wie schnell die inflationäre Expansion die Dichte auf die kritische Dichte hin zutreibt. Geht man von Energiedichten wie in der GUT aus, dann reichen etwa 90–100 Verdoppelungen, damit die Inflation die Dichte so genau auf die kritische Dichte einjustieren kann, dass sie auch von der sich anschließenden normalen abgebremsten Expansion bis heute nicht merklich davon weggetrieben wird. Bei 1000 Verdopplungen wäre das dann erst recht kein Problem. Interessanterweise war um das Jahr 1980, als Guth seine Ideen präsentierte, noch gar nicht so klar, dass unser Universum tatsächlich die kritische Dichte aufweist. Man wusste nur, dass Atome und die geheimnisvolle Dunkle Materie zusammen etwa 30 % der kritischen Dichte ausmachen. Erst knapp 20 Jahre später entdeckten Adam Riess und seine Kollegen, dass sich die kosmische Expansion seit rund 5 Mrd. Jahren wieder zunehmend beschleunigt. Nur mit den 70 % an Dunkler Energie, die diese Beschleunigung hervorruft, ist die kritische Dichte komplett. Da ist es schon bemerkenswert, wenn Alan Guth und andere aufgrund der inflationären Expansionsidee schon vorher vermutet hatten, dass im Universum die kritische Dichte vorliegen sollte. Die kritische Dichte ist also eine Vorhersage der inflationären Expansionstheorie, die sich später bestätigt hat.
Wenn aus Quantenschwankungen Galaxien werden Würde das Inflatonfeld beim Hinabrollen in sein Energietal überall eine total gleichmäßige Materiedichte erzeugen, dann gäbe es heute weder Sterne noch Galaxien – die Gravitation hätte einfach keinen Ansatzpunkt gehabt, um irgendwo die vorhandene Materie weiter zu verdichten. Es muss also am Ende der inflationären Expansion kleine Unregelmäßigkeiten in der frisch entstandenen Materiedichte gegeben haben. Das bestätigt uns auch das Muster der Temperaturflecken in der kosmischen Hintergrundstrahlung, das aus diesen Unregelmäßigkeiten hervorgegangen ist. Wie also sind diese Unregelmäßigkeiten während der inflationären Expansion entstanden? Im Jahr 1981 machten die beiden russischen Physiker Wjatscheslaw Muchanow und Gennadi Tschibisow dazu einen faszinierenden Vorschlag, der mit den Jahren zunehmende Anerkennung fand. Sie rechneten nach, dass zufällige mikroskopische Quantenschwankungen die schwachen Dichteschwankungen hervorgerufen haben könnten.
138 J. Resag
Die Idee dabei ist folgende: Die verschiedenen Teilgebiete des Keimvolumens, das durch die inflationäre Expansion zu enormer Größe aufgeblasen wird, sind zu Beginn mikroskopisch klein, sodass die Quantenmechanik in ihnen eine Rolle spielt. Nun sagt die Quantenmechanik, dass klassische physikalische Größen wie der Ort eines Teilchens oder die Stärke eines Feldes keine absolut scharfen Werte mehr haben, wenn es um winzige Abstände geht. Das gilt dann natürlich auch für das Inflatonfeld. Man kann sich das vereinfacht so vorstellen, als würde der Wert des Inflatonfeldes ständig zufällig leicht hin- und herschwanken, ähnlich wie die Wasseroberfläche eines Sees, über dem der Wind weht. Man sagt auch, das Feld fluktuiert. Während sich das Inflatonfeld also auf dem Weg hinab in sein Energietal befindet, wird es ständig zufällig leicht hin und her geschubst, mal etwas bergauf und dann wieder etwas bergab. Dadurch entstehen während der inflationären Expansion immer wieder winzige Raumbereiche, in denen das Feld etwas stärker oder schwächer als in der Umgebung ist. Normalerweise würden sich diese Quantenschwankungen schnell wieder ausgleichen, so wie ja auch eine Wasseroberfläche durch den Wind nicht dauerhaft verändert wird. Aber wenn der Raumbereich einer Quantenschwankung groß genug (aber immer noch winzig) ist, dann wird er von der inflationären Expansion so schnell aufgebläht, dass seine verschiedenen Teilbereiche den Kontakt zueinander verlieren. Ein Ausgleich ist damit unmöglich. Die räumlich aufgeblähte Quantenschwankung des Feldes friert gleichsam ein und bleibt für die Zukunft erhalten. Je früher eine Quantenschwankung im Inflatonfeld entsteht, umso mehr wird sie durch die andauernde inflationäre Expansion räumlich aufgebläht. Aus den sehr frühen Quantenschwankungen entstehen so sehr große Raumbereiche mit eingefrorener Schwankung, aus den etwas späteren Quantenschwankungen entstehen kleinere Bereiche und so fort, sodass wir am Schluss Raumbereiche mit allen möglichen Größen haben, in denen das Inflatonfeld vom Mittelwert etwas abweicht. Man kann nun in Computermodellen sehr genau simulieren, wie sich diese Dichteschwankungen im Lauf der Zeit weiterentwickeln. So bilden sie den Anstoß für die Plasmaschwingungen, die sich nach 380.000 Jahren im Temperaturfleckenmuster der kosmischen Hintergrundstrahlung widerspiegeln. Und die Dichteschwankungen der Dunklen Materie wirken als Keim für die Zusammenballung der Materie. Das wabenartige Muster der Galaxienhaufen, Filamente und Leerräume, das in den Berechnungen dabei entsteht, stimmt sehr gut mit unseren Beobachtungen überein – ein gutes Zeichen dafür, dass an der Inflationstheorie etwas dran sein könnte.
2 Die Grenzen des Raums: Wo endet die Welt? 139
Auf den ersten Blick ist es schon eine ungeheuerliche Behauptung, die wir hier aufstellen: Die größten Strukturen im Kosmos – von Supergalaxienhaufen bis hin zu den riesigen nahezu leeren „Voids“, manche von ihnen Hunderte Mio. Lichtjahre groß –, sollen aus mikroskopisch kleinen Quantenschwankungen hervorgegangen sein, die deutlich kleiner als ein Proton waren. Das hört sich schon verrückt an. Aber wenn wir die Ideen der inflationären Expansion akzeptieren, dann kann aus etwas sehr Kleinem etwas sehr Großes entstehen. Oder wie Brian Greene es in seinem Buch Der Stoff, aus dem der Kosmos ist in wunderschönen Worten ausdrückt: „Laut Inflationstheorie sind die mehr als hundert Milliarden Galaxien, die im All wie himmlische Diamanten schimmern, nichts als Quantenmechanik, die in großen Buchstaben an den Himmel geschrieben wurde. Für mich ist diese Erkenntnis eines der größten Wunder des modernen wissenschaftlichen Zeitalters.“
Die ewige Inflation Nachdem die Idee der inflationären Expansion erst einmal in der Welt war, stürzten sich neben Alan Guth auch andere Forscher wie Andrei Linde, Alexander Vilenkin sowie Andreas Albrecht und sein Doktorvater Paul Steinhardt auf die neue Theorie und trugen ihre Ideen dazu bei. Dabei machten im Jahr 1983 Steinhardt und Vilenkin eine interessante Entdeckung: Anders als zuvor gedacht, endet die rasante inflationäre Expansionsphase nicht bereits nach kurzer Zeit überall im Raum und geht in die normale gebremste Expansion über, wobei das Inflatonfeld an jedem Ort in sein Energietal hinabrutscht und seine Energie in ein heißes Teilchenplasma umwandelt. Das Hinabrutschen unterliegt nämlich zufälligen Quantenschwankungen, sodass das Inflatonfeld an manchen Stellen zufällig immer mal wieder den Energieberg etwas hinaufwandern kann. Besonders in der Nähe des Berggipfels kann sich so das Hinabrutschen in das Energietal verzögern. Die Raumbereiche, in denen das geschieht, werden sich daher weiter inflationär ausdehnen und sehr rasch an Volumen zunehmen. Es entsteht ein Wettlauf zwischen dem raschen Aufblähen der Gebiete mit hoher Inflatonenergiedichte und dem zufälligen Hinabrutschen in das Energietal in einzelnen Teilgebieten, was dort zum Ende der inflationären Raumexpansion führt. Wer diesen Wettlauf gewinnt, hängt von der Effektivität der beiden konkurrierenden Prozesse ab. In nahezu allen Modellen gewinnt dabei
140 J. Resag
die inflationäre Raumexpansion über das lokale Hinabrutschen in das Energietal, sodass die Inflation ewig fortdauert. Es ist wie bei einem Schweizer Käse, der ununterbrochen stark aufquillt, weil sich seine Käsemasse in regelmäßigen Zeitabständen verdoppelt. Zugleich bilden sich in seinem Inneren durch den Zerfall von Käsemasse ständig zufällig kleine Luftbläschen, die inmitten der aufquellenden Käsemasse rasch (aber nicht exponentiell) größer werden und an ihren Rändern weiteren Käse in den Zerfall treiben. Da zwischen den einzelnen anwachsenden Luftbläschen die Käsemasse aber weiter exponentiell aufquillt, entfernen sich die entstandenen Bläschen rasch voneinander und werden sich, obwohl sie sich ständig weiter in den Käse hineinfressen, nie miteinander vereinen. Mit anderen Worten: Einmal als winziges Käsebröckchen in die Welt gesetzt, wird der Inflatonkäse nie komplett von den Bläschen aufgefressen, sondern sein exponentielles Aufquellen dauert ewig fort. Ständig bilden sich dabei in seinem Inneren neue Blasen, die sich ausdehnen und weiter in den Käse hineinfressen, wobei sie an ihren Rändern ununterbrochen Käsemasse in heißes Teilchenplasma umwandeln. Diese Blasen müssen übrigens keineswegs kugelrund sein, sondern sie können auch ziemlich unregelmäßig geformt sein, weshalb man auch von Taschenuniversen (engl. „pocket universes“) spricht. Von innen betrachtet ist die genaue Form der expandierenden Blase oder Tasche ziemlich egal, denn deren Rand entfernt sich so schnell von jedem internen Beobachter, dass er jenseits des Horizonts liegt und damit unsichtbar bleibt. Von innen betrachtet kann man den Rand also nicht sehen. Man sieht vielmehr genau das, was wir auch in unserem Universum beobachten: einen expandierenden Raum, in dem die Galaxien umso schneller von uns wegfliegen, je weiter sie bereits entfernt sind. Je weiter wir in unsere Raumblase hinausblicken, umso tiefer sehen wir in die Vergangenheit, bis unser Blick am heißen Plasma endet, als dieses sein einst glühendes Licht in die Freiheit entließ. Von außen betrachtet entsteht dieses heiße Plasma überall am Rand der expandierenden Raumblase, während diese sich ständig weiter in das Inflatonfeld hineinfrisst. Der heiße Urknall findet also ununterbrochen am Rand der Blase statt. Doch der Zeitbegriff, der diesem Bild zugrunde liegt, macht für Beobachter im Inneren der Raumblase wenig Sinn. Als Raumblasenbewohner verwenden wir besser unsere kosmische Zeit, die die mitgeführten Uhren der Galaxien als Zeitmaß verwendet. Gleich alte Galaxien spannen dann den kosmischen Raum zu einer bestimmten kosmischen Zeit auf (siehe die blauen Hyperbellinien in Abb. 2.16). Die innere Sichtweise ähnelt sehr der Betrachtung des Milne-Universums in kosmischen Koordinaten von früher. Der Raum gleich alter Galaxien
2 Die Grenzen des Raums: Wo endet die Welt? 141
Inflatonfeld
Abb. 2.16 Unser Blasenuniversum in der Außensicht. Die blauen Hyperbellinien gleicher kosmischer Zeit definieren aus der Innensicht die Räume der Gleichzeitigkeit mit gleich alten Galaxien. Das rote Gebiet an der Blasengrenze stellt das heiße Plasma dar, das dort aus der freigesetzten Inflatonenergie entsteht. Aus ihm bilden sich später die Galaxien. Quelle: Eigene Grafik
erstreckt sich dabei bis ins Unendliche, da von außen betrachtet die Raumblase ewig anwächst. Die Frage, ob unsere Raumblase unendlich groß ist, erscheint damit in einem neuen Licht. Man kann nicht einfach fragen, wie groß der Raum unserer Blase „ist“, denn Raum und Zeit sind eng miteinander verwoben und die Antwort hängt davon ab, wie man den Begriff der Gleichzeitigkeit auffasst. Wenn man Sie also fragt, ob unsere Raumblase unendlich groß ist, können Sie bedeutungsvoll andeuten: Nun ja, das kommt ganz darauf an! Für das, was wir am Himmel sehen, ist es vollkommen unerheblich, wie wir Räume der Gleichzeitigkeit definieren und ob wir das Innere der Raumblase als endlich (Außenansicht) oder unendlich (Innenansicht) ansehen. Unser beobachtbares Universum ist wegen der Horizonte in jedem Fall endlich, und das Fortsetzen des Raums gleich alter Galaxien bis ins Unendliche findet im Wesentlichen in unserer Vorstellung statt. Sehen oder erfahren können wir das „heutige Universum“ in seiner Gesamtheit wegen der endlichen Lichtgeschwindigkeit sowieso nicht. Leben wir nun wirklich in so einer Käseblase? Ist unser beobachtbares Universum nur der für uns sichtbare Teil einer viel größeren Blase, die selbst nur eine Blase von vielen in einem sich rasch ausdehnenden Multiversum ist? Entstehen tatsächlich ständig weitere neue Blasenuniversen in diesem rasant aufquellenden inflatongefüllten Kosmos? Angesichts der Gigantomanie einer solchen Vorstellung kann einem schon etwas schwindelig werden. Nicht genug, dass unsere Milchstraße nur eine von mehreren Hundert Mrd. Galaxien im sichtbaren Universum ist.
142 J. Resag
Und nicht genug, dass unser sichtbares Universum nur ein winziger Teil des gesamten, mit Galaxien gefüllten Raums sein soll. Nun soll auch noch dieser Raum nur eines von unzähligen Blasenuniversen sein, deren Anzahl ständig exponentiell zunimmt. Ist ein solches Universum nicht allzu verschwenderisch, etwas zu extravagant? Nun ja, unsere menschliche Anschauung ist kein besonders guter Wegweiser bei solchen Fragestellungen, empfanden doch unsere Vorfahren schon die Vorstellung, die Erde sei nicht das Zentrum der Welt, als Zumutung. Je mehr wir über die Welt wissen, umso größer scheint sie zu werden. Durch direkte Beobachtung anderer Blasenuniversen werden wir diese Frage leider niemals beantworten können, denn diese liegen weit jenseits unseres kosmischen Horizonts. Wir können nur versuchen, herauszufinden, ob die Physik des Inflatonfeldes ein solches Blasenmultiversum wahrscheinlich macht. Aber auch wenn es einige Theorien wie die GUT dazu gibt, die solche inflatonartigen Felder enthalten, so sind diese Theorien keineswegs schon auf dem Niveau gesicherten physikalischen Wissens. Es gibt allerdings noch eine andere Möglichkeit, mit der wir vielleicht zumindest indirekt auf die Existenz anderer Blasenuniversen schließen können. Diese Möglichkeit hat etwas mit der Frage zu tun, warum es uns als beobachtende Lebewesen überhaupt gibt.
Das anthropische Prinzip Haben Sie sich schon einmal die Frage gestellt, warum unsere Erde so angenehm temperiert ist, dass es auf ihr flüssiges Wasser gibt? Und warum sie groß genug ist, um eine Atmosphäre zu halten, aber nicht so groß, dass ihre Schwerkraft uns zerquetscht? Warum hat sie einen recht großen Mond, der ihre Drehachse so stabilisiert, dass uns trudelnde Rotationsbewegungen mit entsprechend unangenehmen jahreszeitlichen Schwankungen erspart bleiben? Warum besitzt die Erde eine Plattentektonik, die das bei der Verwitterung von Gesteinen als Kalk gebundene Treibhausgas Kohlendioxid immer wieder als vulkanisches Gas freisetzt, sodass unsere Erde nicht zu stark auskühlt? Kurzum: Warum ist unsere Erde ein für Leben so geeigneter Ort? Unsere Vorfahren haben sich diese Frage vermutlich gar nicht gestellt oder einfach angenommen, fürsorgliche Götter hätten die Welt nun einmal so eingerichtet. Und doch hätte unsere Erde genauso gut ein heißer Wüstenplanet wie die Venus, ein frostiger Eisplanet ähnlich dem Jupitermond Europa oder ein erdrückender Gasriese wie Jupiter sein können – alles
2 Die Grenzen des Raums: Wo endet die Welt? 143
keine guten Bedingungen für unsere Existenz. Heute wissen wir, dass diese Möglichkeiten ganz real sind, denn wir kennen viele dieser lebensfeindlichen Planeten. Wenn wir also wissen, dass lebensfeindliche Bedingungen auf einem Planeten realistisch und sogar ziemlich wahrscheinlich sind, und wenn wir nicht auf fürsorgliche Götter oder einen einmaligen Glücksfall zurückgreifen wollen, dann bleibt eigentlich nur eine Möglichkeit, die guten Bedingungen auf unserer Erde zu erklären: Es muss sehr viele Planeten mit ganz unterschiedlichen Bedingungen geben, sodass auf einigen von ihnen zufällig auch lebensfreundliche Bedingungen herrschen. Und wo sonst als auf einem solchen Planeten hätten wir entstehen können? Diese Art zu argumentieren, nennt man auch anthropisches Prinzip. Für unsere Erde können wir dieses Prinzip problemlos anwenden, denn wir haben mittlerweile viele Planeten entdeckt, und zwar nicht nur in unserem Sonnensystem, sondern auch in vielen anderen Sternsystemen. Unser Universum scheint voller Planeten zu sein. Die meisten von ihnen sind für Leben, wie wir es kennen, eher nicht geeignet. Aber hier und da wird einer dabei sein, der wie unsere Erde geeignete Bedingungen für die Entstehung von Leben bietet. Sollte sich auf einem dieser Planeten ein intelligentes Alien fragen, warum es ausgerechnet auf einem so angenehmen Planeten geboren wurde, würden wir ihm zurufen: Wo sonst hätte Leben, wie Du es bist, entstehen können? Aber können wir das anthropische Prinzip auch auf unser Universum anwenden? Das würde nur dann Sinn machen, wenn es noch viele andere Universen gibt, die ganz unterschiedliche mehr oder weniger gute Bedingungen für Leben aufweisen – so wie bei Planeten. Nur leider können wir andere Universen jenseits unseres Horizonts nicht beobachten und wissen daher nicht, ob es sie gibt und wie es in ihnen aussieht. Wir müssen uns also stattdessen unsere physikalischen Theorien anschauen und uns fragen, ob nach ihnen auch andere Universen physikalisch plausibel sind. Die Goldstandardtheorie der modernen Physik kennen wir bereits – es ist das Standardmodell der Teilchenphysik mit seinen 6 Quarks und 6 Leptonen sowie den verschiedenen Wechselwirkungsteilchen. Zusammen mit Einsteins Gravitationstheorie können wir damit die bekannten physikalischen Gesetze unserer Welt sehr genau beschreiben. An diesen Naturgesetzen wollen wir erst einmal nicht rütteln und sie vorerst auch für andere Universen voraussetzen. Und dennoch bleiben eine Reihe von Freiheiten – frei wählbare Parameter, die durch kein bekanntes Naturgesetz vorherbestimmt sind. Niemand sagt uns beispielsweise, dass das Myon rund 200-mal schwerer als sein leichter Bruder, das Elektron, sein muss. Das
144 J. Resag
Standardmodell würde genauso funktionieren, wenn das Myon nur doppelt so schwer oder 1000-mal schwerer wäre. Ähnlich ist es auch mit den Massen der anderen Quarks und Leptonen. Was würde also geschehen, wenn wir die Teilchenmassen oder die relativen Stärken der einzelnen Wechselwirkungen ändern? Wäre ein solches Universum immer noch lebensfreundlich? Hätten wir dennoch entstehen können? Nehmen wir als Beispiel das Neutron, das nur rund 0,14 % schwerer als das Proton ist. Nach Einsteins Formel E = mc2 stellt dieser Massenüberschuss gerade genug Energie bereit, sodass ein frei dahinfliegendes Neutron innerhalb von Minuten in das etwas leichtere Proton sowie ein Elektron und ein Elektron-Antineutrino zerfällt. In stabilen Atomkernen zerfallen die Neutronen dagegen nicht, denn die Bindungsenergie der Kerne geht ebenfalls in die Energiebilanz ein und bewirkt, dass ein Neutronenzerfall Energie kostet und deshalb ausbleibt. Angenommen, wir erhöhen die Masse des Neutrons um 1 % (beispielsweise, indem wir das Down-Quark schwerer machen). Das erscheint nicht viel, und doch verändert es unsere Welt von Grund auf. Bis auf das Wasserstoffatom würden dadurch nämlich sämtliche Atome instabil werden und radioaktiv zerfallen. Die Bindungsenergie der Atomkerne wäre jetzt zu gering, um den Zerfall ihrer Neutronen aufzuhalten. Sie würden sich in Protonen umwandeln und die elektrische Abstoßung der Protonen würde die Kerne zerreißen. In einer solchen Welt gäbe es weder Kohlenstoff noch Sauerstoff oder irgendein anderes chemisches Element. Gesteinsplaneten wie unsere Erde existierten nicht und chemiebasiertes Leben, wie wir es kennen, wäre unmöglich. Wolken aus Wasserstoff würden das Universum durchziehen, und dort, wo sie sich zusammenballen, würden keine langlebigen Sterne entstehen, denn eine Kernfusion von Wasserstoff zu Helium wäre nicht möglich. Es wäre ein ziemlich langweiliges, dunkles und lebensfeindliches Wasserstoffuniversum. Und wenn wir die Neutronen um 1 % leichter machen? Dann wären sie leichter als Protonen, sodass nun die Protonen instabil werden und sich unter Abstrahlung eines Positrons und eines Elektron-Neutrinos in Neutronen umwandeln. Es gäbe keine Protonen, keine positiv geladenen Atomkerne und auch keine Atome. In einer solchen Neutronenwelt wäre Leben ebenso wenig vorstellbar wie in einer reinen Wasserstoffwelt. Wir sehen, wie empfindlich unsere Welt auf kleine Änderungen der Parameter reagiert. Das Massenverhältnis von Protonen und Neutronen ist genau austariert, sodass stabile Atomkerne und chemische Elemente möglich
2 Die Grenzen des Raums: Wo endet die Welt? 145
sind. Stören wir dieses empfindliche Gleichgewicht auch nur ein bisschen, so verwandelt sich unser Universum in eine ziemlich unfreundliche Welt. Auch viele andere Parameter unseres Universums scheinen ziemlich genau justiert, um unsere Existenz zu ermöglichen – man spricht auch von der Feinabstimmung der Naturkonstanten. Wäre beispielsweise die Schwerkraft deutlich stärker, dann wären die Sterne viel kleiner und hätten ihren Brennstoff viel schneller verbraucht. Da bleibt nicht viel Zeit für die Entstehung von Leben. Wäre die schwache Wechselwirkung stärker oder schwächer, dann würden bei Supernovaexplosionen die zahlreich entstehenden Neutrinos entweder im kollabierenden Sternzentrum stecken bleiben oder sie würden ziemlich folgenlos entweichen. In beiden Fällen wären sie nicht in der Lage, die Wolke aus neu entstandenen Elementen ins Weltall zu blasen. Außerdem müssen starke und elektromagnetische Wechselwirkung im richtigen Verhältnis zueinanderstehen, um die Entstehung schwerer Elemente wie Kohlenstoff und Sauerstoff im Inneren gealterter Sterne zu ermöglichen. Die Frage, ob die Naturkonstanten wirklich sehr fein auf die Existenz von Leben hin abgestimmt sind, ist nicht ganz unumstritten. Es ist nicht immer einfach, die Folgen von veränderten Parametern abzuschätzen, da diese in ihrer Gesamtheit auf die Welt wirken. Es könnten also durchaus mehrere Kombinationen für Leben geeignet sein, und man kann auch nicht ausschließen, dass es noch ganz andere Möglichkeiten für Leben gibt als unsere irdischen kohlenstoffbasierten Organismen. Insgesamt sind sich aber die meisten Forscherinnen und Forscher darin einig, dass es sehr wahrscheinlich deutlich mehr lebensfeindliche Parameterbereiche gibt als lebensfreundliche. Nicht wenige gehen sogar davon aus, dass die ungünstigen Bereiche bei Weitem überwiegen. Ein besonders kritischer Parameter scheint die Stärke der Dunklen Energie zu sein. Steven Weinberg (Abb. 2.17), den wir als Mitbegründer des Standardmodells der Teilchenphysik bereits kennengelernt haben, hat das bereits im Jahr 1987 klar erkannt, also rund ein Jahrzehnt bevor die schneller werdende Expansion unseres heutigen Universums überhaupt entdeckt wurde. Weinberg hatte sich gefragt, welchen Wert die Dunkle Energie in einem lebensfreundlichen Universum typischerweise haben sollte, falls es sehr viele Universen mit ganz unterschiedlichen Werten für die Dunkle Energie gibt. Zu stark darf die Dunkle Energie in einem lebensfreundlichen Universum nicht sein, denn sonst würde ihre abstoßende Gravitation das Universum zu schnell auseinanderreißen und es bliebe keine Zeit für die Entstehung von Sternen, schweren Elementen und damit Leben. Es muss
146 J. Resag
Abb. 2.17 Steven Weinberg (1933–2021) im Jahr 2010. (Credit: Larry D. Moore, CC BY 4.0. Quelle: https://commons.wikimedia.org/wiki/File:Steven_weinberg_2010.jpg)
also einen Schwellenwert geben, den die Dunkle Energie in den lebensfreundlichen Universen nicht überschreiten darf, und diesen Schwellenwert rechnete Weinberg aus. Dann fragte er: Wenn wir alle lebensfreundlichen Universen nehmen, welche Werte würden wir dann typischerweise für die Dunkle Energie erwarten, wenn wir eines von ihnen zufällig herauspicken? Ein Wert sehr nahe bei null oder kurz unterhalb des Schwellenwertes wäre ziemlich unwahrscheinlich, aber Werte irgendwo in der Mitte zwischen null und dem Schwellenwert würden uns nicht überraschen. Einen solchen Wert sollten wir dann typischerweise auch für unser Universum erwarten. Solche Spekulationen schienen Ende der 1980er-Jahre ziemlich gewagt, glaubte doch nahezu jeder, Einsteins kosmologische Konstante, also die Dunkle Energie, sei null. Doch als die entfernten Supernovae im Jahr 1998 klar zeigten, dass die Dunkle Energie existiert, lag ihr ermittelter Wert tatsächlich ungefähr dort, wo Weinberg ihn vermutet hatte. Seine Spekulation, unser Universum sei irgendein zufälliges Exemplar unter den vielen lebensfreundlichen Universen, hatte tatsächlich eine brauchbare Abschätzung für die Dunkle Energie ergeben. Das ist besonders bemerkenswert, da die Quantentheorie, nach der der leere Raum von wild fluktuierenden Quantenfeldern erfüllt ist, eigentlich eine sehr viel höhere Raumenergie erwarten lässt. Diese Quantenraumenergie wäre eigentlich ein guter Kandidat zur Erklärung der Dunklen Energie. Das Problem ist nur, dass der damit vorhergesagte Wert um mehr
2 Die Grenzen des Raums: Wo endet die Welt? 147
als 100 Größenordnungen über dem tatsächlich beobachteten Wert der Dunklen Energie liegt.10 Eine solch aberwitzig große Dunkle Energie würde unser Universum sofort zerreißen. Also müsste es irgendeinen merkwürdigen Mechanismus geben, der diesen Wert um viele Zehnerpotenzen nach unten drückt. Das erschien den meisten Physikern damals wenig plausibel – da war ein unbekanntes Naturgesetz, das eine Quantenraumenergie schlicht verbietet, deutlich attraktiver. Weinberg konnte dagegen zeigen: Wenn die Dunkle Energie existiert und wir uns in einem durchschnittlichen Exemplar aller lebensfreundlichen Universen befinden, dann sollte sie typischerweise weder bei null noch allzu weit unter dem Schwellenwert liegen, der mit Leben verträglich ist – und genauso ist es gekommen. Das ist schon ziemlich genial, funktioniert aber natürlich nur, wenn es tatsächlich viele lebensfreundliche und noch viel mehr lebensfeindliche Universen mit ganz unterschiedlichen Werten für die Dunkle Energie gibt.
Vielfältige Universen Können wir also Parameter wie die Dunkle Energie, die Massen der Quarks und Leptonen oder die relativen Stärken ihrer Wechselwirkungen als zufällig ansehen, sofern sie in einem Bereich liegen, der zu einem lebensfreundlichen Universum passt? Gibt es an diesen Werten nichts weiter zu erklären? Vielen Physikerinnen und Physikern sträuben sich bei einem solchen Gedanken bis heute die Haare. Sie hoffen auf ein physikalisches Gesetz, das die Werte dieser Parameter erklären kann. Aber vielleicht ergeht es geht ihnen dabei wie dem deutschen Gelehrten Johannes Kepler, der vor rund 400 Jahren versuchte, in den Abständen der Planeten von der Sonne göttliche Harmonien wiederzufinden. Wenn Sie Kepler damals gesagt hätten, die Abstände seien im Wesentlichen zufällig so entstanden und unsere Erde habe rein zufällig den passenden Abstand zur Sonne, um Leben zu ermöglichen, so hätte er sich wohl kopfschüttelnd abgewandt. Aber das von ihm vermutete Gesetz der Planetenabstände gibt es so nicht.11
10 Der
relative Größenunterschied liegt grob bei etwa 10123, also einer Eins mit 123 Nullen. Das ist weit mehr als die Anzahl der Atome im sichtbaren Universum, die irgendwo in der Nähe von 1080 liegt. 11 Kepler hat natürlich sehr wohl gültige Gesetze für die Planetenbahnen gefunden, die die elliptische Form der Bahn und die Umlaufgeschwindigkeiten der Planeten betreffen. Die meinen wir hier aber nicht.
148 J. Resag
Könnte dasselbe nicht auch für die verschiedenen Parameter unseres Universums zutreffen? Wenn wir uns die verschiedenen Teilchenmassen im Standardmodell ansehen, kann man tatsächlich diesen Eindruck gewinnen. Irgendein System ist da schwer zu erkennen. Die Massen wirken wie zufällig gewürfelt, manche von ihnen wie die Neutrinomassen sind sehr klein, andere wie die Masse des Top-Quarks sind dagegen recht groß. Natürlich könnte ein noch unbekanntes Naturgesetz diese Parameter festlegen. Dieses Naturgesetz müsste über das etablierte Standardmodell der Teilchenphysik hinausgehen, denn dort sind diese Größen einfach nur frei wählbare Parameter. Was also sagen die heute diskutierten Theorien jenseits des Standardmodells wie die Grand Unified Theory (GUT) oder die Stringtheorie dazu? Auch sie sagen keineswegs die Werte dieser Parameter voraus, sondern sie legen vielmehr nahe, dass es viele verschiedene Universen mit ganz unterschiedlichen Werten für Teilchenmassen, Kraftstärken oder die Dunkle Energie geben könnte. Warum ist das so? In der GUT liegt es an den verschiedenen Higgsartigen Feldern. Stellen Sie sich beispielsweise zwei solche Felder vor, deren Feldwerte wir in einer 2-dimensionalen Ebene eintragen: den 1. Feldwert in x- und den 2. Feldwert in y-Richtung. In der 3. Richtung können wir dann den Energiewert der jeweiligen Feldkombination eintragen. Es entsteht ein Energiegebirge im Raum der Higgs-Felder mit vielen Bergen, Tälern und Mulden. Auf einem dieser Energieberge startet die inflationäre Expansion, um dann, wenn irgendwo ein Blasenuniversum entsteht, in eines der Täler und Mulden hinabzurutschen. Je nach Rutschweg könnten die Felder dabei in unterschiedlichen Energiemulden enden, sodass sie in den einzelnen Blasenuniversen verschiedene Kombinationen an Feldwerten aufweisen können. Nun bestimmen aber diese Feldwerte beispielsweise die Teilchenmassen, denn diese Massen entstehen ja erst durch den Kontakt mit den Higgs-artigen Feldern, die den Raum in der Blase durchdringen. Mit anderen Worten: Es könnte andere Blasenuniversen geben, in denen das Neutron deutlich schwerer als das Proton wäre, das wäre eine Wasserstoffwelt, oder auch deutlich leichter, das wäre dann eine Neutronenwelt. Und wenn die Feldenergie im jeweiligen Energietal größer als null ist, dann würde diese Feldenergie wie eine Dunkle Energie wirken, d. h., auch die Dunkle Energie könnte in den einzelnen Blasenuniversen ganz unterschiedliche Werte haben. In einem solchen Multiversum kann man sich nun, wie Steven Weinberg es getan hat, überlegen, was denn ein wahrscheinlicher Wert für die Dunkle Energie für ein zufällig herausgegriffenes lebensfreundliches Universum wäre. Für mich ist das ein durchaus überzeugendes
2 Die Grenzen des Raums: Wo endet die Welt? 149
Szenario, zumal es bis heute keine andere brauchbare Erklärung für den Wert der Dunklen Energie gibt (denken Sie nur an die aberwitzigen Zahlen, die uns eine Quantenraumenergie vorschlägt). Auch in der Stringtheorie landet man schnell bei einem ähnlichen Multiversum. Dabei geht die Stringtheorie über die GUT noch hinaus, denn sie schließt auch die Gravitation mit ein. Ursprünglich war die Stringtheorie in den späten 1960er-Jahren einmal angetreten, um die Eigenschaften von Teilchen zu beschreiben, die aus Quarks bestehen – was man damals noch nicht wusste. Man stellte sich diese Teilchen damals als winzige dünne Energiefäden (engl. „Strings“) vor. Als dann aber die Quarks entdeckt wurden, brauchte man die Stringtheorie eigentlich nicht mehr. Und dennoch hat sie bis heute überlebt und sich sogar zu dem vielleicht wichtigsten Kandidaten einer umfassenden physikalischen „Theorie von allem“ gemausert. Das liegt an einer wichtigen Entdeckung: Wenn man die Quantentheorie der schwingenden Energiestrings formuliert, dann enthält diese Theorie automatisch eine bestimmte Stringschwingung, die die Eigenschaften eines Gravitons aufweist – das ist gleichsam das „Photon“ der Gravitation. Anders als die verschiedenen GUT-Varianten enthält die Stringtheorie also automatisch eine Quantentheorie der Gravitation. Mit punktförmigen Teilchen, auf denen beispielsweise das Standardmodell oder die GUT basieren, ist es bis heute dagegen nicht gelungen, eine konsistente Quantengravitationstheorie zu formulieren. Wenn man sich die fundamentalen Teilchen wie Quarks, Elektronen oder Gravitonen dagegen als winzige Energiefäden vorstellt, dann gelingt es. Im Lauf der Zeit hat sich die Stringtheorie als ein extrem komplexes mathematisches Gebilde entpuppt, dessen Geheimnisse man bis heute nur in Grundzügen durchschaut. Insbesondere hat man festgestellt, dass sie nur dann mathematisch konsistent ist, wenn es neben den bekannten 3 Raumdimensionen weitere 6 Raumdimensionen gibt, in denen die Strings schwingen können. Da wir diese überzähligen Dimensionen aber nicht sehen, müssen sie irgendwie verborgen sein. Gerne stellt man sich vor, sie seien überall im Raum zu einem winzigen Knäuel aufgerollt, ganz ähnlich wie bei einem langen Strohhalm, bei dessen 2-dimensionaler Oberfläche ja auch eine Dimension eng aufgerollt ist. Von Weitem betrachtet erscheint der Strohhalm daher wie eine 1-dimensionale Linie. Man muss schon nah herangehen, um die aufgerollte Dimension erkennen zu können. Analog stellt man sich das auch bei unserem 3-dimensionalen Raum vor: Erst wenn man ganz tief in die mikroskopischen Details unserer Welt eintaucht, würden sich die aufgerollten Zusatzdimensionen bemerkbar machen.
150 J. Resag
An den großen Teilchenbeschleunigern dieser Welt sucht man nach entsprechenden Hinweisen – bisher vergeblich. Es scheint, dass die Zusatzdimensionen, wenn es sie wirklich gibt, so eng aufgerollt sind, dass wir einfach nicht tief genug hineinzoomen können. Dafür muss man nämlich große Energiemengen auf sehr kleinem Raum konzentrieren, was unsere heutigen Teilchenbeschleuniger noch nicht schaffen. Aber wer weiß: Eines Tages könnte es gelingen. Auf den ersten Blick erscheinen die notwendigen Zusatzdimensionen vielleicht wie eine lästige Komplikation, die man durch enges Aufrollen aus der Welt schaffen muss. Auf den zweiten Blick erweisen sie sich jedoch als ausgesprochen nützlich. Die winzigen Energiestrings spüren nämlich die aufgerollten Dimensionen und können auch in diese hineinschwingen. Dadurch entstehen ganz unterschiedliche Schwingungsmuster in den Strings, die sich von Weitem betrachtet wie Teilchen mit unterschiedlichen Eigenschaften auswirken. Die Art und Weise, wie die Zusatzdimensionen überall eng aufgerollt und ineinander verschlungen sind, beeinflusst also, welche Eigenschaften die Teilchen haben, die wir in den 3 nicht aufgerollten Dimensionen „von Weitem“ sehen. Wie viele Möglichkeiten gibt es für das Aufrollen der Zusatzdimensionen? Die Zahlen, die hier gehandelt werden, liegen bei 10500 und mehr. Das wäre eine Eins mit 500 Nullen. Wenn Sie eine solche Zahl ausschreiben wollen, sind Sie schon etwas beschäftigt. Und jede dieser unzähligen Aufrollmöglichkeiten entspricht einer anderen Kombination von Teilcheneigenschaften in den nicht aufgerollten 3 Raumdimensionen – also einem anderen 3-D-Universum. Damit treten die Aufrollmöglichkeiten der Stringtheorie an die Stelle der Higgs-Feldkombinationen der GUT. In jedem neuen Blasenuniversum könnten sich die Zusatzdimensionen zufällig anders aufrollen und die Teilchenwelt wäre eine andere. Falls Sie sich gefragt haben, warum sich ausgerechnet 3 Raumdimensionen dem Aufrollen entziehen: Selbst das könnte Zufall sein. Womöglich bleiben in anderen Blasen des Multiversums nur 2 oder gar 4 oder 5 Raumdimensionen vom Aufrollen verschont. Warum es in unserem Universum ausgerechnet 3 sind, kann man wieder mit dem anthropischen Prinzip begründen. In einer 2-dimensionalen Welt wären nämlich komplizierte Lebewesen wie wir nur schwer möglich. Schon ein einfacher durchgehender Darm mit getrenntem Ein- und Ausgang würde ein 2-D-Lebewesen in 2 Teile zerlegen. In einer Welt mit 4 oder mehr ausgedehnten Raumdimensionen wären dagegen Planetenbahnen nicht stabil, da die Schwerkraft mit zunehmendem Abstand schneller abnimmt als in unserer 3-D-Welt. Dieser Umstand war bereits um das Jahr 1920 dem öster-
2 Die Grenzen des Raums: Wo endet die Welt? 151
reichischen Physiker Paul Ehrenfest aufgefallen. Analog wären auch stabile Atome nicht möglich. Es scheint also, als wären nur 3 Raumdimensionen dem Leben zuträglich, zumindest bei Leben, wie wir es kennen.
Braucht die ewige Inflation einen Anfang? Die ewige Inflation sorgt dafür, dass all die vielen Möglichkeiten, die sich aus der GUT und der Stringtheorie für Universen ergeben, nicht ungenutzt bleiben. Einmal in einem kleinen Fleckchen Raum mit hoher Inflatonenergie gestartet, scheint die inflationäre Expansion ewig anzudauern und fortwährend die verschiedensten Blasenuniversen zu produzieren. Jedes Blasenuniversum, das auch nur die geringste Chance für seine Entstehung hat, wird dabei irgendwann an die Reihe kommen. Mit anderen Worten: Alles, was an Universen möglich ist, gibt es auch irgendwann. Nun ist unser bisheriges Bild von der Ewigkeit der Inflation ziemlich unsymmetrisch: ewig, was die Zukunft betrifft, aber mit einem Startpunkt in der Vergangenheit. Aber muss es überhaupt einen solchen Startpunkt gegeben haben? Was, wenn die inflationäre Expansion schon ewig existiert? Unser eigenes Blasenuniversum hätte dann zwar vor 13,8 Mrd. Jahren einen sehr heißen und dichten Anfang gehabt, aber das übergeordnete Multiversum – der ständig weiter aufquellende Inflatonkäse – wäre schon immer da gewesen. Die inflationäre Expansion wäre dann nicht nur in Richtung Zukunft, sondern auch in Richtung Vergangenheit wahrhaft ewig. Ein solches Szenario ist durchaus attraktiv, denn es vermeidet die Frage nach dem Anfang. Ganz ähnlich hatten in den 1940er-Jahren Fred Hoyle, Hermann Bondi und Thomas Gold mit ihrer Steady-State-Theorie eines ewig expandierenden Universums mit kontinuierlich neu entstehender Materie den Urknall vermieden (siehe Kap. 1). Als sich dann aber die Hinweise auf einen heißen Urknall mehrten, geriet ihre Theorie in Vergessenheit. Im Rahmen der ewigen Inflation könnte sie nun aber in anderer Gestalt für das Multiversum zurückkehren. Lässt sich diese Frage überhaupt klären? Das ist tatsächlich möglich, wie im Jahr 2003 die Physiker Arvind Borde, Alan Guth und Alex Vilenkin bewiesen. Sie zeigten mit ihrem Borde-Guth-Vilenkin-Theorem (kurz BGVTheorem ), dass ein wie auch immer expandierendes Universum nicht schon ewig expandiert haben kann. Die Expansion muss einen Anfang haben! Um das Argument zu verstehen, stellen Sie sich einfach ein expandierendes Universum mit Galaxien wie unseres vor. Es kommt nämlich für das Argument nicht darauf an, was da wie schnell expandiert. Sie
152 J. Resag
können also statt an Galaxien auch an irgendwelche Teilchen oder sogar an imaginäre Staubkörner denken, die eingebettet im Inflatonfeld dem Fluss seiner Expansion folgen. Stellen Sie sich also nun unser Raumschiff Enterprise vor, das mit halber Lichtgeschwindigkeit an unserer Milchstraße vorbeifliegt. Wichtig ist dabei, dass die Enterprise ihren Warp-Antrieb ausgeschaltet hat, sodass sie einfach nur antriebslos durch den Raum driftet. Nachdem sie unsere Galaxie hinter sich gelassen hat, kommt sie irgendwann an einer weiteren Galaxie vorbei, die sich aufgrund der kosmischen Expansion mit 10 % der Lichtgeschwindigkeit von unserer Milchstraße entfernt. Die Enterprise fliegt also der fliehenden Galaxie hinterher und überholt sie schließlich. Ein Alien in dieser Galaxie wird dabei die Enterprise nicht mit halber Lichtgeschwindigkeit an sich vorbeiziehen sehen, sondern nur mit etwa 40 % der Lichtgeschwindigkeit (es stimmt nicht ganz genau wegen der relativistischen Additionsregel für Geschwindigkeiten, aber für unsere Zwecke ist das genau genug). Bei der nächsten Galaxie, die laut HubbleGesetz noch schneller von uns wegfliegt, geht es analog weiter – ein dort ansässiges Alien sieht die Enterprise noch langsamer an sich vorbeidriften. Je länger die Enterprise antriebslos unterwegs ist, umso langsamer erscheint sie den Aliens, an denen sie vorbeikommt. Was bedeutet das im Rückblick, wenn wir den Flug der Enterprise in der Zeit zurückverfolgen? Je weiter wir in die Vergangenheit zurückgehen, umso schneller gleitet die Enterprise aus Sicht der jeweiligen Galaxien an diesen vorbei. Ihre Geschwindigkeit nähert sich immer mehr der Lichtgeschwindigkeit. Wegen der relativistischen Zeitdilatation bedeutet das zugleich, dass die Zeit auf der Enterprise immer langsamer abläuft. Je früher die Enterprise an einer Galaxie vorbeikommt, umso langsamer tickt ihre Borduhr, wenn ein Alien in dieser Galaxie sie mit seiner lokalen Galaxienuhr vergleicht. Im Vergleich zu der kosmischen Zeit, die auf den jeweiligen Galaxienuhren angezeigt wird, friert die Zeit auf der Enterprise immer mehr ein, je weiter wir in die Vergangenheit zurückgehen. Und wenn wir unendlich weit in die Vergangenheit voranschreiten und die Alienuhren in den Galaxien immer frühere Zeiten anzeigen, nähert sich die Zeitanzeige auf der Borduhr der Enterprise immer mehr einem frühesten Zeitwert, den sie nicht unterschreitet. Anders ausgedrückt: Auch wenn die Expansion der Galaxien und die Reise der Enterprise schon ewig andauern und die Uhren der Galaxien schon unendlich lang laufen, so tut dies die Borduhr der Enterprise nicht. Auf der Enterprise ist nur eine endliche Zeit verstrichen, obwohl sie aus Sicht der Galaxien schon ewig unterwegs ist.
2 Die Grenzen des Raums: Wo endet die Welt? 153
Aus Sicht von Captain Kirk und Mr. Spock an Bord der Enterprise verläuft die Zeit aber vollkommen normal und sie sehen, wie ihre Borduhr ganz gleichmäßig vor sich hin tickt. Ihre Sicht auf das Universum sollte genauso viel Wert sein wie die Sicht der Aliens in ihren auseinanderdriftenden Galaxien, denn sie alle sind Teil desselben Universums. Und dennoch behaupten wir, dass die Zeit an Bord der Enterprise einen Anfang gehabt haben soll, während das Universum aus Sicht der Aliens seit ewigen Zeiten existiert. In einem konsistenten Universum sollte ein solcher Widerspruch nicht vorkommen. Er zeigt vielmehr, dass dieses Universums in einem bestimmten Sinn unvollständig ist, da es nicht die vollständige Vergangenheit an Bord der Enterprise umfasst. Mit der Beschreibung der Vergangenheit ist in einem seit ewigen Zeiten expandierenden Universum also etwas faul, und das bedeutet, dass das Universum nicht schon ewig expandiert sein kann. Die Expansion muss einen Anfang gehabt haben, auch wenn sie, wie im Beispiel der ewigen Inflation, womöglich ewig fortdauert. Das BGV-Theorem gilt unter sehr allgemeinen Voraussetzungen – Hauptsache, das Universum expandiert im Mittel auf lange Sicht. Also gilt es auch für unseren aufquellenden Inflatonkäse. Eine seit ewigen Zeiten existierende inflationäre Expansion führt zu Widersprüchen. Bisweilen wird die Aussage dieses Theorems missverstanden. Das Theorem sagt nicht, dass das Universum einen Anfang gehabt haben muss. Es sagt nur, dass es nicht schon ewig expandiert sein kann. Die Expansion muss also einen Anfang haben, das Universum nicht unbedingt. Ich war etwas überrascht, als ich bei meinen Buchrecherchen entdeckte, dass das BGV-Theorem in manchen Kreisen als Argument für die Existenz eines göttlichen Schöpfers verwendet wird. Googeln Sie beispielsweise einmal nach dem Kalam cosmological argument. Das läuft dann – vereinfacht ausgedrückt – nach dem Schema: Alles, was zu existieren beginnt, hat eine Ursache. Das Universum begann zu existieren (hier wird dann beispielsweise das BGV-Theorem als Begründung angeführt). Daher hat das Universum eine Ursache – und die nennen wir Gott, der selber als anfangsloser Schöpfer jenseits von Raum und Zeit existiert und keine Ursache benötigt. Neu ist diese Denkweise nicht, und sie hört sich ja auf den ersten Blick auch durchaus schlüssig an. Schon der griechische Philosoph Aristoteles sprach vor über 2300 Jahren vom unbewegten Beweger, denn da jede Bewegung eine Ursache brauche, müsse es eine letzte selbst unbewegte Ursache aller Bewegung geben – eben den unbewegten Beweger. Im 13. Jahrhundert griff der italienische Dominikanermönch und Philosoph
154 J. Resag
Thomas von Aquin solche Gedanken in seinen berühmten Gottesbeweisen wieder auf, und auch viele andere Philosophen und Gelehrte argumentierten ähnlich. Immanuel Kant, der große deutsche Philosoph der Aufklärung, hielt von solchen Gottesbeweisen wenig, da unser Erfahrungswissen nichts dazu aussagt – schließlich ist Gott nicht sinnlich erfahrbar. Irgendwie hatte ich immer angenommen, seitdem seien Gottesbeweise ziemlich aus der Mode gekommen. Offenbar tauchen sie aber auch heute noch immer wieder auf. Schwierig wird es dann, wenn diese Beweise scheinbar mit physikalischen Argumenten untermauert werden.12 Hier ist eine gesunde Skepsis immer angebracht, denn physikalische Argumente gelten immer nur unter bestimmten Voraussetzungen, die schnell übersehen werden. Überhaupt sollten wir vorsichtig sein, wenn unser von der Evolution geformtes Wirbeltiergehirn Sätze wie „Alles, was zu existieren beginnt, hat eine Ursache“ heraushaut. Das mag für die Dinge unserer Erfahrungswelt gelten, aber ob es wirklich für „alles“ gilt, ist fraglich. Nicht alles, was geschieht, braucht dafür eine Ursache. Beispielsweise zerfällt ein freies Neutron nach heutigem Wissen ohne jeden erkennbaren Grund irgendwann nach Sekunden oder auch Minuten rein zufällig in ein Proton. Und wer kann schon sagen, ob unser Universum für seine Existenz einen Grund braucht? Da ist es mir lieber, wenn wir mit den Mitteln der Naturwissenschaft vorsichtig voranschreiten und immer wieder kritisch prüfen, wie weit unsere Begriffe und Vorstellungen wirklich tragen. Die grundsätzliche Frage, ob unser Universum einen Anfang hat und ob es einen Grund für seine Existenz gibt, bleibt dabei natürlich erlaubt – wir sollten uns nur vor voreiligen Schlüssen oder ideologischen Diskussionen hüten. Wir werden später in diesem Buch noch einmal darauf zurückkommen.
Die Frage nach der Unendlichkeit Wo also stehen wir jetzt? Haben Zeit und Raum Grenzen, oder setzen sie sich bis ins Unendliche fort? Halten wir einen Moment inne und überlegen uns, was wir bisher dazu wissen.
12 Ein gutes Beispiel finden Sie in der Debatte God and Cosmology: The Existence of God in Light of Contemporary Cosmology zwischen dem Religionsphilosophen William Lane Craig und dem Physiker Sean Carroll (September 2015), siehe https://www.reasonablefaith.org/media/debates/god-andcosmology-the-existence-of-god-in-light-of-contemporary-cosmol.
2 Die Grenzen des Raums: Wo endet die Welt? 155
Wie wir gesehen haben, sind die Fragen nach der Endlichkeit von Raum und Zeit komplizierter, als es zunächst den Anschein hat. War Albert Einstein noch von einem ewigen statischen Universum ausgegangen, so bewiesen seine eigenen Gleichungen, dass es ein solches Universum nicht geben kann. Immer deutlicher zeigten die Beobachtungen, dass unsere sichtbare Welt in einem heißen Urknall vor 13,8 Mrd. Jahren entstanden ist und seitdem expandiert, erst abgebremst und seit 5 Mrd. Jahren beschleunigt. Ein absolutes Ende der Zeit ist dabei nicht in Sicht. Die beschleunigte Expansion könnte ewig fortdauern, wobei sich unsere Welt immer mehr in ein leeres, dunkles und kaltes Gebilde verwandelt, in dem irgendwann nichts makroskopisch Wahrnehmbares mehr geschieht. Keine Uhr würde das Verstreichen der Zeit mehr sichtbar machen, denn alle Materie wäre in den immer größer werdenden Weiten des Raums zu einem Hauch von Nichts zerfallen. Als physikalischer Parameter mag die Zeit dann zwar weiter existieren, aber ihre Existenz wäre der Welt nicht mehr anzusehen. Was den Raum betrifft, so sahen wir uns mit der Frage konfrontiert, was denn der Raum zu einer bestimmten Zeit überhaupt sein soll. „Der Raum ist die Ordnung gleichzeitig existierender Dinge“, hatte Leibniz schon vor über 300 Jahren gesagt. Aber wie Einstein gezeigt hat, ist gar nicht so klar, welche Ereignisse in der Raumzeit als gleichzeitig gelten sollen, denn Raum und Zeit sind eng miteinander verwoben. Im gravitationslosen MilneUniversum haben wir gesehen, dass verschiedene Sichtweisen möglich sind. Definieren wir Gleichzeitigkeit aus unserer Sicht über Lichtechos, dann entfernt sich keine Galaxie schneller als mit Lichtgeschwindigkeit von uns und der mit Galaxien gefüllte Raum ist zu jeder Zeit endlich. Verwenden wir dagegen Weltzeituhren, die von den Galaxien mitgeführt werden, um überall ein konsistentes kosmisches Zeitmaß zu definieren, dann ist der mit Galaxien gefüllte Raum zu jeder festen kosmischen Zeit unendlich groß. Das sieht wie ein Widerspruch aus, aber es kommt eben darauf an, welche Ereignisse der Milne-Raumzeit man zu einem Raum der Gleichzeitigkeit zusammenfasst. Raum und Zeit existieren eben nicht absolut, sondern sind immer Teil einer übergeordneten Raumzeit. In unserem realen Universum ist bis heute unklar, ob der kosmische Raum zu einer festen kosmischen Zeit unendlich ist oder nicht. Es hängt davon ab, wie viel Materie und Energie er enthält. Ist es weniger als die kritische Dichte, dann ist der Raum unendlich und negativ gekrümmt, ähnlich wie eine Satteloberfläche. Ist es mehr, dann ist der Raum endlich und positiv gekrümmt wie die Oberfläche einer Kugel. Und ist es genau die kritische Dichte, dann ist er unendlich und ohne jede Krümmung, also flach. Dieser 3. Grenzfall eines flachen Universums mit kritischer Dichte ist
156 J. Resag
mit mindestens 1 % Genauigkeit in dem für uns sichtbaren Teil des Universums realisiert. Aber wenn dieser sichtbare Teil der Welt nur ein winziger Ausschnitt des gesamten Universums ist, und vieles spricht dafür, dann könnte uns dieser Ausschnitt auch nur ziemlich flach erscheinen, ähnlich wie uns auch die Erdoberfläche bis zum Horizont flach erscheint. Niemand weiß, ob das Universum auch im Ganzen wirklich flach und unendlich ist. Aber auch wenn es endlich sein sollte wie die Oberfläche einer Kugel, so muss es doch weit größer sein als das, was wir von ihm sehen können. Seit den 1980er-Jahren hat dieses gut etablierte Bild unseres expandierenden Universums eine deutliche – wenn auch spekulative – Erweiterung erfahren. Entwicklungen aus der Teilchenphysik ließen die Idee aufkommen, es könnte zumindest in den ersten Sekundenbruchteilen des Urknalls eine unglaublich rasante inflationäre Expansion des Raums gegeben haben, angetrieben durch die abstoßende Gravitation eines hochenergetischen Inflatonfeldes. Weitere Analysen zeigten dann, dass diese inflationäre Expansion ewig andauern sollte, wobei wie in einem ständig aufquellenden Inflatonkäse unentwegt unzählige neue Blasenuniversen entstehen, die sich immer tiefer in die Inflatonkäsemasse hineinfressen. Von außen betrachtet wären diese Blasen endlich groß, aber von innen betrachtet enthalten sie unendlich große Räume kosmischer Gleichzeitigkeit – ganz ähnlich wie beim Milne-Universum. Sehen können wir den rasant zurückweichenden Rand unserer eigenen Blase nicht. Ob ein solches aufquellendes Inflatonuniversum insgesamt räumlich unendlich ist oder nicht, ist schwer zu sagen. Es hängt unter anderem davon ab, wie man Gleichzeitigkeit darin definiert, und das würde man innerhalb der Blasen anders machen als außerhalb in der sich rasant ausdehnenden Inflatonkäsemasse. In jedem Fall sprengt ein Universum, in dem sich die Abstände im inflatongefüllten Raum in winzigen Zeitintervallen ständig verdoppeln, jedes räumliche Vorstellungsvermögen. Da ist es schon fast egal, ob man es endlich nennt oder nicht. Was die Zeit betrifft, so gibt es in diesem Bild eigentlich keinen singulären Urknall mehr. Dort, wo am jeweiligen Blasenrand das Inflatonfeld in sein Energietal rutscht und seine enorme Energie als heißes Teilchenplasma freisetzt, beginnt auch die lokale kosmische Zeit für das Blaseninnere zu laufen. Die äußere Inflatonzeit kann dagegen schon viel länger laufen, und sie könnte auch ewig weiterlaufen, falls nichts die ständige Neubildung des Inflatonfeldes stoppt. Die Idee, die inflationäre Expansion könne es schon seit ewigen Zeiten geben, trifft offenbar nicht zu, wie das BGV-Theorem zeigt. Es muss einen Anfang der Expansion gegeben haben. Ob das auch zugleich der Anfang
2 Die Grenzen des Raums: Wo endet die Welt? 157
des gesamten Universums ist, bleibt dabei offen. Irgendwann muss jedenfalls ein winziger Raumbereich entstanden sein, in dem sich das Inflatonfeld auf seinem Energieberg befand. Dieses inflatongefüllte Keimvolumen reicht dann aus, um den nahezu explosiven Prozess der Inflation in Gang zu setzen. Woher das mikroskopische Keimvolumen kam und ob es davor überhaupt Raum und Zeit gab, können wir an dieser Stelle noch nicht sagen – die Inflatontheorie macht dazu keine Aussage. Aber vielleicht gelingt es uns ja, weiter voranzukommen, wenn wir mehr über die wahre Natur von Raum und Zeit herausfinden. Dafür müssen wir uns wieder in Richtung Unendlichkeit begeben, aber diesmal nicht ins unendlich Große, sondern hinab ins unendlich Kleine, ins tiefste Innere der Wirklichkeit.
3 Die Grenzen der Winzigkeit: hinab in die Quantenwelt
Die Unendlichkeit im Kleinen aber ist viel weniger deutlich (als im Großen) und viel häufiger haben die Philosophen vorgegeben, sie wären dorthin gelangt, und dort ist es, wo alle gescheitert sind.
Wenn wir über die Unendlichkeit der Welt nachdenken, fällt uns natürlich zuerst das unendlich Große ein, die Unendlichkeit des Raums und die Ewigkeit der Zeit. Doch es gibt noch eine andere Unendlichkeit, die unscheinbar am entgegengesetzten Ende lauert: das unendlich Kleine, das Winzige, das kleiner ist als alles, was wir uns vorstellen können, aber dennoch mehr ist als das Nichts. Dem Mathematiker und christlichen Philosophen Blaise Pascal, der im absolutistischen Frankreich des 17. Jahrhunderts lebte und aus dessen 72. Pensée („Gedanken“) das obige Zitat stammt1, waren diese beiden „doppelten Unendlichkeiten, zwischen denen der Mensch sich zu verlieren droht“, sehr bewusst: „Was ist ein Mensch in der Unendlichkeit?“ Pascal sah diese beiden „Abgründe des Unendlichen und des Nichts“ wie zwei äußerste Enden, die „sich berühren und wieder zusammenkommen, weil sie sich so weit voneinander entfernt haben und sich wiederfinden in Gott und in Gott allein.“ Sie ahnen sicher, dass Pascal nicht nur Mathematiker und Philosoph, sondern auch ein sehr gottesfürchtiger Mensch war. Dass das unendlich Große und das unendlich Kleine eine enge mathematische Verbindung miteinander haben, wird deutlich, wenn wir die
1 Siehe
beispielsweise http://12koerbe.de/phosphoros/pascal.htm.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Resag, Grenzen der Wirklichkeit, https://doi.org/10.1007/978-3-662-67400-0_3
159
160 J. Resag
mathematische Operation des Teilens betrachten und den Kehrwert einer Zahl bilden. Aus einer Million wird dann ein Millionstel, aus einer Milliarde wird ein Milliardstel und so weiter. Je größer die Zahl wird, umso kleiner wird ihr Kehrwert – er schrumpft immer weiter gegen null, ohne die Null je zu erreichen. Die Null selbst ist vom Bilden des Kehrwertes ausgeschlossen, denn durch null kann man nicht teilen – sie bleibt beim Teilen außer Reichweite, so wie auch das unendlich Große unerreichbar bleibt. Diese Unerreichbarkeit der beiden Unendlichkeiten hat den Mathematikern im späten 17. Jahrhundert so manches Kopfzerbrechen bereitet, denn besonders das unendlich Kleine, das Infinitesimale, wie man auch sagte, erwies sich als sehr nützlich. Gottfried Wilhelm Leibniz und unabhängig von ihm Isaac Newton brauchten es, um mathematisch ausdrücken zu können, wie sich Größen wie beispielsweise die Position und die Geschwindigkeit eines Planeten verändern. Für die aktuelle Geschwindigkeit eines Planeten muss man nämlich wissen, wie weit er sich in einer kurzen Zeitspanne fortbewegt. Aber in dieser Zeitspanne kann sich seine Geschwindigkeit bereits verändert haben, was das Ergebnis verfälscht. Also muss man die Zeitspanne möglichst kurz machen, um die wirkliche „aktuelle“ Geschwindigkeit herauszubekommen, und im Idealfall muss sie sogar zu einem unendlich kleinen Augenblick schrumpfen. So kam es, dass seit Leibniz und Newton die Physikerinnen und Physiker ziemlich unbekümmert mit solchen unendlich kleinen (infinitesimalen) Größen herumrechneten – und damit sehr erfolgreich waren. Die aktuelle Geschwindigkeit v definierten sie beispielsweise über die Formel v = dx/ dt, wobei dx die infinitesimale Wegstrecke ist, die das Objekt in der infinitesimalen Zeitspanne dt zurücklegt. Das funktionierte sehr gut, rief aber bei vielen Mathematikern und Philosophen ein mulmiges Gefühl hervor. Was sollten die infinitesimalen Größen dx und dt denn eigentlich sein? Das unendlich Kleine ist schließlich unerreichbar! Wenn diese Größen wirklich unendlich klein sind, müssten sie dann nicht gleich null sein? Dann aber wäre v = 0/0, was mathematisch keinen Sinn ergibt. „Sie (die infinitesimalen Größen) sind weder endliche Quantitäten noch unendlich kleine Quantitäten noch ein Nichts. Sollten wir sie nicht die Geister der verstorbenen Quantitäten nennen?“, beschwerte sich der anglikanische Bischof und Philosoph George Berkeley wenige Jahre nach Newtons Tod in seinem Werk The Analyst.2
2 “They are neither finite Quantities nor Quantities infinitely small, nor yet nothing. May we not call them the Ghosts of departed Quantities?” Siehe z. B. https://en.wikipedia.org/wiki/The_Analyst
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 161
Erst im 19. Jahrhundert gelang es Mathematikern wie Augustin-Louis Cauchy und Karl Weierstrass, die Infinitesimalrechnung auf mathematisch sichere Füße zu stellen. Sie vermieden die problematischen infinitesimalen Ausdrücke wie dx oder dt und etablierten stattdessen einen Grenzwertprozess, über den sich beispielsweise die Geschwindigkeit mathematisch sauber definieren lässt (vielleicht kennen Sie den entsprechenden EpsilonDelta-Formalismus aus der Schule). Das war ein gewaltiger Fortschritt, vertrieb aber leider auch die so praktischen infinitesimalen Größen aus der Mathematik, während die Physikerinnen und Physiker gerne an ihnen festhielten – man kann einfach zu gut mit ihnen rechnen. Erst um das Jahr 1960 erhielten sie aus der modernen Mathematik dafür eine Rechtfertigung, als sich herausstellte, dass sich die infinitesimalen Ausdrücke dank der Mengenlehre durchaus mathematisch einwandfrei definieren lassen. Die moderne Mathematik hat es also bis zu einem gewissen Grad geschafft, sowohl das unendlich Große als auch das unendlich Kleine zu zähmen. Aber was ist mit unserer realen Welt? Gibt es auch dort das unendlich Kleine, oder stoßen wir beim Hinabtauchen in die Winzigkeit an gewisse Grenzen, so wie uns das beim unendlich Großen mit den Horizonten passiert ist? Wie kam es überhaupt zu diesen Horizonten? Würde die Physik so funktionieren, wie wir das aus unserer direkten Umgebung gewöhnt sind, dann gäbe es keine Horizonte. Wir müssten nur schnell genug in den Raum vordringen, und wir könnten jeden noch so entfernten Ort erreichen. Aber die Physik funktioniert bei großen Geschwindigkeiten anders als wir das vermuten würden. Die Lichtgeschwindigkeit setzt eine fundamentale Grenze für jede physikalische Geschwindigkeit – mit all den merkwürdigen Folgen, die uns schon begegnet sind. Albert Einstein hat in den Jahren 1905 und 1915 dieses ungewohnte, aber reale Verhalten von Raum und Zeit in seiner Speziellen und Allgemeinen Relativitätstheorie präzise beschrieben. Etwas Ähnliches könnte geschehen, wenn wir zu immer kleineren Raum- und Zeitdimensionen vorstoßen. Vielleicht verhält sich die Natur dort anders, als wir es gewohnt sind, und erzeugt dadurch irgendwo in den innersten Tiefen von Raum und Zeit eine Grenze der Winzigkeit.
Wellen und Teilchen Dass die Physik im Reich der Atome und Teilchen anders sein könnte, wurde zum ersten Mal um das Jahr 1900 deutlich, als der deutsche Physiker Max Planck versuchte, die Energieverteilung in der Wärmestrahlung zu
162 J. Resag
verstehen, die jeder Körper abstrahlt, sei es nun die Sonne, ein glühendes Stück Kohle oder auch unser eigener warmer Körper. Eigentlich hätte man damals in der Lage sein müssen, die Verteilung der Energie auf die verschiedenen Frequenzen einer Wärmestrahlung zu berechnen. Die Physik der elektromagnetischen Wellen war bekannt, und man wusste, wie diese Wellen von den schwingenden atomaren Ladungen eines warmen Körpers erzeugt werden. Aber es gab ein Problem: Je schneller eine Ladung schwingt, umso mehr Energie gibt sie ab. Die Rechnung ergab daher, dass zu höheren Frequenzen hin der Energieinhalt einer Wärmestrahlung immer weiter ansteigen müsse. Das war natürlich Unsinn, denn in Wirklichkeit erreicht die Energie bei einer bestimmten Frequenz ein Maximum und fällt zu höheren Frequenzen hin wieder ab. Max Planck zerbrach sich den Kopf darüber, wo der Fehler lag. Schließlich kam er auf eine geniale Idee: Er teilte die Energie, die die schwingenden Ladungen abgeben kann, in Energiepakete auf. Diese Energiepakete konnten immer nur im Ganzen abgestrahlt werden, und sie sollten umso größer sein, je höher die Frequenz der Schwingung war. Damit konnte Planck sicherstellen, dass zu großen Frequenzen hin gar nicht mehr genug thermische Energie in den schwingenden Atomen vorhanden ist, um ein entsprechend großes Energiepaket abstrahlen zu können, sodass der Energieinhalt der Wärmestrahlung dort wieder abnimmt. Um genau angeben zu können, wie die Größe der Energiepakete mit der Frequenz der Schwingung anwächst, benötigte Planck einen EnergieFrequenz-Umrechnungsfaktor, eine Proportionalitätskonstante, die er zunächst einfach als Hilfsgröße bezeichnete und mit dem Buchstaben h abkürzte. Die Energie eines Pakets ist dann gleich dieser Hilfsgröße, multipliziert mit der Frequenz: E = h ∙ f. Heute nennen wir h zu Ehren von Max Planck das plancksche Wirkungsquantum oder auch einfach die PlanckKonstante. Planck war als konservativer Mensch nicht besonders glücklich mit seiner Lösung, denn es war vollkommen unklar, warum Energie nur in Paketen abgestrahlt werden kann und woher dieses ominöse h kam. Immer wieder versuchte er, auch ohne die Energiepakete zum Ziel zu kommen und h aus seinen Formeln zu eliminieren – vergeblich. Ohne es zu wollen, hatte er die Tür zu einer grundlegenden Umwälzung der Physik aufgestoßen, die in den nächsten 3 Jahrzehnten zunehmend an Fahrt gewinnen würde: die Entwicklung der Quantenmechanik. Immer wenn Sie irgendwo eine physikalische Formel sehen, die Plancks Konstante h enthält, wissen Sie automatisch, dass hier die Quantenmechanik im Spiel ist (so wie bei
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 163
Formeln, die die Lichtgeschwindigkeit c enthalten, die Relativitätstheorie mitspielt – denken Sie nur an E = m ∙ c 2). Der nächste wichtige Schritt kam im Jahr 1905 von Albert Einstein. Es war sein berühmtes Wunderjahr, in dem er auch seine Spezielle Relativitätstheorie formulierte. Einstein zeigte, dass sich manche Lichtphänomene besser verstehen lassen, wenn man davon ausgeht, dass Licht aus vielen einzelnen Teilchen besteht, die man später als Photonen bezeichnen würde. Licht sei ein Strom von „in Raumpunkten lokalisierten Energiequanten, welche sich bewegen, ohne sich zu teilen, und nur als Ganze absorbiert und erzeugt werden können“. Das gilt nicht nur für Licht, sondern auch für jede elektromagnetische Strahlung inklusive Wärmestrahlung. Damit war klar, warum die Atome ihre Energie immer nur in Form von Energiepaketen abgeben können: Sie senden einzelne Photonen aus. Aber was ist Licht denn nun eigentlich? Besteht es aus elektromagnetischen Wellen, also aus schwingenden elektrischen und magnetischen Feldern, oder aus einzelnen Photonen? Beide Sichtweisen haben ihre Berechtigung, und doch passen sie nicht sonderlich gut zusammen, denn Wellen und Felder sind räumlich ausgedehnte Gebilde, während Teilchen an einzelnen Raumpunkten lokalisiert sind. Es war ein Rätsel, auf das niemand eine gute Antwort hatte, und so führten Einsteins Lichtquanten für viele Jahre ein Schattendasein, weitgehend unbeachtet von den meisten Physikern. Frischer Wind kam in die Angelegenheit, als ein junger französischer Adeliger im Jahr 1924 seine berühmte Doktorarbeit präsentierte: Louis de Broglie. Darin stellte er die Vermutung auf, dass jedes sich bewegende Teilchen eine zugehörige Welle besitzt. Zu den Photonen gehören die elektromagnetischen Wellen – das kennen wir schon. Und zu den Elektronen sollten laut de Broglie gewisse Elektronenwellen gehören – eine kühne Behauptung, die bei so manchem ergrauten Physiker heftiges Stirnrunzeln hervorrief. Die Prüfungskommission hatte es da nicht leicht, de Broglies Dissertation zu bewerten, und rang sich nur mit Mühe dazu durch, sie schließlich anzuerkennen. Einstein war in einem Brief an den französischen Physiker Paul Langevin im Dezember 1924 dagegen voll des Lobes und meinte, de Broglie habe einen Zipfel des großen Vorhangs gelüftet. Einstein sollte recht behalten, denn de Broglies Arbeit enthielt die entscheidende Idee: Wellen sind in der Welt der Atome allgegenwärtig und es gibt kein Teilchen, dem nicht eine Welle – nennen wir sie Quantenwelle oder auch Wellenfunktion – zugeordnet ist. De Broglie lieferte auch gleich
164 J. Resag
noch eine passende Formel, mit der sich die Wellenlänge λ aus dem Impuls p (das ist gewissermaßen die Wucht der Bewegung des Teilchens) bestimmen lässt: λ = h/p. Je schneller und massiver ein Teilchen ist, umso größer ist sein Impuls3 und umso kleiner ist demnach seine zugehörige Wellenlänge. Diese berühmte Formel ergänzt Plancks Formel E = h ∙ f, die die Teilchenenergie E mit der Wellenfrequenz f verknüpft und die ebenfalls für alle Teilchen gilt, also nicht nur für Photonen. Wie kam de Broglie auf diese Idee? Nun, man wusste, dass die Elektronen in den Hüllen der Atome nur ganz bestimmte Energieniveaus einnehmen können. Der dänische Physiker Niels Bohr hatte das im Jahr 1913 damit erklärt, dass die Elektronen nur auf ganz bestimmten Bahnen um den Atomkern kreisen können. Warum das so sein sollte, blieb dabei aber vollkommen unklar. Was sollte die Elektronen daran hindern, auch andere Bahnen zu nutzen? Der Broglie überlegte, wo man in der Physik sonst noch auf einzelne diskrete Zustände trifft. Bei Schwingungen kannte man so etwas, wie Musiker sehr gut wissen. Eine angeschlagene Gitarrensaite schwingt beispielsweise mit einer ganz bestimmten Grundfrequenz. Wenn man es geschickt anstellt, kann man auch weitere Schwingungen mit höheren Tönen erzeugen – sogenannte Oberschwingungen mit 2, 3 oder mehr Schwingungsbäuchen, die doppelt, 3fach oder allgemein nfach so schnell schwingen wie die Grundschwingung. Solche Schwingungen entsprechen in der Physik sogenannten stehenden Wellen, die man als Überlagerung zweier gegeneinanderlaufender Wellen verstehen kann (eine schöne Animation dazu finden Sie auf Wikipedia: „Stehende Welle“). Die Schwingungen einer Gitarrensaite sind also einfach spezielle Wellen. Könnte es da nicht sein, dass nicht nur bei einer Gitarre, sondern auch in einem Atom solche Schwingungen existieren und mit ihren unterschiedlichen Schwingungsfrequenzen die einzelnen Energieniveaus erzeugen? Schwingt da vielleicht eine winzige 3-dimensionale stehende Elektronenwelle im anziehenden Feld des Atomkerns? Das war genau die richtige Idee, wie sich schon bald zeigen sollte. Allerdings war es nicht de Broglie, der mit dieser Idee den entscheidenden Durchbruch erzielen würde.
3 Für
Geschwindigkeiten v deutlich unterhalb der Lichtgeschwindigkeit c ist der Impuls p ziemlich genau gleich der Teilchenmasse m mal der Teilchengeschwindigkeit v, also p = m ∙ v. Die exakte Formel, die auch bei höheren Geschwindigkeiten gilt, lautet p = m ∙ γ ∙ v mit dem relativistischen Lorentz Faktor γ = 1/ 1 − ( vc )2 , der bei kleineren Geschwindigkeiten gegen eins geht.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 165
Die Geburt der Quantenmechanik Erwin Schrödinger, österreichischer Physiker und damals Professor für theoretische Physik in Zürich, genoss Ende 1925 seine Weihnachtsferien im Schweizer Kurort Arosa. Ob der damals 38-Jährige allerdings viel von der wunderschönen Landschaft sah, ist fraglich, denn die Ideen des 5 Jahre jüngeren de Broglie ließen Schrödinger auch in seinem Urlaub nicht los. Intensiv versuchte er, die korrekte Wellengleichung der Elektronenwellen im Atom zu erraten und damit die Energieniveaus des Elektrons im einfachsten aller Atome – dem Wasserstoffatom – zu berechnen. „Wenn ich nur mehr Mathematik könnte! Ich bin bei dieser Sache sehr optimistisch und hoffe, wenn ich es nur rechnerisch bewältigen kann, wird es sehr schön“, erzählte es Erwin Schrödinger einem Kollegen.4 Schließlich gelang es ihm, die mathematischen Schwierigkeiten zu überwinden und sowohl die richtige Wellengleichung zu formulieren als auch (unter Mithilfe seines mathematisch versierten Freundes und Züricher Kollegen Hermann Weyl) ihre Lösungen für das Wasserstoffatom zu berechnen. Die Ergebnisse stimmten genau mit den beobachteten Energieniveaus überein! Schrödinger war nicht der Einzige, dem die Berechnung der Energieniveaus gelang. In Deutschland hatten kurz zuvor die Physiker Werner Heisenberg, Max Born und Pascual Jordan eine vollkommen anders aussehende Quantengleichung auf der Basis sogenannter Matrizen entwickelt, mit der sich die Energieniveaus ebenfalls korrekt berechnen ließen. Dabei blieb allerdings ziemlich unklar, was diese Matrizen physikalisch bedeuten sollten, und die Gleichung wirkte auf die meisten Physiker wie mathematische Zauberei. Da erschien Schrödingers Wellengleichung – kurz: die Schrödinger-Gleichung – sehr viel vertrauter, denn eine Elektronenwelle konnte man sich gut vorstellen, und mit der Physik von Wellen kannte man sich bestens aus. Außerdem konnte Schrödinger etwas später zeigen, dass sich die ominöse Matrizengleichung der deutschen Kollegen aus seiner eigenen Wellengleichung herleiten ließ. Was ist nun eigentlich eine Quantenwelle? Mathematisch ist die Quantenwelle eines einzelnen Elektrons eine Funktion, die zu jeder Zeit jeder Stelle im Raum eine sogenannte komplexe Zahl zuordnet. Man kann
4 Zitiert
nach Thomas Gull: Geniestreich und bitterer Abschied, Neue Züricher Zeitung (2017), https:// www.nzz.ch/feuilleton/erwin-schroedinger-und-thomas-mann-in-arosa-geniestreich-und-bittererabschied-ld.1309927.
166 J. Resag
sich eine komplexe Zahl gut als Pfeil in einem Farbkreis vorstellen, wobei die Pfeilrichtung den Farbton (beispielsweise Rot, Grün oder Blau) und damit die sogenannte Wellenphase festlegt, während die Pfeillänge, die dem Betrag der komplexen Zahl entspricht, die Farbintensität festlegt (Abb. 3.1). Stellen Sie sich also eine Quantenwelle gerne wie ein Farbwellenfeld im Raum vor, das an verschiedenen Stellen unterschiedliche Farbtöne und Farbintensitäten aufweist. Wenn die Quantenwelle schwingt, dann ändern sich ihre Farbtöne und Intensitäten mit der Zeit im Raum. Bei den stehenden Elektronenwellen im Wasserstoffatom durchläuft beispielsweise der Farbton überall periodisch immer wieder den kompletten Farbkreis, während die Farbintensität zeitlich konstant bleibt und mit zunehmender Entfernung zum Atomkern immer blasser wird, denn das Elektron ist ja im elektrischen Feld des Atomkerns gefangen. Das Ganze ist natürlich nur eine Veranschaulichung, denn eine Quantenwelle ist nicht wirklich „bunt“. Aber was ist dann eine Quantenwelle? Was bedeutet sie physikalisch?
Abb. 3.1 Den Wert einer Quantenwelle an einem Ort kann man sich wie einen Pfeil in einem Farbkreis vorstellen. Die Pfeilrichtung entspricht dabei einem bestimmten Farbton und legt die Wellenphase fest. Die Pfeillänge entspricht einer bestimmten Farbintensität und legt die Stärke (den Betrag) der Quantenwelle fest. (Credit: Crossover1370, CC BY-SA 4.0. Quelle: https://commons.wikimedia.org/wiki/File:Color_circle_ (RGB).svg (Pfeil eingefügt))
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 167
Über Quantenwellen und Wahrscheinlichkeiten Für Erwin Schrödinger war die Quantenwelle eines Elektrons einfach ein räumlich ausgedehntes Elektronenfeld, bei dem die Ladung des Elektrons wie ein Nebel über das Raumgebiet verteilt war. Das Elektron war also für ihn gar kein Teilchen mehr, das man immer nur an einem bestimmten Ort findet, sondern es war eine Welle, das sagte ja schließlich auch seine Gleichung. Tatsächlich gab es auch bald erste experimentelle Ergebnisse, die die Wellennatur der Elektronen unterstrichen, beispielsweise bei der Reflexion von Elektronen an Metalloberflächen. Aber waren Elektronen wirklich ausschließlich eine Welle? Schon bei Licht hatte Einstein ja gezeigt, dass dieses nicht nur Wellen-, sondern auch Teilchencharakter besaß. Müsste das bei Elektronen nicht ähnlich sein? Schließlich verknüpfen die Formeln von Einstein und de Broglie Welleneigenschaften wie Frequenz und Wellenlänge mit Teilcheneigenschaften wie Energie und Impuls, wobei Plancks Konstante h als Umrechnungsfaktor dient. Über den Ort der Teilchen sagen die Formeln dagegen nichts. Der Ort ist aber bei einem Teilchen eine ganz entscheidende Größe, denn er unterscheidet ein klar lokalisiertes Teilchen von einer ausgedehnten Welle. Wie aber kann die Vorstellung eines eindeutigen Teilchenortes mit der Vorstellung einer Welle zusammengeführt werden? Ist das nicht ein klarer Widerspruch? Bei Licht hatten sich die Physiker damals bereits bis zu einem gewissen Grad an diesen Widerspruch gewöhnt und sprachen bedeutungsvoll vom Welle-Teilchen-Dualismus. Es komme eben auf die Art der Messung an, ob Licht eher als Teilchen oder als Welle in Erscheinung tritt. Besonders erhellend ist diese Aussage nicht. Da war Albert Einstein schon deutlich weiter. Er nahm an, dass die (quadrierte) Stärke der schwingenden Felder an jedem Ort die Wahrscheinlichkeit dafür angibt, dort Photonen anzutreffen. Mit anderen Worten: Je stärker eine Lichtwelle irgendwo schwingt, umso mehr Photonen gibt es dort. Max Born, Werner Heisenberg und andere vermuteten, dass diese Interpretation auch für Elektronenwellen sinnvoll ist. Sie waren nämlich nicht mit Schrödingers Verzicht auf jegliche Teilcheneigenschaften bei Elektronen einverstanden. Immerhin ließen sich beispielsweise die Bahnen von Elektronen in sogenannten Nebelkammern klar verfolgen, und sie ließen sich auch einzeln in geeigneten Detektoren nachweisen. Also übernahmen sie Einsteins Interpretation und übertrugen sie auf die Elektronenwellen: Je stärker eine Elektronenwelle irgendwo schwingt, umso wahrscheinlicher ist es, dort das Elektron anzutreffen, wenn man nach ihm sucht. Oder etwas
168 J. Resag
präziser: Je größer die quadrierte Amplitude, also die quadrierte Länge des Farbkreispfeils, der Elektronenwelle an einem Ort ist, umso wahrscheinlicher findet man dort das Elektron. In unserer Farbveranschaulichung stehen also besonders intensive Farben für entsprechend hohe Teilchenwahrscheinlichkeiten. Das sollte im Übrigen nicht nur für Elektronen, sondern auch für jedes andere Teilchen gelten. Quantenwellen beschreiben also Wahrscheinlichkeitsamplituden für das Auftreten der zugehörigen Teilchen. Die Wahrscheinlichkeitsinterpretation der Quantenwellen wurde schon bald von den meisten Physikern akzeptiert und übernommen. Aber warum kann man die Bahn eines Elektrons nicht verfolgen, wenn man es erst einmal aufgespürt hat? Wir müssten dafür doch nur noch zusätzlich nachschauen, wohin es fliegt und wie schnell es dabei ist. Als Werner Heisenberg sich diese Fragestellung genauer anschaute, kam er zu einem wegweisenden Ergebnis: Egal, wie man es auch anstellt, es ist nicht möglich, zugleich den Ort und den Impuls (und damit die Geschwindigkeit) eines Elektrons beliebig genau zu bestimmen. Die Messung der einen Größe beeinflusst immer das Wissen über die andere Größe. Deshalb ist es auch unmöglich, die Bahn eines Elektrons genau anzugeben. Es gibt eine quantenmechanische Unschärfe, die nicht unterschritten werden kann. Je genauer man den Ort x kennt, umso ungewisser sind der Impuls p und die Geschwindigkeit und umgekehrt, wobei Plancks Konstante h die Genauigkeitsgrenze für das Produkt der beiden Unschärfen Δx und Δp bestimmt: Δx ∙ Δp ≥ ℏ/2 mit ℏ = h/(2π). Anders gesagt: Je besser man weiß, wo das Elektron ist, umso weniger weiß man, wohin es fliegt – und umgekehrt. Das ist die berühmte Heisenbergsche Unschärferelation. Es war nicht zuletzt diese Unschärferelation, die der Wahrscheinlichkeitsinterpretation von Quantenwellen zum Durchbruch verhalf. Wenn genaue Bahnen nicht mehr anwendbar sind, da es eine prinzipielle Unschärfe gibt, dann bleiben offenbar nur noch Wahrscheinlichkeiten für die Beschreibung der Natur. Dass man in einer Nebelkammer oder in einem modernen Detektor dennoch die Bahn eines Elektrons verfolgen kann, ist dabei kein Problem, denn für eine solche makroskopische (also großräumige) Bahn reicht die Genauigkeit von Ort und Geschwindigkeit vollkommen aus. Aber im atomaren Maßstab sind die Unschärfen im Verhältnis zu den winzigen Dimensionen viel zu groß, als dass Elektronbahnen noch anwendbar wären. Die festliegenden Bahnen der Elektronen im Atommodell von Niels Bohr sind also eine Illusion. Es gibt in einem Atom keine Elektronenbahnen. Man kann sich anhand der Physik von Wellen gut veranschaulichen, was die eigentliche Ursache für Heisenbergs Unschärferelation ist. Stellen Sie
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 169
sich eine Elektronenwelle vor, die eine absolut scharfe Frequenz und Wellenlänge besitzt. Eine solche Welle ist unendlich ausgedehnt, wobei sich in regelmäßigen Abständen Wellenberge und Wellentäler abwechseln – man nennt das eine ebene Welle. Aus der eindeutigen Wellenlänge dieser Welle ergibt sich nach der Formel von de Broglie ein scharfer Wert für Impuls und Geschwindigkeit des Elektrons. Dafür ist aber dessen Ort vollkommen unbestimmt, denn die Welle erstreckt sich ins Unendliche. Wenn wir den Ort des Elektrons einschränken wollen, müssen wir die Welle kleiner machen. Wir müssen ein sogenanntes Wellenpaket formen, das nur in einem bestimmten Raumgebiet existiert. Die Wellenphysik sagt, dass man dafür mehrere ebene Wellen mit ähnlichen Wellenlängen überlagern muss. Je kleiner das Wellenpaket werden soll, umso größer muss der Bereich der Wellenlängen sein, die man überlagert. Nach de Broglie bedeutet das zugleich, dass der Bereich der möglichen Impulse und Geschwindigkeiten größer wird, denn jede Wellenlänge gehört zu einem bestimmten Impuls des Elektrons. Ein möglichst genauer Ort entspricht also einem möglichst kleinen Wellenpaket und damit einem großen Bereich überlagerter Wellenlängen und Impulse. Ein möglichst genauer Impuls entspricht dagegen einer möglichst scharfen Wellenlänge und damit einer ausgedehnten Welle mit ungewissem Ort für das Elektron. So weit, so gut. Wir können also Ort und Geschwindigkeit bzw. Impuls eines Elektrons nicht gleichzeitig exakt messen und auch der Quantenwelle nicht gleichzeitig exakt entnehmen. Aber das muss ja noch nicht bedeuten, dass das Elektron nicht trotzdem zu jeder Zeit einen bestimmten Ort und eine bestimmte Geschwindigkeit besitzt. Das Elektron wüsste gleichsam selber genau Bescheid, auch wenn diese Information für uns möglicherweise nicht zugänglich ist. So etwas nennt man auch verborgene Variablen. Unser Hantieren mit Quantenwellen und Wahrscheinlichkeiten könnte lediglich unser Unvermögen widerspiegeln, auf diese eigentlich vorhandenen Informationen zuzugreifen. Die Quantenmechanik wäre dann eine unvollständige Theorie, die möglicherweise zwar das Menschenmögliche für die Beschreibung der Natur leistet, die aber nicht das ganze Bild der Natur liefert. Sie wäre eine Rechenmethode für Wahrscheinlichkeiten, ohne die darunterliegende Realität zu enthüllen. Unter den Physikern, die die Quantenmechanik in diesem Sinne für unvollständig hielten, waren insbesondere ihre frühen Mitbegründer Einstein, Schrödinger und de Broglie. So schrieb Einstein in einem Brief an Max Born im Dezember 1926, dass ihm eine innere Stimme sage, die Quantenmechanik könne noch nicht der wahre Jakob sein. Er sei jedenfalls davon überzeugt, dass Gott nicht würfelt.
170 J. Resag
Andere Physiker widersprachen dieser Auffassung. Besonders in Kopenhagen formulierten Physiker wie Niels Bohr und Werner Heisenberg die Wahrscheinlichkeitsinterpretation der Quantenmechanik weiter aus. Ihre berühmte Kopenhagener Interpretation hat sich im Lauf der Jahre zu einer Art Standard etabliert, die alle tiefergehenden Fragen nach einer quantenmechanischen Realität als unsinnig abstempelt. Quantenvorgänge seinen nun einmal grundsätzlich zufällig, sodass Wahrscheinlichkeiten schlicht das einzige Mittel sind, damit umzugehen. Die Quantenmechanik sei also keineswegs unvollständig, sondern sie tue genau das, was eine Theorie tun soll, nämlich das beobachtbare Verhalten der Natur bestmöglich zu beschreiben. Quantenwellen seien lediglich das angemessene Rechenmittel dafür, aber ihnen komme keine wirkliche Realität zu. Real sei nur das, was wir direkt messen, beispielsweise der im Experiment beobachtete Impuls eines Elektrons, nicht aber seine Quantenwelle. Die Quantentheorie repräsentiere also nicht die Realität, sondern sie beschreibe eine Welt der Möglichkeiten, in der Quantenwellen lediglich die Wahrscheinlichkeiten für das Eintreten einzelner Realitäten liefern. Was diese Realitäten, also die jeweiligen Messergebnisse, konkret zum Leben erweckt, darüber schweige die Quantentheorie. Wie wir gesehen haben, kann es dabei durchaus vorkommen, dass wir gewisse messbare Größen wie den Ort und den Impuls eines Elektrons nicht gleichzeitig präzise bestimmen und damit real werden lassen können. Man nennt solche Größen, für die Heisenbergs Unschärferelation gilt, auch komplementär. Messen wir beispielsweise den Impuls eines Elektrons, sodass dieser real wird, dann wissen wir nichts über seinen genauen Ort und können nichts über dessen Realität aussagen – und umgekehrt. Das Wissen über den genauen Ort und das Wissen über den genauen Impuls schließen sich gegenseitig aus. Niels Bohr sah darin kein Problem, denn beides seien zwei komplementäre Bilder des Geschehens, die einander zwar ausschließen, aber dennoch zusammengehören und sich gegenseitig zu einem Gesamtbild ergänzen, wie er es in seinem Komplementaritätsprinzip ausdrückte. So sei es auch mit den Begriffen Welle und Teilchen – erst zusammen ergeben sie ein stimmiges Gesamtbild. Derselbe Grundgedanke ist uns bereits im Vorwort begegnet: Als Kardinal Nikolaus von Kues (besser bekannt als Cusanus ) vor mehr als 500 Jahren über die Widersprüche der Unendlichkeit nachdachte, war er zu ähnlichen Schlüssen gekommen: Man müsse die Welt als ein Zusammenspiel von Gegensätzen begreifen, die erst zusammen ein sinnvolles Ganzes ergeben.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 171
Und um die Mitte des 19. Jahrhunderts meinte der große dänische Philosoph Søren Kierkegaard, nur subjektive Erfahrungen seien wirklich wahr, während alles Objektive sich nur daraus ableite und niederrangig sei. Bohr, der 30 Jahre nach Kierkegaards Tod geboren wurde, kannte die Ansichten seines grüblerischen dänischen Landsmanns gut. Sie hinterließen einen prägenden Eindruck in seinem Denken, was man seiner Interpretation der Quantentheorie auch ansieht (ersetzen Sie „subjektive Erfahrung“ dafür gerne durch „Messung“). Nun hören sich solche philosophischen Spekulationen oft sehr tiefschürfend an, aber sie hinterlassen bisweilen einen faden Beigeschmack. Der Verdacht liegt nahe, dass man die Probleme nicht wirklich gelöst hat, sondern die Widersprüche nur in wohlklingende Worte kleidet und damit elegant unter den Teppich kehrt. Im Grunde repräsentiert die Kopenhagener Standardinterpretation der Quantenmechanik eine sehr pragmatische Einstellung, die viele Physiker im Lauf der Zeit gerne übernahmen. „‘Shut up and calculate’ – sei still und rechne!“, lautet ihre Devise. Warum sich in metaphysische Spekulationen und ermüdende philosophische Diskussionen stürzen? Warum sich Gedanken über begriffliche Schwierigkeiten machen, wenn die Quantenmechanik doch so wunderbar funktioniert, wie alle Experimente immer wieder zeigen? Dennoch bleibt es merkwürdig, dass die Quantenmechanik nur die Wahrscheinlichkeit von Messergebnissen vorhersagen kann. „Wenn das wahr wäre“, schreibt der bekannte Physiker Richard Feynman im 3. Band seiner berühmten Feynman Lectures (Vorlesungen über Physik) in Kap. 1–7, „würde das bedeuten, dass die Physik aufgegeben hat bei dem Problem, genau vorherzusagen, was unter bestimmten Umständen passieren wird. Ja! Die Physik hat aufgeben“, fährt Feynman fort. „Wir wissen nicht, wie man vorhersagen könnte, was unter vorgegebenen Umständen passieren würde, und wir glauben heute, dass es unmöglich ist.“ Ist die Quantenwelle also wirklich nur ein Rechenwerkzeug zur Berechnung von Wahrscheinlichkeiten ohne jede physikalische Realität? Nun ja, direkt messen können wir sie nicht, aber das gilt auch für manch andere physikalische Größen wie beispielsweise die elektromagnetischen Potenziale. Ich werde immer etwas nervös, wenn man einen extrem nützlichen physikalischen Begriff oder eine bestimmte Sichtweise als reines Rechenwerkzeug abstempelt. Das ging schon Kopernikus und Galilei so, als sie die Sonne ins Zentrum der Welt rückten – das sei doch nur ein nützlicher Rechentrick, um die relativen Positionen der Planeten bequem
172 J. Resag
berechnen zu können. Und auch bei den Atomen hieß es bei manchem Gelehrten, sie seien zwar ein nützliches Modell, aber deswegen noch lange nicht real. „Ham se welche gesehen?“, pflegte Ernst Mach noch um 1900 schnippisch zu antworten, wenn er nach Atomen gefragt wurde. Selbst den Quarks erging es nicht anders: Sie würden zwar ein hilfreiches Ordnungsschema für bestimmte Elementarteilchen bereitstellen, seien aber doch nur ein mathematisches Hilfsmittel. Und wer kann schon sagen, ob das elektromagnetische Feld real ist? Ist es nur ein Trick, um die Kräfte zwischen Ladungen auf einfache Weise berechnen zu können? Andererseits trägt ein elektromagnetisches Feld auch Energie und Impuls, ähnlich wie Materie, was es für mich ziemlich real werden lässt. Seien wir also offen bei der Frage, in welchem Sinne wir Quantenwellen als „real“ betrachten können. Schließlich sind alle physikalischen Begriffe letztlich Näherungen und Abstraktionen, mit denen wir versuchen, unsere Welt möglichst gut zu beschreiben. Je nützlicher ein Begriff dabei ist, umso realer erscheint er uns, und Quantenwellen werden sich als extrem nützlich erweisen, denn sie sind der zentrale Begriff der Quantenmechanik. Es gibt allerdings ein Phänomen, das jenseits aller Nützlichkeit einen Schatten auf die reale Existenz von Quantenwellen wirft. Stellen Sie sich vor, Sie hätten es mit einer räumlich sehr ausgedehnten Elektronenwelle zu tun. Was geschieht mit dieser Quantenwelle, wenn ein Detektor an einer bestimmten Stelle das zugehörige Elektron nachweist? Ab diesem Moment wissen wir, wo sich das Elektron genau befindet, sodass seine ausgedehnte Elektronenwelle ihren Sinn verliert, denn nach ihr könnte das Elektron ja auch woanders nachgewiesen werden. Die Welle müsste also im Moment des Nachweises blitzartig auf den Punkt zusammenschnurren, wo das Elektron gefunden wurde, denn sie muss ja unser neu hinzugewonnenes Wissen über das Elektron repräsentieren. Von diesem Punkt ausgehend kann sie sich dann erneut ausbreiten. Dieser sogenannte Kollaps der Quantenwelle durch die Messung erfolgt anscheinend augenblicklich und sogar mit Überlichtgeschwindigkeit, was für ein reales physikalisches Objekt laut Relativitätstheorie eigentlich verboten ist. Aber wenn die Welle nur ein abstraktes Rechenwerkzeug für Wahrscheinlichkeiten ist, dann wäre dieser Kollaps lediglich ein Informationsupdate. Andererseits verhält sich eine Quantenwelle in vielerlei Hinsicht wie ein reales physikalisches Objekt. Sie schwingt und gehorcht dabei einer wohldefinierten Wellengleichung, und sie zeigt auch ansonsten alle Eigenschaften, die wir von Wellen gewohnt sind, insbesondere das Phänomen der
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 173
Interferenz. So etwas gibt es bei reinen Wahrscheinlichkeiten nicht. Es lohnt sich also, wenn wir uns dieses Phänomen anhand eines weithin bekannten Experiments genauer ansehen.
Elektronen am Doppelspalt Das Standardexperiment, um den Wellencharakter beispielsweise von Licht nachzuweisen, ist das berühmte Doppelspaltexperiment. Man stanzt dazu in eine undurchsichtige, dünne Platte zwei dicht benachbarte schmale Spalte und bestrahlt diese dann mit einem Laserstrahl. Das Laserlicht dringt durch die beiden parallelen Spalte und fällt in einigem Abstand dahinter auf eine weiße Leinwand. Intuitiv würde man dabei erwarten, dass wie bei einem Dia ein helles Abbild der beiden Spalte auf der Leinwand zu sehen ist, also zwei parallele helle Linien. Aber wenn die Spalte schmal genug sind und dicht genug beieinanderliegen, geschieht etwas anderes: Man sieht ein regelmäßiges Muster aus vielen hellen Streifen, ähnlich wie bei einem Zebrastreifen auf der Straße. Würde man sich die Ausbreitung von Licht nur mithilfe geradliniger Lichtstrahlen veranschaulichen, dann wäre dieses Ergebnis absolut unverständlich. Aber wenn man Licht als Welle begreift, dann versteht man sofort, was hier los ist: Hinter jedem der beiden schmalen Spalte entstehen nach dem Durchgang des Lichts annähernd kreisförmige Lichtwellen, die sich zur Leinwand bewegen und miteinander interferieren, sich also zu einer Gesamtwelle überlagern. An den Stellen der Leinwand mit den hellen Lichtstreifen treffen dabei Wellenberge des einen Spalts auf Wellenberge des anderen Spalts, sodass sich die Welle dort verstärkt. In den dunklen Streifen dazwischen treffen dagegen Wellenberge auf Wellentäler, was dort zur Auslöschung der Welle führt. Oder in der Sprache der Lichtquanten ausgedrückt: Dort, wo die Lichtwelle stark schwingt, treffen viele Photonen auf der Leinwand auf, dort wo die Welle ausgelöscht wird, treffen keine Photonen ein. Wo genau ein einzelnes Photon auf die Leinwand auftrifft, ist dabei nicht vorherbestimmt – es ist quantenmechanischer Zufall. Auch für Elektronen müsste sich dieses Experiment durchführen lassen. Laut Quantenmechanik müsste dabei genau dasselbe Ergebnis herauskommen wie bei Licht, denn auch Elektronen werden durch Quantenwellen beschrieben. Zunächst blieb es allerdings bei einem reinen Gedankenexperiment, denn da Elektronen deutlich kleinere Wellenlängen als Licht besitzen, müsste man schon extrem kleine Spalte verwenden, um die Interferenz
174 J. Resag
sichtbar zu machen. Kaum jemand glaubte, dass das möglich sei, bis es um das Jahr 1960 von Claus Jönsson aus Tübingen in die Tat umgesetzt wurde.5 Tatsächlich zeigte sich das vermutete Ergebnis aus abwechselnden Streifen mit vielen und wenigen Elektronentreffern hinter dem Doppelspalt, wobei nicht vorhersehbar war, wo genau die einzelnen Elektronen auftreffen werden. In meinen Augen demonstriert dieses Doppelspaltexperiment sehr schön, dass es sich auch bei den Quantenwellen der Elektronen um „richtige“ Wellen handelt. Sie zeigen genau dieselbe Interferenz mit dem typischen Streifenmuster wie Lichtwellen oder auch wie Wasserwellen, die durch zwei Öffnungen in einer Kaimauer dringen. Der einzige Unterschied liegt darin, dass man die Quantenwelle eines Elektrons – anders als eine Wasserwelle – nicht direkt sehen oder messen kann. Wenn man es ganz genau nimmt, gilt dasselbe aber auch für eine Lichtwelle, denn was man bei ihr letztlich misst, ist die Wirkung vieler Photonen. Und wenn Sie es auf die Spitze treiben wollen, dann ist auch eine Wasserwelle letztlich nichts anderes als die koordinierte Bewegung vieler Wassermoleküle. Ist sie unter diesem Gesichtspunkt noch „real“? Ich denke schon, denn sie liefert immer noch eine sehr nützliche Beschreibung für das kollektive Verhalten sehr vieler Wassermoleküle. Wenn nun die Quantenwelle eines Elektrons etwas Ähnliches leistet, könnten wir sie dann vielleicht auch als „real“ ansehen? Nun ja, warten wir lieber erst einmal ab, was wir noch alles über Quantenwellen herausfinden. Für Richard Feynman war das Doppelspaltexperiment so wichtig, dass er es an den Beginn seiner Quantenmechanikvorlesung in den Feynman Lectures stellte. Es berge in sich den Kern der Quantenmechanik, denn es zeige ein Phänomen, das auf klassische Art zu erklären absolut unmöglich ist. Wie kommt er darauf? Schauen wir uns dazu Abb. 3.2 an. Ganz rechts sehen wir das Streifenmuster mit der Trefferwahrscheinlichkeit P12 für die auftreffenden Elektronen an den verschiedenen Stellen des Detektorschirms, wie es die Quantenmechanik vorhersagt und wie man es im Experiment auch misst – je mehr Elektronentreffer, umso heller der Streifen (das P steht dabei für „probability“ = Wahrscheinlichkeit). Das Muster kommt durch die Interferenz, also die Überlagerung, der beiden Wellensysteme zustande, die durch die beiden Spalte dringen. Falls Sie sich gefragt haben, wozu die Phase der
5 Siehe beispielsweise https://www.leifiphysik.de/quantenphysik/quantenobjekt-elektron/versuche/ doppelspaltversuch-von-joensson.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 175
Abb. 3.2 Der Doppelspaltversuch mit Elektronen. Die 4 Balken rechts stellen die Trefferwahrscheinlichkeit der Elektronen auf dem Detektorschirm bei verschiedenen Versuchsdurchführungen dar: je heller, umso mehr Treffer. Gezeigt sind die verschiedenen Trefferwahrscheinlichkeiten, wenn nur Spalt 1 oder Spalt 2 oder (ganz rechts) beide Spalte offen sind. Würden sich Elektronen wie klassische Teilchen verhalten, müsste sich bei 2 offenen Spalten der 3. Balken von links ergeben. (Quelle: Eigene Grafik)
Quantenwelle, also die Pfeilrichtung im Farbkreis und der entsprechende Farbton, überhaupt gut ist: Genau hier wirkt sie sich aus. Dort nämlich, wo Wellen mit entgegengesetzter Phase ankommen, löschen sie sich gegenseitig aus, genau wie Wellenberge und Wellentäler dies bei Wasserwellen tun. Farbe und Gegenfarbe neutralisieren sich also bei einer Quantenwelle – ein Grund mehr, warum das Farbmodell für Quantenwellen so gut passt. Interessant wäre es nun zu wissen, durch welchen Spalt die einzelnen Elektronen jeweils hindurchgeflogen sind, bevor sie auf dem Detektorschirm auftreffen und dort nachgewiesen werden. Schließen wir also probeweise Spalt 2, sodass die Elektronen garantiert durch Spalt 1 kommen, und schauen uns die entsprechenden Elektronentreffer auf dem Detektorschirm an. Der 1. Balken von links mit der Trefferwahrscheinlichkeit P1 zeigt ihre Verteilung: ein ziemlich breites Treffergebiet ohne die feine Zebrastreifenstruktur, die wir bei 2 offen Spalten erhalten hatten. Ähnlich ist es, wenn wir nur Spalt 2 offenhalten (2. Balken mit der Trefferwahrscheinlichkeit P 2).
176 J. Resag
Wenn wir nun beide Spalte öffnen, müssten sich die beiden Trefferbilder eigentlich aufsummieren, denn jedes Elektron muss ja entweder durch Spalt 1 oder 2 gekommen sein. Der 3. Balken zeigt die entsprechende Verteilung. Die beiden Wahrscheinlichkeiten P1 und P2, durch Loch 1 oder 2 zu fliegen und an einer bestimmten Stelle auf dem Detektorschirm aufzutreffen, müssten sich zu P1 + P2 addieren. Es ist ganz ähnlich wie beim Würfeln: Die Wahrscheinlichkeit, eine 1 zu würfeln, ist 1/6, die Wahrscheinlichkeit, eine 2 zu würfeln, ist ebenfalls 1/6, und die Wahrscheinlichkeit, eine 1 oder eine 2 zu würfeln, ist 1/6 + 1/6 = 1/3. Wenn es zwei verschiedene Alternativen gibt, wie ein Ereignis eintreten kann, dann addieren sich die Wahrscheinlichkeiten der beiden Alternativen. Wie wir wissen, entsteht aber in Wirklichkeit bei 2 offenen Spalten das Zebrastreifenmuster mit der Trefferwahrscheinlichkeit P12 wie im Balken ganz rechts. Wenn wir also beide Spalte öffnen, ist in den dunklen Streifen die Wahrscheinlichkeit für einen Elektronentreffer sogar kleiner als bei nur einem offenen Spalt! Die Wahrscheinlichkeiten für die beiden Alternativen (Spalt 1 oder 2) addieren sich also in Wirklichkeit nicht. Was sich addiert, sind die Amplituden der Quantenwellen, und die können sich bei entgegengesetzter Phase eben auch auslöschen, sodass es zum typischen gestreiften Welleninterferenzmuster kommt. Hier sehen wir es noch einmal ganz deutlich: Die Quantenmechanik ist keine Theorie über klassische Wahrscheinlichkeiten, denn diese müssten sich bei 2 offenen Spalten addieren. Sie ist eine Theorie über Wahrscheinlichkeitsamplituden (Farbkreispfeile), deren quadrierte Länge erst die Wahrscheinlichkeit ergibt. Daher ist es auch schwierig, diese Wahrscheinlichkeiten so zu erklären, als blieben uns irgendwelche an sich vorhandenen Parameter wie der Ort des Elektrons lediglich verborgen. Wäre das so und wäre das Elektron zu jeder Zeit an einem bestimmten Ort, dann müsste es entweder durch Spalt 1 oder 2 gehen, und die Wahrscheinlichkeiten müssten sich addieren. Das tun sie aber nicht. Also können wir nicht davon sprechen, das Elektron ginge garantiert entweder durch Spalt 1 oder 2. Der Ort des Elektrons scheint nicht nur verborgen zu sein – er scheint gar nicht zu existieren, solange wir ihn nicht messen. Nun gut, könnten Sie jetzt sagen, was hindert uns denn daran, beide Spalte offenzulassen und dabei zu messen, durch welchen Spalt jedes einzelne Elektron geht? Das können wir tun, aber dann verschwindet zugleich auch das Interferenzstreifenmuster und es entsteht stattdessen das streifenfreie Muster mit den addierten Wahrscheinlichkeiten P1 + P2. Sobald die beiden Alternativen – Spalt 1 oder 2 – für uns unterscheidbar werden, addieren sich also die zugehörigen Wahrscheinlichkeiten, denn
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 177
dann können wir davon sprechen, das Elektron sei entweder durch Spalt 1 oder 2 gegangen. Sind die beiden Alternativen dagegen prinzipiell nicht unterscheidbar, dann können wir nicht davon sprechen und nicht die Wahrscheinlichkeiten, sondern die Wahrscheinlichkeitsamplituden addieren sich, d. h., die Quantenwellen überlagern sich und interferieren miteinander. Die Tatsache, ob wir etwas messen oder nicht, hat also in der Quantenmechanik einen ganz entscheidenden Einfluss auf das, was physikalisch geschieht. So etwas gibt es in der klassischen Physik nicht. Wenn wir den Durchgang durch Spalt 1 oder 2 messen, zerstören wir offenbar die Phasenbeziehung zwischen den beiden Quantenwellen hinter den Spalten, sodass nicht mehr festgelegt ist, wo sich die Wellen verstärken oder auslöschen. Die streifenförmige Interferenz der Wellen geht verloren. Man sagt auch, die beiden Wellen werden durch die Messung dekohärent. Aber was da bei der Messung im Detail vor sich geht, darüber macht die Kopenhagener Interpretation der Quantenmechanik überhaupt keine Aussage. Sie sagt nur, dass bei einer Messung bestimmte Messergebnisse möglich sind, deren Wahrscheinlichkeiten man quantenmechanisch berechnen kann. Das ist extrem unbefriedigend, denn auch eine Messung ist ja ein physikalischer Vorgang, und wenn die Quantenmechanik eine universelle Beschreibung der Natur sein will, dann muss sie auch diesen Vorgang beschreiben können. Mittlerweile schälen sich in der modernen Forschung erste Ideen darüber heraus, was bei einer Messung wirklich geschieht. Dabei scheint ein Phänomen besonders wichtig zu sein, das noch merkwürdiger ist als die Doppelnatur von Welle und Teilchen oder die Unschärferelation: die quantenmechanische Verschränkung. Sie legt das innere Wesen der Quantenmechanik in ganz besonderer Weise offen – riskieren wir also einen genaueren Blick.
Das EPR-Paradoxon verschränkter Teilchen Albert Einstein, der im Vorfeld so viel zur Entwicklung der Quantenmechanik beigetragen hatte, war mit der Wahrscheinlichkeitsinterpretation von Bohr, Heisenberg und Born nicht zufrieden. Das soll das letzte Wort gewesen sein? Der Zufall sollte die Welt der Quanten regieren, und eine tiefere Realität, die diesen Zufall beseitigen konnte, sei ausgeschlossen? In der Quantenwelt gäbe es gar keine wirkliche Realität? Das konnte Einstein verständlicherweise nicht akzeptieren. Die Physik solle eine Wirklichkeit in Zeit und Raum darstellen, schrieb er im März 1947 in einem Brief an
178 J. Resag
Abb. 3.3 Niels Bohr (links) und Albert Einstein (rechts) diskutieren bei einer privaten Feier im Haus von Paul Ehrenfest (Leiden 1925). (Credit: Paul Ehrenfest; Quelle: https://commons.wikimedia.org/wiki/File:Niels_Bohr_Albert_Einstein_by_Ehrenfest. jpg)
Max Born.6 Also dachte er sich immer neue Gedankenexperimente aus, mit denen er Heisenbergs Unschärferelation unterlaufen wollte. Wenn man es nur geschickt anstellte, so ließen sich vielleicht doch Ort und Geschwindigkeit eines Elektrons gleichzeitig bestimmen. Zumindest aber sollte diese Information in der Natur im Prinzip existieren, sodass wenigstens das Elektron selber weiß, wo es ist und wohin es fliegt. Niels Bohr (Abb. 3.3), der sich ständig mit neuen Ideen Einsteins konfrontiert sah, hatte seine liebe Mühe, die findigen Argumente Einsteins immer wieder neu zu entkräften, was ihm aus heutiger Sicht auch gelang. Im Lauf der Zeit entstand so der Eindruck, Einstein sei mit seinen Bedenken auf dem Holzweg gewesen und Bohr sei der triumphale Sieger ihrer Debatte.
6 Siehe
Albert Einstein Max Born, Briefwechsel 1916–1955, erschienen bei Langen Müller in der F.A. Herbig Verlagsbuchhandlung GmbH, München (3. Auflage, 2005) auf den Seiten 254 ff., siehe auch https://de.wikipedia.org/wiki/Einstein-Podolsky-Rosen-Paradoxon.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 179
Im Jahr 1935 kam Einstein, der kurz zuvor vor den Nazis in das amerikanische Princeton geflohen war, zusammen mit seinen jungen Kollegen Boris Podolsky und Nathan Rosen auf eine besonders trickreiche Idee, die als Einstein-Podolsky-Rosen-Paradoxon (kurz: EPR-Paradoxon ) bekannt wurde. Stellen Sie sich eine ruhende Teilchenquelle vor, die durch ein quantenmechanisches Ereignis zeitgleich zwei gleichartige Teilchen – beispielsweise 2 Elektronen oder 2 Photonen – in entgegengesetzte Richtungen aussendet. Das soll vollkommen symmetrisch erfolgen, sodass sich die beiden Teilchen zu jeder Zeit gleich weit auf entgegengesetzten Seiten der Quelle befinden und sich gleich schnell in entgegengesetzte Richtungen von der Quelle entfernen. Da es sich um einen Quantenprozess handelt, wissen wir nicht genau, wo sich die beiden Teilchen befinden und wohin sie fliegen. Wir können lediglich die Quantenwelle berechnen, aus der sich die entsprechenden Wahrscheinlichkeiten bestimmen lassen. Was wir aber wissen, ist Folgendes: Sobald wir den Ort des einen Teilchens mit einem Detektor gemessen haben, wissen wir automatisch auch den Ort des anderen Teilchens – nämlich genau auf der anderen Seite der Teilchenquelle in derselben Entfernung. Dort würden wir es garantiert finden, wenn wir mit einem Detektor nach ihm suchen. Dasselbe gilt, wenn wir stattdessen die Geschwindigkeit des einen Teilchens messen – das andere Teilchen muss dann genau die entgegengesetzte Geschwindigkeit haben. Die beiden Teilchen zeigen also ein gemeinsames Verhalten – ihre Wahrscheinlichkeiten bei Messungen hängen voneinander ab, sind also miteinander korreliert, wie man auch sagt. Quantenmechanisch nennt man solche Teilchen miteinander verschränkt, d. h., sie werden durch eine einzige gemeinsame Quantenwelle beschrieben, die sich nicht in zwei einzelne Quantenwellen für die jeweiligen Teilchen zerlegen lässt. Diese Quantenwelle hängt zugleich von den Ortskoordinaten beider Teilchen ab und ihr quadrierter Betrag gibt die Wahrscheinlichkeit dafür an, die beiden Teilchen bei einer Ortsmessung an den jeweiligen Ortskoordinaten anzutreffen. Bei unseren beiden Teilchen ist ihre gemeinsame Quantenwelle nur dann ungleich null, wenn die beiden Teilchenorte genau auf entgegengesetzten Seiten der Teilchenquelle liegen. Wie wir sehen, ist die gemeinsame Quantenwelle mehrerer Teilchen keine Welle im 3-dimensionalen Raum mehr, sondern eine Welle im sogenannten Konfigurationsraum der Teilchen, der alle möglichen Kombinationen der Teilchenorte umfasst. Eine solche Welle kann man sich anschaulich nur noch schwer vorstellen. Sie kann sehr kompliziert sein, und sie wird umso komplexer, je mehr Teilchen es sind. Nur bei einem einzelnen isolierten
180 J. Resag
Teilchen ist dieser Konfigurationsraum identisch mit dem gewohnten 3-dimensionalen Raum. Schon bei 2 Teilchen umfasst der Konfigurationsraum 6 Dimensionen: 3 für den Ort des einen Teilchens und 3 für Ort des anderen Teilchens. Diese 2-Teilchen-Quantenwelle lebt also in einem 6-dimensionalen Raum, der bereits unser menschliches Vorstellungsvermögen übersteigt. Stellen Sie sich da erst einmal den Konfigurationsraum für die mehr als 1022 Gasmoleküle in 1 L Luft vor: 3 Raumdimensionen für jedes einzelne der Zehntausend-Milliarden-Milliarden Moleküle. Eine Quantenwelle in diesem Monsterkonfigurationsraum ist vollkommen unüberschaubar. Das wird später noch wichtig werden. Zurück zu unserem verschränkten Teilchenpaar. Nehmen wir einmal an, wir würden deren Teilchenquelle in den leeren Weltraum verfrachten, weit weg von allen Sternen und Galaxien. Die beiden ausgesendeten Teilchen könnten sich dann Lichtjahre voneinander entfernen, ohne dabei gestört zu werden. Also könnten wir in 1 Lichtjahr Entfernung von der Quelle einen Detektor im All postieren, und dann warten wir. Es mag eine Weile dauern, aber irgendwann wird es in unserem Detektor plötzlich KLICK machen. Endlich! Wir haben ein Teilchen der Quelle nachgewiesen und wissen damit sofort, wo das Partnerteilchen sein muss, nämlich 2 Lichtjahre von uns entfernt auf der anderen Seite der Quelle. In der klassischen Physik vor der Entwicklung der Quantenmechanik wäre an dieser Situation nichts Ungewöhnliches. Die beiden Teilchen wären einfach bei der Quelle in entgegengesetzte Richtungen losgeflogen, und eines von ihnen hätte schließlich unseren Detektor getroffen, der zufällig im Weg war. Dann ist klar, wo das andere Teilchen sein muss. Aber in der Quantenmechanik gibt es keine solche Teilchenbahnen mehr. Es gibt nur noch Quantenwellen und die daraus abgeleiteten Wahrscheinlichkeiten. Laut Bohr, Heisenberg und Born sollte es reiner Zufall sein, dass es in unserem Detektor plötzlich KLICK macht. Der Nachweis des Teilchenortes im Detektor ist ein quantenmechanischer Zufallsprozess, der durch nichts vorherbestimmt wird. Selbst das Teilchen hat zuvor keine Ahnung über seinen Aufenthaltsort und würfelt ihn gewissermaßen. Das muss natürlich auch für das andere Teilchen gelten. Aber wie kann das weit entfernte Partnerteilchen wissen, dass wir gerade seinen Zwillingsbruder an einer bestimmten Stelle in unserem Detektor gefunden haben? Ab diesem Moment darf dieses andere Teilchen seinen Ort ja nicht mehr frei würfeln, wenn unsere Kollegen es gleichzeitig in ihrem Detektor auf der anderen Seite der Quelle messen wollen. Es muss genau wissen, wo es dort aufzutauchen hat.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 181
Hat vielleicht unser Teilchen seinem Partnerteilchen eine Nachricht geschickt, als es in unserem Detektor erschienen ist? Schon möglich. Allerdings kann nichts schneller als mit Lichtgeschwindigkeit unterwegs sein, auch diese Nachricht nicht. Sie würde also frühestens in 2 Jahren beim anderen Teilchen ankommen, lange nachdem unsere Kollegen seinen Ort gemessen haben. Das wäre viel zu spät. Was man bräuchte, wäre eine spukhafte Fernwirkung, wie Einstein es spöttisch nannte, die ohne jede Zeitverzögerung zwischen den Teilchen wirkt. Sie würde aber die Gesetze der Relativitätstheorie verletzen – nicht nur für Einstein ein absolutes Tabu. Auf diese Weise können die beiden Teilchen ihr Verhalten also nicht koordinieren. Wie es scheint, bleibt nur eine Lösung: Die beiden Teilchen müssen sich bereits in der Teilchenquelle verabredet haben, wo sie später auftauchen werden. Diese für uns unsichtbare Information haben sie seitdem mit sich herumgetragen – ein geheimes Teilchenwissen, eine verborgene Variable, die in der Quantenmechanik mit ihren Quantenwellen nicht vorkommt und die erst sichtbar wird, wenn wir den Teilchenort messen. Die Quantenmechanik muss also unvollständig sein, genau wie es Einstein und seine Kollegen beweisen wollten. Einstein, Rosen und Podolsky gingen in ihrer Argumentation noch etwas weiter. Einstein hatte ja immer wieder versucht, Bohr davon zu überzeugen, dass die Information über Ort und Geschwindigkeit eines Teilchens gleichzeitig vorhanden sei, selbst wenn wir sie möglicherweise nicht gleichzeitig messen können, weil beispielsweise die Ortsmessung das Teilchen so stört, dass sich seine Geschwindigkeit unkontrolliert verändert. Mit den beiden verschränkten Teilchen glaubte Einstein aber nun einen Weg für eine störungsfreie Messung gefunden zu haben. Wenn wir beispielsweise den Ort des einen Teilchens messen, dann liegt auch der Ort des Partnerteilchens damit eindeutig fest. Wir können seine Position also mit absoluter Sicherheit vorhersagen, sodass diese ein Element der Wirklichkeit sein muss, wie Einstein es ausdrückte. Die Position des Partnerteilchens muss real vorhanden sein. Nun kann laut Einstein dieses Element der Wirklichkeit beim weit entfernten Partnerteilchen durch nichts beeinflusst oder gestört werden, was wir hier und jetzt mit unserem ersten Teilchen anstellen, denn ein solcher Einfluss bräuchte Jahre, um bis zum zweiten Teilchen zu gelangen – dieser Einfluss kann ja maximal mit Lichtgeschwindigkeit unterwegs sein. Es muss also für das Partnerteilchen egal sein, ob wir am ersten Teilchen den Ort messen oder nicht. Auch wenn wir uns entscheiden sollten, auf die Ortsmessung des
182 J. Resag
ersten Teilchens zu verzichten, muss der Ort des Partnerteilchens weiterhin ein Element der Wirklichkeit bleiben. Das eröffnet uns eine neue Möglichkeit: Statt den Ort zu messen, könnten wir uns auch für eine Geschwindigkeitsmessung an unserem ersten Teilchen entscheiden, ohne dass dies auf das Lichtjahre ferne Partnerteilchen irgendeinen Einfluss haben kann. Sein real vorhandener Ort kann sich durch unsere Entscheidung für eine Geschwindigkeitsmessung nicht unkontrolliert ändern und muss weiterhin als Element der Wirklichkeit vorhanden sein, auch wenn wir ihn nun nicht mehr kennen, da wir ja jetzt auf eine Ortsmessung verzichten und dafür eine Geschwindigkeitsmessung an unserem ersten Teilchen vorgenommen haben (beides gleichzeitig geht ja nicht). Statt des Ortes kennen wir daher jetzt die Geschwindigkeit unseres Teilchens und damit zugleich die (entgegengesetzte) Geschwindigkeit des Partnerteilchens – sie muss also ebenfalls ein Element der Wirklichkeit sein. Also müssen sowohl Ort als auch Geschwindigkeit des Partnerteilchens Elemente der Wirklichkeit sein. Sie sind real vorhandene Parameter, selbst wenn wir sie nicht gleichzeitig bestimmen können. Und da die Quantenmechanik diese Parameter nicht als Eigenschaften der Teilchen enthält, muss sie unvollständig sein. Auf mich wirkt dieser Gedankengang von Einstein, Rosen und Podolsky sehr überzeugend. Er entspricht genau dem, was wir aufgrund all unserer Erfahrung mit der Welt schlussfolgern würden. Bohr versuchte natürlich, sich aus der Affäre zu ziehen, indem er sagte, man dürfe bei einer Messung das zu messende Objekt nicht isoliert vom Messgerät betrachten – beides gehöre untrennbar zusammen. Der Begriff der störungsfreien Messung sei nicht angemessen definiert, und die Messung des Ortes schließe jedes Wissen über die Geschwindigkeiten der beiden Teilchen aus (und umgekehrt). Aber nun ja, wie kann meine Entscheidung, ob ich nun den Ort oder die Geschwindigkeit des ersten Teilchens messe, einen Einfluss darauf haben, ob das Lichtjahre entfernte Partnerteilchen einen eindeutigen Wert für Ort oder Geschwindigkeit besitzt? Sie beginnen vielleicht zu ahnen, dass bisher gar nicht so klar ist, was eine Messung eigentlich bewirkt. Ist sie ein reiner Informationsgewinn? Oder braucht man dafür den physischen Kontakt zum Teilchen? Wie schafft es die Messung eigentlich, aus der quantenmechanischen Ungewissheit eine klassische Gewissheit zu machen und das Teilchen zu zwingen, sich beispielsweise für einen bestimmten Ort zu entscheiden? „Auf der Liste schlechter Wörter in guten Büchern ist das schlimmste von allen das Wort Messung“, schrieb der nordirische Physiker John Stewart Bell in seinem Text Against „measurement“ im Jahr 1990 kurz vor seinem überraschenden
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 183
Tod. Wir werden schon bald besser verstehen, was er damit meinte. Zunächst aber wollen wir uns anschauen, wie es Bell fast 30 Jahre nach der Formulierung des EPR-Paradoxons gelang, die Frage nach der Existenz verborgener lokaler Variablen wie Ort und Geschwindigkeit eines Teilchens endgültig zu klären. Es ist wirklich zu schade, dass Albert Einstein, der 9 Jahre zuvor verstorben war, diesen Durchbruch Bells nicht mehr miterleben konnte – ich würde wirklich zu gerne wissen, wie er auf Bells verblüffendes Ergebnis reagiert hätte.
John Steward Bells Ungleichung Die meisten Physiker hatten nach der zwar interessanten, aber auch ermüdenden Diskussion zwischen Einstein und Bohr, die 1935 in der Formulierung des EPR-Paradoxons und Bohrs Antwort darauf gipfelte, im Laufe der Jahre das Interesse an dem Thema weitgehend verloren. Für die große Mehrheit schien es, als habe das Lager um Niels Bohr die Diskussion für sich entschieden. Einstein, der das nicht akzeptieren wollte, mutierte in den Augen vieler seiner Kollegen zu einem gealterten großen Physiker, der seine besten Jahre hinter sich habe und der die Feinheiten der modernen Quantentheorie nicht mehr so ganz durchschaute. Aber Einstein, der die Entstehung der Quantenmechanik mitgeprägt hatte, verstand sehr wohl, was sie zu sagen hatte – genau deshalb war er ja auch so unzufrieden mit der allgemeinen Ansicht, das sei schon das letzte Wort gewesen. Auch wenn sich die Kopenhagener Interpretation von Bohr und seinen Kollegen als Standard allgemein durchsetzte, gab es doch immer wieder Physiker, die Einsteins Zweifel nachvollziehen konnten. Unter ihnen war auch John Steward Bell (Abb. 3.4), der im Jahr 1928 in Belfast geboren wurde – Einstein war zu dieser Zeit schon fast 50 Jahre alt. „Ich hatte den Eindruck, dass Einstein in diesem Fall Bohr intellektuell haushoch überlegen war; es klaffte eine große Lücke zwischen dem Mann, der klar sah, was nötig war, und dem Verschleierer (obscurantist).“ So äußerte sich Bell einmal gegenüber Jeremy Bernstein.7 John Steward Bell, den seine Familie meist Steward nannte, weil sein Vater ebenfalls John hieß, wuchs zusammen mit seinen 3 Geschwistern in
7 Siehe
J. Bernstein: Quantum Profiles (Princeton, 1991) sowie Andrew Whitaker: John Stewart Bell (1928–1990) – Biography, https://mathshistory.st-andrews.ac.uk/Biographies/Bell_John/.
184 J. Resag
Abb. 3.4 John Stewart Bell (1928–1990). (Credit: CERN, CC-BY-4.0. Quelle: https://cds. cern.ch/record/1823937)
ärmlichen Verhältnissen auf. Er liebte Bücher und interessierte sich schon früh für Naturwissenschaften. Ermutigt und unterstützt von seinen Eltern gelang es ihm, trotz seiner niedrigen Herkunft, die weiterführende Schule zu besuchen und schließlich in Belfast Physik zu studieren. Auf seinem Weg, der ihn über Birmingham und Harwell (Oxfordshire) schließlich ans CERN bei Genf führte, beschäftigte er sich mit theoretischer Teilchenphysik, dem Design von Teilchenbeschleunigern sowie mit relativistischer Quantenfeldtheorie und leistete dort bedeutende Beiträge. Dabei konnte er immer auf die Unterstützung und den Rat seiner lieben Frau Mary Ross Bell zählen, die ebenfalls Physikerin war und die sich besonders in der Physik von Teilchenbeschleunigern bestens auskannte. Bells heimliches Interesse waren jedoch die Grundlagen der Quantenmechanik. Niemand hätte ihm damals ein solches Forschungsgebiet offiziell finanziert – alles Wesentliche schien bereits gesagt und philosophische Spekulationen über das Wesen der Quantenwellen und die Existenz verborgener Variablen waren den meisten Physikern suspekt. Also verfolgte Bell seine Interessen als Hobby nach Feierabend. Und wie schon bei Einstein, der um 1905 als technischer Experte 3. Klasse beim Schweizer Patentamt in Bern arbeitete und der in seiner Freizeit über das Wesen von Raum und Zeit und vieles mehr nachgrübelte, kam bei diesem Hobby ein bedeutender wissenschaftlicher Durchbruch heraus.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 185
Im Jahr 1964 veröffentlichte Bell die Ergebnisse seiner Überlegungen unter dem Titel On the Einstein Podolsky Rosen Paradox. In der Einleitung schreibt er dort: Das Paradoxon von Einstein, Podolsky und Rosen wurde als Argument dafür angeführt, dass die Quantenmechanik keine vollständige Theorie sein könne, sondern durch zusätzliche Variablen ergänzt werden müsse. Diese zusätzlichen Variablen sollten der Theorie Kausalität und Lokalität zurückgeben. In der vorliegenden Arbeit wird diese Idee mathematisch formuliert und gezeigt, dass sie mit den statistischen Vorhersagen der Quantenmechanik unvereinbar ist.
Wow, ich vermute, das hätte Einstein echt umgehauen. Hier geht es nicht um irgendwelche philosophischen Spekulationen über die Existenz verborgener Variablen, die Einstein Elemente der Wirklichkeit genannt hatte. Bell behauptet vielmehr, er habe Einsteins Ideen über verborgene Variablen in strenge mathematische Aussagen umgewandelt, die sich experimentell überprüfen lassen und die den Vorhersagen der Quantenmechanik widersprechen. Das war keine verschwurbelte Philosophie, sondern handfeste Naturwissenschaft, mit der auch die Fachkollegen etwas anfangen konnten. Das Schöne an Bells Argument ist, dass man seinen Kern auch ohne viel Mathematik gut verstehen kann. Immer, wenn ich die Gelegenheit dazu habe, es zu erklären, kann ich daher nicht widerstehen.8 In diesem Buch möchte ich es auf eine besonders einfache Art versuchen, die ich in Dieter Zehs Buch Physik ohne Realität: Tiefsinn oder Wahnsinn in Abschn. 2.2 gefunden habe (die Darstellung geht laut Zeh auf Heinz Pagels Buch Der kosmische Code zurück). Anders als Einstein, Podolsky und Rosen wollen wir uns dabei nicht Ort und Impuls als komplementäre – also nicht gleichzeitig präzise bestimmbare – Messgrößen aussuchen. Es gibt besser geeignete Größen, die sich viel einfacher messen lassen, nämlich den Spin von Teilchen in verschiedenen Raumrichtungen. Der US-amerikanische Quantenphysiker und Philosoph David Bohm, der nach dem 2. Weltkrieg in Princeton auch mit Albert Einstein zusammengearbeitet hatte, hatte sich diese heute gängige Spinvariante des EPR-Paradoxons ausgedacht. Man kann sich den Spin eines Teilchens ganz grob wie einen Eigendrehimpuls vorstellen, so als würde sich das Teilchen wie die Erdkugel um sich 8 Auf andere Weisen habe ich Bells Argument bereits in Die Entdeckung des Unteilbaren (Abschn. 2.8) und in Feynman und die Physik (Abschn. 6.2) dargestellt.
186 J. Resag
selbst drehen. Dabei kann die Drehachse im Raum verschieden ausgerichtet sein. Allerdings ist der Spin eine typische Quantengröße, die sich nur sehr unvollständig durch das klassische Bild eines sich drehenden Teilchens veranschaulichen lässt. So lässt sich beispielsweise der Spin eines Elektrons oder Photons nicht abbremsen oder beschleunigen – er ist immer gleich groß und für das Teilchen charakteristisch. Elektronen tragen beispielsweise den Spin 1/2 und Photonen den Spin 1, angegeben als Vielfache von ℏ = h/(2π ). Besonders interessant ist für uns nun die Ausrichtung der Drehachse im Raum. Diese kann man nämlich dem Teilchen nicht wie bei der rotierenden Erdkugel einfach ansehen, sondern man muss sie messen. Das kann man bei einem Elektron dadurch machen, dass man es zwischen den beiden Polen eines Magneten hindurchschickt, wobei das Magnetfeld zu einem Pol hin stärker wird. Genau genommen muss man dabei die elektrische Ladung des Elektrons noch geeignet neutralisieren, da diese sonst den Einfluss des Spins überdecken würde. Man schickt also keine Elektronen, sondern beispielsweise Silberatome durch das Magnetfeld, aber das ist ein Detail, auf das es hier nicht weiter ankommt – reden wir also einfach weiter von Elektronen. Der Spin eines Elektrons bewirkt nun, dass sich dieses wie eine winzige Magnetnadel verhält, die beim Durchflug zwischen den beiden Magnetpolen mehr oder weniger stark in Richtung Nord- oder Südpol abgelenkt wird, je nachdem, wie seine Drehachse, also sein Spin, im Raum orientiert ist. Liegt der Spin parallel oder antiparallel zu den Magnetfeldlinien zwischen den beiden Magnetpolen, dann müsste die Ablenkung am stärksten sein. Steht der Spin senkrecht zu den Magnetfeldlinien, dürfte es gar keine Ablenkung geben. Als Otto Stern und Walther Gerlach dieses berühmte Experiment im Jahr 1922 zum ersten Mal durchführten, waren sie überrascht: Die Elektronen (genauer: die Silberatome) wurden immer gleich weit in Richtung Nordoder Südpol abgelenkt, so als wäre der Spin immer parallel oder antiparallel zum Magnetfeld ausgerichtet. Es dauerte einige Zeit, bis man daraus die richtigen Schlüsse zog, aber es stellte sich schließlich heraus, dass dies eine allgemeine Eigenschaft des Spins ist: Man muss immer – beispielsweise durch ein inhomogenes Magnetfeld – erst eine Richtung im Raum vorgeben und kann dann die Spinkomponente in dieser Richtung messen, wobei sich immer diskrete Zahlenwerte ergeben. Beim Elektron erhält man beispielsweise immer die Spinwerte + 1/2 oder − 1/2, so als würde sich das Elektron immer links oder rechts herum um die Magnetfeldlinien drehen (Abb. 3.5). Im Prinzip können wir dabei die Richtung im Raum beliebig vorgeben, also den Magneten entsprechend um die Flugrichtung nach links oder rechts
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 187
Abb. 3.5 Schickt man Teilchen mit Spin 1/2 durch ein senkrechtes, inhomogenes Magnetfeld, werden sie je nach Spinausrichtung entweder nach oben (Spinwert + 1/2, ↑) oder nach unten (Spinwert − 1/2, ↓) abgelenkt. (Quelle: Eigene Grafik)
kippen. Aber wenn wir den Spinwert in einer bestimmten Richtung, sagen wir entlang der vertikalen z-Achse, gemessen haben, dann ist sein Wert in der dazu senkrechten Richtung, sagen wir entlang der horizontalen x-Achse, vollkommen unbestimmt. Wenn wir also die Elektronen zuerst durch einen senkrecht ausgerichteten Magneten wie in Abb. 3.5 schicken und die nach oben (oder unten) abgelenkten Elektronen herausfiltern, dann würden diese anschließend in einem waagerecht ausgerichteten Magneten mit gleicher Wahrscheinlichkeit nach rechts oder links abgelenkt. Die gleichzeitige Kenntnis des Spinwertes in zueinander senkrechten Richtungen ist nicht möglich,so wie auch die gleichzeitige Kenntnis von Ort und Impuls nicht möglich ist. Wäre der zweite Magnet dagegen genau wie der erste Magnet senkrecht ausgerichtet, so würde er das Ergebnis des ersten Magneten bestätigen: einmal nach oben (unten) abgelenkt, erneut nach oben (unten) abgelenkt. Einstein würde daraus schließen, dass der Spinwert in dieser Richtung eindeutig ein Element der Wirklichkeit für dieses Elektron ist. Er ist real, denn ich weiß beim zweiten Mal schon im Voraus, was bei der Spinmessung in dieser Richtung herauskommt. Nun könnte es natürlich sein, dass die Messung der Spinkomponente9 am ersten Magneten das Elektron so stört, dass die Information über die Spinkomponenten in anderen Raumrichtungen dadurch zwangsläufig verloren 9 Die
Bezeichnungen Spinwert, Spinkomponente oder Spinausrichtung werden hier synonym verwendet.
188 J. Resag
geht. So ähnlich hatte Bohr auch immer bei Ort und Impuls argumentiert. Einstein würde entgegnen, dass aber zumindest das Elektron selbst immer über seine sämtlichen Spinkomponenten Bescheid weiß. Sie lägen als Elemente der Wirklichkeit objektiv immer vor, beispielsweise in Form einer definierten Drehachse. Die Messung könnte die Drehachse zwar stören, aber sie wäre immer da. Nun kommt wieder unser EPR-Paradoxon ins Spiel, diesmal angewendet auf den Spin. Nehmen wir an, wir hätten es mit zwei auseinanderfliegenden Elektronen zu tun, die immer genau entgegengesetzte Spinkomponenten aufweisen, wenn wir bei beiden dieselbe Raumrichtung senkrecht zu ihrer Flugrichtung für die Spinmessung vorgeben. Solche Elektronenpaare lassen sich problemlos im Experiment erzeugen. Wenn wir also jedes der beiden Elektronen durch einen senkrecht ausgerichteten Magneten schicken, dann wird immer eines von ihnen nach oben in Richtung Nordpol und das andere nach unten in Richtung Südpol abgelenkt. Welches von ihnen dabei nach oben oder unten geht, ist reiner Zufall (Abb. 3.6). Wir wollen nun bei dem ersten Magneten links von der Quelle diejenigen Elektronen blockieren, die nach unten in Richtung Südpol abgelenkt werden. Bei dem zweiten Magneten rechts von der Quelle machen wir es genau umgekehrt, blockieren also die Nordpolrichtung. Die beiden Elektronen werden also entweder bei beiden Magneten erfolgreich durchkommen oder beide von ihnen blockiert. Nun kommt der entscheidende Schritt in Bells Gedankengang: Wir kippen den rechten Magneten um einen bestimmten Winkel um die Flugrichtung der Teilchen, während wir den Magneten links unverändert lassen. Dadurch ändert sich das voneinander abhängige Verhalten der Teilchen. War ohne Kippen noch klar, dass immer beide Teilchen entweder gemeinsam durchkommen oder nicht, so schwächt sich diese Abhängigkeit mit zunehmendem Kippwinkel immer mehr ab. Es wird immer mehr
Abb. 3.6 Diese auseinanderfliegenden Elektronenpaare sind so miteinander verschränkt, dass sie sich in zwei parallel ausgerichteten Magneten genau entgegengesetzt zueinander verhalten. (Quelle: Eigene Grafik)
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 189
Teilchenpaare geben, die sich nicht mehr synchron verhalten, sodass eines der Teilchen durchkommt und das andere nicht. Liegt das Magnetfeld des zweiten Magneten schließlich waagerecht und das des ersten nach wie vor senkrecht, dann kommen beide Teilchen vollkommen unabhängig voneinander mit 50 %iger Wahrscheinlichkeit durch ihren jeweiligen Magneten hindurch. Bells geniale Idee war nun folgende: Angenommen, es gäbe Einsteins verborgene Variablen, jene lokalen Elemente der Wirklichkeit, die jedes der beiden Teilchen separat mit sich führt und die ihm immer sagen, wie es sich in einem Magneten zu verhalten hat, egal wie dieser orientiert ist. Angenommen also, jedes der beiden Teilchen wüsste von sich aus immer genau, ob es sich in Richtung Nord- oder Südpol bewegen soll und damit entweder durchkommt oder nicht, beispielsweise weil seine innere Drehachse oder sonst irgendeine innere physikalische Eigenschaft es ihm sagt. Und weiter angenommen, es gäbe auch keinerlei spukhafte Fernwirkung zwischen den Teilchen, über die sie sich nach ihrer Trennung noch mit Überlichtgeschwindigkeit gegenseitig beeinflussen oder stören können. Alleine die inneren Eigenschaften des jeweiligen Teilchens legen fest, ob es durchkommt oder nicht. Was würde das für das statistische Verhalten der beiden Teilchen bedeuten, wenn die beiden Magnete gegeneinander um verschiedene Winkel gekippt sind? Wie würde sich das synchrone Verhalten bei zunehmendem Kippwinkel abschwächen? Die Abb. 3.7 zeigt in einem Gedankenexperiment, was unter diesen Voraussetzungen mit einigen Teilchenpaaren geschehen könnte, wenn wir sie durch die beiden Magnete schicken. In der oberen Messreihe 1 schicken wir sie dabei durch zwei senkrecht ausgerichtete Magnete (die Magnetausrichtung ist durch die beiden kleinen Pfeile links in der Grafik dargestellt). Die dunklen Kreise zeigen dabei an, dass das Teilchen durchkommt, während es bei den hellen Kreisen blockiert wird. Wie wir sehen, verhalten sich die beiden Teilchen in Messreihe 1 vollkommen synchron, kommen also immer beide durch oder nicht. Damit kennen wir jetzt ihre inneren Eigenschaften, die festlegen, ob sie bei dieser senkrechten Magnetausrichtung durchkommen oder nicht. Wir hätten natürlich auch eine andere Messreihe an denselben Teilchenpaaren durchführen können, bei der der rechte Magnet um einen bestimmten Winkel (beispielsweise 45 °) nach rechts gekippt ist (Messreihe 2). Einige der nach rechts durch diesen gekippten Magneten fliegenden Teilchen könnten dabei ein anderes Verhalten zeigen als beim senkrechten Magneten und damit die Synchronität des Paares verletzen – in unserem Beispiel sind es die hellblau umrandeten Teilchen aus den Paaren 3, 5 und 8.
190 J. Resag
Abb. 3.7 Die Grafik zeigt 4 hypothetische Messreihen an denselben 8 Teilchenpaaren bei verschiedener Ausrichtung der beiden Magnete (dargestellt durch die kleinen Pfeile). Dunkle Kreise bedeuten, dass das Teilchen durch den Magneten kommt, bei hellen Kreisen wird es dagegen blockiert. Die Kästchen heben die asynchronen Teilchenpaare hervor, bei denen sich also beide Teilchen unterschiedlich verhalten. Die blaue Farbe kennzeichnet diejenigen Teilchen, deren Verhalten sich aufgrund der geänderten Magnetausrichtung im Vergleich zur 1. Messreihe geändert hat. (Quelle: Eigene Grafik)
Wir wissen also jetzt zusätzlich, wie sich die nach rechts fliegenden Teilchen beim Durchgang durch den gekippten zweiten Magneten verhalten würden und kennen nun auch diese zugehörige innere Eigenschaft. Die nach links fliegenden Teilchen zeigen dagegen dasselbe Verhalten wie in Messreihe 1, denn ihr Magnet wurde ja nicht gekippt, und es ist ihnen egal, was am rechten gekippten Magneten mit ihren Partnerteilchen geschieht (keine spukhafte Fernwirkung!). Und wenn wir stattdessen den rechten Magneten senkrecht gelassen und links den Magneten um denselben Winkel gekippt hätten, nur in die andere Richtung, also nach links (Messreihe 3)? Diesmal könnten einige der nach links fliegenden Teilchen im gekippten Magnetfeld ein anderes Verhalten zeigen als im senkrechten Magnetfeld von Messreihe 1 – hier sind es die
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 191
hellblau umrandeten Teilchen aus den Paaren 2, 5 und 7. Die nach rechts durch den ungekippten Magneten fliegenden Teilchen müssen sich dagegen genauso verhalten wie in Messreihe 1, denn sie kümmern sich nicht um das Verhalten ihrer Partnerteilchen am linken Magneten. Jetzt kommt der entscheidende Schritt: Wie wäre die Messung ausgegangen, wenn wir beide Magnete so gekippt hätten, wie wir das in der 2. bzw. 3. Messreihe nur für einen der beiden Magneten tun würden? Die beiden Magnete wären dann entgegengesetzt zueinander um denselben Winkel gekippt, sodass sie relativ zueinander um den doppelten Winkel gekippt wären. In diesem Fall würden sich die Teilchen am rechten Magneten wie in Messreihe 2 und die am linken Magneten wie in Messreihe 3 verhalten, d. h., beide Änderungen kommen hier zusammen. Die Anzahl der asynchronen Teilchenpaare aus den Messreihen 2 und 3 müssten sich also in Messreihe 4 auf den ersten Blick addieren, denn die Änderungen im Teilchenverhalten am rechten und linken Magneten kommen hier zusammen. Es kann allerdings passieren, dass bei einigen Teilchenpaaren beide Teilchen links und rechts ihr Verhalten ändern und sie dadurch wieder synchron werden, so wie bei Teilchenpaar 5. Die Zahl der asynchronen Teilchenpaare in Messreihe 4 (beide Magnete gekippt) darf also höchstens so groß sein wie die Zahl der asynchronen Teilchenpaare aus den Messreihen 2 und 3 (Magnet rechts oder links gekippt) zusammengenommen. Und damit haben wir sie: die bellsche Ungleichung für unser spezielles Beispiel. Es sieht vollkommen natürlich aus – eine Selbstverständlichkeit, bei der sich eine experimentelle Überprüfung kaum lohnt. Allerdings ist diese auch nicht direkt möglich, denn wir können dieselben Teilchenpaare nicht für alle 4 Messreihen verwenden. Die Messung der Spinkomponente in einer Magnetrichtung könnte ja die Spinkomponente des Teilchens für andere Magnetrichtungen unkontrolliert verändern. Auf diese Weise hatte Heisenberg seine Unschärferelation begründet, die auch für den Spin in verschiedenen Raumrichtungen gilt. Zum Glück gibt es einen Ausweg: Wir fragen nicht nach dem Verhalten derselben Teilchenpaare in allen 4 Situationen, sondern wir fragen nach dem statistischen Verhalten sehr vieler Teilchenpaare, die wir jeweils nur einer der 4 Situationen aussetzen. Wenn sich die inneren Eigenschaften der Teilchen so verhalten wie in Abb. 3.7, dann sollte der statistische Prozentsatz der asynchronen Teilchenpaare bei zwei gegeneinander gekippten Magneten wie in Messreihe 4 höchstens so groß sein wie die beiden Prozentsätze asynchroner Teilchenpaare bei jeweils nur einem gekippten Magnet zusammengenommen (Messreihen 2 und 3).
192 J. Resag
Das kann man experimentell überprüfen! Schauen wir aber sicherheitshalber zuvor noch nach, was die Quantenmechanik dazu sagt. Die Formel zur Berechnung ist dabei ziemlich einfach.10 Für einen Kippwinkel von 90 ° zwischen den beiden Magneten wie in Messreihe 4 (der eine Magnet um 45 ° nach rechts und der andere um 45 ° nach links gekippt) sagt sie, dass 50 % der Teilchenpaare asynchron reagieren. Das ist auch anschaulich einleuchtend, denn bei zueinander senkrechten Magnetrichtungen agieren die beiden Teilchen vollkommen unabhängig voneinander – die Hälfte der Teilchenpaare ist also zufällig synchron, die andere Hälfte nicht. Nach der bellschen Ungleichung müssten sich also in den beiden Fällen, in denen nur der linke oder rechte Magnet um 45 ° gekippt ist wie in den Messreihen 2 und 3, mindestens 25 % der Teilchenpaare asynchron verhalten. Nur so kommen wie in Abb. 3.7 gezeigt genügend asynchrone Teilchenpaare zusammen, sodass Messreihe 4 dann 50 % asynchrone Teilchenpaare enthalten kann. Die Quantenmechanik sagt für die beiden Messreihen 2 und 3 aber jeweils nur ungefähr 14,6 % asynchrone Teilchenpaare voraus. Das wäre laut bellscher Ungleichung zu wenig, denn wir brauchen laut ihr ja mindestens 25 % asynchrone Teilchenpaare, um in Summe auf die 50 % zu kommen. Die Quantenmechanik widerspricht also der bellschen Ungleichung und damit unserer Überlegung aus Abb. 3.7. Was sagt das Experiment? Es bestätigt mit sehr hoher Genauigkeit, dass die Quantenmechanik richtig liegt und dass die bellsche Ungleichung nicht erfüllt ist. Meist werden dabei Photonen anstelle von Elektronen verwendet, die man durch Polarisationsfilter statt durch Magnete schickt. Das ist wesentlich einfacher durchzuführen. Die quantenmechanischen Details sind dann etwas anders, aber das Ergebnis bleibt dasselbe. So selbstverständlich unsere Überlegung über das Verhalten der Teilchenpaare in Abb. 3.7 auch erscheinen mag – die Natur verhält sich anders. Wir können also nicht davon ausgehen, dass die beiden Teilchen alleine durch lokale innere Eigenschaften in ihrem Verhalten geleitet werden. Sie wissen nicht von sich aus, wie sie sich am Magneten verhalten werden. Es spielt eine Rolle, was am jeweils anderen Magneten bzw. Filter passiert, auch wenn dieser Lichtjahre entfernt ist. Eine lokale Realität im Sinne Einsteins scheint es also nicht zu geben. Die Welt der Quantenmechanik ist nicht lokal! Genau das drückt die Quantenmechanik aus, indem sie den beiden Teilchen eine einzige 10 Die quantenmechanische Formel für die Wahrscheinlichkeit W, dass ein Teilchenpaar sich asynchron verhält, wenn die beiden Teilchen durch zwei um den Winkel α gegeneinander gekippte Magnete fliegen, lautet W = [sin (α/2)]2. Man nimmt also den Sinus des halben Kippwinkels und quadriert das Ergebnis.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 193
gemeinsame Quantenwelle zuordnet, die sich eben nicht in zwei einzelne Quantenwellen für die jeweiligen Teilchen zerlegen lässt. Nahezu 40 Jahre hat es seit der Formulierung der Quantenmechanik gedauert, bis John Stewart Bell ihre fundamentale Nichtlokalität so klar herausarbeiten und beweisen konnte. Niemandem seiner berühmten Vorgänger war dies gelungen, auch Bohr und Einstein nicht. Und dabei schlummerte die Idee die ganze Zeit über in ihren Gleichungen, ohne dass sie jemand erkannte. Man kann die Bedeutung der bellschen Ungleichung für die Interpretation der Quantenmechanik kaum überschätzen. Und dennoch kam sie in meiner eigenen Quantenmechanikvorlesung in den späten 1980er-Jahren während meines Physikstudiums in Bonn nicht vor. Mit Interpretationsfragen hält man sich im Studium eben nicht lange auf – Hauptsache, man lernt, quantenmechanische Berechnungen durchzuführen. Erst als einige ältere Kommilitonen mich eines Tages an die Uni in Köln mitnahmen, wo ein gewisser John Steward Bell einen Vortrag über das Verhalten verschränkter Teilchen hielt, begann ich zu ahnen, dass da jemand etwas Wichtiges zu erzählen hatte. Noch heute habe ich im Ohr, wie Bell, dessen Erscheinungsbild mich unwillkürlich an Catweazle erinnerte, ständig über „identical twins“ (eineiige Zwillinge) sprach – genau so verhalten sich ja die beiden Teilchen an parallel ausgerichteten Magneten. So richtig würdigen konnte ich es damals allerdings noch nicht, welchen herausragenden Physiker ich da vor mir hatte. Leider starb Bell bereits kurze Zeit später im Jahr 1990 überraschend an einer Gehirnblutung. Hätte er länger gelebt – der Nobelpreis wäre ihm vermutlich früher oder später sicher gewesen.
Nichtlokale Quantenwelt In einem Brief an Max Born hat Albert Einstein seine Sichtweise der physikalischen Realität einmal besonders schön auf den Punkt gebracht:11 Fragt man, was unabhängig von der Quanten-Theorie für die physikalische Ideenwelt charakteristisch ist, so fällt zunächst folgendes auf: die Begriffe der Physik beziehen sich auf eine reale Außenwelt, d. h. es sind Ideen von Dingen gesetzt, die eine von den wahrnehmenden Subjekten unabhängige „reale Existenz“ beanspruchen (Körper, Felder etc.), welche Ideen andererseits zu Sinneseindrücken
11 Albert
Einstein, Hedwig und Max Born: Briefwechsel 1916–1955, S. 174, siehe Literaturverzeichnis.
194 J. Resag
in möglichst sichere Beziehung gebracht sind. Charakteristisch für diese physikalischen Dinge ist ferner, dass sie in ein raum-zeitliches Kontinuum eingeordnet gedacht sind. Wesentlich für diese Einordnung der in der Physik eingeführten Dinge erscheint ferner, dass zu einer bestimmten Zeit diese Dinge eine voneinander unabhängige Existenz beanspruchen, soweit diese Dinge „in verschiedenen Teilen des Raumes liegen“. Ohne die Annahme einer solchen Unabhängigkeit der Existenz (des „So-Seins“) der räumlich distanten Dinge voneinander, die zunächst dem Alltags-Denken entstammt, wäre physikalisches Denken in dem uns geläufigen Sinne nicht möglich. Man sieht ohne solche saubere Sonderung auch nicht, wie physikalische Gesetze formuliert und geprüft werden könnten.
Das ist wirklich wunderbar ausgedrückt – Einstein war eben nicht nur ein genialer Physiker, sondern er besaß auch ein sehr feines Gespür für die deutsche Sprache. Die Dinge – in unserem Fall die beiden Teilchen – beanspruchen also laut Einstein zu einer bestimmten Zeit eine voneinander unabhängige Existenz, wenn sie sich erst einmal räumlich voneinander entfernt haben. Genau diesen Punkt aber hat Bell widerlegt. Die beiden miteinander verschränkten Teilchen bilden eine quantenmechanische Einheit, auch wenn sie Lichtjahre voneinander entfernt sind. Aber wie wäre ohne die Annahme einer solchen Unabhängigkeit physikalisches Denken in dem uns geläufigen Sinne überhaupt noch möglich, gibt Einstein zu bedenken. Wie können physikalische Gesetze noch formuliert und geprüft werden, wenn das Verhalten eines Elektrons auf der Erde vom Verhalten eines anderen Elektrons auf Alpha Centauri abhängen kann? Wie können wir jemals verlässliche Ergebnisse in unseren irdischen Experimenten erwarten, wenn wir über das Geschehen auf Alpha Centauri doch gar nichts wissen? Da hat Einstein natürlich recht: Wir können es nicht, zumindest wenn wir genau vorhersagen wollten, was ein Elektron beim Durchflug durch „seinen“ Magneten tut. Aber eben das wollen und können wir in der Quantenmechanik auch nicht mehr vorhersagen. Wir sehen nur, wie die Elektronen bei einem der Magneten mit einer 50:50-Wahrscheinlichkeit mal in Richtung Nordpol und mal in Richtung Südpol abgelenkt werden. Dass ihr Verhalten statistisch mit dem ihrer Partnerteilchen zusammenhängt, können wir erst erkennen, wenn wir die Daten beider Teilchen zusammenbringen. Jemand müsste uns also die Elektrondaten beispielsweise von Alpha Centauri zuschicken, und das geht nur mit Lichtgeschwindigkeit. Überlichtschnelle Kommunikation durch die „spukhafte Fernwirkung“ zwischen den Teilchenpaaren ist also nicht möglich. Einsteins Relativitätstheorie ist
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 195
gerettet. Es gibt keinen physikalischen Einfluss des einen Teilchens auf das andere im üblichen Sinne, so wie man sich Ursache und Wirkung normalerweise vorstellt. Alles was es gibt, ist eine quantenmechanische Korrelation zwischen den Teilchen, beschrieben durch ihre gemeinsame nichtlokale Quantenwelle. Ist damit die Idee einer irgendwie vorstellbaren Quantenrealität endgültig gestorben? Ist die Quantenwelt nur eine abstrakte Welt der Möglichkeiten ohne jeden Anspruch auf Realität, wie Bohr und seine Mitstreiter dachten? Hat Bell nicht genau das bewiesen, indem er zeigte, dass Einsteins Kriterien für Realität in unserer Welt nicht erfüllt sind? Man könnte es fast meinen, doch damit würde man Bell falsch verstehen. Im Gegenteil: Bell selbst sah sich immer eher auf der Seite von Einstein, denn auch er glaubte an die Existenz einer physikalischen Realität, die auch gerne verborgene Variablen enthalten darf. Allerdings muss diese Realität zwingend nichtlokale Elemente enthalten. Im Jahr 1952 sah Bell zu seiner großen Freude, dass es David Bohm gelungen war, eine solche Quantenrealität explizit zu formulieren. Dabei wussten weder Bell noch Bohm, dass Louis de Broglie bereits in den 1920er-Jahren auf eine ganz ähnliche Theorie gestoßen war, weshalb man heute auch von der De Broglie-Bohm-Theorie spricht. In dieser Theorie bewegen sich die Teilchen wie in der klassischen Physik auf wohldefinierten Bahnen, wobei sie aber durch die nichtlokale Quantenwelle in bestimmter Weise „geführt“ werden. In Abb. 3.8 können Sie sehen, wie dabei die Teilchen im Doppelspaltexperiment so geleitet werden, dass sich die typischen Interferenzstreifen ergeben. Man kann sich im Rahmen dieser Theorie also durchaus ein sehr reales Bild davon machen, was im Doppelspaltexperiment geschieht. Leider lassen sich die von de Broglie und Bohm postulierten Teilchenbahnen im Experiment grundsätzlich nicht nachweisen, sodass ihre Theorie exakt dieselben statistischen Vorhersagen liefert wie die normale Quantenmechanik mit ihrer Wahrscheinlichkeitsinterpretation der Quantenwelle. Es bleibt also Geschmackssache, ob man an diese Teilchenbahnen glauben möchte oder nicht. Außerdem gibt es gewisse Schwierigkeiten, die Theorie in die relativistische Quantenfeldtheorie zu übertragen. Mir persönlich scheinen die Teilchenbahnen von de Broglie und Bohm daher eher eine Reminiszenz an die lieb gewonnenen Ideen der klassischen Physik zu sein, die man auch in der Quantenwelt nicht loslassen möchte, obwohl nichts physikalisch Greifbares mehr für ihre Existenz spricht. Wir wollen daher die De Broglie-Bohm-Theorie in diesem Buch nicht weiterverfolgen.
196 J. Resag
Abb. 3.8 Simulation des Doppelspaltexperiments in der De Broglie-Bohm-Theorie. (Quelle: https://commons.wikimedia.org/wiki/File:Doppelspalt.svg)
Stattdessen wollen wir einen anderen Weg beschreiten. Wir wollen die Quantenmechanik ernst nehmen, und zwar so ernst, dass wir sie als den zentralen Grundpfeiler für die gesamte Physik betrachten wollen. Nichts soll sich ihrem Griff entziehen, sei es nun ein Atom, ein Messgerät, ein Mensch oder gar das gesamte Universum. Wir wollen annehmen, dass Quantenwellen die eigentlichen Grundbausteine der Wirklichkeit sind. Wie kommen wir darauf? Ist die Quantenphysik nicht auf die mikroskopische Welt der Elementarteilchen, Atome und Moleküle beschränkt, während in unserer makroskopischen Welt die Regeln der klassischen Physik gelten? Das ist zumindest der Ansatz, mit dem die Kopenhagener Standardinterpretation arbeitet. Auf der einen Seite haben wir demnach die mikroskopische Quantenwelt der Möglichkeiten, und auf der anderen Seite haben wir ein makroskopisches Messgerät wie einen Magneten oder einen Detektor, mit dem wir den Spin oder den Ort eines Teilchens messen können. Dieses Messgerät folgt dabei den Regeln der klassischen Physik, d. h., wir können problemlos erkennen, welches Messergebnis das Gerät uns liefert. Wie dabei aus den verschiedenen quantenmechanischen Möglichkeiten die klassische Gewissheit über das Messergebnis entsteht, bleibt im Dunkeln. Aber ist der Prozess der Messung etwa kein physikalischer Prozess? Müsste eine fundamentale Theorie wie die Quantenmechanik nicht auch
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 197
diesen Prozess umfassen? Müsste sie nicht erklären, wie unsere klassische Welt aus den Schwingungen und Wellen der Quantenwelt entsteht? Die Standardinterpretation drückt sich hier vor einer klaren Antwort und versteckt das Problem hinter dem Begriff der „Messung“ – nicht ohne Grund hatte sich John Steward Bell über dieses Wort so aufgeregt. Dass es eine klare Grenze zwischen quantenmechanischer und klassischer Welt geben soll, ist gerade vor dem Hintergrund moderner Experimente und Entwicklungen zunehmend unwahrscheinlich geworden. So gelingt es in modernen Experimenten zu Quantencomputern im Labor mittlerweile, Dutzende quantenmechanische Objekte, sogenannte Qubits, miteinander zu einem einzigen Quantenzustand zu verschränken. Es vergeht kaum ein Jahr, in dem hier nicht neue Rekorde aufgestellt werden. Und im Doppelspaltexperiment ist es mittlerweile gelungen, quantenmechanische Interferenzstreifen nicht nur mit Elektronen oder einzelnen Atomen zu erzeugen, sondern auch mit großen Molekülen wie der Kohlenstoffkugel C60 und sogar mit organischen Molekülen, die Hunderte bis Tausende von Atomen enthalten. Auch Gebilde aus Tausenden von Atomen können sich also unter bestimmten Umständen wie eine quantenmechanische Einheit verhalten, von der man ohne Messung nicht sagen kann, durch welchen Spalt sie hindurchgegangen sind. Es sieht also nicht so aus, als gäbe es irgendwo eine prinzipielle Grenze, ab der die Quantenmechanik nicht mehr gilt. Vielmehr spricht alles dafür, dass sie auch bis in unsere makroskopische Welt hinein gültig ist. Aber was bedeutet das für unser Verständnis der Wirklichkeit? Wie müssen wir uns eine Welt vorstellen, in der die Quantenmechanik keine Grenzen kennt?
Die universelle Quantenwelle des Hugh Everett Hugh Everett (Abb. 3.9) war kein sonderlich sympathischer Mensch. Er war ein brillanter und innovativer Egozentriker, dabei durchaus gewieft und auch geschäftstüchtig. Als Familienvater war er aufgrund seiner emotionalen Verschlossenheit wohl ein ziemlicher Totalausfall. Von seinen beiden Kindern Elisabeth und Mark nahm er nur wenig Notiz. Als Elisabeth im Juni 1982 ihren ersten Selbstmordversuch unternahm und nur knapp von ihrem Bruder Mark gerettet und ins Krankenhaus gebracht wurde, blickte ihr Vater bei Marks Rückkehr spät am Abend nur kurz von seiner Zeitung auf und murmelte: „Ich wusste nicht, dass sie so traurig war.“ Nur einen Monat später fand Mark seinen Vater tot im Bett liegend. Für den 19-Jährigen war es ein Schock, aber er konnte nichts mehr für ihn
198 J. Resag
Abb. 3.9 Hugh Everett III (1930–1982). (Quelle: abgeleitet von https://en.wikipedia. org/wiki/File:Hugh-Everett.jpg)
tun. Zugleich fragte er sich, was er angesichts seines toten Vaters überhaupt fühlen sollte, denn er hatte kaum eine Beziehung zu ihm gehabt. Und nun wurde sein Vater einfach so in einem schwarzen Leichensack aus dem Haus getragen. Hugh Everett war nur 51 Jahre alt geworden. Seine ungesunde Lebensweise als kettenrauchender, übergewichtiger Alkoholiker hatten ihn trotz all seiner strahlenden Intelligenz viel zu früh aus dem Leben gerissen – ein Herzinfarkt hatte ihn im Schlaf ereilt. Vierzehn Jahre später folgte ihm seine zu Depressionen neigende Tochter ins Grab. Diesmal hatte sie niemand vor der Überdosis Schlaftabletten retten können, mit der sie sich das Leben genommen hatte. Sie würde nun zu ihrem Vater in ein anderes Universum gehen, so hatte sie es in einer Notiz hinterlassen. Ihrem Bruder Mark dagegen gelang es, die Schatten seiner Kindheit hinter sich zu lassen und eine Karriere als erfolgreicher Rockmusiker zu starten. Als ihm später klar wurde, welche großen Leistungen sein Vater vollbracht hatte, begann er, sich genauer mit ihm und seinen Entdeckungen zu befassen. Was war sein Vater eigentlich für ein Mensch gewesen? Wie muss es wohl für ihn gewesen sein, in seinem Kopf zu leben? „Mir wurde klar, dass ich mich genauso gefühlt hatte, wie er sich in all den Jahren gefühlt haben musste, in denen er keine Zeit hatte, weil er immer irgendwelche verrückten Ideen hatte, die er in seinem Kopf zu klären versuchte“, so erinnerte sich Mark später. „Du bist gerade dabei, den Code zu knacken,
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 199
und der Junge will Baseball spielen. […] Wir sind beide Ideenmenschen und alles, was außerhalb dieser Ideen liegt, ist eine Ablenkung.“ Auch den frühen Tod, den sein Vater durch seinen ungesunden Lebenswandel in Kauf genommen hatte, konnte er ihm später verzeihen: „Er hat gegessen, geraucht und getrunken, wie es ihm gefiel, und eines Tages ist er einfach plötzlich und schnell gestorben. In Anbetracht einiger anderer Wege, die ich miterlebt habe, stellt sich heraus, dass es gar nicht so schlecht ist, sein Leben zu genießen und dann schnell zu sterben.“12 Hugh Everett wurde 1930 in Washington, D.C. geboren und ging dort später an die Catholic University of America, wo er Chemieingenieurwesen und ganz nebenbei auch noch Mathematik studierte und dieses Studium 1953 abschloss. Aber sein Wissensdurst war damit noch nicht gestillt, denn anschließend zog es ihn zum Physikstudium an die Princeton University nach New Jersey. Ich weiß nicht, ob es dabei eine Rolle spielte, dass Albert Einstein zu dieser Zeit bis zu seinem Tod im April 1955 am nahe gelegenen Institute for Advanced Study forschte. Bekannt ist aber, dass der kleine Hugh bereits mit 12 Jahren einen Brief an den berühmten Einstein geschrieben hatte und ihn darin fragte, ob das, was das Universum zusammenhält, etwas Zufälliges oder etwas Verbindendes sei. Und er bekam sogar eine Antwort von Einstein, der ihm schrieb, es gäbe zwar keine unwiderstehlichen Kräfte oder unbewegliche Körper, aber anscheinend einen sehr hartnäckigen Jungen, der sich erfolgreich durch einige Schwierigkeiten hindurchgekämpft habe. Wie man sieht, war Everett auf vielen Gebieten beschlagen und dachte schon als Kind über die großen Fragen des Universums nach. So kam es, dass er eines Abends im Jahr 1954 nach einigen Gläsern Sherry mit seinem Kommilitonen Charles Misner und Aage Petersen (damals Assistent von Niels Bohr), der sie in Princeton besuchte, weitreichende Überlegungen über die Bedeutung der Quantenmechanik anstellte. Was wäre, wenn die Wellen der Quantenmechanik die reale Welt komplett repräsentieren und nicht nur ein Rechenwerkzeug für Wahrscheinlichkeiten sind? Können uns dann nicht die Gleichungen der Quantenmechanik ohne irgendwelche Zusatzannahmen sagen, was bei einer Messung eigentlich geschieht? Everett war von dieser Idee fasziniert und begann, sie im Rahmen seiner Dissertation auszuarbeiten. Das Ergebnis war ein Werk von knapp 140 Seiten, gespickt mit klugen Ideen und klaren Statements, die er detailliert
12 Mark Oliver Everett: Finding My Father, https://www.pbs.org/wgbh/nova/manyworlds/father.html sowie Things the Grandchildren Should Know und https://en.wikipedia.org/wiki/Hugh_Everett_III.
200 J. Resag
mit Formeln untermauerte.13 In der Einleitung geht Everett dabei mit der Kopenhagener Standardinterpretation der Quantenmechanik, wie man sie in den üblichen Lehrbüchern und Vorlesungen antrifft, hart ins Gericht. Wie kann es sein, dass sich die Quantenwellen nach der SchrödingerGleichung ohne jede plötzliche Veränderung gleichmäßig mit der Zeit entwickeln, während sie bei einer Messung ganz plötzlich kollabieren sollen, um mit dem gefundenen Messwert kompatibel zu sein?14 Spätestens, wenn wir Messinstrumente mit in die Quantenbeschreibung hineinnehmen, kommt es dabei zu paradoxen Situationen, wie Everett darstellt. Everett zeigt mehrere Alternativen auf und entscheidet sich dann für folgende: Die universelle Gültigkeit der Quantenmechanik wird für alle physikalischen Systeme, einschließlich Beobachter und Messgeräte, vorausgesetzt. Es gibt keinen gesonderten Messprozess. Beobachtungsprozesse sollen vollständig durch die Quantenwelle des zusammengesetzten Systems beschrieben werden, das den Beobachter, sein Messgerät und sein gemessenes Objektsystem umfasst und das zu jedem Zeitpunkt der Schrödinger-Gleichung gehorcht. Dieser Ansatz habe viele Vorteile, fährt Everett fort. Er ist logisch sehr einfach und lässt sich sogar auf das gesamte Universum anwenden. Die Quantenwellen bilden in diesem Universum die fundamentalen Entitäten, sind also die fundamentalen Bausteine der Wirklichkeit. Man kann sogar die Quantenwelle des gesamten Universums betrachten, die universelle Wellenfunktion („universal wave function“), die die gesamte Physik des Universums umfasst. Aber kann eine solche Theorie mit unserer Erfahrung in Einklang gebracht werden? Das möchte Everett mit seiner Arbeit darlegen: „In der vorliegenden Arbeit soll gezeigt werden, dass dieses Konzept einer universellen Wellenmechanik zusammen mit dem für seine Interpretation notwendigen Korrelationsapparat eine logisch in sich konsistente Beschreibung eines Universums bildet, in dem mehrere Beobachter am Werk sind.“ Ein durchaus selbstbewusster Anspruch, den Everett auf den folgenden Seiten seiner Arbeit mit großem Elan und Findigkeit angeht. Dabei stößt er bei seinen Analysen auf ein ebenso bemerkenswertes wie ungewöhnliches Ergebnis: Jedes Mal, wenn beim Kontakt eines Quantenobjektes mit seiner makroskopischen Umgebung – beispielsweise einem
13 Hugh Everett: The Theory of the Universal Wave Function, (1956), https://www.pbs.org/wgbh/nova/ manyworlds/pdf/dissertation.pdf. 14 Wir fassen hier den Begriff der Schrödinger-Gleichung sehr allgemein auf, sodass er auch relativistische Quantenfeldtheorien mit umfasst.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 201
Messgerät – sich ein Messwert in seiner Umgebung manifestiert und damit makroskopisch fassbar wird, entstehen verschiedene Zweige innerhalb der universellen Wellenfunktion, die verschiedenen klassischen Realitäten entsprechen. In einem Zweig geht beispielsweise das Elektron im Doppelspaltversuch durch den oberen Spalt und wird dort nachgewiesen, im anderen Zweig geschieht dasselbe am unteren Spalt. Beide Zweige existieren zugleich als parallele klassische Realitäten innerhalb derselben universellen Quantenwelle, und in jedem Zweig kann ein Exemplar von Ihnen oder mir sitzen, das den entsprechenden Messwert beobachtet. Jede quantenmechanische Messung verzweigt („splitted“) also die jeweilige klassische Realität in weitere zugleich existierende Zweige, inklusive allem, was sie enthält. Dabei geht keine der quantenmechanischen Möglichkeiten für den Ausgang der Messung verloren. Warum das so ist, werden wir uns gleich noch genauer ansehen. Man kann sich vorstellen, dass ein solches Ergebnis auf die gestandenen Physiker der älteren Generation ziemlich abwegig gewirkt haben muss – waren sie alle doch mit der Kopenhagener Standardinterpretation der Quantenmechanik groß geworden oder hatten diese gar selbst mitentwickelt. Was sollte man von dieser monströsen universellen Quantenwelle halten, die unzählige parallele klassische Realitäten umfasst, die sich auch noch ständig weiter verzweigen und in weitere parallele Realitäten aufspalten? Das ging den meisten eindeutig zu weit. Hatte der junge Everett denn überhaupt verstanden, was die Quantenmechanik bedeutet? John Archibald Wheeler, Everetts Doktorvater in Princeton, ahnte, in welche Schwierigkeiten Everett mit seinen Behauptungen geraten könnte – womöglich würde man ihm sogar den Doktortitel verweigern. Und dabei war Wheeler selbst eigentlich ein sehr aufgeschlossener Physiker, der auch vor bizarren Ideen nicht zurückschreckte. So gehen beispielsweise die Begriffe „Schwarzes Loch“ und „Wurmloch“ auf ihn zurück. Richard Feynman, der ebenfalls bei Wheeler promoviert hatte, sagte über seinen Doktorvater sogar einmal: „Manche Leute glauben, Wheeler sei in seinen späteren Jahren verrückt geworden, aber er war schon immer verrückt!“15 Aus Feynmans Mund war das eindeutig ein Kompliment. Als Wheeler im Frühjahr 1956 nach Kopenhagen reiste, nahm er den Entwurf Everetts mit zu Niels Bohr und seinen Kollegen, um auszutesten, wie diese darauf reagieren würden. Wheeler hatte für einige Zeit in Kopenhagen bei Bohr studiert und später mit ihm intensiv über Fragen 15 “Some people think Wheeler’s gotten crazy in his later years, but he’s always been crazy.” Man findet dieses bekannte Zitat an vielen Stellen im Internet.
202 J. Resag
zur Kernspaltung zusammengearbeitet. Die beiden kannten sich also gut, und Wheeler empfand eine tiefe Bewunderung für den 26 Jahre älteren großen dänischen Physiker. Leider war die Reaktion Bohrs auf Everetts Arbeit – gelinde gesagt – reserviert. Insbesondere das ständige Splitten und Verzweigen in neue Realitäten erzeugte Kopfschütteln. Also sah sich Wheeler genötigt, seinen Schützling dazu zu überreden, den Entwurf noch einmal zu überarbeiten und zu entschärfen, ganz ohne „Splitten“ und ohne die deutliche Kritik an der Kopenhagener Standardinterpretation. Zähneknirschend fügte sich Everett und veröffentlichte schließlich eine stark gekürzte, „weichgewaschene“ Version als offizielle Doktorarbeit, die vom Prüfungsausschuss auch akzeptiert wurde. Die fehlende Anerkennung für seine Leistung muss Everett tief getroffen haben. Desillusioniert verließ er die akademische Welt und nahm einen Job beim Pentagon an, in dem er seine hervorragenden mathematischen Kenntnisse auf militärische Fragestellungen anwenden konnte. Auch auf diesem Gebiet zeigte er schnell, dass er ein brillanter Kopf war, dessen Können sich nicht auf die Quantenmechanik beschränkte. Schon bald leitete er dort die mathematische Forschungsgruppe. Ethische Bedenken schienen ihn bei seinen streng logischen Analysen nuklearer Kriegsszenarien nicht sonderlich beschäftigt zu haben. Später gründete er diverse Firmen und brachte es sogar zu einigem Wohlstand, den er in der Welt der Wissenschaft so niemals hätte erlangen können – vielleicht eine späte Genugtuung für ihn. Gelegentlich gab es auch noch den einen oder anderen Kontakt in die Wissenschaft. So besuchte er im Frühjahr 1959 Niels Bohr in Kopenhagen. Zu einer Annäherung ihrer Standpunkte kam es dabei allerdings nicht, und so wurde Everetts Arbeit in den nächsten Jahren weitgehend ignoriert. Im Jahr 1962, 3 Jahre nach ihrem Treffen, starb Bohr. Es sieht ganz so aus, als ob damit sein dominierender Einfluss langsam zu schwinden begann, denn nach und nach begannen einige Wissenschaftler, sich für Everetts universelle Quantenmechanik zu interessieren. So änderte der Theoretiker Bryce DeWitt seine zunächst eher kritische Einstellung und wurde zu einem der eifrigsten Verfechter von Everetts Ideen. Im Jahr 1967 entwickelte er zusammen mit Wheeler sogar eine Quantengleichung für die universelle Wellenfunktion des Universums, die berühmte Wheeler-DeWitt-Gleichung – mehr dazu im nächsten Kapitel. Und er veröffentlichte im Jahr 1973 zusammen mit seinem Doktoranden Neill Graham das Buch The Many-Worlds Interpretation of Quantum Mechanics, das erstmals die ungekürzte Version von Everetts Dissertation zugänglich machte. Unter der Bezeichnung
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 203
„Viele-Welten-Interpretation“ wurde Everetts Idee damit zunehmend bekannt, auch wenn es sich bei ihr eigentlich nicht um eine Interpretation handelt, sondern um die simple Annahme, dass Quantenwellen und die Schrödinger-Gleichung das Fundament der gesamten Physik bilden. Natürlich stürzte sich auch die Science-Fiction-Literatur schon bald auf die Möglichkeit paralleler Welten, die Everett eröffnet hatte. Welcher ScienceFiction-Autor kann da schon widerstehen? Angesichts der zunehmenden Akzeptanz seiner Ideen luden DeWitt und Wheeler im Jahr 1977 Everett dazu ein, seine Vorstellungen an der University of Texas in Austin vorzutragen. Niels Bohr war seit 15 Jahren tot, und so war der Widerstand gegen Everetts Ansatz mittlerweile deutlich abgeflaut. Everett kam und hüllte sein Publikum während des Seminars in einen Nebel aus Zigarettenrauch ein (erinnert Sie das auch an unseren ehemaligen Bundeskanzler Helmut Schmidt?). Sein Vortrag muss aber recht überzeugend gewesen sein und stieß bei den Teilnehmenden auf großes Interesse. Später versuchte Wheeler sogar, Everett wieder in die Welt der Wissenschaft zurückzuholen – vergeblich. Was sollen wir nun von Everetts Idee halten? Kann es wirklich sein, dass Sie und ich uns mitsamt der klassischen Welt, in der wir leben und die wir wahrnehmen, bei jedem Quantenereignis in verschiedene Realitäten verzweigen, wobei ständig unzählige Kopien von uns selbst entstehen? Es wirkt so grotesk, dass es sich auf den ersten Blick kaum lohnt, es ernst zu nehmen. Und dennoch hat Everett dieses Resultat nicht etwa erfunden, sondern es ergab sich wie von selbst aus seiner sorgfältigen und unvoreingenommenen Analyse der Schrödinger-Gleichung. Die Meinungen dazu sind auch heute noch geteilt. So äußerte sich Richard Feynman in seinem bekannten Vortrag Simulating Physics with Computers im Jahr 1981 noch eher kritisch: „Tatsächlich haben die Physiker keinen guten Ansatzpunkt (zur Interpretation der Quantenmechanik). Jemand hat etwas von einem Viele-Welten-Bild gemurmelt, und dieses Viele-Welten-Bild besagt, dass die Wellenfunktion das ist, was real existiert, aber verdammt, es gibt darin so viele unterschiedliche Welten. All diese verschiedenen Welten und jede mögliche Anordnung von Konfigurationen sind darin genauso existent wie unsere eigene Anordnung, wir sitzen nur zufällig in dieser einen. Es ist möglich, aber ich bin nicht sehr glücklich damit. Ich würde also gerne sehen, ob es einen anderen Ausweg gibt.“ Und als man den bekannten Stringtheoretiker Juan Maldacena einmal fragte, ob er denn selbst an so eine Welt glaube, antwortete er mit einem Augenzwinkern: „Wenn ich über die
204 J. Resag
Everett-Theorie aus quantenmechanischer Sicht nachdenke, ist sie das Vernünftigste, was man glauben kann. Im täglichen Leben aber glaube ich nicht an sie.“16 Mir selbst geht es ähnlich. Auch ich kann mir nicht vorstellen, dass sich meine Realität bei jedem Quantenereignis ständig verzweigt und unablässig Kopien von mir selbst in parallelen Welten entstehen. Aber die Vorstellungskraft meines von der Evolution geformten Primatengehirns mag ein schlechter Ratgeber sein, schließlich kann ich mir auch nicht vorstellen, wie unermesslich groß das Universum mit seinen unzähligen Sternen und Galaxien ist. Gerade in jüngster Zeit habe ich den Eindruck, dass Everetts Ideen zunehmend an Akzeptanz gewinnen. Schauen wir uns also ohne jede Scheu einfach einmal an, was die Quantenmechanik dazu sagt, wenn wir sie beim Wort nehmen.
Wie sich die Welt verzweigt Was geschieht bei einer Messung eigentlich? Was passiert, wenn wir mit einem geeigneten Detektor ermitteln, ob das Elektron beim Doppelspaltversuch durch den ersten oder den zweiten Spalt hindurchgegangen ist? Der Detektor muss dafür in irgendeiner Weise „spüren“, wo das Elektron durchgeht, und das bedeutet physikalisch, er muss mit ihm interagieren, mit ihm wechselwirken. Wenn in der Quantenmechanik zwei Systeme miteinander wechselwirken, dann verschränken sich ihre Quantenwellen miteinander, sodass ihr gemeinsames Verhalten wechselseitig voneinander abhängt. Genau so war es auch mit unseren beiden verschränkten Teilchen im EPR-Experiment. Ihre Wechselwirkung bzw. ihr gemeinsamer Ursprung innerhalb der Teilchenquelle sorgt zu Beginn dafür, dass sie sich später in parallelen Magnetfeldern genau entgegengesetzt zueinander verhalten. Wenn wir etwas über das eine Teilchen wissen, dann wissen wir auch etwas über das andere Teilchen. Analog ist es auch bei unserem Elektron und dem Detektor am Doppelspalt: Die Quantenwelle des Elektrons verschränkt sich mit der Quantenwelle des Detektors, den wir ja ebenfalls quantenmechanisch beschreiben wollen. Wenn wir jetzt etwas über den Detektor wissen (z. B., indem wir seine Anzeige ablesen), dann wissen wir automatisch auch etwas über das
16 Zitiert
nach Peter Byrne: The Many Worlds of Hugh Everett, Scientific American (Dez. 2007), https:// www.scientificamerican.com/article/hugh-everett-biography/.
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 205
Elektron (nämlich, durch welchen Spalt es gegangen ist). Das ist nicht weiter überraschend, denn genau das soll der Detektor ja auch tun. Interessant wird es, wenn wir uns die Quantenwellen des Elektrons und des Detektors bei diesem Vorgang genauer anschauen. Direkt hinter dem Doppelspalt besitzt die Quantenwelle des Elektrons nämlich zwei Anteile: den Teil der Welle, der durch den ersten Spalt gegangen ist, und den Teil, der durch den zweiten Spalt gegangen ist (siehe Abb. 3.2). Diese beiden Anteile überlagern sich hinter dem Spalt zur Gesamtwelle, die weiter weg vom Doppelspalt zu den bekannten Interferenzstreifen führt: Elektronenwelle = [Welle 1] + [Welle 2] .
Der Detektor, den wir direkt hinter dem Doppelspalt platzieren, zeigt vor der Messung noch nichts an, was wir in seinem Quantenzustand so notieren wollen: Detektorzustand (vor der Messung) = Anzeige: 0 . Der gemeinsame Quantenzustand von Elektron und Detektor hinter dem Doppelspalt vor der Messung ist nun einfach das Produkt dieser Zustände, d. h. Elektronenwelle · Detektorzustand (vor der Messung) = = ([Welle 1] + [Welle 2]) · Anzeige: 0 = = [Welle 1] · Anzeige: 0 + [Welle 2] · Anzeige: 0 .
Aber wie sieht nun der gemeinsame Quantenzustand von Elektron und Detektor aus, sobald der Detektor die Anwesenheit des Elektrons bei Spalt 1 oder 2 gemessen hat, sein Quantenzustand also auf [Anzeige: 1] oder [Anzeige: 2] springt? Niels Bohr hätte gesagt, dass je nachdem, was der Detektor nach der Messung anzeigt, nur eine der beiden Möglichkeiten für den Gesamtzustand übrig bleibt, beispielsweise [Welle 1] ∙ [Anzeige: 1]. Das wäre dann der berühmte Kollaps der Wellenfunktion, denn der andere Anteil mit [Welle 2] verschwindet dadurch, dass der Detektor das Elektron an Spalt 1 nachgewiesen hat und nicht an Spalt 2. Dasselbe können wir erreichen, indem wir Spalt 2 einfach verschließen und damit den [Welle 2]-Anteil verhindern. Dann bestünde der gemeinsame Quantenzustand von Elektron und Detektor vor der Messung nur aus [Welle 1] ∙ [Anzeige: 0] und nach der Messung aus [Welle 1] ∙ [Anzeige: 1], denn nur dort kann das Elektron auftauchen (Spalt 2 ist ja zu). Analog wäre es, wenn wir Spalt 1 blockieren. Die Messung bewirkt also
206 J. Resag
[Welle 1] · Anzeige: 0 → [Welle 1] · Anzeige: 1 , [Welle 2] · Anzeige: 0 → [Welle 2] · Anzeige: 2 .
Nehmen wir nun nach Everett an, dass wir diesen Messprozess durch das Wirken der Schrödinger-Gleichung beschreiben können. Sie sorgt dafür, dass sich jeder der beiden Quantenzustände wie oben dargestellt während der Messung verändert. Was geschieht dann, wenn wir beide Spalte öffnen und damit beide Möglichkeiten zulassen? Wie entwickelt sich also die Überlagerung [Welle 1] ∙ [Anzeige: 0] + [Welle 2] ∙ [Anzeige: 0] nach den Regeln der Schrödinger-Gleichung während der Messung? Das Geniale an der Schrödinger-Gleichung ist, dass die zeitliche Entwicklung einer Überlagerung von Quantenzuständen einfach die Überlagerung der zeitlichen Entwicklung der einzelnen Zustände ist. Oder anders gesagt: Wenn ich weiß, was mit jedem der Summanden passiert, dann weiß ich auch, was mit der Summe passiert. Mathematisch liegt das daran, dass die Schrödinger-Gleichung linear ist. Die Messung verwandelt also unseren obigen gemeinsamen Quantenzustand von Elektron und Detektor von vor der Messung in den Zustand Elektron-Detektor-Quantenzustand (nach der Messung) = = [Welle 1] · Anzeige: 1 + [Welle 2] · Anzeige: 2 .
Wie wir sehen, ist – anders als es die Kopenhagener Standardinterpretation fordert – durch die Zeitentwicklung gemäß der Schrödinger-Gleichung während der Messung keine der beiden Möglichkeiten verschwunden. Sie sind beide noch da, und zwar in einem verschränkten Quantenzustand für Elektron und Detektor, in dem jeweils eine der beiden Elektronenwellen mit dem zugehörigen Detektorzustand verknüpft ist. Die Wechselwirkung zwischen dem Elektron und dem Detektor hat deren Quantenzustände während der Messung miteinander verschränkt, sie also untrennbar miteinander gekoppelt. Nur was soll ein solcher Quantenzustand bedeuten, der beide Detektoranzeigen zugleich enthält? Noch nie hat jemand einen Detektor gesehen, der sich zugleich in zwei verschiedenen Zuständen befindet, die einander ausschließen. Unsere klassische Wirklichkeit lässt nur einen der beiden Zustände zu, nicht aber beide zusammen. Die Absurdität dieser Situation war bereits dem Schöpfer der SchrödingerGleichung, Erwin Schrödinger, klar gewesen. In einem Gedankenexperiment stellte er sich im Jahr 1935 vor, man würde – natürlich rein hypothetisch
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 207
– eine Katze in eine Kiste einsperren, in der sich eine Flasche mit Blausäure befindet, die von einem Hammer zertrümmert werden kann. Der Hammer wird von einem Detektor gesteuert, der den radioaktiven Zerfall eines Atomkerns überwacht. Misst der Detektor den Zerfall des Atomkerns – ein rein zufälliges Quantenereignis –, dann zertrümmert er das Giftfläschchen und die arme Katze stirbt. Quantenmechanisch befindet sich der Atomkern in einer Überlagerung aus zwei Quantenwellen, die einem intakten und einem zerfallenen Kern entsprechen. Soll das etwa bedeuten, dass sich auch die Katze, deren Leben über den Detektor mit dem Zustand des Kerns verschränkt ist, ebenfalls in einer Überlagerung aus Leben und Tod befindet? Schrödinger hielt diese Vorstellung für absurd, aber für Everett lautet die Antwort eindeutig: JA! Die universelle Quantenwelle der Welt enthält beide Anteile, den mit intaktem Atomkern und lebender Katze und den mit zerfallenem Atomkern und toter Katze. Nur wie kann das sein? Sollte nicht wenigstens die Katze es spüren, wenn sie noch am Leben ist? Auch Everett sah sich natürlich mit dieser Frage konfrontiert, und er beantwortete sie in seiner Dissertation auf folgende Weise: „Jedes Element der sich ergebenden Überlagerung beschreibt einen Beobachter (z. B. die Katze oder unseren Elektrondetektor), der ein bestimmtes und im Allgemeinen unterschiedliches Ergebnis wahrgenommen hat und dem es so erscheint, als sei der Zustand des Objektsystems (z. B. das Elektron oder der instabile Atomkern) in den entsprechenden Zustand überführt worden.“ Die Katze wird sich also nicht in einem Schwebezustand zwischen Leben und Tod wiederfinden. Es gibt in dem universellen Quantenzustand zwei Katzen, eine lebendige neben einem intakten Atomkern und eine, die durch den Zerfall des Atomkerns getötet wurde. Der Messprozess wirkt dabei wie ein Verstärker, der ein mikroskopisches Quantenobjekt so stark mit seiner makroskopischen Umgebung koppelt, dass verschiedene mikroskopische Quantenzustände (Elektron bei Spalt 1 oder 2 bzw. Atomkern intakt oder zerfallen) untrennbar mit verschiedenen makroskopisch unterscheidbaren Zuständen der Umgebung (Detektoranzeige oder lebende bzw. tote Katze) verbunden werden. Dabei beschränkt sich die Umgebung letztlich nicht nur auf den Detektor oder die Katze. Es ist das gesamte Universum, das von der Messung beeinflusst wird, denn auch ein entferntes Alien könnte ja von der Anzeige des Detektors oder dem Tod der Katze erfahren. So ist es zu verstehen, wenn wir sagen, die Messung eines Quantenereignisses spaltet die makroskopische Welt in verschiedene makroskopische Welten auf. Vor der Messung des
208 J. Resag
Elektrons direkt hinter dem Doppelspalt ist es noch eine einzige makroskopische Welt, denn in ihrem Quantenzustand ([Welle 1] + [Welle 2]) ∙ [Anzeige: 0] ist die Anzeige des Detektors noch neutral. Die Elektronenwelle selbst darf sich dabei ruhig in einer Quantenüberlagerung [Welle 1] + [Welle 2] befinden, denn die beiden Teilwellen haben noch keine unterschiedlichen makroskopischen Auswirkungen und sind deshalb für uns noch nicht unterscheidbar. Erst die Messung verknüpft diese beiden Teilwellen mit der makroskopischen Welt und macht sie so für uns unterscheidbar: Es entsteht eine quantenmechanische Überlagerung zweier klassischer makroskopischer Welten [Welle 1] ∙ [Anzeige: 1] + [Welle 2] ∙ [Anzeige: 2] mit zwei verschiedenen Anzeigen auf dem Detektor. Es muss übrigens nicht unbedingt eine Messung im klassischen Sinne mit Detektor und Messanzeige sein. Jeder andere Prozess, der auf ähnliche Weise ein mikroskopisches Quantenobjekt mit der makroskopischen Welt verschränkt, ist in diesem Sinn auch eine Messung.
Dekohärenz trennt die Welten Falls Sie bei der ganzen Sache ein ungutes Gefühl haben, geht es Ihnen vermutlich ähnlich wie Everetts Kollegen. Kann man wirklich eine quantenmechanische Überlagerung makroskopischer Zustände wie in [Welle 1] ∙ [Anzeige: 1] + [Welle 2] ∙ [Anzeige: 2] als die parallele Existenz verschiedener klassischer Welten interpretieren, wie von Everett behauptet? Das würde voraussetzen, dass keine der beiden Welten etwas von der Existenz der anderen Welt merkt. Sie sind zwar im Prinzip da, beeinflussen einander aber nicht in merklicher Weise. Everett hatte dafür zwar gewisse Argumente, aber es fehlte ihm eine wichtige Erkenntnis, die erst im Jahr 1970 von dem deutschen Physiker Dieter Zeh entdeckt (und deren Wichtigkeit sogar erst viele Jahre später erkannt) wurde: das Phänomen der Dekohärenz makroskopischer Quantensysteme. Damit eine Verschränkung eines Quantensystems mit einem Detektor oder einer Katze neue Welten erschaffen kann, muss sich diese Verschränkung letztlich auf das gesamte Universum ausbreiten. Oben hatten wir uns mit dem Argument aus der Affäre gezogen, auch ein entferntes Alien könne ja von der Anzeige des Detektors oder dem Tod der Katze erfahren. Aber was, wenn nicht? Nimmt dann das Alien nicht an der Verzweigung der Welt teil? Der entscheidende Punkt ist, dass man makroskopische Objekte wie einen Detektor oder eine Katze niemals vollständig von ihrer Umgebung
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 209
isolieren kann, auch nicht, indem man die Katze in eine geschlossene Kiste einsperrt oder den Detektor auf einen entfernten Planeten verfrachtet. Ständig strahlen diese Objekte Wärmestrahlung ab und werden selbst von Atomen und Photonen der Umgebung getroffen. Dadurch verschränken sie sich innerhalb von Sekundenbruchteilen unweigerlich mit ihrer Umgebung, sodass die Umgebung mitbekommt, was der Detektor anzeigt oder ob die Katze noch lebt. Man mag es der Umgebung nicht immer und überall sofort ansehen, aber in ihrer Gesamtheit weiß sie Bescheid. Gehen wir noch mal zurück zum Doppelspaltversuch. Vielleicht erinnern Sie sich: Wenn wir messen, durch welchen Spalt das Elektron geht, dann verschwindet das streifenförmige Interferenzmuster auf dem Schirm weiter weg vom Doppelspalt. Die quantenmechanische Interferenz zwischen den beiden Wellen [Welle 1] und [Welle 2] geht verloren und nicht mehr die Wellen überlagern sich, sondern die klassischen Auftreffwahrscheinlichkeiten addieren sich. Es ist nicht mehr festgelegt, wo sich die Wellen verstärken oder auslöschen, weil ihre relative Phasenbeziehung zueinander verloren geht. Die Überlagerung „Elektronenwelle = [Welle 1] + [Welle 2]“ gibt es so nicht mehr, denn die beiden Teilwellen sind nun dekohärent. Letztlich sorgt die Verschränkung des Elektrons mit der Umgebung während der Durchgangsmessung dafür, dass die Information über die relative Phase zwischen den beiden Teilwellen des Elektrons auf Nimmerwiedersehen in die Umgebung abwandert. Die Information ist zwar im Prinzip in den nichtlokalen Verschränkungen der unzähligen Teilchen des Universums noch da, aber wir müssten alles über deren universelle Wellenfunktion wissen, um sie noch erkennen zu können. Die Phaseninformation wird delokalisiert und ist für uns lokale Wesen nicht mehr zugänglich. Daher können wir auch nicht erkennen, dass die Welt eine Überlagerung von [Welle 1] ∙ [Anzeige: 1] + [Welle 2] ∙ [Anzeige: 2] enthält. Wir selbst sind untrennbar mit der Anzeige verschränkt, und jedes Exemplar von uns sieht nur einen bestimmten Wert auf der Anzeige. Ich gebe zu, das alles ist nicht leicht zu verstehen, und ich kämpfe immer wieder damit, mir ein halbwegs zutreffendes Bild in meinem Kopf zurechtzubasteln. Dekohärenz sorgt also dafür, dass wir mit unserem lokalen Zugang zur Welt die quantenmechanische Überlagerung verschiedener makroskopischer Welten in der universellen Wellenfunktion des Quantenuniversums nicht erkennen können – das könnte nur ein allwissendes Wesen, das die universelle Wellenfunktion in ihrer Gesamtheit überschauen kann und all die unzähligen nichtlokalen Verschränkungen darin genau kennt. Ist es Ihnen aufgefallen? Die Worte lokal und nichtlokal scheinen bei der Unterscheidung zwischen der Quantenwelt und der klassischen Welt, die
210 J. Resag
wir wahrnehmen können, eine zentrale Rolle zu spielen. Das Quantenuniversum mit seiner universellen Quantenwelle ist hochgradig nichtlokal, da in ihm über beliebig große Entfernungen hinweg die wildesten Verschränkungen und Überlagerungen existieren (denken Sie an unsere beiden Teilchen im EPR-Experiment). In unserer klassischen Welt haben makroskopische Objekte dagegen immer einen gut definierten Platz. Warum ist das so? Letztlich ist es wieder die unvermeidliche Wechselwirkung mit der Umgebung und die damit zusammenhängende Dekohärenz, die bei makroskopischen Objekten zu diesem Phänomen führt. Wechselwirkungen haben nämlich meist die Eigenschaft, dass sie umso stärker sind, je kleiner die Abstände werden. Die Umgebung merkt also ziemlich gut, wo sich ein makroskopisches Objekt befindet, und macht diese Information im Universum auf vielfache Weise für Beobachter wie uns zugänglich. Anders gesagt: Makroskopische Objekte kann man im Normalfall sehen! Dabei werden unter bestimmten Voraussetzungen quantenmechanische Zustände des Objektes mit gut definiertem Ort unempfindlich gegen weitere quantenmechanische Veränderungen – der Ort wird robust gegenüber einer Zerstörung durch Dekohärenz und ist im Prinzip eine für jedermann zugängliche stabile Information, die nicht so leicht auf Nimmerwiedersehen in den Wirren der Quantenwelt entschwinden kann. Wenn ich also erst einmal gesehen habe, wo ich mein Auto geparkt habe, dann werde ich es dort normalerweise auch wiederfinden. Das Anschauen des Autos kann die Information über seinen Ort nicht unzugänglich machen. Ein Quantenzustand, bei dem sich zwei deutlich getrennte Orte quantenmechanisch überlagern, ist dagegen bei einem makroskopischen Objekt äußerst empfindlich gegenüber den leichtesten Störungen und dekohäriert innerhalb von Sekundenbruchteilen – wir werden ihn also nie zu Gesicht bekommen. Auf diese Weise stellt die Dekohärenz sicher, dass innerhalb der universellen Wellenfunktion überhaupt Zweige mit annähernd klassischem Verhalten existieren können, in denen die Dinge ihren festen Platz haben. Nur in diesen klassischen Zweigen gibt es genügend lokale Verlässlichkeit, sodass Wesen wie wir existieren und Informationen über die Welt sammeln können. Übrigens hat nicht alles in einem klassischen Zweig einen festen Ort. Bei einem Elektron in der Hülle eines Atoms ist ein Zustand mit einer Überlagerung sehr vieler Orte auch in einem klassischen Zweig der stabile Normalzustand – seine stehende Quantenwelle ist über die gesamte Ausdehnung des Atoms verteilt. Das liegt daran, dass bei dieser winzigen Quantenwelle die Umgebung kaum auf den genauen Ort des Elektrons
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 211
reagiert, sodass sie sich nicht mit diesem Ort verschränkt und ihn nicht für uns sichtbar macht. Deshalb wissen wir auch nicht, wo sich das Elektron in einem Atom befindet – es hat keinen festen Ort. Seine Energie kennen wir dagegen meist genau, denn diese bestimmt die Schwingungsform seiner Quantenwelle und damit seine Interaktion mit der Umgebung. Bei einem Elektron in einem Atom sind also die Quantenzustände mit fester Energie und unscharfem Ort diejenigen, die gegenüber Dekohärenz robust sind und die wir in unserer weitgehend klassischen Welt vorfinden, nicht aber die mit festem Ort. Nur deshalb wird für uns die Quantenwelt im Reich der Atome überhaupt sichtbar, obwohl sie eigentlich den gesamten Kosmos durchdringt und formt. Als lokale, makroskopische Wesen haben wir aber zwangsläufig nur einen sehr eingeschränkten Zugang zur wahren Welt des Quantenkosmos. Das, was wir sehen und messen können, ist nur ein winziger Ausschnitt einer viel größeren und bizarreren Quantenwelt, die einen sich ständig verzweigenden Baum zahlloser klassischer Welten enthält.
Ist die Quantenwelt real? Was für ein Weltbild! Sollte die Quantenmechanik wirklich die gesamte Welt umfassen, und sollte die Schrödinger-Gleichung die zeitliche Entwicklung dieser Quantenwelt korrekt wiedergeben, dann erscheinen die Schlussfolgerungen Everetts unausweichlich. Das gesamte Universum wird durch eine einzige universelle Quantenwelle beschrieben, die ein wahres Monster ist. Diese Quantenwelle lebt nicht etwa im gewohnten 3-dimensionalen Raum, wie wir wissen, sondern im Konfigurationsraum aller Teilchen und Felder in unserem Universum. Jede mögliche räumliche Anordnung sämtlicher Teilchen und alle möglichen Feldkonfigurationen, die beispielsweise die elektrischen und magnetischen Felder im Raum annehmen können, kommen in diesem Konfigurationsraum vor und erhalten durch die universelle Quantenwelle eine Quantenamplitude zugeordnet, die wir uns als Pfeil in einem Farbkreis vorstellen können. Auf diese Weise kann die universelle Quantenwelle alles im Universum miteinander verbinden und verschränken und so dafür sorgen, dass sich durch Dekohärenz ständig Zweige klassischer Welten mit gut lokalisierten makroskopischen Objekten herausbilden, die sich unablässig weiter verzweigen. Philosophen würden eine solche Welt als Alleinheit (sprich: All-Einheit) bezeichnen – eine unteilbare Einheit allen Seins, die alle Wesen, Welten und Universen umfasst. Und tatsächlich – auch unsere universelle Quantenwelt enthält unzählige Universen, wenn wir die verschiedenen Zweige klassischer
212 J. Resag
Welten als separate Universen zählen wollen. In diesem Sinn wäre die universelle Quantenwelt also ein Quantenmultiversum. Ist es nicht bemerkenswert, dass wir in diesem Buch bereits zum zweiten Mal auf die Idee eines Multiversums stoßen? Im vorherigen Kapitel waren es die Blasenuniversen, die sich ständig im sich aufblähenden inflatongefüllten Raum – unserem Inflatonkäse – bilden, und nun sind es die klassischen Zweige innerhalb der universellen Quantenwelt. Niemand hatte es bei der Formulierung der entsprechenden physikalischen Theorien darauf abgesehen, ein Multiversum zu erzeugen, und doch ist es ganz nebenbei wie von selbst aufgetaucht. Mag sein, dass diese Theorien ihre Grenzen haben und man solchen Vorhersagen nicht allzu weit trauen sollte. Andererseits basiert die Inflatontheorie auf gut motivierten physikalischen Ideen und kann so manche Eigenschaft unserer Welt hervorragend erklären, und die Quantenmechanik gehört sowieso zu den bestens etablierten Grundpfeilern der modernen Physik. Für mich ist daher die Erkenntnis, dass beide Theorien zu einem Multiversum führen, ein ernst zu nehmender Hinweis, dass wir tatsächlich in einem Multiversum leben. Sehen oder messen können wir die anderen Universen allerdings nicht. Fremde Blasenuniversen sind durch kosmische Horizonte vor uns verborgen, und andere Zweige der universellen Quantenwelle haben keinen messbaren Einfluss auf unseren Zweig. Wir blicken aus einer Froschperspektive auf das Multiversum und sehen nur einen winzigen Ausschnitt. Das, was wir sehen und messen, ist nicht immer das, was wirklich existiert, besonders nicht in der Quantenwelt. Die Frage, ob wir andere Universen als real betrachten sollen, obwohl wir keinen Zugang zu ihnen haben, ist bei den Zweigen der universellen Quantenwelle noch schwieriger zu beantworten als bei den Blasenuniversen. Mit ihrer schier unermesslichen Vielfalt sprengen sie alles, was wir uns vorstellen können, und doch sind sie zugleich nur Teile eines einzigen allumfassenden Quantenkosmos. Ist dieser Quantenkosmos in seiner Gesamtheit wirklich real? Ich wüsste zu gerne, was Albert Einstein dazu gesagt hätte; leider ist nicht bekannt, ob er den Ideen Everetts noch begegnet ist, kurz bevor er starb. Mit Einsteins Idee einer physikalischen Realität in Raum und Zeit, in der man räumlich getrennten physikalischen Objekten eine voneinander unabhängige Existenz zusprechen kann, hat dieser Quantenkosmos jedenfalls wenig zu tun. Aber dennoch könnte er zumindest eine global definierte Realität widerspiegeln, in der sich lokal existierende makroskopische Objekte – und damit auch wir selbst – über den Prozess der Dekohärenz
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 213
herausbilden und stabilisieren können. Womöglich wäre eine solche globale Quantenrealität für Einstein immer noch akzeptabler gewesen als die Ansicht von Bohr und seinen Kollegen, im Reich der Quantenmechanik gäbe es überhaupt nichts Reales, sondern nur Möglichkeiten. H. Dieter Zeh, der um 1970 das Konzept der Dekohärenz begründet hat, bezeichnete die Wellenfunktion einmal als eine heuristische Fiktion, also als einen Begriff in unserer Vorstellungswelt, der sich bei der Beschreibung der Welt bewährt hat. Je besser das bei einer heuristischen Fiktion gelingt, umso realer erscheint sie uns. Das gilt auch für alle anderen physikalischen Begriffe wie beispielsweise das elektromagnetische Feld oder den Teilchenbegriff (mehr dazu gleich). Und wenn man so darüber nachdenkt, gilt es eigentlich auch für die Begriffe unseres Alltags. Ihr fiktiver Charakter widerspricht dabei keineswegs ihrer möglichen Realität, so Zeh. Wenn sich also Quantenwellen immer mehr als die fundamentale Beschreibungsebene der Natur bewähren und wenn wir nirgends eine Abweichung von der SchrödingerGleichung entdecken können, dann haben wir allen Grund, den Schlussfolgerungen Everetts zu vertrauen und seiner universellen Quantenwelle einen realen Charakter zuzusprechen. Wie aber sieht es dann mit ihrer physikalischen Interpretation aus? Sie erinnern sich: Dort, wo beispielsweise eine Elektronenwelle eine große Schwingungsamplitude (also einen besonders langen Pfeil im Farbkreis) besitzt, sollte die Wahrscheinlichkeit besonders hoch sein, das zugehörige Elektron zu finden, wenn man im Experiment nach ihm sucht. Wo sind diese Teilchen in Everetts Quantenwelt? Hier sehen wir ein wunderbares Beispiel für etwas, das wir unter bestimmten Voraussetzungen zu sehen glauben, das es aber in der reinen Quantenwelt laut Everett gar nicht gibt: Teilchen. In der Quantenwelt gibt es nur Quantenwellen, und die sind zunächst räumlich ausgedehnte Objekte, wie ein Blick auf die Elektronenwellen in den Atomhüllen beweist. Den Begriff eines Teilchens, das sich an einem bestimmten Ort befindet, brauchen wir dafür nicht. Aber wenn wir es durch passende experimentelle Anordnungen darauf anlegen, gewinnen wir den Eindruck, wir hätten es mit einem Teilchen zu tun. Im Doppelspaltexperiment sieht es beispielsweise so aus, als würde ein Teilchen an einer bestimmten Stelle auf dem Schirm hinter dem Doppelspalt auftreffen und dort beispielsweise einen kleinen Lichtblitz erzeugen. Everett und Zeh würden das so erklären, dass sich die ankommende Elektronenwelle mit den Quantenwellen sämtlicher Atome auf dem Schirm und deren Umgebung verschränkt und über Dekohärenz blitzschnell viele verschiedene Zweige entstehen, in denen man jeweils
214 J. Resag
glaubt, ein Elektron habe nur einige der Atome an einer bestimmten Stelle des Schirms getroffen.17 Wir sehen also etwas, das vorgaukelt, ein Teilchen zu sein, aber laut Everett „in Wirklichkeit“ gar kein Teilchen ist. Die Welt ist wellenartig, kann aber dank Verschränkung und Dekohärenz aus unserer eingeschränkten Froschperspektive heraus oft teilchenartig erscheinen. Aber was ist dann mit dem Begriff der Wahrscheinlichkeit? Was soll es bedeuten, es sei mehr oder weniger wahrscheinlich, ein Teilchen an einer bestimmten Stelle auf dem Schirm auftreffen zu sehen, wenn seine Welle dort eine mehr oder weniger große Schwingungsamplitude hat? In der universellen Quantenwelle gibt es doch für jeden möglichen Ort auf dem Schirm einen eigenen Zweig, in dem sich dann alle darin enthaltenen Beobachter darüber einig sind, dass das Teilchen genau dort aufgetroffen ist. Für jedes mögliche Messergebnis gibt es einen eigenen Zweig, in dem dieses Messergebnis realisiert ist. Wie kann man noch über Wahrscheinlichkeiten reden, wenn jedes Ergebnis mit Sicherheit eintritt? Aus der Sicht eines allwissenden Wesens, das die gesamte universelle Quantenwelle aus einer Vogelperspektive heraus überschauen kann, mag das stimmen. Dieses Wesen sieht eine einzige Monsterquantenwelle, die sich vollkommen deterministisch nach den Regeln der Schrödinger-Gleichung verändert. Nichts ist darin zufällig oder sprunghaft. Aber wir lokale Wesen sehen in unserem Zweig nur eine einzige Möglichkeit eintreten, nämlich die, die zu diesem Zweig geführt hat. Es scheint keinen Grund dafür zu geben, warum wir gerade diese Möglichkeit eintreten sehen. Sie manifestiert sich aus unserer Sicht zufällig und sprunghaft, sodass es durchaus Sinn machen könnte, von Wahrscheinlichkeiten zu sprechen. Nur wie kann man diese Wahrscheinlichkeiten mit dem deterministischen Verhalten der universellen Quantenwelle in Verbindung bringen?
Wahrscheinlichkeiten im Quantenkosmos Vielleicht mag es Sie überraschen, aber der Begriff der Wahrscheinlichkeit ist gar nicht so leicht zu fassen, wie es zunächst den Anschein haben mag. Es gibt verschiedene Zugänge, die je nach Fragestellung alle ihre jeweiligen Vor- und Nachteile haben. Insofern ist es nicht verwunderlich, dass auch in Verbindung mit Everetts universeller Quantenwelle noch nicht alle Fragen
17 Sehr schön erklärt dies beispielsweise H. Dieter Zeh in seinem Buch Physik ohne Realität: Tiefsinn oder Wahnsinn? in Kapitel 11 (Wie groß ist ein Photon?).
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 215
abschließend geklärt sind und dass es bei den Experten unterschiedliche Auffassungen gibt. Schaut man auf Wikipedia unter Wahrscheinlichkeit nach, so findet man die folgende Definition: „Die Wahrscheinlichkeit ist ein allgemeines Maß der Erwartung für ein unsicheres Ereignis.“ In Everetts Quantenkosmos könnten wir uns also beispielsweise fragen, wie wahrscheinlich es ist, dass wir bei einem Messereignis in einem bestimmten Zweig der universellen Quantenwelle landen, in dem ein gewisser Messwert realisiert ist. Aber das ist eine sinnlose Frage, denn bei der Verzweigung der universellen Quantenwelle entsteht für jeden Zweig ein Exemplar von uns, das den entsprechenden Messwert sieht. Die Wahrscheinlichkeit, dass Sie und ich in Zukunft das Elektron am Ort x des Schirms auftreffen sehen, ist für jeden Ort 100 %. Sie ahnen vermutlich bereits, wo das Problem liegt: Da es bei der Wahrscheinlichkeit um unsere Erwartung für ein unsicheres Ereignis geht, muss klar sein, wer mit „unsere“ gemeint ist. Aber wenn wir uns selbst bei dem Ereignis mit vervielfältigen, weiß man gar nicht mehr, um wessen Erwartung es eigentlich gehen soll. Machen wir es konkret und betrachten ein Photon, das schräg im 45-Grad-Winkel auf einen halbdurchlässigen Spiegel trifft. Wird es vom Spiegel durchgelassen, was bei etwa der Hälfte der Photonen geschieht, so trifft es dahinter auf einen Detektor und erzeugt auf einem Bildschirm im Labor die Anzeige „1“. Wird es dagegen im 90-Grad-Winkel reflektiert, so trifft es auf einen anderen Detektor und erzeugt die Anzeige „0“. Ob ein einzelnes Photon durchgelassen oder reflektiert wird, wissen wir im Voraus nicht – es ist ein Quantenereignis. Möchten Sie gerne sehen, was mit solchen Photonen ganz real geschieht? Dann gehen Sie mit mir zusammen einmal auf die Webseite http://www. randomnumbers.info/, auf der Sie die Ergebnisse dieses Experiments abrufen können. Während ich diese Zeilen schreibe, habe ich dort eingegeben, dass ich 20 Zufallszahlen zwischen 0 und 1 haben möchte, und auf die Taste „Absenden“ gedrückt. Das Ergebnis lautete: 1 0 0 1 1 0 1 0 1 0 1 0 0 1 0 0 0 0 0 1.
Acht Photonen sind also durch den Spiegel hindurchgegangen und 12 wurden reflektiert. Das passt ganz gut zu einer 50:50-Chance für die beiden Möglichkeiten. Probieren Sie es selbst gerne auch einmal aus! Haben Sie und ich etwas davon gemerkt, dass sich laut Everett bei jedem dieser Quantenereignisse die Welt in zwei Zweige aufgespalten hat? Ich habe jedenfalls nichts davon gespürt, und dennoch sind laut Everett bei diesen
216 J. Resag
20 Ereignissen insgesamt 220 = 1.048.576 verschiedene Zweige entstanden, also eine gute Million verschiedener klassischer Welten, in denen jeweils eine andere Zahl zu sehen ist. Und in jeder dieser Welten wird eine andere Version dieses Buches mit einer anderen Zahl gedruckt. Es muss sogar eine Welt darunter sein, in der die Zahl 0 0 0 0 0 0 0 0 0 00 0 0 0 00 0 0 0 0
entstanden ist. Ich vermute allerdings, dass mein Zwilling in dieser Welt diese „unwahrscheinliche“ Zahl nicht in das Buch übernommen hat, sondern sich lieber eine zweite, „wahrscheinlichere“ Zahl erzeugen lässt. Ich versichere Ihnen, dass ich das hier nicht getan habe! Ich habe wirklich die erste erzeugte Zahl in dieses Buch übernommen. Aber in welchen Sinn hätte mein Zwilling die Zahl mit den 20 Nullen als „unwahrscheinlich“ interpretiert? Entscheidend ist, dass wir die Situation vor und nach den 20 Quantenereignissen unterscheiden müssen. Bevor die 20 Photonen am Spiegel ankommen, ist für mich lediglich klar, dass es später zu jedem möglichen Ergebnis ein „zukünftiges Ich“ geben wird, das dieses Ergebnis auf dem Bildschirm erscheinen sieht. Jedes dieser „Ichs“ wird ein legitimer Nachfolger von meinem jetzigen Ich sein, mit denselben Erinnerungen an die Zeit vor den Quantenereignissen. Spannend wird es, wenn Sie mir in dieser Situation eine Wette vorschlagen: In dem Zweig mit den 20 Nullen wird mein zukünftiges Ich für viele Jahre in einen dunklen Kerker gesperrt, während alle anderen zukünftigen Ichs jeweils 1 Mrd. € erhalten. Soll ich die Wette annehmen? Immerhin ist ja sicher, dass ich dann garantiert in Gestalt eines meiner zukünftigen Ichs zu vielen Jahren Kerkerhaft verurteilt werde. Die Situation ändert sich, sobald die Photonen am Spiegel angekommen sind und entweder durchgelassen oder reflektiert wurden. Die Welt hat sich dabei verzweigt und ich kann jetzt sicher sein, dass das Ergebnis des Experiments für mein jetziges Ich eindeutig feststeht, auch wenn ich es noch nicht gesehen habe. Jetzt bin ich nur noch eines der 1.048.576 Exemplare, die bei der Ankunft der Photonen am Spiegel entstanden sind. Also kann ich mich fragen, wie wahrscheinlich es ist, dass ich ausgerechnet in dem Zweig mit den 20 Nullen gelandet bin: Die Chancen stehen etwa 1.000.000:1. Soll ich jetzt noch die Wette annehmen, bevor Sie mir die bereits feststehende Zahl enthüllen? Die Wahrscheinlichkeit, dass ausgerechnet ich der Pechvogel bin, ist ziemlich gering, und 1 Mrd. € sind schon sehr verlockend. Und wenn ich nicht der Unglücksrabe bin, ist es ja auch nicht mehr mein Problem, wenn mein unglücklicher Zwilling die Wette jetzt noch annimmt und im Kerker
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 217
landet. Leider kann ich ihm davon auch nicht mehr abraten, denn er ist mitsamt seiner Zweigwelt für mich unerreichbar geworden. Sie merken, wie verwirrend solche Überlegungen sein können, wenn ich davon ausgehen muss, dass sich mein eigenes Ich in viele zukünftige Ichs verzweigt. So etwas kommt in unserer Vorstellungswelt einfach nicht vor, denn wir empfinden uns selbst als unteilbare Person mit einer einzigen konsistenten Historie in unserer Erinnerung. Aber müssten wir es denn nicht spüren, wenn wir uns in verschiedene Ichs verzweigen? Es gibt zu dieser Frage eine nette Anekdote, die von der britischen Philosophin Elizabeth Anscombe stammt und die unter den Anhängern Everetts sehr beliebt ist: Eines sonnigen Tages traf Elizabeth zufällig auf ihren berühmten Lehrer Ludwig Wittgenstein, der sie mit der folgenden Frage begrüßte: „Weshalb sagen die Leute eigentlich, es sei ganz natürlich zu denken, dass die Sonne am Himmel die Erde umläuft, statt dass sich die Erde um ihre eigene Achse dreht?“ Elizabeth entgegnete, es sähe nun einmal so aus, als würde sich die Sonne um die Erde bewegen. „Nun ja“, gab Wittgenstein zu bedenken, „wie sieht es denn aus, wenn sich die Erde um ihre Achse dreht?“ Ähnlich ist es auch in Everetts Quantenuniversum. Es sieht für uns nicht so aus, als würde sich die Welt verzweigen, und dennoch tut sie es, wenn wir die Quantenmechanik genauso ernst nehmen, wie Everett es getan hat. Wir spüren das Verzweigen aber nicht, denn jedes Exemplar von uns ist als makroskopisches Wesen anschließend nur noch an seinen eigenen Zweig gekoppelt, während alle anderen neu entstandenen Zweige durch Dekohärenz nahezu blitzartig unerreichbar werden. Für uns sieht die Welt genau gleich aus, egal ob wir den Gedanken Everetts folgen und die Quantenwelt mit all ihren Zweigen akzeptieren, oder ob wir auf Bohrs Standardinterpretation beharren und die Quantenwelt nur als Welt der Möglichkeiten ansehen, die sich erst beim Kontakt mit der real existierenden klassischen Welt manifestieren. Everetts Mentor John Archibald Wheeler hat es sinngemäß so ausgedrückt: „Das Denkschema der Quantenmechanik Everetts unterscheidet sich völlig vom Denkschema der Standardinterpretation mit ihren externen klassischen Beobachtern, aber die Schlussfolgerungen aus der neuen Betrachtungsweise entsprechen in allen bekannten Fällen vollständig den Ergebnissen der üblichen Analyse.“18 Es
18 Zitiert nach Wojciech Hubert Zurek: Quantum Theory of the Classical: Einselection, Envariance, Quantum Darwinism and Extantons, http://export.arxiv.org/abs/2208.09019v1.
218 J. Resag
mag für uns also nicht unbedingt so aussehen, als hätte Everett recht, aber wenn er richtig liegt, sieht es für uns genauso aus. Wenn das wahr ist, dann muss es auch in Everetts Quantenwelt möglich sein, das Betragsquadrat von Quantenwellen mit Wahrscheinlichkeiten in Verbindung zu bringen, so wie das auch in Bohrs Standardinterpretation der Fall ist. Sie wissen ja: Je größer die quadrierte Amplitude der Elektronenwelle an einem Ort ist, umso wahrscheinlicher findet man dort das Elektron. Analog ist es auch bei anderen Messgrößen. Wie man den Begriff der Wahrscheinlichkeit ins Spiel bringen kann, haben wir uns oben schon angesehen. Intuitiv könnte man aber annehmen, dass die Wahrscheinlichkeit, sich in einem bestimmten Zweig wiederzufinden, für alle Zweige genau gleich groß sein sollte – schließlich befindet sich in jedem Zweig eine Version von uns selbst. Diese Sichtweise führt aber schnell zu Widersprüchen mit den Regeln der Quantenmechanik, wenn man Überlagerungen von Quantenwellen und mehrfache Messungen betrachtet. Wenn man dagegen davon ausgeht, dass nur gleich große Quantenamplituden auch gleich große Wahrscheinlichkeiten bedeuten, so kann man relativ leicht daraus ableiten, dass dann bei ungleichen Amplituden die Wahrscheinlichkeiten durch die Betragsquadrate der Amplituden gegeben sind – genauso wie in Bohrs Standardinterpretation. Die Überlegungen dazu sind nicht allzu kompliziert, würden aber den Rahmen dieses Buches sprengen. Wenn Sie sich für die Details interessieren, finden sie die Herleitung beispielsweise in Sean Carrolls wunderbarem Buch Was ist die Welt und wenn ja, wie viele. Wir können also anhand dessen, was wir sehen und messen, nach heutigem Wissen nicht entscheiden, ob Bohrs oder Everetts Sichtweise zutrifft. Wenn wir aber vermeiden wollen, die Welt willkürlich in einen quantenmechanischen Möglichkeitsraum und einen klassischen Wirklichkeitsraum aufzuteilen, und wenn wir die Quantenmechanik mit ihrer linearen Schrödinger-Gleichung als das Fundament der gesamten Welt akzeptieren, dann kommen wir an Everetts universeller Wellenfunktion mit ihren unzähligen klassischen Zweigen nicht vorbei, egal, ob wir sie in ihrer Gesamtheit als real akzeptieren oder nicht. Everetts Quantenwelt scheint in sich schlüssig und konsistent zu sein, die Standardinterpretation Bohrs ist es eher nicht. Mittlerweile haben viele Physikerinnen und Physiker die Vorteile von Everetts Zugang zur Quantenmechanik erkannt – an deren „realer“ Interpretation scheiden sich jedoch nach wie vor die Geister. Das ist weiter nicht schlimm, denn es ist ja gar nicht so klar, was Realität letztlich sein
3 Die Grenzen der Winzigkeit: Hinab in die Quantenwelt 219
soll. Dem einen genügt es schon, dass die universelle Quantenwelle ein ungemein nützliches Fundament der gesamten Quantenwelt ist, um ihr Realität zuzusprechen. Andere stellen wie Einstein einen ganzen Katalog von Bedingungen auf, die etwas „Reales“ zu erfüllen hat. Letztlich ist es eine Frage der persönlichen Vorlieben, welchen Realitätsbegriff man für sich persönlich akzeptiert. Ich selbst bin da hin- und hergerissen und denke, man sollte sich nicht zu sehr in metaphysischen Spekulationen verlieren und das Thema besser pragmatisch angehen. Everetts Sichtweise scheint mir da zurzeit jenseits aller Interpretationsfragen der vernünftigste Zugang zur Quantenwelt zu sein, da er nichts weiter als die lineare SchrödingerGleichung voraussetzt, ganz ohne irgendwelche mystischen Messprozesse. Schauen wir also doch einfach, wohin uns dieser Weg führt, auch wenn uns die Komplexität einer universellen Quantenwelle zunächst erschrecken sollte. Natürlich könnte es sein, dass wir irgendwann feststellen, dass die Linearität der Schrödinger-Gleichung nur eine sehr gute Annäherung an die Wirklichkeit ist und dass die wirkliche quantenmechanische Wellengleichung komplizierter und insbesondere nichtlinear ist. Dann wäre die zeitliche Entwicklung einer Überlagerung von Quantenzuständen nicht mehr einfach die Überlagerung der zeitlichen Entwicklung der einzelnen Zustände. Im Doppelspaltexperiment würde dann aus unserem Anfangszustand [Welle 1] ∙ [Anzeige: 0] + [Welle 2] ∙ [Anzeige: 0] vor der Messung des Spaltdurchgangs nicht mehr einfach der verschränkte Zustand [Welle 1] ∙ [Anzeige: 1] + [Welle 2] ∙ [Anzeige: 2] hervorgehen, bei dem sich zwei Zweige mit verschiedener Detektoranzeige überlagern. Genau in diese Richtung argumentiert beispielsweise der bekannte britische Mathematiker und Physiker Roger Penrose, der wegen seiner vielseitigen und ideenreichen Arbeiten als einer der herausragenden Physiker unserer Zeit gilt. Penrose vermutet, die Schrödinger-Gleichung würde komplexer, sobald die Gravitation wichtig wird. Bisher gibt es keine konkreten Hinweise in diese Richtung, aber ausgeschlossen ist es natürlich nicht. Kehren wir zurück zu unserer Ausgangsfrage: Gibt es Grenzen der Winzigkeit in der Natur? Eine eindeutige Antwort haben wir darauf bisher noch nicht erhalten, aber eine notwendige Voraussetzung dafür scheint zumindest erfüllt zu sein: Wie im Großen verhält sich die Natur auch im Kleinen anders, als wir es gewohnt sind. Klassische Begriffe wie Teilchenbahnen oder Kraftfelder sind in der Welt der Atome und Elementarteilchen nicht mehr anwendbar. Hier gibt es nur noch Quantenwellen, deren Schwingungen die Physik der subatomaren Welt bestimmen und die sich im
220 J. Resag
Großen zu einem einzigen unentwirrbaren Knäuel aus Verschränkungen – einer universellen Quantenwelle – zu verbinden scheinen, aus der auf geheimnisvolle Weise durch Dekohärenz unsere klassische Welt hervorgeht. Wenn wir genauer darüber nachdenken, dann geben uns die Quantenwellen sogar einen deutlichen Hinweis auf mögliche Grenzen der Winzigkeit: Je kleiner die räumlichen Abstände werden, umso kürzer muss die Wellenlänge der Quantenwellen sein, um diese Abstände noch auflösen zu können, und umso höher müssen damit die Energien und Impulse der zugehörigen Teilchen sein. Nur sehr hochenergetische Prozesse können also mit sehr kurzen Abständen verknüpft sein und diese sichtbar machen, und es wird vermutlich Grenzen für die verfügbare Energie bei solchen Prozessen geben. Am meisten Energie lässt sich ausgerechnet mit der schwächsten aller Naturkräfte auf engstem Raum konzentrieren: der Gravitation. Gravitationskräfte wirken nämlich bei normaler Materie immer anziehend und können daher auch sehr große Materiemengen in ihren Bann ziehen und immer dichter komprimieren. Es ist daher eine sehr gute Idee, Roger Penrose zu folgen und bei unserer Suche nach den Grenzen der Winzigkeit die Gravitation ins Spiel zu bringen. Wie wir im nächsten Kapitel sehen werden, stoßen wir dabei in unserem heutigen Verständnis der Quantenmechanik auf gewisse Probleme, aus denen wir eine Menge über die Natur von Raum und Zeit lernen können. Dabei werden wir feststellen: Die letzten Grenzen der Winzigkeit zeigen sich erst, wenn wir über die Quantentheorie der Gravitation nachdenken, und sie werden eng mit den Grenzen der Information verknüpft sein, die unsere Welt aufnehmen kann.
4 Die Grenzen der Information: Schwarze Löcher und der Quantenkosmos
Such dir in jedem Gebiet das Seltsamste heraus und studiere es. („In any field, find the strangest thing and then explore it.“ Zum Beispiel unter https://beruhmte-zitate.de/ autoren/john-archibald-wheeler/.)
Diesen Ratschlag gab John Archibald Wheeler seinen zahlreichen Schülern mit auf ihren wissenschaftlichen Karriereweg, unter denen sich neben Hugh Everett auch Größen wie Jacob Bekenstein (den wir gleich noch kennenlernen werden) oder die Nobelpreisträger Kip Thorne und Richard Feynman befanden. Hugh Everett scheint diesen Hinweis in besonderer Weise beherzigt zu haben – vielleicht mehr, als es seinem Mentor lieb war. Aber Wheeler schreckte auch selbst vor scheinbaren bizarren Ideen nicht zurück und prägte beispielsweise Begriffe wie Quantenschaum oder Wurmloch. Am bekanntesten ist jedoch ein Begriff geworden, den Wheeler in besonderer Weise bekannt machte: das Schwarze Loch. Auf einer Konferenz im Jahr 1967 hatte er – wie damals noch üblich – umständlich über „vollständig kollabierte Gravitationsobjekte“ referiert, bis jemand im Publikum den Begriff „Schwarzes Loch“ als Alternative vorschlug. Das war genau nach Wheelers Geschmack. Er übernahm die eingängige Bezeichnung und machte sie damit hoffähig. Tatsächlich sind Schwarze Löcher wohl die seltsamsten Objekte, die Einsteins Allgemeine Relativitätstheorie hervorgebracht hat. Folgen wir also Wheelers Rat und schauen uns genauer an, was diese Objekte so besonders macht.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Resag, Grenzen der Wirklichkeit, https://doi.org/10.1007/978-3-662-67400-0_4
221
222 J. Resag
Karl Schwarzschild löst Einsteins Gleichungen Als Einstein im November 1915 der Preußischen Akademie der Wissenschaften nach Jahren der Plackerei und Irrwege endlich seine korrekten Feldgleichungen der Gravitation vorlegen konnte, war er zutiefst erleichtert. Trotz aller Warnungen seiner Kollegen hatte er sich auf ein vollkommen neues, mathematisch sehr kompliziertes Gebiet vorgewagt und war schließlich dafür belohnt worden. Seine neuen Feldgleichungen beschrieben präzise, wie Materie die Raumzeit krümmt und dadurch Gravitation hervorruft. Man kann die Gleichungen in kompakter Form in einer einzigen kurzen Zeile aufschreiben. Aber die scheinbar einfache Form täuscht, denn es handelt sich bei ihnen um mehrere miteinander gekoppelte, nichtlineare Differenzialgleichungen, die nicht einfach zu lösen sind. Umso überraschter dürfte Einstein gewesen sein, als ihn kurz darauf ein Brief von der russischen Front erreichte. Er stammte von Karl Schwarzschild, einem mathematisch versierten Astronomen, der das Astrophysikalische Observatorium in Potsdam leitete und sich beim Ausbruch des 1. Weltkrieges 1914 freiwillig für den Kriegsdienst verpflichtet hatte. Schwarzschild kannte sich mit gekrümmten Räumen gut aus. Bereits 15 Jahre zuvor hatte er selbst auf einer Tagung in Heidelberg vorgeschlagen, der 3-dimensionale Raum des Universums sei keineswegs flach, sondern in sich gekrümmt. Kein Wunder also, dass er sich brennend für Einsteins gekrümmte Raumzeit interessierte. Es grenzt an ein Wunder, wie es Schwarzschild unter russischem Artilleriefeuer schaffte, Einsteins komplizierte Feldgleichungen für einen wichtigen Spezialfall exakt zu lösen: Schwarzschild hatte die Krümmung der Raumzeit im Umfeld einer kugelsymmetrischen statischen Masse berechnet, wie sie in guter Näherung Sterne und Planeten darstellen. Etwas später lieferte er sogar noch die Lösung für das Innere nach. Einstein war fasziniert, was seinem Potsdamer Kollegen da gelungen war. Eine Frage konnte Einstein ihm allerdings auch nicht beantworten: Die Lösung für die Raumzeit im Außenraum eines Sterns enthält einen Grenzradius, bei dem eine Unendlichkeit auftritt, so als würde der Raum innerhalb dieses Grenzradius nicht in seiner gewohnten Form existieren. Solange der Radius des Sterns größer ist als dieser Grenzradius, ist das kein Problem, denn die Lösung gilt ja sowieso nur oberhalb der Sternoberfläche (die zweite Lösung für das Sterninnere hat keinen Grenzradius). Aber was würde passieren, wenn ein Stern so weit schrumpft, dass sein Radius kleiner als dieser Grenzradius wird (Abb. 4.1)? Der komplette Stern würde sich dann gleichsam im Niemandsland innerhalb des Grenzradius befinden. Was hätte
4 Die Grenzen der Information: Schwarze Löcher … 223
Abb. 4.1 Lässt man eine räumliche Dimension weg, so kann man die Raumkrümmung im Außenbereich eines Sterns nach Schwarzschild durch eine gekrümmte 2-dimensionale Fläche darstellen. Wenn der Stern wie hier kleiner als der Schwarzschild-Radius wird, dann erscheint der Raum am Schwarzschild-Radius nach innen hin abgeschnitten und eine senkrechte Trichteröffnung entsteht. (Quelle: https:// commons.wikimedia.org/wiki/File:Flamm.svg)
das zu bedeuten? Was ist das für ein mysteriöser Grenzradius, den wir heute Schwarzschild-Radius nennen? Einstein wusste es auch nicht, machte sich allerdings auch nicht allzu viele Sorgen. Für die Sonne läge der Schwarzschild-Radius beispielsweise bei gerade einmal 3 km. Es erschien unvorstellbar, dass die mehr als 100.000fach größere Sonne so stark schrumpfen könnte. Die Erde müsste sogar auf Murmelgröße schrumpfen, um unter den Grenzradius zu geraten – ihr Schwarzschild-Radius liegt bei knapp 1 cm. Es sah also ganz danach aus, als sei die Unendlichkeit am Schwarzschild-Radius ein mathematisches Artefakt ohne jede physikalische Bedeutung. Dass dem keineswegs so ist, konnte Schwarzschild leider nicht mehr miterleben. Nur wenige Monate später, am 11. Mai 1916, starb er mit nur 42 Jahren auf tragische Weise an Blasensucht, einer seltenen grausamen Autoimmunerkrankung der Haut.
Schwarze Löcher sind real Der Glaube, dass Sterne nie kleiner als ihr Schwarzschild-Radius werden können, wurde im Jahr 1930 durch eine Entdeckung des jungen indischen Physikers Subrahmanyan Chandrasekhar erschüttert. Auf einer langen Schiffsreise von Indien nach England, um in Cambridge sein Graduiertenstudium aufzunehmen, vertiefte sich Chandrasekhar in sein Lieblingsthema: die Stabilität ausgebrannter Sterne. Was geschieht, wenn ein Stern seinen nuklearen Brennstoff verbraucht hat? Zuvor hatte dessen inneres Feuer verhindert, dass er durch seine starke Eigengravitation in sich zusammenfällt.
224 J. Resag
Gibt es nach Erlöschen dieses Feuers noch irgendwelche Kräfte, die sich dem mächtigen Sog der Gravitation entgegenstellen können? Wenn man die Atome eines ausgebrannten Sterns immer dichter zusammendrückt, dann verschmelzen die Elektronen ihrer Hüllen irgendwann zu einem einzigen Elektronengas, in dem sich die Elektronen relativ frei bewegen können. In diesem sogenannten entarteten Fermi-Gas gelten besondere Regeln, die von der Quantenmechanik festgelegt werden. Nach dem quantenmechanischen Pauli-Prinzip können die Elektronen nämlich jeden verfügbaren Quantenzustand nur maximal einmal besetzen – es passt also immer nur ein Elektron in jeden Quantenzustand des Fermi-Gases. Wenn man das Elektronengas nun weiter zusammendrückt, so kostet das Energie, denn die Elektronen müssen immer mehr in Zustände höherer Energie ausweichen. Die Elektronen wehren sich gewissermaßen gegen das Zusammendrücken und erzeugen einen starken Gegendruck, der den ausgebrannten Stern stabilisiert. Unsere Sonne wird beispielsweise an ihrem Lebensende ihre äußeren Hüllen in den Weltraum blasen und ihr ausgebranntes Zentrum wird zu einem nur erdgroßen weißen Zwerg kontrahieren, den der Gegendruck seines Elektronengases vor einem weiteren Kollaps bewahrt. Aber was geschieht, wenn ein Stern weit mehr Masse als unsere Sonne besitzt? Mehr Masse bedeutet mehr Gravitation, die das Elektronengas kompensieren muss. Wenn dadurch das Sternzentrum weiter kontrahiert, wächst diese Gravitation weiter an, ebenso wie der Gegendruck des Elektronengases. Nach Einsteins Gravitationstheorie erzeugt aber dieser starke positive Gegendruck zusätzliche anziehende Gravitation (so, wie der negative Druck der Dunklen Energie eine abstoßende Gravitation erzeugt und damit unser Universum auseinandertreibt). Die spannende Frage lautet also: Wer gewinnt dieses Rennen zwischen stärker werdender Gravitation und anwachsendem Gegendruck? Kann der Druck des Elektronengases auch massive Sterne noch stabilisieren? Chandrasekhar stellte auf seiner Schiffsreise nach England detaillierte Berechnungen dazu an, in denen er auch den Einfluss der Relativitätstheorie auf den Gegendruck der Elektronen berücksichtigte – eine ganz entscheidende Zutat, wie sich zeigen sollte. Was er dabei herausbekam, war wegweisend: Ab einer Masse von etwa 1,5 Sonnenmassen (der genaue Wert hängt von der chemischen Zusammensetzung des Sterns ab) reicht der Gegendruck nicht mehr aus. Die Gravitation gewinnt und kann den Stern immer weiter zusammendrücken. Weiße Zwerge mit mehr als rund 1,5 Sonnenmassen sind nicht stabil. Als Chandrasekhar in England angekommen war und seine Ergebnisse präsentierte, stieß er nicht nur auf Zustimmung. Besonders die
4 Die Grenzen der Information: Schwarze Löcher … 225
damalige Ikone der britischen Astrophysik, der knapp 30 Jahre ältere Arthur Eddington, stellte sich stur: „Es sollte doch ein Naturgesetz geben, das verhindert, dass ein Stern sich auf diese absurde Weise verhält!“, ließ er verlauten, ohne dass er seine Meinung durch handfeste Fakten untermauern konnte. Vorurteile und Eitelkeiten spielen eben auch in der Wissenschaft eine nicht unwesentliche Rolle, und so dauerte es einige Zeit, bis sich Chandrasekhars Erkenntnis in der wissenschaftlichen Community durchsetzen konnte. Heute wissen wir ohne jeden Zweifel, dass Chandrasekhar recht hatte. Wenn ein weißer Zwerg beispielsweise Materie von einem Nachbarstern aufsammelt und so die kritische Massengrenze überschreitet, beginnt er zu kollabieren. Dabei entsteht allerdings kein Schwarzes Loch, sondern die meist reichlich vorhandenen Kohlenstoff- und Sauerstoffkerne beginnen, explosionsartig zu schwereren Kernen zu fusionieren. Eine thermonukleare Supernova entsteht, die den Weißen Zwerg komplett zerreißt. Wir kennen diese Supernovae als kosmische Standardkerzen schon aus Kap. 1, denn mit ihrer Hilfe wurde die beschleunigte Expansion des Universums entdeckt. Gibt es also doch keine Schwarzen Löcher? Nun ja, Weiße Zwerge können normalerweise nicht zu ihnen kollabieren. Aber was ist mit besonders schweren Sternen, deren Zentren von Anfang an über der kritischen Masse liegen? Sie fusionieren ihren nuklearen Brennstoff bis hin zum energieärmsten aller Kerne: Eisen. Mehr Energie kann ein Stern über weitere Fusionsprozesse zu noch schwereren Kernen nicht gewinnen. Im Gegenteil: Solche Prozesse würden sogar Energie kosten. Bei Eisen ist also mit der Energiegewinnung durch Kernfusion Schluss. Wenn nun am Lebensende eines sehr schweren Sterns die Fusionsreaktionen stoppen und das massive Sternzentrum kollabiert, entsteht kein Weißer Zwerg. Das sich bildende Elektronengas kann den Kollaps nämlich nicht stoppen, und es steht auch kein nuklearer Brennstoff mehr zur Verfügung. Im schlagartig zusammenfallenden Sternzentrum werden schließlich die Elektronen in die Protonen der Atomkerne hineingedrückt, wodurch ein extrem dichtes Gas aus Neutronen entsteht, während ein Blitz aus Neutrinos das Sternzentrum verlässt. Die Sternhüllen werden dabei abgesprengt und eine Kollaps-Supernova entsteht. Die spannende Frage ist nun, was mit den neu entstandenen Neutronen im zusammenbrechenden Sternzentrum geschieht. Auch sie bilden ein entartetes Fermi-Gas und erzeugen einen noch stärkeren Gegendruck als die Elektronen eines Weißen Zwerges. Wenn das Sternzentrum nicht mehr als rund 2–3 Sonnenmassen aufweist, kann dieser Gegendruck das extrem dichte Neutronengas gerade noch stabilisieren und ein nur wenige Kilo-
226 J. Resag
meter großer Neutronenstern entsteht. Der Radius dieses Neutronensterns liegt nur noch knapp über dem Schwarzschild-Radius. Aber wenn die Masse des Zentrums den Bereich von 2 bis 3 Sonnenmassen übersteigt, dann gibt es kein Halten mehr. Die Gravitation gewinnt, der Neutronenstern schrumpft unter den Schwarzschild-Radius und ein „vollständig kollabiertes Gravitationsobjekt“ entsteht – ein Schwarzes Loch. Ab den späten 1960er-Jahren gelang es den Astronomen, immer mehr Kandidaten für Neutronensterne und Schwarze Löcher am Himmel aufzuspüren. In den Zentren der Galaxien entdeckten sie sogar besonders schwere „supermassereiche“ Schwarze Löcher. Das Schwarze Loch in der Mitte unserer Milchstraße weist beispielsweise gut 4 Mio. Sonnenmassen auf, und das Schwarze Loch im Zentrum der elliptischen Riesengalaxie M87 besitzt sogar unglaubliche 6 Mrd. Sonnenmassen. Sein Schwarzschild-Radius ist damit größer als der Abstand des Kleinplaneten Pluto zur Sonne. Kann man ein derart großes Schwarzes Loch womöglich sogar regelrecht „sehen“? Leider ist das riesige Schwarze Loch in M87 rund 55 Mio. Lichtjahre von uns entfernt, sodass selbst große Lichtteleskope hier keine Chance haben. Aber mit mehreren Radioteleskopen, die man virtuell zu einem erdgroßen Verbund, dem Event Horizon Telescope, zusammenschaltet, geht es. In einem beispiellosen Versuch verfolgte eine internationale Kollaboration über mehrere Jahre hinweg dieses Ziel, zum ersten Mal ein echtes Bild von einem Schwarzen Loch zu gewinnen. Es war ein sehr aufwendiges Projekt, bei dem viele Radioteleskope in aller Welt präzise zusammenarbeiten mussten. Aber es lohnte sich! Am 10. April 2019 präsentierte das Team tatsächlich ein Bild des supermassereichen Schwarzen Lochs in M87, das wohl alle Zweifel an der realen Existenz Schwarzer Löcher endgültig beseitigt haben dürfte. Genau so sollte ein Schwarzes Loch aussehen, in das heißglühende Materie spiralförmig hineinstürzt (Abb. 4.2).
Raum und Zeit am Schwarzen Loch Nach der Entdeckung von Schwarzschild dauerte es viele Jahre, bis man verstand, was seine mathematischen Formeln für die gekrümmte Raumzeit bedeuten und was es mit dem Schwarzschild-Radius auf sich hat. Die Lösung der Einstein-Gleichungen, die Karl Schwarzschild in den Tagen des Krieges fand, entspricht der Sichtweise von Beobachtern, die sich unbeweglich in festem Abstand außerhalb des Schwarzschild-Radius befinden. Würden sie die Krümmung des Raums messen, so wäre das Ergebnis wie die Trichterfläche in Abb. 4.1. Dabei ist der Raumbereich innerhalb des
4 Die Grenzen der Information: Schwarze Löcher … 227
Abb. 4.2 Bild des supermassereichen Schwarzen Lochs in der Galaxie M87, berechnet aus den Radiodaten des Event Horizon Telescope. (Quelle: https://commons. wikimedia.org/wiki/File:Black_hole_-_Messier_87_crop_max_res.jpg)
Schwarzschild-Radius vor ihnen verborgen. Die kugelförmige Fläche am Schwarzschild-Radius um das Zentrum ist ein Ereignishorizont. Nichts von dem, was innerhalb geschieht, kann diesen Ereignishorizont nach außen hin überschreiten – auch Licht nicht. Die Welt endet von außen betrachtet am Ereignishorizont. Aber nicht nur der Raum, sondern auch die Zeit wird durch die Gravitation des Schwarzen Lochs verändert. Je näher sich ein Objekt am Ereignishorizont befindet, umso langsamer läuft seine Zeit, bis sie am Ereignishorizont selbst sogar ganz stehen bleibt. So würden wir es zumindest wahrnehmen, wenn wir uns als Beobachter weit weg vom Ereignishorizont befinden. Wenn sich beispielsweise ein Raumschiff dem Ereignishorizont nähert, so sehen wir, wie es immer langsamer wird und wie auch alle Vorgänge innerhalb des Raumschiffs immer mehr einfrieren. Das Licht, das vom Raumschiff bei uns ankommt, wird immer langwelliger, röter und dunkler, bis wir es nicht mehr wahrnehmen können. Am Ereignishorizont würde sich das Raumschiff zunehmend aus unserer Welt verabschieden, ohne den Horizont jemals zu überschreiten – für uns Beobachter außerhalb des Horizonts endet eben dort die Welt.
228 J. Resag
Kommt Ihnen das nicht bekannt vor? Auch im Kap. 2 war uns ein Ereignishorizont begegnet, aber nicht einer, den wir wie bei einem Schwarzen Loch von außen betrachten, sondern einer, der uns in rund 17 Mrd. Lichtjahren Entfernung in jeder Richtung umgibt und der uns von dem Raum außerhalb abschneidet. Wenn die kosmische Expansion beispielsweise den Galaxienhaufen El Gordo auf diesen Ereignishorizont zutreibt, dann scheint auch hier die Zeit in dem Galaxienhaufen aus unserer Sicht immer mehr einzufrieren und die Galaxien dort werden immer röter und dunkler. Nie werden wir sehen, wie El Gordo den Ereignishorizont überschreitet, obwohl er das aus Sicht der El Gordo-Aliens natürlich tut, ohne dass die Aliens dabei irgendetwas Auffälliges bemerken. Ist die Grenze dann einmal überschritten, ist jede Rückkehr ausgeschlossen – der Ereignishorizont ist eine kosmische Einbahnstraße. Genauso ist es auch bei einem Raumschiff, das den Ereignishorizont eines Schwarzen Lochs überschreitet. Seine Astronauten werden dabei nichts Besonderes bemerken, doch jede Rückkehr ist ausgeschlossen. Das sieht man auch der Lösung von Karl Schwarzschild an. Im Innenraum des Schwarzen Lochs unterhalb des Ereignishorizonts vertauschen nämlich Raum und Zeit auf bestimmte Weise die Rollen. Die Richtung zum Zentrum hin verhält sich auf einmal wie die Zeit, deren Fluss jedes Objekt unvermeidlich in Richtung Zentrum zieht. Das Zentrum, das in einer unendlich dichten Singularität die gesamte Masse des Schwarzen Lochs in einem einzigen Punkt vereint, ist die unvermeidliche Zukunft jedes Objekts, das es gewagt hat, den Ereignishorizont zu überschreiten. Einen statischen Raum mit statischen Beobachtern gibt es unterhalb des Schwarzschild-Radius nicht. Deshalb besitzt die Trichterfläche in Abb. 4.1 dort auch ein Loch. So großartig der Erfolg von Schwarzschild auch war, so hinterließ er doch eine Reihe offener Fragen. Das Auftreten einer Singularität im Zentrum mit unendlicher Massendichte und Raumkrümmung macht physikalisch keinen Sinn. Und was soll es bedeuten, dass dort die Zeit für jedes Objekt endet, das den Ereignishorizont überschreitet? Weder Einstein noch Schwarzschild konnten sich darauf einen Reim machen und man ging lange Zeit davon aus, dass so etwas in der Natur nicht vorkommt. So wundert es nicht, dass auch der große Arthur Eddington nicht daran glauben wollte und die Schlussfolgerungen des jungen Chandrasekhars in Zweifel zog: Es konnte einfach nicht sein, dass ein Stern wirklich zu einem einzigen Punkt kollabiert. Nun ja, vielleicht ist die Singularität nur ein mathematisches Artefakt, hervorgerufen durch die Kugelsymmetrie, von der Schwarzschild zur Vereinfachung in seinen Berechnungen ausging. Ein echter Stern ist ja nicht exakt kugelsymmetrisch, und statisch ist er auch nicht, denn normalerweise rotiert
4 Die Grenzen der Information: Schwarze Löcher … 229
er. Könnte ihn das vor dem endgültigen Kollaps zu einem Punkt retten? Es ist gar nicht so einfach, diese Frage allgemein zu beantworten, denn dafür benötigt man neue mathematische Werkzeuge, die über die streng kugelsymmetrische Betrachtung hinausgehen. Dem Mann, der diese Werkzeuge, die sogenannten „trapped surfaces“, schließlich fand, sind wir am Ende des vorherigen Kapitels bereits kurz begegnet: Es ist der britische Physiker und Mathematiker Roger Penrose. Im Jahr 1965 konnte er in einer bahnbrechenden Arbeit zeigen, dass eine Singularität unvermeidlich ist, wenn der Kollaps so weit fortgeschritten ist, dass sich ein Ereignishorizont um den schrumpfenden Stern gebildet hat. Wenn der Kollaps also erst einmal eine bestimmte Grenze überschritten hat, ist er durch nichts auf der Welt mehr aufzuhalten und eine Singularität entsteht. Die kugelsymmetrische Lösung, die Schwarzschild für die Raumzeit Schwarzer Löcher gefunden hatte, war sicher wegweisend, lässt aber manche Eigenschaften dieser Raumzeit nur schwer erkennen, da sie die Sichtweise statischer Beobachter außerhalb des Ereignishorizonts widerspiegelt. Deshalb wird sie auch am Ereignishorizont unendlich, denn dort bleibt die Zeit von außen betrachtet stehen und der statische Raum endet. Das bedeutet aber nicht, dass die Raumzeit selbst dort endet oder singulär wird, denn ein Raumschiff, das in das Schwarze Loch hineinfällt, bemerkt beim Überschreiten des Ereignishorizonts nichts Besonderes. Nur die kugelsymmetrischen Koordinaten, die Schwarzschild für die Raumzeit verwendete, werden am Ereignishorizont singulär, die Raumzeit selbst ist es dort aber nicht (anders als in der Singularität im Zentrum). Es ist ganz ähnlich wie bei den Längen- und Breitengraden, mit denen man die Erdoberfläche überzieht. Diese Koordinaten werden am Nord- und Südpol uneindeutig, obwohl die Erdoberfläche dort genauso existiert wie überall sonst. Im Lauf der Zeit fand man andere Koordinatensysteme für die Raumzeit, die am Ereignishorizont vollkommen unauffällig sind. Sie spiegeln beispielsweise die Sichtweise unseres Raumschiffs wider, das sich in das Schwarze Loch fallen lässt. Im Grunde ähneln diese Koordinaten einer Raumflüssigkeit, die wie bei einem gezogenen Badewannenstöpsel in das Schwarze Loch hineingesogen wird. Am Ereignishorizont überschreitet die Flüssigkeit die Lichtgeschwindigkeit, sodass selbst Licht nicht mehr gegen ihren Sog ankämpfen kann. Bei einem sich drehenden Schwarzen Loch rotiert diese Raumflüssigkeit sogar wie bei einem Strudel und zwingt nahe am Ereignishorizont jedem Objekt diese Drehbewegung auf. Die Unendlichkeit am Ereignishorizont, die die Formel von Schwarzschild enthält, lässt sich also durch die Wahl anderer Koordinaten vermeiden. Das gilt aber nicht für die punktartige Singularität im Zentrum,
230 J. Resag
deren unvermeidliche Existenz Penrose so eindrucksvoll bewiesen hatte – egal, welche Koordinaten wir wählen. So sagt es die Allgemeine Relativitätstheorie, auf deren Gleichungen die Lösungen von Schwarzschild und Penrose basieren. Ist damit die Existenz der zentralen Singularität in Schwarzen Löchern gesichert, auch wenn wir sie niemals sehen werden? Nicht ganz. Es gibt neben der Relativitätstheorie nämlich noch einen weiteren fundamentalen Grundpfeiler der Physik, der bei kleinen Abständen und damit erst recht bei punktförmigen Objekten wichtig wird: die Quantenmechanik. Und die sagt nach der Unschärferelation, dass kein Objekt reglos an einem festen Punkt im Raum verharren kann, auch die Singularität eines Schwarzen Lochs nicht. Je genauer wir deren Ort kennen, umso weniger wissen wir über ihre Geschwindigkeit und umgekehrt. Die Singularität muss also irgendwie „unscharf“ werden und ihre Unendlichkeit könnte sich dadurch auflösen. Was das im Detail bedeutet, wissen wir heute noch nicht, aber es hängt vermutlich eng mit unserer Suche nach den Grenzen der Winzigkeit zusammen. Und damit sind wir wieder zurück bei dem Thema, das uns bereits im vorherigen Kapitel beschäftigt hat: Die Suche nach den Grenzen der Winzigkeit. Bringen uns Schwarze Löcher bei dieser Suche irgendwie weiter? Ein wichtiges Indiz dafür liegt darin, dass Schwarze Löcher einen Ereignishorizont besitzen. Anders als der große kosmische Ereignishorizont, der uns in 17 Mrd. Lichtjahren Entfernung umgibt und der die Welt weiter draußen von uns abschneidet, schirmt der Ereignishorizont eines Schwarzen Lochs einen „inneren“ Teil der Welt von uns ab. Wenn wir jetzt noch die Quantenmechanik ins Spiel bringen, die in der Welt des Allerkleinsten das Sagen hat, dann kommen wir den Grenzen der Winzigkeit einen entscheidenden Schritt näher.
Planck-Skala und die Grenzen der Winzigkeit Stellen Sie sich vor, wir wollten den Ort, an dem sich ein Objekt – sagen wir ein Elektron – aufhalten kann, möglichst genau eingrenzen. Dafür müssen wir seine Quantenwelle auf ein möglichst kleines Gebiet beschränken. Wir müssen ein sogenanntes Wellenpaket bilden, dass Sie sich wie einen einzigen hohen Wellenberg vorstellen können. Je schmaler der Wellenberg ist, umso genauer wissen wir, wo das Elektron sein kann. Nun sagt die Unschärferelation, dass zu einer geringen Ortsunschärfe, also einem schmalen Wellenpaket, eine große Impulsunschärfe gehört, d. h., im
4 Die Grenzen der Information: Schwarze Löcher … 231
Mittel ist der Impuls und damit die Energie des Elektrons umso größer, je kleiner das Wellenpaket wird. Diese Energie entspricht nach Einsteins Formel E = mc2 einer bestimmten Masse, und diese erzeugt Gravitation. Nun spielt diese Gravitation des Wellenpakets bei den üblichen Energien, wie man sie in der Natur normalerweise antrifft, überhaupt keine Rolle. Aber niemand kann uns daran hindern, in Gedanken das Wellenpaket immer kleiner und damit seine Masse immer größer zu machen. Wie bei einem kollabierenden Stern wird dann irgendwann der Moment kommen, ab dem das Wellenpaket kleiner als sein Schwarzschild-Radius wird (zumal dieser mit zunehmender Masse anwächst). Ab diesem Moment müsste das Wellenpaket nach der Allgemeinen Relativitätstheorie zu einem winzigen Schwarzen Mikroloch kollabieren, das sein Inneres vor der Außenwelt verbirgt. Es gibt keinen Weg mehr, den Ort des Elektrons noch weiter einzuschränken oder genauer zu messen. Jeder Messversuch, beispielsweise mit sehr kurzwelliger Gammastrahlung, würde dem Wellenpaket des Elektrons nur noch mehr Energie zuführen und damit das Schwarze Mikroloch vergrößern. Falls Sie sich Sorgen machen, dass ein solches Schwarzes Mikroloch zu einem gefräßigen Monster anwachsen könnte, das schließlich alles in seiner Umgebung verschlingt, so kann ich Sie beruhigen. Wie wir noch sehen werden, sorgt die Quantenmechanik dafür, dass das Mikroloch extrem instabil ist und praktisch sofort wieder zerfällt, was zugleich jeden Messversuch seiner genauen Lage und Ausdehnung verhindert. Wir brauchen also keine Angst zu haben, dass in einem Teilchenbeschleuniger oder beim Aufprall kosmischer Strahlung auf die Atmosphäre Schwarze Mikrolöcher entstehen, die nach und nach unsere Welt verschlucken. Wäre das möglich, so wäre es längst geschehen, denn die kosmische Strahlung kann bisweilen höhere Teilchenenergien liefern als jeder Teilchenbeschleuniger. Unsere Überlegung zeigt, dass es eine Grenze für unser Wissen über den genauen Ort des Elektrons gibt, wenn Quantenmechanik und Gravitation zusammenkommen. Der Ort lässt sich weder beliebig genau eingrenzen noch beliebig genau messen. Und das bedeutet sehr wahrscheinlich, dass unsere Vorstellung von einem unendlich genauen Ort physikalisch keinen Sinn macht. Es sieht ganz so aus, als seien wir tatsächlich auf eine Grenze der Winzigkeit gestoßen! Wo liegt diese Grenze? Die Rechnung dazu ist nicht schwer und Sie können es gerne selbst versuchen, wobei Sie sich um kleine Vorfaktoren wie 2 oder π nicht zu kümmern brauchen – es kommt nur auf die Größenordnung an. Was dabei herauskommt, ist die sogenannte Planck-Länge lP, die bei
232 J. Resag
rund 10−35 m liegt. Das ist extrem winzig! Man müsste ein Proton um das Hundert-Milliarden-Milliarden-Fache verkleinern, um bei der Planck-Länge anzukommen. Die Planck-Länge wirkt im Vergleich zu einem Proton wie das Proton im Vergleich zu einem kleinen Land wie Belgien. Mit anderen Worten: Die Planck-Länge liegt weit außerhalb von allem, was wir selbst mit den modernsten Mitteln heute und wohl auch in jeder denkbaren Zukunft messen können. Es wird kein Mikroskop geben, mit dem wir diese Grenze der Winzigkeit jemals sehen werden – genau deshalb ist es ja auch eine Grenze der Winzigkeit. Wenn wir in unserer Überlegung zur Planck-Länge nachschauen, welche Energie das schrumpfende Wellenpaket aufweist, wenn es die PlanckLänge erreicht, dann erhalten wir die sogenannte Planck-Energie und die zugehörige Planck-Masse, die ungefähr der Masse eines kleinen Staubkorns entspricht. In der Welt der Elementarteilchen sind solche Massen und Energien riesig. So entspricht die Planckenergie der Energie, die in der Masse von Zehn-Milliarden-Milliarden Wasserstoffatomen steckt. Die einzigen denkbaren Prozesse, bei denen Teilchen solche Energien erreichen können, gibt es im Urknall oder im Zentrum Schwarzer Löcher. Dort werden sie also wichtig werden, die Grenzen der Winzigkeit. Es wäre schön, wenn wir wüssten, was beim Erreichen dieser Grenzen physikalisch wirklich geschieht, denn dann wüssten wir auch, was beim Urknall geschah und was es mit der Singularität im Zentrum Schwarzer Löcher auf sich hat. Dafür bräuchten wir eine Quantentheorie der Gravitation, die genau erklärt, wie die Krümmung von Raum und Zeit mit der Welt der Quantenwellen zusammenspielt. Leider ist es bis heute nicht wirklich gelungen, eine solche Theorie zu formulieren. Es gibt zwar Ansätze wie die Stringtheorie oder die Schleifenquantengravitation, aber sie alle weisen so ihre Probleme auf. Das ist eigentlich auch nicht verwunderlich, denn eine Quantentheorie der Gravitation kann keine Quantentheorie in Raum und Zeit mehr sein, sondern sie wäre eine Quantentheorie von Raum und Zeit. Wir müssten über die Quantenwellen verschiedenster Raumzeitkrümmungen nachdenken, die sich in komplizierter Weise überlagern können. Versucht man es, so erstickt man schnell in den unzähligen Möglichkeiten, die man dabei berücksichtigen muss, und es entstehen Unendlichkeiten, die man kaum wieder loswird. Die Quantentheorie der Gravitation hat also so ihre Schwierigkeiten. Dennoch hat man im Lauf der Zeit einiges darüber herausgefunden, was geschieht, wenn Gravitation und Quantenmechanik aufeinandertreffen und die Planck-Länge wichtig wird. Als besonders lehrreich erweisen sich dabei erneut die Schwarzen Löcher.
4 Die Grenzen der Information: Schwarze Löcher … 233
Geheimnisvolle Entropie Was passiert eigentlich, wenn man eine Tasse heißen Tee in ein Schwarzes Loch kippt? Diese Frage stellte John Archibald Wheeler Anfang der 1970erJahre einem seiner zahlreichen begabten Doktoranden, dem israelischamerikanischen Physiker Jacob Bekenstein (Abb. 4.3). Aber worauf wollte Wheeler mit seiner Frage eigentlich hinaus? Warum ist die Frage überhaupt interessant? Das Schwarze Loch wird den heißen Tee einfach komplett verschlucken und dabei dessen Masse und Energie komplett in sich aufnehmen – nichts davon geht verloren. Aber es geht anscheinend etwas anderes verloren: die Entropie, die in dem heißen Tee steckt. Und genau da steckt das Problem, auf das Wheeler seinen jungen Doktoranden ansetzen wollte: Entropie darf eigentlich nicht verloren gehen – so sagt es zumindest der 2. Hauptsatz der Thermodynamik. Gilt dieser Hauptsatz etwa nicht, wenn Schwarze Löcher im Spiel sind, oder übersehen wir hier etwas Wichtiges? Der Begriff der Entropie wurde um das Jahr 1865 von dem deutschen Physiker Rudolf Clausius geprägt, der ihn absichtlich möglichst ähnlich zum Wort Energie wählte. Es war die Zeit, in der die industrielle Revolution mit all ihren Errungenschaften und Verwerfungen die Menschheit voll erfasst hatte. Viele Wissenschaftler und Ingenieure hatten sich Gedanken darüber gemacht, wie man Dampfmaschinen möglichst effizient machen kann, um
Abb. 4.3 Jacob Bekenstein (1947–2015) im Jahr 2009. (Quelle: https://commons. wikimedia.org/wiki/File:Bekenstein100_(cropped).JPG)
234 J. Resag
so viel nutzbare Energie wie möglich aus der eingesetzten Kohle herauszuholen. Dabei hatte man erkannt, dass Wärme eine Energieform ist und dass sich immer nur ein Teil der Wärmeenergie, die glühende Kohlen erzeugen kann, in nutzbringende Arbeit umwandeln lässt. Eine bestimmte Menge an unnützer Abwärme lässt sich nicht vermeiden. Wie sich zeigte, braucht man neben der Energie eine zweite Größe, um diesen unvermeidlichen Verlust an nicht nutzbarer Wärmeenergie zu beschreiben: die Entropie. Bei ihr gewichtet man die Wärmeenergie, die die glühenden Kohlen verlässt, mit deren Temperatur, indem man die Wärmeenergie durch die Temperatur teilt – entsprechend groß ist die Entropie, die die glühenden Kohlen abgeben. Analog ist es bei der Entropie, die man der deutlich kälteren Umgebung über die Abwärme zuführt, nur dass man hier die geringere Temperatur der Umgebung nehmen muss (wobei man die Temperatur in Kelvin und nicht etwa in Grad Celsius angeben muss).1 Was bringt das Ganze? Stellen Sie sich einen Holzkohlegrill in Ihrem Garten vor, in dem die glühenden Kohlen eine bestimmte Wärmemenge komplett an die kühle Luft in Ihrem Garten abgeben. Da die Kohlen heißer sind als die Gartenluft, verlieren sie dabei weniger Entropie, als die Gartenluft hinzugewinnt, denn wir müssen die Wärmemenge ja durch die Temperatur der Kohlen bzw. der Gartenluft teilen, um die Entropieabgabe bzw. Entropiezufuhr zu berechnen. Heiße Kohlen – wenig Entropieabgabe – kühle Gartenluft – viel Entropiegewinn bei gleicher Wärmemenge. Die Gesamtentropie von Grill und Umgebung wächst also an, während die Wärmemenge von den heißen Kohlen auf die kühle Umgebung übergeht. Würde die Wärmemenge umgekehrt von der kühlen Gartenluft auf die heißen Kohlen übergehen, würde die Gesamtentropie schrumpfen. Aber das geschieht nicht! Wärme fließt immer vom heißeren zum kälteren Objekt, sodass die Gesamtentropie ansteigt. Das ist der berühmte 2. Hauptsatz der Thermodynamik. Wenn Sie möchten, können Sie jetzt gerne weiter überlegen. Was geschieht, wenn wir die glühenden Kohlen nicht in den Grill, sondern in eine Dampfmaschine legen? Wie viel von der erzeugten Wärmemenge können wir als nützliche Arbeit abzweigen, ohne den 2. Hauptsatz zu verletzen? Dieser gilt nämlich auch hier, wie man sich überlegen kann.2 Wir
1 In Formeln ausgedrückt schreibt man ΔS = Q/T mit der Entropieänderung ΔS, der Wärmemenge Q und der Temperatur T (nur, falls Sie das schon einmal gesehen haben). 2 Ansonsten könnte man nämlich eine trickreiche Maschine bauen, die doch wieder Wärmeenergie von der kühlen Umgebung auf die heißen Kohlen überträgt, was aber nicht geht.
4 Die Grenzen der Information: Schwarze Löcher … 235
müssen auf jeden Fall der Umgebung mindestens ebenso viel Entropie über die Abwärme zuführen wie die glühenden Kohlen abgeben, damit die Gesamtentropie ansteigt. Also können wir nur einen Teil der Energie der Kohlen abzweigen und als Arbeit nutzbar machen. Je heißer die Kohlen sind und je kälter die Umgebung ist, umso besser ist unsere Ausbeute – Kühlwasser ist also wichtig! Besonders anschaulich ist der Entropiebegriff bisher leider nicht. Wärmemenge durch Temperatur – was soll das sein? Es sieht mehr nach einem mathematischen Trick aus, um den 2. Hauptsatz formulieren zu können. Und wir wissen auch nicht, warum dieser 2. Hauptsatz überhaupt gilt. Er spiegelt lediglich unsere Erfahrung wider, dass eine heiße Tasse Tee in einem kühlen Zimmer immer Wärme an das Zimmer abgibt und nicht umgekehrt. Um das Rätsel zu lösen, müssen wir verstehen, was Wärme überhaupt ist. Eine Zeit lang glaubte man, Wärme sei eine geheimnisvolle Substanz, Caloricum genannt, die jedes Stück Materie durchdringt. Um 1850 erkannte man schließlich, dass Wärme eine Art „innere Energie“ ist, die ein Körper in seinem Inneren speichern kann, ohne dass man ihm das sofort ansieht. Aber wie genau tut er das? Wo sitzt diese innere Energie? Erst wenn man die atomare Struktur der Materie akzeptiert, kann man diese Frage beantworten: Wärme ist nichts anderes als die ungeordnete Bewegung der Atome, die in einem Gas oder einer Flüssigkeit ständig wild durcheinanderhüpfen oder in einem Festkörper um ihre Ruhepunkte schwingen. Je heißer ein Medium ist, umso wilder ist der zufällige Tanz seiner Atome und umso mehr Wärmeenergie enthält er. Nun war im 19. Jahrhundert die atomare Struktur der Materie noch keineswegs allgemein akzeptiert. Atome boten zwar häufig die einfachsten Erklärungen für viele chemische und physikalische Vorgänge, aber man konnte sie noch nicht direkt nachweisen. Der berühmte Ausspruch „Ham se welche gesehen?“, den Ernst Mach noch um 1900 von sich gab, ist uns ja schon in Kap. 3 kurz begegnet. Anders als Ernst Mach hatte der ideenreiche österreichischer Physiker Ludwig Boltzmann (Abb. 4.4) keinerlei Zweifel an der Korrektheit der Atomhypothese und verteidigte sie immer wieder gegen ihre Kritiker. Boltzmann war davon überzeugt, dass Wärme einfach das zufällige Gewimmel der Atome ist, und so fragte er sich, was das für den Entropiebegriff bedeutet. Im Jahr 1877 präsentierte er der Welt schließlich seine berühmte Arbeit mit dem sperrigen Titel Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den
236 J. Resag
Abb. 4.4 Ludwig Boltzmann (1844–1906). (Credit: Archivio storico dell’Accademia delle Scienze, Quelle: https://commons.wikimedia.org/wiki/File:Ludwig_Boltzmann,_ da_1855_a_1900_-_Accademia_delle_Scienze_di_Torino_0137_B.jpg)
Sätzen über das Wärmegleichgewicht. Und darin findet sich das entscheidende Wort: Wahrscheinlichkeit. Warum also kühlt eine heiße Tasse Tee in der kühlen Luft eines Zimmers ab? Weil die sich zumeist sehr schnell bewegenden Atome des heißen Tees beim Zusammenstoß mit den im Mittel langsameren Atomen der Luft viel öfter Energie an diese abgeben, als dass sie Energie von diesen aufnehmen. Im Lauf der Zeit wird sich die verfügbare Energie zufällig auf die Atome der Tasse Tee und der Luft des Zimmers verteilen und der Tee wird auf Zimmertemperatur abkühlen. Es ist extrem unwahrscheinlich, dass die verfügbare Energie die Atome des Tees plötzlich bevorzugt und sich rein zufällig dort konzentriert. Der 2. Hauptsatz (eine heiße Tasse Tee gibt in einem kühlen Zimmer immer Wärme an das Zimmer ab und nicht umgekehrt) ist also kein absolut strenges Naturgesetz, sondern nur eine Wahrscheinlichkeitsaussage. Aber lassen Sie sich nicht täuschen! Wenn wir eine Tasse mit rot gefärbtem Wasser in den Ozean kippen und ein Jahr später eine Tasse Meereswasser aus diesem Ozean schöpfen, dann ist es auch nicht verboten, dass wir dabei zufällig sämtliche Farbstoffmoleküle in unserer Tasse wieder einsammeln, so als wäre nichts gewesen. Auch wenn es nicht verboten ist, so wird es doch „mit an Sicherheit grenzender Wahrscheinlichkeit“ niemals passieren. Genauso ist es
4 Die Grenzen der Information: Schwarze Löcher … 237
mit der Teetasse im Zimmer. Mikroskopisch kleine zufällige Schwankungen der Energieverteilung zwischen Tasse und Zimmer werden vorkommen, aber praktisch nie wird sich ein nennenswerter Energieüberschuss „von alleine“ wieder in der Teetasse ansammeln. Der Zufall treibt also den Anfangszustand „heiße Teetasse im kühlen Zimmer“ immer weiter in Richtung des wahrscheinlichsten Gesamtzustandes „Teetasse und Zimmer sind gleich warm“. Dabei steigt die Gesamtentropie von Teetasse und Zimmer immer weiter an und erreicht im thermischen Gleichgewicht schließlich ihr Maximum. Maximale Entropie bedeutet demnach maximale Wahrscheinlichkeit. Also, so folgerte Boltzmann, muss die Entropie ein Maß für die Wahrscheinlichkeit des Zustandes sein, den wir vorfinden. Man nennt einen Zustand wie „heiße Teetasse im kühlen Zimmer“ auch Makrozustand, denn die genauen Positionen der Atome und deren detaillierte atomare Energieverteilung interessieren uns dabei nicht. Es genügt zu wissen, dass die Atome des heißeren Tees im Mittel mehr Energie tragen als die Atome des Zimmers. Dabei gibt es sehr viele Möglichkeiten, sogenannte Mikrozustände, diesen Makrozustand mikroskopisch zu realisieren. Mal ist ein bestimmtes Atom hier und mal dort, mal trägt es mehr und mal weniger Energie, aber das ist uns egal, solange die Anordnung aller Atome und ihrer Energien insgesamt zum Makrozustand „heiße Teetasse im kühlen Zimmer“ passen. Nun verändert sich die Anordnung und Energieverteilung der Atome durch die Wärmebewegung unablässig mit rasender Geschwindigkeit. Das System „Teetasse im Zimmer“ wird also ständig zwischen allen aktuell erreichbaren Mikrozuständen hin- und hergeworfen, was wir aber dem zugehörigen Makrozustand „Teetasse heiß – Zimmer kühl“ gar nicht ansehen können. Die Zahl der Möglichkeiten, einen bestimmten Makrozustand durch verschiedene Mikrozustände zu realisieren, legt deshalb die Wahrscheinlichkeit für den Makrozustand fest. Viele Mikrozustände bedeuten einen wahrscheinlichen Makrozustand mit großer Entropie („Teetasse und Zimmer sind gleich warm“), weniger Mikrozustände dagegen einen unwahrscheinlicheren Makrozustand mit weniger Entropie („heiße Teetasse im kühlen Zimmer“). Mit diesen Zutaten war Boltzmann in der Lage, der Entropie eine anschauliche Bedeutung zu geben: Die Entropie eines Makrozustandes entspricht der Größenordnung der Anzahl an Mikrozuständen, die diesen Makrozustand mikroskopisch realisieren können. Dabei bedeutet „Größenordnung“ im Wesentlichen „Anzahl an Dezimalstellen“ – doppelte Stellenanzahl bei
238 J. Resag
den mikroskopischen Realisierungsmöglichkeiten bedeutet also ungefähr doppelte Entropie.3 So genial Boltzmanns neue Sichtweise auf die Entropie auch war, so hatte er doch ein Problem damit: Wie zählt man eigentlich die Mikrozustände, wenn doch die Positionen und Energien der Atome kontinuierliche Größen sind? Boltzmann löste das Problem, indem er in bestimmter Weise einzelne Kästchen für diese Größen definierte, aber vollkommen befriedigend war das auch nicht. Das Problem wurde erst rund 20 Jahre nach Boltzmanns Tod durch die Entwicklung der Quantenmechanik gelöst. Der Vorteil der Quantenmechanik liegt darin, dass die Atome eines Objekts eine gemeinsame Quantenwelle bilden – also einen bestimmten Quantenzustand. Es gibt viele unterschiedliche Quantenwellen, die die Atome zusammen einnehmen können. Diese kollektiven Quantenwellen sind die Mikrozustände des Objekts, und sie lassen sich zählen. Dabei gibt es unglaublich viele Quantenzustände, zwischen denen die Gesamtheit der Atome vom Zufall getrieben ständig umherspringt. Bei unserer heißen Teetasse dürfte die Zahl der ständig wechselnden Quantenzustände bei rund 10 hoch 1024 liegen – das ist eine 1 mit einer Millionen-Milliarde-Milliarde Nullen, also eine extrem große Zahl. Versuchen Sie, diese Zahl einmal auf einem Blatt Papier aufzuschreiben! Wenn jede Ziffer auch nur 1 mm breit ist, so wäre die gesamte ausgeschriebene Zahl rund 100.000 Lichtjahre lang und damit fast so groß wie der Durchmesser der Milchstraße. So viele Möglichkeiten gibt es also ungefähr für die quantenmechanischen Atomkonfigurationen unserer Teetasse bei einer bestimmten Temperatur. Kein Wunder, dass man sich bei der Entropie nicht für diese Zahl selbst, sondern nur für ihre Größenordnung (also die Millionen-Milliarde-Milliarde Dezimalstellen) interessiert – das ist wesentlich handlicher und hat auch ansonsten noch einige Vorteile. Mit seiner neuen Interpretation der Entropie war Ludwig Boltzmann ein entscheidender Durchbruch in unserem Verständnis von Wärme und Entropie gelungen. Zwar musste er sich immer wieder kritischen Einwänden seiner Kollegen erwehren, aber das gelang ihm durchaus auf überzeugende
3 Die zugehörige mathematische Formel lautet S = k ∙ ln Ω, wobei S die Entropie, Ω die Zahl der Mikrozustände, k die Boltzmann-Konstante und ln der natürliche Logarithmus sind. Der natürliche Logarithmus misst dabei die Größenordnung von Ω und ist ungefähr proportional zu dessen Stellenanzahl, während man die Boltzmann-Konstante k nur deshalb als Proportionalitätsfaktor einfügt, um konsistent mit der klassischen Definition „Wärmemenge durch Temperatur“ zu sein (ist einem das egal, kann man k auch weglassen).
4 Die Grenzen der Information: Schwarze Löcher … 239
Weise. Glücklich gemacht hat ihn dieser Erfolg aber leider nicht. Gesundheitlich angeschlagen und depressiv setzte er im Jahr 1906 seinem Leben ein Ende, indem er sich in seinem Hotelzimmer erhängte. Er war nur 62 Jahre alt geworden. Ein wirklich tragisches Ende eines großen Physikers.
Haben Schwarzer Löcher Entropie? Da stand Jacob Bekenstein nun, konfrontiert mit Wheelers Frage, wo denn die Entropie einer heißen Tasse Tee bleibt, wenn wir sie komplett in ein Schwarzes Loch kippen. Masse und Energie gehen dabei nicht verloren, denn sie vergrößern einfach die Masse des Schwarzen Lochs. Aber die Entropie? Da ein Schwarzes Loch keinerlei Entropie zu haben schien, sah es ganz so aus, als würde die Entropie der Tasse Tee einfach im Schwarzen Loch verschwinden. Das wäre ein Widerspruch zum 2. Hauptsatz, nach dem die Entropie des Systems „Teetasse und Schwarzes Loch“ nicht geringer werden kann (sofern keine Energie nach außen abgestrahlt wird). Bekenstein überlegte: Gibt es vielleicht eine andere Größe, die bei Schwarzen Löchern ähnlich wie die Entropie immer anwächst, egal was passiert? Eine Größe, die anwächst, wenn die Teetasse hineinfällt, die aber auch anwächst, wenn beispielsweise zwei Schwarze Löcher miteinander verschmelzen? Eine solche Größe gibt es tatsächlich! Es sind die Oberflächen der beteiligten Schwarzen Löcher, also die Oberflächen der Ereignishorizontkugeln, die im Abstand des jeweiligen Schwarzschild-Radius die Schwarzen Löcher umgeben. Wenn unsere Teetasse in ein Schwarzes Loch hineinfällt, dann ist unmittelbar klar, dass dessen Oberfläche anwächst, denn die Teetasse vergrößert die Masse des Schwarzen Lochs. Proportional zu dieser Masse wächst dann auch der Schwarzschild-Radius und damit auch die Oberfläche des Schwarzen Lochs. Und wenn zwei gleich große Schwarze Löcher miteinander verschmelzen? Dann entsteht ein Schwarzes Loch mit doppelter Masse, doppeltem Schwarzschild-Radius und einer vierfach so großen Oberfläche, denn die Oberfläche wächst quadratisch mit dem Radius. Die Summe aller Schwarzloch-Oberflächen hat sich also bei der Verschmelzung verdoppelt – aus 2 mach 4. Dass die Gesamtoberfläche aller involvierten Schwarzen Löcher auch ganz allgemein bei beliebigen Prozessen immer anwächst, hatte im Jahr 1971, also kurz vor Bekensteins Überlegungen, der britische Physiker
240 J. Resag
Abb. 4.5 Stephen Hawking (1942–2018) im April 2011. (Credit: NASA/Paul Alers, Quelle: Bildausschnitt aus https://commons.wikimedia.org/wiki/File:Stephen_ hawking_2008_nasa_cropped.jpg)
Stephen Hawking (Abb. 4.5) mit seinem black-hole area theorem gezeigt. Hawking, der im Jahr 2018 verstarb, gehört sicher zu den herausragendsten Physikern des späten 20. Jahrhunderts. Schon als junger Mann war er auf einen Rollstuhl angewiesen, denn die grausame Nervenkrankheit ALS machte ihm nach und nach fast jede Bewegung unmöglich. Das hinderte ihn jedoch nicht daran, weiterhin in der Spitzenforschung aktiv zu bleiben und ganz nebenbei auch populärwissenschaftliche Sachbücher wie Eine kurze Geschichte der Zeit zu verfassen, die sich zu internationalen Bestsellern entwickelten. Die Oberfläche Schwarzer Löcher nimmt also in Summe niemals ab, wenn man der Allgemeinen Relativitätstheorie glaubt. Und auch die Entropie sollte niemals abnehmen – so sagt es der 2. Hauptsatz. Was wäre – so dachte sich Bekenstein –, wenn Schwarze Löcher eine Entropie besäßen, die proportional zu ihrer Oberfläche ist? Wenn dann die Teetasse in das Schwarze Loch fällt, könnte die dabei anwachsende Oberfläche und Entropie des Schwarzen Lochs den Entropieverlust der verschwindenden Teetasse mehr als ausgleichen. Der 2. Hauptsatz der Thermodynamik wäre gerettet.
4 Die Grenzen der Information: Schwarze Löcher … 241
Stephen Hawking findet die Entropieformel Aber wie kann ein Schwarzes Loch Entropie haben? In ihm gibt es keine Atome mehr, die wild durcheinanderfliegen und die verschiedene Mikrozustände aufbauen können. Alle Materie ist zu einem einzigen Punkt im Zentrum kollabiert, der nur noch über seine Gravitation nach außen wirkt. Im Grunde ist ein Schwarzes Loch ein sehr einfaches Objekt. Man braucht nur 3 Zahlen, um es vollständig zu charakterisieren: seine Masse, seinen Drehimpuls und seine elektrische Ladung (wenn es denn überhaupt Ladung trägt). Jede weitere Information über die Materie, aus der das Schwarze Loch einst entstand, wurde ausgelöscht. Anders ausgedrückt: Ein Schwarzes Loch hat keine Haare. Stephen Hawking war also nicht sonderlich begeistert, als Bekenstein Hawkings black-hole area theorem dazu verwendete, um Schwarzen Löchern eine Entropie zuzusprechen. Außerdem gab es ein weiteres Problem: Wenn Schwarze Löcher wirklich eine Entropie haben, dann müssen sie auch eine Temperatur besitzen und Wärmestrahlung aussenden – sie wären also nicht absolut schwarz. Dass Entropie und Temperatur zusammenhängen, kennen wir schon, denn man teilt ja die zugeführte Energie durch die Temperatur, um den Entropiezuwachs zu ermitteln. Nun enthält die Masse der Teetasse nach E = mc2 jede Menge Energie. Wenn diese Tasse in das Schwarze Loch fällt, dann müssten dessen Entropie und damit dessen Oberfläche umso schneller wachsen, je geringer seine Temperatur ist, falls Bekenstein recht hätte. Bei Temperatur null würden Entropie und Oberfläche sogar unendlich schnell wachsen, was sie aber nicht tun. Also müsste das Schwarze Loch eine Temperatur größer als null haben und zumindest etwas Wärme abstrahlen. Das erschien Hawking absurd. Aber irgendwie schien Bekensteins Idee seine Neugier geweckt zu haben, denn Hawking machte sich trotz seiner Bedenken an die Arbeit, herauszufinden, ob ein Schwarzes Loch nicht doch Wärmestrahlung aussenden könnte. Nach der Allgemeinen Relativitätstheorie, mit der man bisher Schwarze Löcher ausschließlich beschrieb, sind Schwarze Löcher allerdings komplett schwarz und senden keinerlei Strahlung aus. Also entschied sich Hawking, die Quantenmechanik mit zu berücksichtigen – ein kluger Schritt, denn schließlich hängt der Begriff der Entropie mit der Zahl der erreichbaren Quantenmikrozustände zusammen. Leider haben wir bis heute keine Ahnung, wie die Quantenmikrozustände eines Schwarzen Lochs genau aussehen, denn dafür bräuchten wir eine Quantentheorie der Gravitation, und die gibt es bis heute nicht. Also
242 J. Resag
musste Hawking pragmatisch vorgehen. Wo könnte eine Wärmestrahlung bei einem Schwarzen Loch überhaupt entstehen? Der Raumbereich am oder knapp über dem Ereignishorizont schien ihm dafür der passende Ort, denn dort ist die Gravitation schon sehr stark und zugleich könnte die Strahlung ihrem Sog noch knapp entrinnen. Nur wie könnte die Quantenmechanik am Ereignishorizont diese Strahlung erzeugen? Es gibt dort schließlich absolut nichts, nur leeren Raum. Aber der leere Raum, das „Vakuum“, ist in der Quantenmechanik keineswegs nichts. Es ist ein komplexer, in sich verschränkter Quantenzustand, den man sich vereinfacht wie eine brodelnde Suppe vorstellen kann, in der ständig für Sekundenbruchteile virtuelle Teilchen-Antiteilchen-Paare entstehen, die sich sofort gegenseitig wieder auslöschen. Wie Hawking herausfand, kann der Ereignishorizont dieses gegenseitige Auslöschen aber verhindern. Eines der Teilchen kann mit negativer Energie in das Schwarze Loch hineinfallen und damit dessen Masse vermindern, während das Partnerteilchen mit positiver Energie entkommt, was nach außen so aussieht, als würde das Schwarze Loch eine schwache Strahlung aussenden. Hawking konnte sogar die Energieverteilung dieser Strahlung berechnen: Sie entsprach tatsächlich genau einer Wärmestrahlung mit einer bestimmten Temperatur, die umso heißer ausfällt, je kleiner das Schwarze Loch ist. Bekenstein hatte recht gehabt: Schwarze Löcher haben eine Entropie und eine Temperatur. Hawking konnte sogar die genaue Formel für die Entropie eines Schwarzen Lochs ermitteln. Die entsprechende Formel ist ziemlich einfach und gehört wie E = mc2 zu den berühmtesten Formeln der modernen Physik. Ich konnte nicht widerstehen, sie hier einmal explizit zu zeigen. Das ist sie: S=
kA 4 lP2
Dabei ist S die Entropie des Schwarzen Lochs, die man auch BekensteinHawking-Entropie nennt, k ist die Boltzmann-Konstante, A ist die Oberfläche des Schwarzen Lochs (also die Fläche des Ereignishorizonts) und lP ist die Planck-Länge. Die Formel sagt also, dass, abgesehen von dem relativ unwichtigen Vorfaktor k/4, die Entropie eines Schwarzen Lochs gleich der Anzahl an Planck-Flächen ist, die auf der Oberfläche des Schwarzen Lochs Platz finden (siehe Abb. 4.6, eine Planck-Fläche entspricht einem Quadrat mit der Planck-Länge als Kante). Wenn wir also wissen, wie viele Planck-Flächen auf den Ereignishorizont passen, dann wissen wir auch ungefähr, wie viele Dezimalstellen die Anzahl der Quantenmikrozustände besitzt, die sich im Schwarzen Loch verbergen. Wir wissen zwar ohne eine
4 Die Grenzen der Information: Schwarze Löcher … 243
Planck-Fläche Abb. 4.6 Die Zahl der Planck-Flächen auf dem Ereignishorizont eines Schwarzen Lochs ist ein Maß für dessen Entropie. (Quelle: Eigene Grafik)
Quantentheorie der Gravitation nicht, wie diese Quantenzustände des Schwarzen Lochs genau aussehen, aber wir wissen jetzt immerhin ungefähr, wie viele es sind. Das macht Hawkings Entropieformel so ungemein wertvoll, denn sie liefert einen ersten Blick in die unbekannte Welt der Quantengravitation, in der unsere Grenze der Winzigkeit – die PlanckLänge – offensichtlich eine entscheidende Rolle spielt. Nun ist die Planck-Länge selbst in der subatomaren Welt absolut winzig, hundert-milliarden-milliarden-fach kleiner als ein Proton, wie wir wissen. Für eine Grenze der Winzigkeit gehört sich das wohl auch so. Zugleich bedeutet es, dass auf die Oberfläche eines Schwarzen Lochs extrem viele Planck-Flächen Platz haben. Bei einem Schwarzen Loch von einer Sonnenmasse sind es rund 1077 Planck-Flächen, was zu einer sehr großen Entropie führt – weit größer als die Entropie, die die Sonne selbst besitzt. Führt man diesem sonnenschweren Schwarzen Loch weitere Masse oder Energie zu, dann wächst diese Entropie sehr schnell weiter an, was dazu führt, dass seine Temperatur sehr gering ist und bei nur 60 milliardstel Kelvin liegt. Das ist weit weniger als die Temperatur der kosmischen Hintergrundstrahlung von 2,7 K. Die Sonne würde also als Schwarzes Loch mehr Energie aus der kosmischen Hintergrundstrahlung aufnehmen, als sie abstrahlt, und würde weiter anwachsen – zumindest im heutigen Universum. In der fernen Zukunft, wenn die Hintergrundstrahlung im expandierenden Universum immer weiter ausgedünnt und abgekühlt ist, wird sich das allerdings
244 J. Resag
irgendwann ändern. Das Schwarze Loch wird dann Energie abgeben und dabei ganz langsam immer leichter und heißer werden (Schwarze Löcher werden anders als glühende Kohlen tatsächlich heißer, wenn sie Energie abstrahlen). Erst wenn seine Masse dann eines sehr fernen Tages, wenn alle Sterne schon längst verloschen sind, die Masse des Mondes unterschreitet und seine Größe auf weniger als 1 mm geschrumpft ist, wird seine Temperatur schließlich die der heutigen kosmischen Hintergrundstrahlung (2,7 K) überschreiten. Es wird langsam immer kleiner und heißer werden und sich schließlich in einem letzten Aufblitzen komplett in Strahlung verwandeln, die sich in den Weiten des kalten, dunklen Kosmos rasch verflüchtigt. Es sieht also ganz so aus, als könnten selbst Schwarze Löcher dem Zahn der Zeit nicht ewig widerstehen.
Die Grenzen der Information Hawkings Entropieformel für Schwarze Löcher ist das bisher einzige allgemein akzeptierte physikalische Gesetz, in dem die Planck-Länge eine zentrale Rolle spielt. Hier zeigen sich erstmals die Grenzen der Winzigkeit in unmittelbarer Weise, indem sie die Zahl der Mikrozustände festlegen. Der gekrümmte Raum eines Schwarzen Lochs besteht demnach in seinem tiefsten Inneren aus extrem vielen Quantenzuständen, deren wahre Natur wir bisher nicht kennen. Gut möglich, dass dies auch generell für den Raum gilt: Er könnte ein sehr feines Gewebe aus Quantenzuständen sein, dessen mikroskopische Quantenstruktur wir bisher nicht auflösen können. Auch wenn es sehr viele Quantenzustände sind, die den Raum eines Schwarzen Lochs bilden, so sind es doch nur endlich viele. Die Fäden im Gewebe des Raums sind zwar sehr fein, aber nicht unendlich fein, und es sind auch nicht unendlich viele Fäden. Raum wäre demnach kein mathematisches Kontinuum, in dem wir unendliche viele Punkte mit unendlicher Präzision eintragen können. Und Raum wäre auch kein Behälter, in dem wir beliebig viel Information unterbringen können, beispielsweise in Form der Koordinaten unendlich vieler Punkte. Nun ja, für ein Schwarzes Loch mag das ja stimmen. Aber hat auch generell der scheinbar kontinuierliche Raum nur eine endliche Kapazität für Information, wenn wir seine Quantenstruktur berücksichtigen? Dank Hawkings Entropieformel können wir diese Frage tatsächlich beantworten. Entropie und Information hängen nämlich eng miteinander zusammen: Die Entropie misst, wie viel derjenige, der den Makrozustand kennt, noch wissen könnte, wenn er auch den gerade aktuellen
4 Die Grenzen der Information: Schwarze Löcher … 245
Mikrozustand kennenlernte. Anders gesagt: Die Entropie misst den Informationsgehalt, der in den einzelnen Mikrozuständen prinzipiell steckt. Je mehr Mikrozustände es nämlich sind (und je größer demnach die Entropie ist), umso mehr Information muss jeder einzelne von ihnen enthalten, damit man sie quantenmechanisch unterscheiden kann. Es ist ganz ähnlich wie bei den Steuernummern in einem großen Land: Wenn wir sehr vielen Menschen eine persönliche Steuernummer geben möchten, dann muss diese Steuernummer ausreichend viele Dezimalstellen besitzen, trägt also entsprechend viel Information. Wie viel Entropie und damit Information können wir nun in einer Raumkugel unterbringen? Um die Entropie der Raumkugel zu erhöhen, müssen wir ihr Energie zuführen, was wegen E = mc2 ihre Masse erhöht. Irgendwann enthält die Kugel so viel Masse, dass sie zu einem Schwarzen Loch kollabiert, das bei weiterer Energiezufuhr immer größer wird (d. h., sein Schwarzschild-Radius wächst). Wenn das Schwarze Loch schließlich die Größe der ursprünglichen Raumkugel erreicht hat, ist die Grenze erreicht. Wir können die Entropie der Kugel nicht weiter steigern, ohne dass das Schwarze Loch über die ursprünglichen Grenzen der Kugel hinaus anwächst. Dasjenige Schwarze Loch, das genauso groß ist wie die ursprüngliche Kugel, ist der Zustand maximaler Entropie und damit Information, die in die Kugel hineinpasst. Mehr Information, als in den mikroskopischen Quantenzuständen dieses Schwarzen Lochs verborgen ist, kann die Raumkugel nicht fassen. Für unser tägliches Leben hat diese Kapazitätsgrenze überhaupt keine praktischen Auswirkungen, denn wir können die mikroskopischen Quantenzustände makroskopischer Körper – oder auch des Raums – sowieso nicht zum Speichern von Information nutzen. Die Information, die beispielsweise in den zahlreichen mikroskopischen Quantenzuständen einer Tasse Tee steckt, ist für uns unzugänglich. Außerdem ist diese Information extrem unbeständig, denn der unvermeidliche Einfluss der Umgebung lässt die mikroskopische Struktur der Teetasse ständig wild zwischen den einzelnen Mikrozuständen herumhüpfen. Im Sinne Everetts bietet sich noch eine andere Erklärung für die Unzugänglichkeit der Mikro-Information einer Teetasse an: Durch die unvermeidliche Wechselwirkung mit der Umgebung verschränkt sich der Quantenzustand der Teetasse sofort mit den Quantenzuständen der Umgebung. Was quantenmechanisch in der Teetasse los ist, hängt dann unentwirrbar mit allem zusammen, was quantenmechanisch in der Umgebung geschieht. Die Dekohärenz sorgt dabei dafür, dass eine Teetasse niemals in einem reinen, klar identifizierbaren Quantenzustand vorliegen
246 J. Resag
kann. Sie verhält sich wie ein statistisches Gemisch sehr vieler Quantenzustände, deren Informationsgehalt und Verschränkung mit der Umgebung für uns lokale makroskopische Wesen unerreichbar sind. Die prinzipielle Grenze mikroskopischer Information, die ein Raumvolumen grundsätzlich enthalten kann, ist für uns aber aus einem anderen Grund interessant, denn sie sagt etwas über die Struktur der Welt auf der untersten Ebene aus – dort, wo die Grenzen der Winzigkeit wichtig werden. Sie sagt, dass der Raum eine gewisse quantenmechanische Körnigkeit besitzt. Wenn Sie es nicht zu wörtlich nehmen, können Sie sich diese Körner gerne wie die einzelnen Farbpixel auf einem Computerbildschirm vorstellen. Diese Pixel sind die ultramikroskopischen Informationsträger. Je mehr Pixel es sind, umso mehr verschiedene Information können sie in Summe tragen und umso mehr Bilder (Mikrozustände) kann der Bildschirm darstellen. Beim Raum würden die Raumpixel allerdings keine Bilder repräsentieren, sondern ihr Informationsgehalt hätte etwas mit der Quantenstruktur des Raumes und seiner Krümmung zu tun. John Archibald Wheeler hat im Jahr 1955 dafür den einprägsamen Begriff Quantenschaum geprägt – die Pixel entsprechen hier den einzelnen Bläschen. Nach der Vorstellung eines Quantenschaums müssten sich die einzelnen Pixel eigentlich wie die Bläschen des Schaums überall im Raum verteilen. Aber bei einem Schwarzen Loch ist das anders! Man kann es sich so vorstellen, als würden die Pixel sich nur auf der Oberfläche des Schwarzen Lochs verteilen, also auf seinem Ereignishorizont. Wenn wir den einzelnen Pixeln ungefähr die Größe einer Planck-Fläche zuschreiben, dann können wir Hawkings Entropieformel gut nachvollziehen, nach der die Zahl der Planck-Flächen auf der Oberfläche die Entropie und damit die mikroskopische Information festlegt. Eine größere Oberfläche bedeutet mehr Planck-Flächen und damit mehr Pixel, also mehr mikroskopische Information und damit größere Entropie. Physiker sprechen statt von Pixeln auch gerne von mikroskopischen Freiheitsgraden. Normalerweise ist es so, dass die Entropie proportional zur Menge an Materie anwächst – 2 L Wasser haben doppelt so viel Entropie wie 1 L Wasser und auch doppelt so viele mikroskopische Freiheitsgrade, da sich ja die Zahl der Atome und Moleküle verdoppelt. Aber bei Schwarzen Löchern ist das anders. Wenn sich zwei gleich große Schwarze Löcher zu einem Schwarzen Loch mit doppelt so großem Schwarzschild-Radius vereinen, dann vervierfachen sich Oberfläche und Entropie. Es entsteht also sehr viel neue Entropie, wenn sich Schwarze Löcher vereinen oder vergrößern. Die Zahl der mikroskopischen Freiheitsgrade (Pixel) eines Schwarzen Lochs ist viel größer als die Zahl der Atome, aus denen es entstanden ist. Es sind die
4 Die Grenzen der Information: Schwarze Löcher … 247
winzigen quantenmechanischen Freiheitsgrade des Raumes selbst, die bei ihm zum Tragen kommen. Mit den Atomen der Materie hat das nichts zu tun. Sie existieren in einem Schwarzen Loch nicht mehr. Oder wie Wheeler es einmal ausgedrückt hat: „Ein Schwarzes Loch ist Masse ohne Materie. Die Grinsekatze aus Alice im Wunderland ist verblasst und hat nur ihr Grinsen zurückgelassen.“4 Dieses Verblassen der Materie ist streng genommen für einen Beobachter weit draußen niemals ganz abgeschlossen, denn am Ereignishorizont bleibt von außen betrachtet die Zeit stehen. Man kann sich also vorstellen, dass sich aus unserer Außensicht alle hineinstürzende Materie am Ereignishorizont ansammelt und dort auf ewig erstarrt, sodass wir nur noch ihre Gravitation spüren. Anschaulich würde das erklären, warum der Ereignishorizont, also die Oberfläche des Schwarzen Lochs, etwas mit der Größe der Entropie zu tun hat. Aber noch mal: Es sind nicht die Atome der Materie, sondern es sind die Quantenfreiheitsgrade des gekrümmten Raumes, die die Entropie eines Schwarzen Lochs begründen. Ganz so einfach ist es also wohl nicht.
Wie viele Bits hat das Universum? Es ist schon ein faszinierender Gedanke, dass die innersten Freiheitsgrade unserer Welt nicht wie die Atome eines Gases gleichmäßig im Raum verteilt sind, sondern mit der Oberfläche eines Raumgebietes zusammenhängen. Vereinfacht können wir uns vorstellen, dass sie wie die Pixel auf einem kugelförmigen Bildschirm dort sitzen. Das 3-dimensionale Geschehen unserer Welt könnte 1:1 einem 2-dimensionalen Geschehen auf einer Art von Rand der Welt entsprechen. Es wäre ähnlich wie bei einem 2-dimensionalen Hologramm, in dem wir ein 3-dimensionales Bild erblicken, wenn wir hindurchschauen. Kein Wunder also, dass Physikerinnen und Physiker hier vom holografischen Prinzip sprechen – die Idee wurde Anfang der 1990er-Jahre von dem Niederländer Gerard’t Hooft und dem US-Amerikaner Leonard Susskind formuliert. Im Jahr 1997 fand der Argentinier Juan Maldacena dann in einer Art von quantenmechanischem Spieluniversum sogar eine konkrete Realisierung des
4 „It
is mass without matter. The Cheshire cat in Alice in Wonderland faded away leaving behind only its grin.” Siehe The Lesson of the Black Hole, Proceedings of the American Philosophical Society (1981), 125, 25 sowie https://todayinsci.com/W/Wheeler_John/WheelerJohn-Quotations.htm.
248 J. Resag
holografischen Prinzips, die unter dem etwas kryptischem Namen AdS/CFTKorrespondenz bekannt wurde. Sein Spieluniversum entspricht zwar nicht genau unserem Universum, aber es zeigt, dass das holografische Prinzip eine sehr ernst zu nehmende Idee ist, die wahrscheinlich auch in unserem Universum eine zentrale Rolle spielt. Als Rand käme dann beispielsweise der Ereignishorizont infrage, der in rund 17 Mrd. Lichtjahren Entfernung die für uns erreichbare Welt umschließt. Wie viele Freiheitsgrade würde unser Universum demnach besitzen? Wie viele Pixel säßen auf dem Rand der für uns sichtbaren Welt, um die mikroskopischen Quanteninformationen darin holografisch zu codieren? Oder anders gefragt: Wie viele Bits hat unser Universum innerhalb des Ereignishorizonts? Hawkings Entropieformel kann auch hier die Antwort liefern. Wir fragen einfach: Wie viel Entropie kann unser zugängliches Universum maximal haben? Nun, höchstens so viel wie ein Schwarzes Loch derselben Größe, also mit einem Schwarzschild-Radius von 17 Mrd. Lichtjahren. Rechnen wir jetzt aus, wie viele Planck-Flächen auf dessen Oberfläche Platz finden und teilen das Ergebnis durch 4, dann haben wir die maximale Entropie (die unwichtige Boltzmann-Konstante k lasse ich hier weg). Ich konnte nicht widerstehen, die kleine Rechnung in Excel einmal selbst durchzuführen und habe als Ergebnis für die maximale Entropie des zugänglichen Universums die Zahl 3 ∙ 10122 herausbekommen – das ist eine 3 mit 122 Nullen dahinter. Die Größenordnung scheint zu stimmen, denn ähnliche Zahlen findet man auch in der physikalischen Literatur.5 Nun spiegelt die Entropie ja die die Information wider, die die Mikrozustände unserer Welt enthalten können, d. h., sie entspricht ungefähr der Zahl der Freiheitsgrade oder Informationspixel, die unsere Welt besitzt. Damit haben wir unser Ergebnis: Das uns zugängliche Universum innerhalb des Ereignishorizonts besitzt bis zu 10122 Freiheitsgrade, also grob etwa 10122 Bits. Nehmen Sie die Zahl bitte nicht allzu genau, es könnten auch 10120 oder 10123 Bits sein, aber die Größenordnung passt ungefähr. Das ist eine unglaublich große Anzahl an Bits, aber es ist ja auch unser gesamtes zugängliches Universum, dessen mögliche Mikrozustände mit diesen Bits repräsentiert sein müssen. Da jedes Bit 2 verschiedene Zustände haben
5 Siehe
beispielsweise Sean Carrolls wunderbares Buch Was ist die Welt und wenn ja, wie viele (Kapitel 14), Brian Greenes tolles Buch Die verborgene Wirklichkeit (Kap. 2) oder auch den holographic upper bound in Frampton, Hsu, Kephart, Reeb: What is the entropy of the universe? https://arxiv.org/ pdf/0801.1847.pdf.
4 Die Grenzen der Information: Schwarze Löcher … 249
kann, müssen es etwa 2 hoch 10122 verschiedene Mikrozustände sein. Wieder kommt es auf die genaue Zahl nicht wirklich an – es könnten auch 10 hoch 10122 Zustände sein. Wichtig ist, dass es eine unvorstellbar große Zahl ist, die sich niemals komplett ausschreiben ließe, denn sie besitzt mehr Dezimalstellen, als es Atome im Universum gibt. Und dennoch: Mag sie auch noch so groß sein, sie ist endlich. Und das bedeutet: In dem für uns zugänglichen Universum kann es nur eine endliche Zahl realisierbarer Welten geben. Wenn man so darüber nachdenkt: Es ist ein bisschen so wie die Aussage, dass es nur eine endliche Anzahl an verschiedenen Filmen geben kann, die jeder für sich auf einer eigenen Blu-Ray-Disc gespeichert werden können. Dabei ist es völlig egal, wie kreativ der Regisseur ist. Eine typische Blu-Ray-Disc kann nämlich ungefähr 25 GB an Daten speichern – das sind rund 2 ∙ 1011 (also 200 Mrd.) Bit, mit denen sich maximal 2 hoch 2 ∙ 1011 verschiedene Filme speichern lassen. In der Praxis ist das natürlich keine relevante Einschränkung, denn diese Zahl an Filmen übersteigt bei Weitem die Zahl aller Teilchen im sichtbaren Universum. Aber wenn Sie in Gedanken vorhaben, sich eine unendlich große Sammlung an Blu-RayDiscs zuzulegen, dann sollten Sie beachten, dass Sie spätestens ab der 2 hoch 2 ∙ 1011-ten Disc zwangsläufig Duplikate mit absolut identischen Filmen besitzen werden. Angesichts der Unendlichkeit sind also auch noch so große Zahlen immer noch endlich. Das ist wichtig, wenn wir über die Unendlichkeit des Universums nachdenken. Angenommen, der Raum wäre tatsächlich unendlich groß. Dann können wir ihn uns wie eine Patchworkdecke vorstellen, zusammengesetzt aus unendlich vielen einzelnen riesigen Raumflicken, in denen jeweils eine Raumkugel wie unser eigenes zugängliches Universum Platz hat. Den inneren Zustand jeder dieser Raumkugeln können wir mit maximal 10122 Bits präzise beschreiben, denn mehr Information passt in die Raumkugel nicht hinein. Also kann es nur 2 hoch 10122 verschiedene Zustände für die einzelnen Raumkugeln geben. In der Unendlichkeit des Raums gibt es aber unendlich viele dieser Raumkugeln. Also muss es dort auch Raumkugeln geben (sogar unendlich viele), die sich genau in demselben Zustand befinden wie unser eigenes zugängliches Universum. Jedes noch so feine mikroskopische Detail wäre dort absolut identisch mit dem für uns zugänglichen Teil des Universums. In den unendlichen Weiten des Raums, weit jenseits unseres Horizonts, gäbe es also unendlich viele perfekte Kopien unserer Welt, in denen es perfekte Doppelgänger von Ihnen und mir gibt, die exakt dasselbe tun und erleben wie wir. Ihre Welt wäre von der unseren nicht zu unterscheiden, so wie bei einem fehlerlosen Blu-Ray-DiscDuplikat.
250 J. Resag
Was sollen wir von diesem unendlichen Universum halten, das der Physiker und Buchautor Brian Greene in seinem Buch Die verborgene Wirklichkeit als Patchwork-Multiversum (Quilted Multiverse) bezeichnet? Nun ja, das kommt darauf an, ob wir zwei absolut identische Doppelgängerwelten in zwei verschiedenen Flecken des Patchwork-Multiversums überhaupt noch als verschiedene Welten ansehen können. Wenn sie im Quantensinn absolut identisch sind, sind sie vielleicht ein und dieselbe Welt. Niemand wäre in der Lage, beide Welten gleichzeitig zu sehen oder irgendwie sonst zu unterscheiden, denn sie sind durch Ereignishorizonte auf ewig vom Rest des expandierenden Raums isoliert. Vielleicht ist das ein Zeichen dafür, dass die Unendlichkeit des Raums eine irreführende Vorstellung sein könnte, die keine physikalische Relevanz hat. In der Allgemeinen Relativitätstheorie kann ein solcher unendlicher Raum noch Sinn machen – wir sind ihm in Kap. 2 öfter begegnet. Sobald aber die Quantenmechanik ins Spiel kommt, könnte diese Idee fragwürdig werden. Es wird daher Zeit, dass wir uns einmal ernsthaft die Frage stellen, was der Raum aus dem Blickwinkel der Quantenmechanik eigentlich ist.
Der emergente Raum Eine Welt ohne Raum und Zeit können wir uns kaum vorstellen. Der Philosoph Immanuel Kant hat Raum und Zeit einmal als apriorische Anschauungsformen bezeichnet, d. h., sie liegen unserem gesamten Denken zugrunde. Wir brauchen sie, um die Welt um uns herum in unserer Wahrnehmung zu ordnen. Isaac Newton ging sogar noch weiter und behauptete, dass Raum und Zeit als absolute Größen existieren, ganz unabhängig von dem, wie wir die Welt wahrnehmen oder was physikalisch geschieht. Damit ist er allerdings über das Ziel hinausgeschossen, wie Albert Einstein mit seiner Relativitätstheorie zeigen konnte: Raum und Zeit sind keine unbeteiligte Bühne, sondern sie sind selbst physikalische Akteure, deren Krümmung von der Materie bestimmt wird und die umgekehrt die Bewegungen der Materie steuern. In der klassischen Physik sind Raum und Zeit unverzichtbar. Jederzeit kann man angeben, wo sich ein Objekt gerade befindet oder welchen Wert ein elektrisches Feld an einer bestimmten Stelle gerade aufweist. Raum und Zeit schaffen Ordnung in unserer makroskopischen Welt. In der Quantenmechanik ist das weniger klar. Wenn es nur um ein einziges Teilchen geht, dann schwingt seine Quantenwelle noch ähnlich wie ein elektromagnetisches Feld im gewohnten 3-dimensionalen Raum.
4 Die Grenzen der Information: Schwarze Löcher … 251
Aber schon bei den beiden Elektronen in der Hülle eines Heliumatoms stimmt das nicht mehr. Sie werden durch eine gemeinsame Quantenwelle beschrieben, die im Konfigurationsraum der beiden Teilchen schwingt – das ist der 6-dimensionale Raum aller Teilchenkoordinaten (3 Koordinaten pro Teilchen). Man gibt also an, welchen Wert die Quantenwelle für jede Kombination der beiden Teilchenorte annimmt. Bei den mehr als 1022 Gasmolekülen in 1 l Zimmerluft ist der Konfigurationsraum schon fast 1023-dimensional. Die Quantenwellen, die die kollektiven Mikrozustände all dieser Gasmoleküle beschreiben, schwingen in diesem hochdimensionalen Raum. Niemand kann sich eine solche Quantenwelle noch vorstellen oder gar berechnen. Noch schlimmer wird es, wenn man Felder wie das elektromagnetische Feld hinzunimmt. Der Konfigurationsraum enthält dann zusätzlich alle Möglichkeiten, wie dieses Feld den gesamten Raum erfüllen und darin schwingen kann, und jeder dieser unzähligen Möglichkeiten wird ein Wert für die Quantenwelle zugeordnet. Es ist gleichsam eine Welle, die im Raum aller Felder lebt. Das gilt letztlich sogar für Teilchen wie Elektronen, denn sobald die Relativitätstheorie im Spiel ist, werden auch sie durch schwingende Elektronenfelder beschrieben. Erst wenn wir diese Quantenfelder auf bestimmte Weise messen wollen, beispielsweise mit einem Detektorschirm, erscheinen sie uns dank Verschränkung und Dekohärenz in Form von Teilchen. Sobald die Quantenmechanik im Spiel ist, wird es also sehr kompliziert, denn Quantenwellen enthalten alle möglichen Überlagerungen der klassischen Konfigurationen. Ein Teilchen ist nicht einfach nur hier oder dort, und ein Feld besitzt nicht einfach nur die eine oder andere Schwingungsform. Nein, all diese Konfigurationsmöglichkeiten können in einer Quantenwelle präsent sein und sich darin überlagern. Physikerinnen und Physiker hatten auch ihre liebe Mühe, all diese Quantenmöglichkeiten im Rahmen der sogenannten Quantenfeldtheorien in den Griff zu bekommen. Es ist ihnen nach mehreren Jahrzehnten harter wissenschaftlicher Arbeit tatsächlich gelungen, mit dem Standardmodell der Teilchenphysik ein umfassendes Gebäude für die Felder unserer Welt zu finden, wie wir in Kap. 2 gesehen haben. Wir wissen heute, welche Felder (Quarks, Leptonen, Higgs, starke, schwache und elektromagnetische Kraftfelder) wir brauchen, um den Konfigurationsraum aufzubauen, und wir haben Rezepte entwickelt, um mit den Quantenwellen in diesem Raum der Felder umzugehen. Diese Rezepte versagen allerdings, wenn wir die Gravitation hinzunehmen wollen. Eigentlich müssten wir dafür im Konfigurationsraum nämlich sämtliche mögliche Schwingungen und Krümmungen berücksichtigen, die Raum und Zeit aufweisen können, denn diese Krümmungen
252 J. Resag
beschreiben die Gravitation. Aber dadurch wird dieser Konfigurationsraum so riesig und monströs, dass wir Schwierigkeiten bekommen, die Quantenwellen in diesem Raum „leben zu lassen“. Besonders die sehr starken Krümmungen, wie sie beim Urknall oder in Schwarzen Löchern vorkommen, machen hier Probleme. Wo könnte der Fehler liegen? Wenn wir uns unsere Vorgehensweise noch einmal kritisch anschauen, erkennen wir ein typisches Muster: Wir starten mit klassischen Feldern oder einer klassischen gekrümmten Raumzeit, die gewissen klassischen Feldgleichungen gehorchen. Daraus konstruieren wir den Konfigurationsraum. Erst dann kommt die Quantenmechanik ins Spiel, indem wir Quantenwellen in diesem Konfigurationsraum schwingen lassen. Aber ist das die richtige Vorgehensweise? Was, wenn unsere Welt in ihrem tiefsten Inneren quantenmechanisch ist? Was, wenn wir die wahren Freiheitsgrade der Welt, also den echten Konfigurationsraum, mit unserer bisherigen Methode gar nicht richtig erfassen können? Tatsächlich haben wir bereits einen entsprechenden Hinweis in dieser Richtung gesehen: Das für uns zugängliche Universum innerhalb unseres Ereignishorizonts enthält etwa 10122 Freiheitsgrade, Pixel oder Bits. So groß ist also unser Konfigurationsraum, in dem die Quantenwelle lebt. Wenn wir aber wie bisher diesen Raum aus kontinuierlichen Größen wie Feldern und Raumzeitkrümmungen aufbauen, enthält er unendlich viele Bits, denn kontinuierliche Größen können unendlich viel Information speichern. Wir haben die Grenzen der Winzigkeit nicht beachtet, die die Größe des Konfigurationsraums einschränken. Leider wissen wir heute nicht, wie der wahre Konfigurationsraum unserer Welt aussieht. Wüssten wir es, so hätten wir die berühmte Weltformel gefunden. Davon sind wir aber wohl noch ein gutes Stück entfernt. Es gibt zwar im Rahmen der Stringtheorie oder der Schleifenquantengravitation durchaus Ansätze, hier voranzukommen, aber so ganz überzeugend ist das bisher noch nicht. Das könnte daran liegen, dass beide Ansätze unserer bisherigen Vorgehensweise treu bleiben, nur dass man statt mit Feldern mit schwingenden Energiefäden im Raum startet oder die Dynamik des gekrümmten Raums mit speziellen Schleifenvariablen umformuliert. In beiden Fällen spielt der Raum als Startpunkt wieder eine fundamentale Rolle, bevor später die Quantenmechanik ins Spiel kommt. Aber wenn der Raum nur eine begrenzte Anzahl von Freiheitsgraden enthält, kann er selbst nicht fundamental sein. Er muss sich erst im Nachhinein aus dem quantenmechanischen Zusammenspiel der Freiheitsgrade irgendwie ergeben. Wie auch immer die fundamentalen Pixel oder Bits unserer Welt aussehen, so sind sie wohl nicht wie Schaumbläschen gleichmäßig im Raum
4 Die Grenzen der Information: Schwarze Löcher … 253
verteilt. Das sieht man schon daran, dass ihre Anzahl mit der Oberfläche und nicht dem Volumen eines Raumbereichs zusammenhängt. Eine Idee wäre es, einfach mit irgendwelchen ganz abstrakten Infopixeln ohne jeden Raumbezug zu starten und sich anzuschauen, was das für die Quantenwellen bedeutet, die im abstrakten Konfigurationsraum dieser Pixel schwingen. Haben diese Quantenwellen irgendwelche Merkmale, die man als das Entstehen eines Raums interpretieren kann? Kann man beispielsweise eine Art von Abstandsbegriff aus den Quantenwellen extrahieren? Da wir über die Dynamik dieser Quantenwelle wenig wissen, können wir nur ganz allgemeine Quanteneigenschaften verwenden. Die wichtigste von ihnen ist das Phänomen der Verschränkung, das uns in Kap. 3 so intensiv beschäftigt hat. Über die Verschränkung kann die Quantenwelle das Verhalten verschiedener Pixel miteinander verknüpfen und so komplexe Korrelationen zwischen ihnen codieren. In der Welt der Atome sind solche Verschränkungen meist umso stärker ausgeprägt, je räumlich näher sich die Atome sind. Das können wir nun umkehren und räumliche Nähe zwischen Pixeln über das Ausmaß ihrer Verschränkung definieren. Wir können nach Verschränkungsstrukturen innerhalb der Pixel suchen und dann definieren, dass zwei passende Pixelgruppen einander umso näher sind, je stärker sie im Mittel miteinander verschränkt sind, je mehr sie also ihr Verhalten quantenmechanisch koordinieren. Das ist schon eine etwas verblüffende Idee, denn ausgerechnet das Phänomen der Verschränkung hatte uns in Kap. 3 den nichtlokalen Charakter der Quantenmechanik so eindrucksvoll demonstriert. Und nun könnte es das Werkzeug sein, mit dem sich in der nichtlokalen Quantenwelt der abstrakten Pixel im Nachhinein wieder so etwas wie Lokalität und Abstand ergibt. Es wäre allerdings keine absolute Lokalität, die für jedes einzelne Pixel gilt, sondern es wäre ein Raumbegriff, der erst durch das komplexe Zusammenspiel sehr vieler Pixel entsteht. Man nennt so etwas ein emergentes Phänomen. Auf der untersten Ebene der Pixel gibt es demnach keinen Raum, ähnlich wie ein einzelnes Atom auch keine Temperatur hat. Damit könnte auch die Frage, ob der emergente Raum unendlich groß ist, in einem neuen Licht erscheinen. Es wäre gut möglich, dass diese Frage physikalisch letztlich bedeutungslos ist. DEN Raum, wie er in unserer Vorstellung existiert, gibt es so nämlich gar nicht. So schön diese Idee ist, so muss sie natürlich weiter ausgearbeitet werden. Wie genau entsteht die Geometrie des gekrümmten Raums aus der Verschränkungsstruktur der Pixel? Welche Rolle spielt dabei die Entropie? Und kann man Einsteins Feldgleichungen für das Zusammenwirken von Raum und Materie daraus ableiten? Erste Erfolge stimmen zuversichtlich, dass
254 J. Resag
dieser Weg vielversprechend sein könnte, aber es würde den Rahmen dieses Buches sprengen, hier tiefer einzusteigen.6
Wheeler-DeWitt-Gleichung und die emergente Zeit Wenn der Raum ein emergentes Phänomen ist, wie sieht es dann mit der Zeit aus? Dank Einstein wissen wir seit gut einem Jahrhundert, dass Raum und Zeit eng miteinander verknüpft sind. Müsste da nicht auch die Zeit ein emergentes Phänomen sein, das auf der untersten Quantenebene womöglich gar nicht existiert? Die Frage ist gar nicht so leicht zu beantworten. In der Quantenmechanik spielt die Zeit nämlich eine fundamentale Rolle, denn die SchrödingerGleichung beschreibt, wie sich eine Quantenwelle zeitlich entwickelt. Andererseits gibt es in der gekrümmten Raumzeit der allgemeinen Relativitätstheorie keine absolute Zeit mehr, die im gesamten Universum Gültigkeit hat. „Zeit ist das, was man an der Uhr abliest“, hat Albert Einstein einmal treffend gesagt. Nun läuft eine Uhr auf Meereshöhe aber etwas langsamer als eine Uhr auf einem Berggipfel – ein Phänomen, das man mit modernen Atomuhren präzise nachweisen kann. Am Ereignishorizont eines Schwarzen Lochs bleibt die Zeit von außen betrachtet sogar komplett stehen. Das führt dazu, dass man nicht alle Uhren im Universum miteinander synchronisieren kann. Es gibt streng genommen nur noch eine lokale Zeit, aber keine universell gültige globale Zeit mehr. Die Weltzeit, die wir in Kap. 2 über das Alter der auseinanderstrebenden Galaxien definiert haben, ist also nur eine – wenn auch sehr gute – Näherung. Auf der fundamentalen Ebene müssen aber Quantentheorie und Allgemeine Relativitätstheorie zusammenkommen. Nur wie soll das gehen, wenn die Quantenmechanik eine universelle Zeit annimmt und die Allgemeine Relativitätstheorie genau das Gegenteil behauptet? Alleine daran sieht man schon, wie schwierig es ist, eine konsistente Theorie der Quantengravitation zu formulieren. Eine solche Theorie brauchen wir aber, wenn wir die Quantenwelt des Universums wirklich verstehen wollen.
6 Mehr
zu diesem Thema finden Sie beispielsweise in Sean Carrolls Buch Was ist die Welt und wenn ja, wie viele.
4 Die Grenzen der Information: Schwarze Löcher … 255
Einen sehr interessanten Versuch, eine Theorie der Quantengravitation zu formulieren, unternahmen in den späten 1960er-Jahren Everetts Doktorvater John Archibald Wheeler und der spätere Unterstützer seiner VieleWelten-Quanteninterpretation Bryce DeWitt. Sie orientierten sich an der Vorgehensweise, mit der man die klassische Mechanik in die Quantenmechanik übersetzen kann, und übertrugen diese auf die Allgemeine Relativitätstheorie. Dazu mussten sie in einem ersten Schritt die gekrümmte 4-dimensionale Raumzeit in viele einzelne Scheiben zerschneiden – in verschiedene 3-dimensionale Räume der Gleichzeitigkeit. Wir wissen schon, dass es dafür verschiedene Möglichkeiten geben kann, denn der Begriff der Gleichzeitigkeit ist oft mehrdeutig. Anschließend formulierten sie eine Art von Schrödinger-Gleichung für die Quantenwelle der verschiedenen Geometrien und Krümmungen, die diese 3-dimensionalen Räume aufweisen können. So wie bei einem einzelnen Teilchen die verschiedenen Teilchenorte den Konfigurationsraum bilden, in dem die Quantenwelle dieses Teilchens lebt, so lebt bei Wheeler und DeWitt die Quantenwelle des Universums im Konfigurationsraum der 3-dimensionalen Raumgeometrien und Krümmungen. Zu jeder einzelnen Möglichkeit, wie der 3-dimensionale gekrümmte Raum der Welt aussehen kann, besitzt die universelle Quantenwelle einen bestimmten Wert, also eine Amplitude, die wir uns wie in Kap. 3 als Pfeil in einem Farbkreis vorstellen können. Es ist ein wahrer Monsterkonfigurationsraum, aber so muss es wohl sein, wenn man das gesamte Universum im Blick haben will. Nehmen wir in Gedanken noch sämtliche Materiekonfigurationen hinzu, die die Teilchen und Felder in diesen Räumen einnehmen können, dann haben wir Everetts universelle Quantenwelle vor uns, die unsere Welt bis ins kleinste Quantendetail beschreibt. Die verallgemeinerte Schrödinger-Gleichung, die Wheeler und DeWitt für diese universelle Quantenwelle aufgestellt haben, heißt heute ihren Entdeckern zu Ehren Wheeler-DeWitt-Gleichung. Sie ist mathematisch nicht sonderlich gut definiert und nur in einfachen Spezialfällen lösbar, was wohl damit zusammenhängt, dass ihr Konfigurationsraum noch nicht ganz korrekt sein kann – wir reden hier ja noch von gekrümmten Räumen und nicht von den unbekannten fundamentalen Bits und Pixeln. Aber dennoch sollte ihre grobe Struktur korrekt sein, sodass wir eine Menge über unseren Quantenkosmos daraus lernen können. Was sagt die Wheeler-DeWitt-Gleichung nun zur zeitlichen Entwicklung der Quantenwelle des Universums? Die Antwort ist ebenso überraschend wie verstörend, denn die Gleichung sagt, dass es keinerlei zeitliche
256 J. Resag
Entwicklung der universellen Quantenwelle mehr gibt. Die Quantenwelle des Kosmos ist ein statisches Gebilde ohne jede zeitliche Veränderung. Sie ist einfach nur da – ein bizarres Wellengebilde in einem zeitlosen Quantenkosmos. Wenn wir eine Weile darüber nachdenken – ganz so überraschend ist dieses Ergebnis dann doch nicht. Wir wissen ja, dass es in der Allgemeinen Relativitätstheorie der gekrümmten Raumzeiten keine universelle Zeit mehr gibt. Warum sollte sie dann in einer Quantenversion dieser Theorie existieren? Wo sollte die universelle Zeit, auf die sich die Schrödinger-Gleichung bezieht, auf einmal herkommen? Anscheinend tut sie es auch nicht, denn in der WheelerDeWitt-Gleichung ist sie komplett verschwunden. Vielleicht fragen Sie sich, wie die Zeit überhaupt aus der SchrödingerGleichung bzw. der Wheeler-DeWitt-Gleichung verschwinden kann. Es ist ganz einfach: Die Schrödinger-Gleichung sagt im Wesentlichen, dass eine Quantenwelle umso schneller schwingt, je mehr Energie sie hat. Bei Energie null würde sie demnach überhaupt nicht schwingen. Wenn also unser Universum insgesamt die Energie null hat, wäre es vollkommen verständlich, dass seine Quantenwelle ein statisches Gebilde ist. Für eine Quantenwelle mit Energie null verschwindet die Zeit aus der Schrödinger-Gleichung, was sich in der Zeitlosigkeit der Wheeler-DeWitt-Gleichung ausdrückt. Bleibt also die Frage, ob unser Universum tatsächlich die Energie null aufweist. Absolut sicher ist das nicht, aber es spricht doch vieles dafür. Ein geschlossenes Kugeloberflächenuniversum, wie es uns in Kap. 2 begegnet ist, muss sogar exakt die Energie null haben. Allerdings wissen wir nicht, ob wir in einem solchen Universum leben, denn zumindest der uns zugängliche Teil des Universums erscheint flach und hat keine messbare Raumkrümmung, wie wir wissen. Einen anderen Hinweis kennen wir aus der Inflationstheorie. Dort haben wir gesehen, dass ein komplettes Universum aus nahezu nichts entstehen kann. Es genügt ein winziges Keimvolumen mit hochenergetischem Inflatonfeld, das durch seine abstoßende Gravitation den Raum nahezu explosionsartig expandieren lässt und so ein ganzes Universum erschaffen kann. Für diesen Vorgang ist keinerlei Energiezufuhr nötig, denn die abstoßende Gravitation stellt die komplette Energie zur Verfügung, die zur Bildung des Inflatonfeldes nötig ist, aus dem später die Materie hervorgeht. Zu jeder Zeit gleichen sich die negative Energie des Gravitationsfeldes und die positive Energie der Materie exakt aus. Auch andere davon unabhängige Untersuchungen kommen zu demselben Ergebnis. Sehr wahrscheinlich hat unser Universum also tatsächlich
4 Die Grenzen der Information: Schwarze Löcher … 257
die Gesamtenergie null, sodass seine universelle Quantenwelle tatsächlich zeitlos sein sollte. Auf der alleruntersten Quantenebene bewegt sich nichts, wenn wir das komplette Universum betrachten. Eine absolute Zeit gibt es demnach nicht. Man könnte versucht sein, die zeitlose Wheeler-DeWitt-Gleichung damit auf den wissenschaftlichen Müllhaufen zu werfen, denn ganz ohne Zweifel ist die Zeit ein sehr sinnvolles physikalisches Konzept – wie sonst sollte man den Flug eines Raumschiffs oder die Schwingung des Lichts beschreiben? Dasselbe gilt allerdings auch für den Begriff des Raums, und doch haben wir bereits die starke Vermutung geäußert, dass auch er auf der fundamentalen Ebene des Quantenkosmos nicht existiert. Erst die Struktur der Verschränkungen in der universellen Quantenwelle könnten den Raum als emergentes Phänomen entstehen lassen. Könnte dasselbe auch für die Zeit gelten? Schauen wir uns zum Vergleich noch einmal die vielen einzelnen Datenbits auf einer Blu-Ray-Disc an. Nichts deutet zunächst darauf hin, dass sich hinter diesen Bits räumliche Bilder oder ein zeitlicher Ablauf verbergen könnten. Die Bits sind einfach nur statisch auf der Disc eingebrannt. Erst wenn wir die darin codierten Informationen geeignet analysieren und aufbereiten, so wie es ein Blu-Ray-Player macht, tritt die raumzeitliche Welt des Films zutage. Nun können wir die Quantenwelle des Kosmos nicht auf einem Blu-RayPlayer abspielen – insofern hinkt der Vergleich natürlich. Aber sie schafft Strukturen und Korrelationen im Konfigurationsraum der kosmischen Datenbits, die man in bestimmten Fällen als das Entstehen einer zeitlichen Struktur deuten kann. Bestimmte Bitgruppen könnten die Funktion von Uhren übernehmen, die wiederum mit vielen anderen Bits untrennbar verschränkt sind, sodass eine Korrelation zwischen einer Uhr und einer Welt um sie herum entsteht. Die Quantenwelle muss sich dabei gar nicht zeitlich entwickeln. Sie enthält alle Uhrzeiten und alle zugehörigen Welten simultan in einer einzigen riesigen Überlagerung, ähnlich wie die Blu-Ray-Disc den kompletten Film enthält. So könnte die Quantenwelle beispielsweise einen typischen Morgen bei Ihnen oder mir zu Hause enthalten: [universelle Quantenwelle] = = [Uhr : 07 : 00] · Mein Wecker klingelt + + [Uhr : 07 : 10] · [Ich stehe unter der Dusche]+ .. .. + [Uhr : 07 : 30] · Bin beim Fr u hst u ck + . . .
258 J. Resag
In der zeitlosen Quantenwelle existiert alles zugleich. Aber wir als lokale makroskopische Wesen sind ein Teil dieser Quantenwelle, und erst unsere Verschränkung mit der äußeren Welt lässt eine Art von lokaler Zeit entstehen. Für ein allwissendes Wesen, das aus einer Art Vogelperspektive die komplette Quantenwelle überblicken kann, gibt es keine solche Zeit. Aus unserer beschränkten Froschperspektive als Teil der Quantenwelle spüren wir dagegen eine Zeit, die unseren jeweiligen Verschränkungszustand mit der äußeren Welt charakterisiert (um 7:10 Uhr stehe ich unter der Dusche).
Zukunft und Vergangenheit Zeit ist das, was man an der Uhr abliest, und diese Uhr ist mit der Welt um sie herum verschränkt, sodass sie deren lokalen Zeitstandard liefert. So weit, so gut! Aber haben wir damit das Phänomen der Zeit wirklich schon umfassend verstanden? Was ist mit dem Fluss der Zeit, die uns unweigerlich mit jeder verrinnenden Sekunde weiter von der Vergangenheit in die Zukunft trägt, aber niemals umgekehrt? Die Zeit ist mehr als eine reine Zeitkoordinate, auf der wir uns analog zu den 3 Raumkoordinaten frei bewegen könnten. Es gibt nur eine Richtung, weshalb man auch vom Zeitpfeil spricht. Müssen wir das einfach so hinnehmen, oder gibt es einen physikalischen Grund dafür? Wenn wir uns die heute etablierten fundamentalen Gesetze der Physik anschauen, dann finden wir dort nirgends einen solchen Zeitpfeil. Wenn wir beispielsweise einen Film von der Bewegung der Planeten im Sonnensystem drehen und diesen dann rückwärts abspielen, werden wir nichts Ungewöhnliches bemerken. Auch der rückwärts laufende Film zeigt einen physikalisch möglichen Ablauf. In der Quantenmechanik ist das nicht anders. Wenn wir die zeitliche Entwicklung einer Elektronquantenwelle in einem Wasserstoffatom berechnen und diese zeitlich umdrehen, dann ist auch dies eine mögliche zeitliche Entwicklung nach den Regeln der Schrödinger-Gleichung. Die fundamentalen Gesetze der Physik sind zeitsymmetrisch (von winzigen Abweichungen bei seltenen Teilchenzerfällen einmal abgesehen, was aber für unsere Diskussion keine Rolle spielt). Wenn wir allerdings den quantenmechanischen Messprozess betrachten, dann zerstört dieser die Zeitsymmetrie. Vor der Messung wissen wir beispielsweise nicht, wo sich ein Elektron befindet, aber nach der Messung schon. Es gibt einen klaren Unterschied zwischen Zukunft und Vergangenheit.
4 Die Grenzen der Information: Schwarze Löcher … 259
Ähnlich ist es, wenn wir das Verhalten makroskopischer Körper betrachten. Eine Tasse mit heißem Tee kühlt auf Raumtemperatur ab und wird nicht von selbst heißer. Der 2. Hauptsatz der Thermodynamik drückt dieses Phänomen durch die Entropie aus, indem er sagt, dass die Gesamtentropie eines abgeschlossenen Systems (z. B. Teetasse und Umgebung) zunimmt und im thermischen Gleichgewicht ihr Maximum erreicht (Teetasse und Umgebung gleich warm). Wie kommt es, dass der quantenmechanische Messprozess und der 2. Hauptsatz der Thermodynamik die Zeitsymmetrie verletzen und zur Ausbildung eines Zeitpfeils führen? Der Grund liegt darin, dass es sich bei ihnen nicht um fundamentale Prozesse handelt, sondern um angenäherte Beschreibungsweisen, die das statistische Verhalten einer großen Zahl von Freiheitsgraden zusammenfassen. Bei der Teetasse im Zimmer ist es das Gewimmel der Atome, die von unwahrscheinlichen in wahrscheinlichere Makrozustände übergehen. Und beim Messprozess ist es die Verschränkung mit den Atomen des Messgeräts und der Umgebung sowie deren Dekohärenz, die ein Messergebnis nahezu blitzartig makroskopisch fixieren und so den Zeitpfeil hervorbringen. Ohne makroskopische Objekte wie die Teetasse oder das Messgerät gibt es keinen Zeitpfeil. Verschränkung und Dekohärenz – das sind letztlich die entscheidenden Zutaten, die man in beiden Fällen für den Zeitpfeil braucht. Durch die unvermeidliche Wechselwirkung beispielsweise der Teetasse mit der Umgebung verschränkt sich nämlich ihr Quantenmikrozustand immer mehr mit den Zuständen der Umgebung, sodass ihr eigener Mikrozustand immer unbestimmter wird. Immer mehr lokale Quanteninformation wandert unwiederbringlich aus der Teetasse nach draußen und ist nur noch in den nichtlokalen Verschränkungen der universellen Wellenfunktion des Universums enthalten, an die wir als lokale Wesen nicht rankommen. Die Entropie der Teetasse, die ein Maß für diese fehlende Information ist, steigt an, weil uns die Information über ihre Verschränkung mit den unzähligen anderen Teilchen des Universums prinzipiell fehlt. Damit es überhaupt einen Unterschied zwischen Zukunft und Vergangenheit geben kann, muss die Entropie des Universums zu einem bestimmten Zeitpunkt besonders klein gewesen sein. Falls dieser Zeitpunkt ein Minimum der Entropie darstellt, könnten wir ihn sogar als den Anfang des Zeitpfeils bezeichnen. Es würde keinen Sinn machen, von einer „früheren“ Zeit zu sprechen, denn der Weg in die Zukunft ist immer mit einem Anstieg der Entropie unserer Welt verbunden. In diesem Sinn wäre dieser Zeitpunkt niedrigster Entropie der Anfang unserer makroskopischen Zeit.
260 J. Resag
Der Ursprung des Zeitpfeils ist also kosmologischer Natur. Wie es zu einem solchen Anfangszustand mit minimaler Entropie gekommen sein könnte, wissen wir nicht. Eine dynamische Ursache-Wirkungs-Erklärung, wie wir sie uns vielleicht wünschen würden, wäre auch problematisch, denn diese würde ja ihrerseits einen noch früheren Zustand voraussetzen, der dann aber zugleich eine noch geringere Entropie aufweisen muss. In diesem Sinn kann es also keinen „dynamischen“ Grund für einen frühesten Anfangszustand des Universums geben. Aber es gibt eine mögliche Alternative, auf die bereits Ludwig Boltzmann bei seinen Überlegungen am Ende des 19. Jahrhunderts gestoßen ist: Wenn es schon keinen dynamischen Grund für eine niedrige Entropie geben kann, so kann sie sich doch, wenn man nur lange genug wartet, auch rein zufällig einstellen. Es ist zwar extrem unwahrscheinlich, dass sich aus dem Chaos der Atome plötzlich geordnete Strukturen wie Planeten oder Menschen mit niedriger Entropie bilden, aber unmöglich ist es nicht. Die Ewigkeit sollte genug Zeit zur Verfügung stellen, sodass auch das extrem Unwahrscheinliche irgendwann eintritt. Übersetzt in unser heutiges Wissen über einen möglichen inflationären Ursprung unseres Universums wird daraus sogar ein Szenario, dem man eine gewisse Plausibilität nicht absprechen kann. Stellen Sie sich einen Raum vor, in dem ein Inflatonfeld den wildesten Zufallsschwankungen unterliegt. Einen Zeitpfeil brauchen wir für dieses Bild nicht, denn die Feldschwankungen sehen in beiden Zeitrichtungen völlig zufällig aus. Wenn wir jetzt einfach lange genug warten, so wird sich in diesem Chaos irgendwann jede mögliche Feldkonfiguration rein zufällig einstellen. Eine extrem seltene Zufallsschwankung wird eines Tages ein sehr starkes Inflatonfeld in einem winzigen Raumgebiet erzeugen und damit das Keimvolumen für die kosmische Inflation bereitstellen. Die Entropie in diesem winzigen Keimvolumen ist viel kleiner als die des chaotisch schwankenden Feldes in den anderen Raumgebieten, genau deshalb sind wir ja auch auf einen extrem unwahrscheinlichen Zufall angewiesen, der bei einer ewig andauernden mikroskopischen Zeit aber irgendwann eintritt. Die abstoßende Gravitation des starken Inflatonfeldes bläht nun unser Keimvolumen explosionsartig auf und erzeugt so den Anfangszustand mit niedriger Entropie für unsere neu entstandene Universumsraumblase, den wir für unseren Zeitpfeil brauchen. Ab jetzt kann die Entropie in dieser expandierenden Blase wieder langsam anwachsen und so den Unterschied zwischen Vergangenheit und Zukunft bereitstellen, der uns allen so selbstverständlich erscheint.
4 Die Grenzen der Information: Schwarze Löcher … 261
Ein Universum aus dem Nichts Gibt es denn wirklich ein solches, sehr lange andauerndes Chaos, in dem sich irgendwann zufällig unser Keimvolumen mit niedriger Entropie bildet? Möglich wäre es, aber wir wissen es nicht. Vielleicht handelt es sich bei der richtungslosen mikroskopischen Zeit in diesem Bild auch nicht wirklich um etwas, das wir als „Zeit“ interpretieren müssen. Es könnte sich schlicht um einen Parameter handeln, der sehr viele mögliche Konfigurationen des Inflatonfeldes innerhalb der zeitlosen universellen Quantenwelle geeignet „durchnummeriert“. Die vielen völlig chaotischen Feldkonfigurationen würden dabei keine emergente Zeit und erst recht keinen gerichteten Zeitpfeil ermöglichen. Sie wären wie verrauschte Zufallspixelbilder auf einer Blu-Ray-Disc, die keinerlei Filmhandlung enthält. Nur die seltenen geordneten Inflatonfeldkonfigurationen, wie sie in unserem Keimvolumen vorliegen, wären als Startpunkt für einen Zeitpfeil geeignet und könnten über den Mechanismus der Inflation eine raumzeitliche Welt wie die unsere hervorbringen, die mit langsam wachsender Entropie von der Vergangenheit in die Zukunft voranschreitet. Man kann sich natürlich fragen, warum die universelle Quantenwelle überhaupt Amplituden für so seltene Inflatonfeldkonfigurationen enthalten soll. Es gibt dazu viele Ideen. Besonders interessant ist ein Ansatz von Alex Vilenkin aus dem Jahr 1982, den man mit den Worten „Quantentunneln aus dem Nichts“ charakterisieren kann. Vilenkin fragte sich, was eigentlich mit einem mikroskopisch kleinen geschlossenen Kugeloberflächenuniversum passiert, das sowohl gewöhnliche Materie als auch positive Raumenergie enthält, wie sie ein Inflatonfeld bereithält. Die Antwort hängt davon ab, wie groß dieses Mikrouniversum ist. Ist es extrem klein, vielleicht nur einige Planck-Längen groß, dann gewinnt die anziehende Gravitation der stark komprimierten Materie die Oberhand und das Universum kollabiert innerhalb von Sekundenbruchteilen. Ist es dagegen größer – sagen wir 1 Mio. Planck-Längen (was immer noch viel kleiner als ein Proton ist) – und ist zudem noch das energiereiche Inflatonfeld ausreichend stark, dann startet die inflationäre Expansion und aus diesem winzigen Keimuniversum entsteht unser schnell wachsender Inflatonkäse, in dem sich ständig neue Blasenuniversen wie das unsere bilden. Kann man ein zu kleines Kugeloberflächenuniversum, das eigentlich kollabieren will, so weit vergrößern, dass es schließlich die Schwelle zur inflationären Expansion überschreitet und zu expandieren beginnt? Vilenkin rechnete es nach und fand heraus, dass dafür sehr viel Energie notwendig
262 J. Resag
wäre, denn es liegt eine Energiebarriere zwischen den zu kleinen und den ausreichend großen Miniuniversen. So viel Energie ist aber nicht vorhanden. Es geht also nicht, wie es scheint. Oder doch? Wir kennen in der Natur analoge Mikroprozesse, bei denen ebenfalls eine Energiebarriere zwischen zwei Zuständen liegt. Ein Beispiel dafür ist der radioaktive Alphazerfall von Uran-238, das mit 50 %iger Wahrscheinlichkeit innerhalb von gut 4 Mrd. Jahren ein Alphateilchen (das aus 2 Protonen und 2 Neutronen besteht) in seine Umgebung hinausschleudert und dabei zu einem Thorium-234-Kern zerfällt. Dabei muss das Alphateilchen eine hohe Energiebarriere überwinden, denn sein Mutterkern zieht es sehr stark zu sich heran. Erst wenn sich das Alphateilchen genügend weit vom restlichen Atomkern entfernen kann, erlahmt dessen Anziehungskraft und das Alphateilchen kann entkommen. Allerdings fehlt ihm dafür die Energie. Es müsste also ewig im starken Anziehungsfeld des Atomkerns gefangen bleiben und hätte keine Chance, jemals die hohe Energiebarriere nach draußen zu überwinden. Und dennoch geschieht es! Die Natur bietet dem Alphateilchen nämlich über die Quantenmechanik ein Schlupfloch nach draußen. Nach der Unschärferelation gibt es eine kleine Wahrscheinlichkeit dafür, dass sich das Alphateilchen bisweilen rein zufällig weit genug weg vom Urankern befindet und so entkommen kann. Man sagt auch, es hat die Energiebarriere durchtunnelt. Etwas ganz Ähnliches kann auch bei Vilenkins Mikrouniversum geschehen. Dessen Größe unterliegt nämlich ähnlichen Quantenschwankungen wie der Abstand des Alphateilchens von seinem Atomkern. Rein zufällig kann also ein zu kleines Mikrouniversum die Energiebarriere durchtunneln und groß genug werden, um die inflationäre Expansion starten zu können. Die Tunnelwahrscheinlichkeit dafür, dass das geschieht, hängt von der Größe der Mikrouniversen vor und nach dem Tunnelvorgang ab sowie vom Materieinhalt und der Stärke des Inflatonfeldes. Als Vilenkin die entsprechende Formel ausrechnete, machte er eine überraschende Entdeckung: Wenn er das Mikrouniversum vor dem Tunnelvorgang immer kleiner machte und schließlich sogar komplett verschwinden ließ, blieb die Tunnelwahrscheinlichkeit dennoch endlich. Immer noch gab es eine Chance, dass ein ausreichend großes Keimuniversum entsteht, das genügend Inflatonfeld enthält und so die inflationäre Expansion in Gang setzen kann. Es war, als würde dieses Keimuniversum durch einen quantenmechanischen Zufall gleichsam aus dem Nichts entstehen, also aus dem Nichts in seine Existenz hineintunneln. Von der Energie her ist das kein Problem, denn als geschlossenes Kugeloberflächenuniversum hat es sowieso die Gesamtenergie
4 Die Grenzen der Information: Schwarze Löcher … 263
null, ist also eine energetische Gratismahlzeit. Aber nun hatte Vilenkin auch tatsächlich einen Weg gefunden, diese Gratismahlzeit Realität werden zu lassen. Wir können uns die spontane Entstehung des winzigen Keimuniversums aus dem Nichts heraus gut in einem einfachen Raum-Zeit-Diagramm veranschaulichen. Dafür lassen wir zwei Raumdimensionen weg, sodass das Keimuniversum einer geschlossenen Kreislinie gleicht, die während der inflationären Expansion schnell immer größer wird. Wenn wir nun die Zeit in dem Diagramm nach oben laufen lassen, entsteht so ein Raum-ZeitTrichter, der sich nach oben hin immer schneller öffnet (Abb. 4.7). Die spannende Frage ist nun, wie diese Raum-Zeit-Fläche im unteren Bereich aussieht, in dem das Keimuniversum durch den Tunnelprozess entsteht. Wie wir in der Abbildung sehen, ist die Raum-Zeit-Fläche dort vollkommen rund und glatt. Es gibt keinerlei Singularitäten oder sonstige Unregelmäßigkeiten. Die Mathematik des Tunnelprozesses interpretiert diese Eigenschaft so, als ob es dort noch keinerlei „echte“ Zeit gebe. Es gibt nur eine sogenannte „imaginäre“ Zeit, die sich ähnlich wie eine Raumdimension verhält. Erst wenn die Fläche den unteren abgerundeten Bereich verlässt und sich in den aufsteigenden Trichter verwandelt, wird aus der imaginären Zeit die normale Zeit. Das passt gut zu unserer Sichtweise, dass die Zeit ein emergentes Phänomen ist, die erst unter geeigneten
Abb. 4.7 Entstehung des Universums durch einen Tunnelprozess „aus dem Nichts“. (Quelle: Eigene Grafik)
264 J. Resag
Bedingungen aus dem Quantennebel der universellen Wellenfunktion auftaucht. Ganz zu Beginn – im unteren Bereich der Fläche – gibt es diese Zeit noch nicht. Entsprechend macht es auch keinen Sinn, danach zu fragen, was „vor“ der Entstehung des Keimuniversums geschah. Es wäre genauso sinnlos wie die Frage, was südlich des Südpols liegt. Wenn wir von der Wahrscheinlichkeit sprechen, dass durch einen Quantenprozess ein Keimuniversum zufällig aus dem Nichts heraus entsteht, dann bewegen wir uns im Rahmen der üblichen Sprechweise, nach der auch ein Uranatom zufällig radioaktiv zerfällt. Im Grunde ist dieser radioaktive Zerfall aber ein kontinuierlicher Messprozess, bei dem die Umgebung unablässig registriert, ob das Alphateilchen aus dem Atomkern herausgeschleudert wurde oder nicht. In der Sichtweise Everetts würden wir das so ausdrücken: Der instabile Atomkern verschränkt sich mit der Umgebung, wobei durch Dekohärenz ständig neue Zweige klassischer Realität entstehen. Zweige, in denen der Atomkern nach 1, 2, 3, … s noch intakt ist und Zweige, in denen er nach 1, 2, 3, … s zerfallen ist und die Umgebung das herausschießende Alphateilchen registriert hat. In ähnlicher Weise kann man nach Everett auch die spontane Entstehung des embryonalen Keimuniversums aus dem Nichts interpretieren: Im unergründlichen raum- und zeitlosen Quantennebel der universellen Quantenwelle – im gewissen Sinne das „Nichts“ – formieren sich klassische Realitätszweige, die neuen Keimuniversen entsprechen. Raum und Zeit emergieren aus den zeitlosen Tiefen der universellen Quantenwelle und bilden klassische Realitätszweige, in denen durch Inflation neue Universen entstehen – wieder und immer wieder. Es wäre eine bizarre Welt, ein Multiversum der Quantenkosmologie, wie Vilenkin es nennt, mit unzähligen inflationären Universen, in denen wie in lauter aufquellenden Käseblöcken ständig neue Blasenuniversen entstehen wie das unsere, von dem uns wiederum nur ein winzig kleiner Ausschnitt zugänglich ist. Manchmal bin ich mir nicht sicher, ob mir eine solche Welt in ihrer unfassbaren Größe und verschwenderischen Fülle wirklich gefällt. Der Natur ist das vermutlich egal, es könnte also tatsächlich so sein. Und faszinierend ist es allemal.
Wiedergeburt, Ereignishorizonte und Temperatur Wenn Sie sich von dieser kaum fassbaren Welt auch etwas erdrückt fühlen, möchte ich Ihnen an dieser Stelle gerne einen kleinen Gedanken mit auf den Weg geben, den ich irgendwie tröstlich finde. Wir hatten uns ja am
4 Die Grenzen der Information: Schwarze Löcher … 265
Ende des Kap. 1 die Zukunft des für uns sichtbaren Universums angesehen, die – ehrlich gesagt – nach heutiger Einschätzung ziemlich trostlos aussieht, sofern die Dunkle Energie konstant bleibt und das Universum auf ewig weiter auseinandertreibt. Alle Atome werden letztlich wohl zerfallen und sämtliche Teilchen werden von der beschleunigten kosmischen Expansion in den Weiten des Raums verstreut und bis zur Unkenntlichkeit verdünnt werden. Alles, was letztlich bleibt, ist ein dunkler, eiskalter, leerer Raum, in dem die Dunkle Energie die Herrschaft übernommen hat. Dass es darin einst vor Galaxien nur so wimmelte und dass sogar auf einem kleinen blauen Planeten Leben existierte, ist nur noch ein ferner Traum, der längst in Vergessenheit geraten ist. Ist das wirklich das trostlose Ende der Geschichte? Kann dieser leere dunkle Raum ewig so weiter existieren? Hier kommt die tröstliche Nachricht: Ganz so tot, wie es zunächst scheint, ist dieser Raum nicht. Es gibt in ihm eine extrem schwache Wärmestrahlung von gerade einmal rund 10−29 K, die auch von der beschleunigten kosmischen Expansion nicht beseitigt werden kann, denn sie ist letztlich die Ursache dieser Strahlung, wie wir gleich noch sehen werden. Durch einen extrem unwahrscheinlichen Zufall wird diese fluktuierende Strahlung eines sehr fernen Tages irgendwo in einem winzigen Raumgebiet genügend Energie in das brachliegende Inflatonfeld pumpen, sodass dort das Keimvolumen für eine neue inflationäre Expansion entsteht. Ein neues Universum wäre geboren. Zugegeben, dass so etwas geschieht, ist noch sehr viel unwahrscheinlicher, als dass sich eine Teetasse in einem Zimmer plötzlich von selbst auf 100 °C erhitzt. Wenn man es nachrechnet, kommt man auf aberwitzig kleine Wahrscheinlichkeiten von 10 hoch (−10 hoch 1056).7 Aber angesichts der Ewigkeit kommt auch eine derart geringe Wahrscheinlichkeit irgendwann zum Tragen, denn null ist sie nicht. Alles, was geschehen kann, geschieht in einem ewig fortdauernden Universum auch irgendwann. Vielleicht kommen Ihnen solche Überlegungen auch ein wenig absurd vor, und womöglich sind sie es auch. Letztlich zeigen sie, was der Begriff der Ewigkeit bedeutet, wenn wir ihn wirklich ernst nehmen. Aber andererseits, wenn wir schon über die Ewigkeit nachdenken, dann sind auch solche Gedankengänge grundsätzlich erlaubt. Nur wieso kann ein ansonsten leerer Raum mit einer kleinen positiven Raumenergie, wie sie die Dunkle Energie darstellt, überhaupt eine – wenn
7 Siehe
Sean M. Carroll, Jennifer Chen: Spontaneous Inflation and the Origin of the Arrow of Time, (2004), https://arxiv.org/abs/hep-th/0410270.
266 J. Resag
auch extrem kleine – Temperatur besitzen (man nennt sie Gibbons-HawkingTemperatur )? Warum kann unser Universum nicht kälter werden als rund 10−29 K, falls seine Dunkle Energie auf ewig konstant bleibt? Der Grund ist derselbe wie bei Schwarzen Löchern, die ebenfalls eine meist sehr kleine Temperatur besitzen: Es gibt einen Ereignishorizont. Dieser kann die virtuellen Teilchen-Antiteilchen-Paare, die ständig im leeren Raum für Sekundenbruchteile entstehen und wieder vergehen, trennen und ihr gegenseitiges Auslöschen verhindern, sodass eine schwache Strahlung entsteht. Das funktioniert auch am kosmischen Ereignishorizont, der uns in rund 17 Mrd. Lichtjahren Entfernung umgibt. Dieser Horizont existiert, weil die Dunkle Energie unser Universum beschleunigt expandieren lässt. Es ist ein faszinierendes Ergebnis der modernen Physik, dass jeder Ereignishorizont mit einer Temperatur verbunden ist. Das gilt bei Schwarzen Löchern ebenso wie bei unserem expandierenden Universum. Und es gilt sogar in einem Fall, bei dem wir normalerweise gar nicht an einen Ereignishorizont denken würden, nämlich bei einem Raumschiff, das für ewige Zeit seine Triebwerke eingeschaltet hat und im leeren Raum mit gleichmäßigem Schub beschleunigt. Für einen außenstehenden Beobachter wird sich dabei seine Geschwindigkeit immer mehr der Lichtgeschwindigkeit annähern. Das führt dazu, dass Lichtsignale, die weit genug hinter dem Raumschiff in dessen Richtung starten, niemals bei ihm ankommen werden. Der Abstand zwischen dem Lichtsignal und dem Raumschiff wird zwar mit jeder Sekunde ein Stückchen kleiner, aber dieses Stückchen schrumpft ebenfalls mit jeder Sekunde, ganz ähnlich wie bei dem Term 2 – 1/2 – 1/4 – 1/8 – …, der den Wert 1 nie unterschreitet. Für die Astronauten in dem beschleunigten Raumschiff gibt es also in der Rückrichtung einen Ereignishorizont. Würde das Raumschiff beispielsweise genauso so schnell beschleunigen wie ein Apfel, der von einem Baum herunterfällt, dann läge dieser Ereignishorizont rund 1 Lichtjahr hinter dem Raumschiff. Würde jemand jenseits dieses Horizonts einen Funkspruch senden, so käme dieser niemals beim Raumschiff an, wenn es seine Triebwerke nicht stoppt. Tatsächlich führt auch dieser Ereignishorizont zu einer winzig kleinen Temperatur für die Astronauten im Raumschiff. Bei unserer angenommenen Beschleunigung ist sie mit nur etwa 4 ∙ 10−20 K allerdings unmessbar klein. Die entsprechende Wärmestrahlung enthielte nur 1 Photon in rund 1000 Kubik-Lichtjahren Weltraum, und dieses Photon hat eine so geringe Energie, dass es wohl völlig unbemerkt bliebe. Aber dennoch – im Prinzip ist die Wärmestrahlung vorhanden! Der Effekt wurde 1976 von dem
4 Die Grenzen der Information: Schwarze Löcher … 267
kanadischen Physiker William Unruh vorhergesagt und heißt entsprechend Unruh-Effekt. Die reine Beschleunigung des Raumschiffs lässt die Astronauten also zumindest im Prinzip eine winzige Temperatur und eine entsprechende Wärmestrahlung empfinden. Ein nicht beschleunigter Beobachter, an dem das Raumschiff vorbeifliegt, sieht dagegen keine Photonen, obwohl sich beide im selben Raum befinden. Und würde das Raumschiff seine Triebwerke abschalten, wären die Photonen auch sofort verschwunden, denn es gäbe dann keinen Ereignishorizont mehr. Das ist alles sehr merkwürdig und zeigt, dass unsere bisherige Erklärung, am Ereignishorizont würden die Teilchen entstehen, etwas zu einfach ist. Schließlich gibt es Ereignishorizont und Photonen nur für die beschleunigten Astronauten, aber nicht für einen unbeschleunigten Beobachter, auch wenn dieser denselben Raum beobachtet. Für mich zeigt dieses Phänomen besonders schön, dass Teilchen keine fundamentalen Objekte sind. Fundamental ist vielmehr der Quantenzustand des leeren Raums, und dieser kann unterschiedliche Phänomene hervorbringen, wenn man ihn unterschiedlich beobachtet. Wir erinnern uns: In der Quantenmechanik sieht man nicht das, was ist, sondern das, was die Verschränkung von Messobjekt und Beobachter nach Dekohärenz in den einzelnen Zweigen erzeugt – und das kann eben auch wie ein Photon aussehen. Für den leeren Raum hat das interessante Konsequenzen. Im Prinzip entspricht er einem global verschränkten Quantenzustand für alle existierenden Teilchen und Felder, der sich im Zustand niedrigster Energie befindet. Wenn wir von der Energie null ausgehen, dann ist dieser Zustand absolut statisch und enthält keine realen Teilchen. Um das nachzuweisen, müssten wir ihn allerdings in einer Art Vogelperspektive beobachten, aus der wir den unendlich ausgedehnten leeren Raum komplett überblicken. Als lokale Wesen ist das für uns natürlich unmöglich. Wir können immer nur Experimente in kleinen Teilbereichen des Raums ausführen. Sind diese Teilbereiche sehr klein, dann kann der Raum in den Messungen wie eine fluktuierende Suppe aus Teilchen erscheinen – daher auch das vereinfachte Bild von den Teilchenpaaren, die am Ereignishorizont getrennt werden. Im Grunde ist es so ähnlich wie bei einem Elektron, das sich in einem Wasserstoffatom im Grundzustand befindet. Seine Quantenwelle ist (bis auf die gleichmäßige Rotation seiner Phase) statisch. Es gibt dort kein Elektron, das den Atomkern umkreist oder sich sonst irgendwie bewegt. Wenn wir aber nur einen winzigen Raumbereich in der Atomhülle mit
268 J. Resag
einem empfindlichen Messgerät überwachen, werden wir dort das Elektron manchmal nachweisen und manchmal nicht. Man hat den Eindruck, das Elektron würde wild in der Hülle seines Atoms hin- und herspringen. So ähnlich ist es auch mit den scheinbar fluktuierenden Teilchen im leeren Raum, wenn wir nur einen kleinen Bereich beobachten. Jetzt verstehen wir auch besser, warum ein Ereignishorizont zu einer schwachen Wärmestrahlung und entsprechenden Teilchen führt. Der Horizont schneidet nämlich einen Teil des Raums von uns ab und verhindert, dass wir uns mit ihm quantenmechanisch verschränken können. Das verändert für uns den Quantenzustand des leeren Raums und hat einen Einfluss darauf, was wir darin messen, sodass wir Teilchen einer Wärmestrahlung sehen. Ein anderer Beobachter, für den es diesen Ereignishorizont nicht gibt, sieht diese Teilchen dagegen nicht.
Warum gibt es alles und nicht nichts? Wir sind in diesem Buch bereits vielen großen Fragen nachgegangen. Das unendlich Große hat uns ebenso beschäftigt wie das unendlich Kleine, wir haben den Grenzen der Ewigkeit nachgespürt und wir sind mit der universellen Quantenwelle schließlich auf eine Wirklichkeit gestoßen, die mit dem, was wir normalerweise für real halten, nur noch wenig zu tun hat. Die vielleicht größte und schwierigste Frage von allen haben wir bisher aber kaum gestreift: Warum gibt es überhaupt etwas und nicht nichts? Warum existiert unsere Welt? Oder wie John Archibald Wheeler es ausgedrückt hat: „How come existence?“ Die Frage erscheint uns Menschen absolut natürlich, schließlich können wir ja auch fragen, warum die Sonne existiert. Bei der Sonne gibt es sogar eine Antwort: Sie hat sich vor gut 4 Mrd. Jahren aus einer kontrahierenden Gaswolke gebildet. Und warum existierte die Gaswolke? Weil sich ihre Atome rund 380.000 Jahre nach dem Urknall aus herumschwirrenden Atomkernen und Elektronen gebildet haben. Und wo kommen diese Teilchen her? Sie haben sich vermutlich aus der Energie eines zerfallenden Inflatonfeldes materialisiert. Und wo kommt dieses hochenergetische Feld her? Es ist vielleicht zufällig durch ein passendes Keimvolumen entstanden, das danach inflationär expandiert ist. Und wieso existierte das Umfeld für ein solches Keimvolumen? Es könnte durch einen quantenmechanischen Tunnelvorgang aus dem „Nichts“ entstanden sein oder einfach nur als Teil einer zeitlosen universellen Quantenwelle existieren. Aber wieso kann es
4 Die Grenzen der Information: Schwarze Löcher … 269
einen solchen Tunnelvorgang geben und wieso existiert eine universelle Quantenwelle? Sie sehen schon, dass wir immer weiter fragen können und dass die Antworten immer weniger befriedigend ausfallen, je weiter weg sie sich von unserem gewohnten Umfeld bewegen. Bei der Antwort für die Existenz der Sonne können wir sofort zustimmen, aber was soll ein Tunnelvorgang aus dem Nichts oder eine universelle Quantenwelle denn sein? Ist das wirklich ein befriedigender Grund? Sie ahnen sicher, dass wir bei der ultimativen Frage nach dem Grund für die Existenz von „allem“ in ein Problem laufen. Selbst wenn wir irgendeine Antwort auf diese Frage erhalten, würde uns diese Antwort zufriedenstellen? Und können wir nicht auch dann immer weiterfragen? Besonders schön hat es Douglas Adams in seiner Buchreihe Per Anhalter durch die Galaxis auf den Punkt gebracht, in der eine sehr fortgeschrittene Alienzivilisation es endgültig leid ist, über die „Frage nach dem Leben, dem Universum und einfach allem“ nachzudenken. Also bauen sie den Supercomputer Deep Thought und lassen ihn die finale Antwort ein für alle Mal ermitteln. Nach 7,5 Mio. Jahren Rechenzeit kommt schließlich der große Tag und Deep Thought verkündet der staunenden Menge sein Ergebnis: 42. Natürlich gefiel den hyperintelligenten Aliens diese Antwort nicht, aber Deep Thought versicherte ihnen, sie sei richtig. Und was soll eine große Rechenmaschine denn auch sonst ausspucken als eine Zahl? Als die desillusionierten Aliens den Rechner fragen, was 42 denn zu bedeuten habe, antwortet dieser, vermutlich sei die Frage noch nicht ganz klar gewesen, das müsse dann ein noch größerer Computer klären. Ist es also geradezu lächerlich, die große Frage nach dem Grund für die Existenz der Welt zu stellen? Ich finde, sie ist durchaus legitim, auch wenn wir nicht allzu viel von einer Antwort erwarten sollten. Und da sich die Frage uns Menschen geradezu aufdrängt, haben sich im Lauf der Jahrhunderte natürlich auch viele große Gelehrte, Philosophen und auch mancher Naturwissenschaftler damit beschäftigt. Der amerikanische Journalist und Buchautor Jim Holt hat ein sehr unterhaltsames Buch mit dem Titel Gibt es alles oder nichts? Eine philosophische Detektivgeschichte dazu geschrieben. Darin wird deutlich, wie verzwickt die Frage ist und wie viele verschiedene Antworten darauf bereits gegeben wurden. Was soll denn beispielsweise das „Nichts“ überhaupt sein, wenn man es als Alternative zur Welt hinstellt? Kann man beispielsweise „nichts“ zu Weihnachten geschenkt bekommen? Sie sehen, wie schnell man hier ins Grübeln über die Feinheiten der Sprache gerät und unsicher wird, worüber man eigentlich spricht.
270 J. Resag
Reden wir beim „Nichts“ über die Abwesenheit von Materie im Raum, die Abwesenheit von Raum und Zeit oder gar die Nichtexistenz einer universellen Quantenwelle? Berühmt sind die Gedanken des bereits gealterten deutschen Gelehrten Gottfried Wilhelm Leibniz aus dem frühen 18. Jahrhundert zu dieser Frage. Leibniz stellte das Prinzip vom zureichenden Grund auf und behauptete, dass es für alles einen Grund geben müsse. Nichts geschehe ohne Grund. Das hört sich erst einmal sehr vernünftig an. Aber natürlich gerät man damit schnell in die unendliche Spirale von Gründen, in die wir bei der Sonne bereits geraten sind. Leibniz zog sich aus der Affäre, indem er Gott als allerletzten Grund benannte. Die Existenz Gottes sei wiederum zwingend notwendig und erkläre sich damit aus sich selbst heraus. Seine Nichtexistenz sei logisch unmöglich, was Leibniz auch mit einer zweifelhaften Argumentationskette untermauerte. Mit dieser Antwort, Gott als den letzten Grund – als den allmächtigen Schöpfer der Welt – anzusehen, der nicht weiter hinterfragt werden kann, sind heutzutage in den Naturwissenschaften und wohl auch in der Philosophie nur wenige zufrieden. Alle Gottesbeweise, die im Lauf der Zeit aufgestellt wurden, haben sich als fragwürdig erwiesen und einer eingehenden Analyse nicht standgehalten. Natürlich dürfen wir trotzdem an Gott glauben, wir müssen es nur nicht. Die Wissenschaft macht es nicht unmöglich, an Gott zu glauben, sie macht es nur möglich, nicht an Gott zu glauben, so hat es der Physiker und überzeugte Atheist Steven Weinberg einmal ausgedrückt. Aus Sicht der modernen Physik ist auch Leibnitz' Prinzip vom zureichenden Grund nicht zu halten. Der Mechanismus von Ursache und Wirkung, der vielen philosophischen Überlegungen der Vergangenheit zugrunde lag, entspricht lediglich unserer makroskopischen Erfahrungswelt, in der die Zeit dank anwachsender Entropie eine klare Richtung hat. Aber wenn Physikerinnen und Physiker Gleichungen für die grundlegenden Naturgesetze aufstellen, spielen die Begriffe von Ursache und Wirkung keine Rolle mehr. Die Gleichungen beschreiben vielmehr Muster und Zusammenhänge, die wir in der Welt vorfinden. So sagt die SchrödingerGleichung beispielsweise, wie sich eine Quantenwelle im Lauf der Zeit entwickelt. Dafür müssen wir einfach nur wissen, wie die Welle zu irgendeinem beliebigen Zeitpunkt aussah oder noch aussehen wird. Mit der SchrödingerGleichung können wir dann ihre Gestalt zu jedem anderen Zeitpunkt berechnen, egal ob in der Zukunft oder in der Vergangenheit. Mir fällt es schwer, hier die Begriffe Ursache und Wirkung irgendwie unterzubringen.
4 Die Grenzen der Information: Schwarze Löcher … 271
Natürlich könnten wir behaupten, die Schrödinger-Gleichung sei die Ursache für die Bewegung der Welle, aber letztlich beschreibt die Gleichung nur mathematisch das Naturgesetz, das die Wellenformen über die verschiedenen Zeitpunkte miteinander verbindet – also ein Muster. Wenn Physikerinnen und Physiker sich Gedanken über den Kosmos als Ganzes machen, fragen sie entsprechend auch nicht nach der Ursache für seine Existenz. Sie versuchen vielmehr, selbstkonsistente Modelle aufzustellen, die den Kosmos als Gesamtsystem möglichst gut beschreiben und die die bekannten Naturgesetze respektieren. Dabei kann beispielsweise eine vereinfachte universelle Quantenwelle für den Quantenkosmos inklusive Raum und Zeit herauskommen oder es entsteht wie bei Vilenkin die Idee eines Quantentunnelns „aus dem Nichts“, wobei das Nichts ein Vor-demTunneln-Universum ist, das man gegen null schrumpfen lässt. Manche interpretieren dieses Tunneln als den Beweis dafür, dass das Nichts instabil ist und sagen, dies sei der Grund für die Existenz der Welt. Man kann das so sehen, aber zwingend ist diese Sichtweise keineswegs. Was ist mit den Naturgesetzen selbst? Warum gelten sie in dieser Form? Oder wie Albert Einstein es einmal sinngemäß ausgedrückt hat: „Hatte Gott eine Wahl, als er die Welt erschuf?“ Vielleicht wird unsere Welt ja tief im Inneren durch ein einziges Grundgesetz, die Weltformel, regiert, das auf einem tiefen und wunderschönen Prinzip basiert. Solche Prinzipien haben sich bisher schon oft als wegweisend erwiesen. So hat Albert Einstein seine Allgemeine Relativitätstheorie auf der Idee gegründet, dass man in einem kleinen fensterlosen Raumschiff Schwerkraft und Beschleunigung nicht voneinander unterscheiden kann. Und das Standardmodell der Teilchenphysik basiert auf einigen wenigen Symmetrieprinzipien, über die es mit nur wenigen Teilchen und Wechselwirkungen nahezu die gesamte bekannte Physik erklären kann. Vielleicht finden wir eines Tages tatsächlich eine Art göttliches Prinzip, das die gesamte Physik begründen kann und das so einfach, schön und logisch zwingend erscheint, dass es einfach in der Natur realisiert sein muss? Zum heutigen Zeitpunkt können wir nur darüber spekulieren. Außerdem setzen solche Prinzipien meist die Existenz der Quantentheorie als universellen Rahmen voraus. Aber ist ein Quantenuniversum die einzige Welt, die sinnvoll existieren kann? Könnten nicht auch andere mathematische Strukturen einen möglichen Rahmen für ein Universum bieten? Vielleicht ist ja sogar jede mathematische Struktur als eigenes Universum realisiert – eine Art mathematisches Metaversum. Das wäre dann die maximale Gegenposition zur Existenz des Nichts – nämlich die Existenz von allem,
272 J. Resag
das mathematisch möglich ist. Manche Forscher, wie beispielsweise der schwedisch-US-amerikanische Physiker Max Tegmark, vertreten diese Position. Aber was sollen Begriffe wie „existiert“ und „realisiert“ dabei bedeuten? In welchem Sinn „existiert“ jede mathematisch mögliche Welt? Wir verwenden hier Begriffe, die wir in unserer Alltagswelt gebildet haben und die wir jetzt auf alles und nichts zu übertragen versuchen. Schon viele Philosophen haben sich den Kopf darüber zerbrochen und sich dabei schnell im Dickicht ihrer Gedanken verloren. Wir müssen uns immer bewusst bleiben, dass unsere Begriffe und Vorstellungen einem Gehirn entspringen, das die Evolution darauf optimiert hat, sich auf der Erdoberfläche zurechtzufinden und dort zu überleben. Wenn man das bedenkt, ist es schon fast bewundernswert, wie weit wir dennoch bereits vorangekommen sind.
Die verschleierte Wirklichkeit Wir sind am Ende dieses Buches angekommen und es wird Zeit, Bilanz zu ziehen. Wie weit sind wir den Antworten auf die großen Fragen nähergekommen? Ist unser Universum unendlich groß? Ist die Zeit ein ewig währender Fluss? Wo liegen die Grenzen der Winzigkeit? Was ist Realität eigentlich und warum gibt es sie überhaupt? Schritt für Schritt haben wir uns vorangetastet. Mussten Erzbischof James Ussher und seine Zeitgenossen sich noch auf das Studium der Bibel und anderer Schriftquellen beschränken, um ein Weltalter von rund 6000 Jahren zu ermitteln, so fand die moderne Naturwissenschaft im 20. Jahrhundert immer bessere Werkzeuge, dieser Frage zu Leibe zu rücken. Radioaktive Uhren im Gestein verraten das Erdalter: rund 4,5 Mrd. Jahre. Immer bessere Teleskope enthüllen, dass wir in einem expandierenden Universum leben, in dem alle Galaxien auseinanderstreben. Eine kosmische Hintergrundstrahlung durchzieht als schwacher Abglanz eines einst glühend heißen Lichts den Raum und lässt die Antenne von Penzias und Wilson rauschen. Alles deutet eindeutig darauf hin, dass der gesamte sichtbare Kosmos vor 13,8 Mrd. Jahren in einem einzigen heißen Feuerball – dem Urknall – entstand. Mit wachsender Präzision können wir den expandierenden Kosmos vermessen und stellen dabei Erstaunliches fest: Es muss Dunkle Materie geben, die wir nicht sehen können, deren Schwerkraft sich jedoch überall bemerkbar macht. Und eine geheimnisvolle Dunkle Energie, die den Raum lückenlos durchdringt, treibt die Galaxien seit einigen Milliarden Jahren immer schneller auseinander. Alle Materie wird auseinandergetrieben und
4 Die Grenzen der Information: Schwarze Löcher … 273
irgendwann zerfallen, sodass in einer sehr fernen Zukunft unser Universum vermutlich ein sehr kalter, stockdunkler und nahezu leerer Raum sein wird. So wie die makroskopische Zeit unserer sichtbaren Welt mit dem Urknall begann, so wird sie in einer leer gewordenen Welt ihr Leben wohl aushauchen, da es nichts mehr gibt, das sich noch spürbar verändert. Die Welt, wie wir sie kennen, existiert nur eine begrenzte Zeit. Zugleich ist diese Welt für uns auch räumlich begrenzt, und zwar durch Horizonte, die die kosmische Expansion erzeugt und die unseren Blick nach draußen prinzipiell einschränken. Für uns gibt es ein sichtbares Universum, über dessen Rand wir nicht hinausblicken können. Es wird jenseits des Horizonts sehr wahrscheinlich weitergehen, aber wie weit, ist unklar. Vielleicht ist unsere Welt im ganz Großen grenzenlos und zugleich endlich wie die gekrümmte Oberfläche einer Kugel, von der uns nur ein winziges, flach aussehendes Fleckchen zugänglich ist. Dieses Bild vom expandierenden Universum ist stimmig und kann fast alles, was wir im Weltall vorfinden, überzeugend erklären. Aber es gibt einige offene Fragen, auf die es keine überzeugende Antwort hat: Warum sieht das Universum in jeder Richtung ziemlich gleich aus, obwohl wir dort Raumbereiche sehen, die nie zueinander in Kontakt gewesen sein können? Warum ist das sichtbare Universum flach, also ohne jede messbare Raumkrümmung, und weist die zugehörige kritische Materiedichte auf? Die kosmische Expansion treibt das Universum eigentlich von einem solchen instabilen Zustand weg. Die Erklärung muss im Urknall selbst liegen. Entwicklungen aus der Teilchenphysik eröffnen hier völlig neue Möglichkeiten. Der Urknall muss keine Singularität sein, in dem ohne jede weitere Erklärung einfach alles aus einem einzigen Punkt unendlicher Dichte heraus entsteht. Es genügt ein mikroskopisch kleines Keimvolumen, angefüllt von einem hochenergetischen Inflatonfeld, um eine explosionsartige kosmische Expansion in Gang zu setzen. Es könnte eine Art rasant aufquellender Inflatonkäse entstehen, in dem sich ständig neue, expandierende Blasen bilden, die eigene Universen darstellen. Von außen betrachtet ist eine solche Blase immer endlich. Aber von innen betrachtet würden wir den Blasenraum als unendlich groß und flach ansehen. „Der Raum ist die Ordnung gleichzeitig existierender Dinge“, hatte Leibniz gesagt. In der Relativitätstheorie gibt es aber keine universell gültige Definition von Gleichzeitigkeit mehr. Verschiedene Beobachter zerschneiden die Raumzeit auf unterschiedliche Weise in Räume der Gleichzeitigkeit. Insofern ist die Frage nach der Unendlichkeit des Raums vieldeutig, denn DEN Raum gibt es nicht mehr. Sehen können wir einen Raum der Gleichzeitigkeit sowieso nicht, denn jeder Blick in die Ferne ist
274 J. Resag
zugleich auch ein Blick in die Vergangenheit, den die kosmischen Horizonte begrenzen. Ein rasant aufquellender Inflatonkäse, in dem ständig neue Blasenuniversen entstehen – ein faszinierendes Bild, das uns unsere eigene Winzigkeit drastisch vor Augen führt. Wie auch immer wir die Frage nach der Unendlichkeit beantworten, so ist ein solches Blasenmultiversum in jedem Fall unbegreiflich groß. In jeder Blase könnten die beteiligten fundamentalen Felder dabei in anderen Energiemulden zur Ruhe kommen, sodass beispielsweise die Teilchenmassen oder die Dunkle Energie verschiedene Werte annehmen können. Die anderen Blasen müssen also keineswegs so aussehen wie unsere eigene. In den meisten von ihnen werden die Bedingungen für Leben wohl ungünstig sein. Da es aber unzählige Blasen gibt, kann es unter ihnen auch welche geben, die für Leben günstig sind – und genau in einer solchen Blase müssen wir uns zwangsläufig wiederfinden. Wenn wir uns also fragen, warum in unserem Universum viele Parameter fein darauf abgestimmt scheinen, sodass Atome, Sterne, Planeten und letztlich Leben entstehen können, wäre die profane Antwort: Keine göttliche Kraft hat es extra für uns so eingerichtet, sondern es ist schlicht und einfach Zufall. Mit fortlaufender Zeit könnte der Inflatonkäse im Prinzip ewig weiter aufquellen und immer neue Blasenuniversen erzeugen, die sich ausdehnen und irgendwann immer leerer und dunkler werden, bis die Zeit in ihrem Inneren ihre makroskopische Bedeutung verliert. Aber in der Vergangenheit muss es einen Anfang dieser inflationären Expansion gegeben haben, wie das BGVTheorem zeigt. Der aufquellende Inflatonkäse kann nicht schon ewig existiert haben. Wir brauchen zumindest ein mikroskopisch kleines Keimvolumen, angefüllt mit einem hochenergetischen Inflatonfeld, um den Prozess zu starten. Aber wo könnte ein solches winziges Keimvolumen herkommen? Um das herauszufinden, haben wir die Gegenrichtung zum unendlich Großen eingeschlagen, hinab in die Winzigkeit des unendlich Kleinen. Dabei sind wir auf eine vollkommen unerwartete neue Welt gestoßen, in der alle bisherigen Gewissheiten infrage gestellt werden. Es gibt keine Teilchen mehr, die ihre Bahnen durch den Raum ziehen, sondern es gibt Quantenwellen, die sich nicht mehr direkt beobachten lassen. Wenn wir es versuchen, so tauchen wie zufällig Teilchen in unseren Messgeräten auf, und zwar umso wahrscheinlicher, je stärker die Quantenwelle ist. Diese Teilchen können sogar über beliebige Entfernungen miteinander verschränkt sein und ihr gemeinsames Verhalten so aufeinander abstimmen, dass sie sich nur als ein einziges nicht lokales Quantenobjekt verstehen lassen. Uns scheint der Boden unter den Füßen weggezogen zu werden. Gibt es überhaupt noch so etwas wie eine objektive Realität?
4 Die Grenzen der Information: Schwarze Löcher … 275
Einstein war davon überzeugt, aber es stellt sich heraus, dass es die von ihm erhoffte klassische Realität, in der einzelne lokale Objekte eine wohldefinierte, voneinander unabhängige Existenz führen, auf fundamentaler Ebene nicht mehr gibt. Aber es könnte eine andere, nicht lokale Form von Realität geben, in der Quantenwellen die grundlegenden Elemente sind. Hugh Everett war von dieser Quantenrealität überzeugt, in der letztlich das gesamte Universum durch eine einzige allumfassende universelle Quantenwelle beschrieben wird. Aus dieser nebelhaften, kaum greifbaren, geradezu monströsen Quantenwelle schält sich in einem komplexen Vorgang durch Verschränkung und Dekohärenz unsere klassische Realität erst heraus. Aber diese klassische Realität ist nicht in Stein gemeißelt. Sie spürt ihre Einbettung in den Quantenkosmos, sodass sie sich wie ein riesiger Baum unablässig weiter verzweigt. Dieses Verzweigen ist laut Everett genau das, was die scheinbar zufälligen Messergebnisse hervorbringt, wenn wir mit Messgeräten in die Quantenwelt hineinzublicken versuchen. In dem einen Zweig sieht ein Exemplar von uns das Elektron an der einen Stelle auf dem Detektorschirm einschlagen, in einem anderen Zweig sieht ein weiteres Exemplar von uns, wie es an einer anderen Stelle einschlägt. Wir selbst verzweigen uns dabei mit, sodass jeder Zweig eines unserer Ichs enthält. Es mag abstrus klingen, denn wir spüren von der Verzweigung unseres Ichs nichts, aber wenn die Schrödinger-Gleichung wirklich die gesamte Welt beschreibt, müssen wir diese Möglichkeit ernst nehmen. Wie sieht diese Quantenrealität aus, in der Quantenwellen die fundamentalen Bausteine sind? Was wird aus den Begriffen, die uns in der klassischen Realität so gute Dienste geleistet haben und die Isaac Newton zum Teil sogar für absolut hielt? Gibt es im Quantenkosmos auf fundamentaler Ebene noch Raum, Zeit oder Teilchen? Es spricht vieles dafür, dass es sich bei diesen Begriffen um emergente Größen handelt, die sich erst durch Verschränkung und Dekohärenz aus der Quantenwelt herausbilden. Die Existenz Schwarzer Löcher bewirkt auf Quantenebene, dass man nicht mehr sinnvoll von beliebig kleinen Abständen sprechen kann. Die Planck-Länge scheint eine fundamentale Grenze der Winzigkeit zu sein. Raumbereiche können nicht beliebig viele Informationsbits aufnehmen, so als hätten sie auf der Längenskala der Planck-Länge eine körnige Pixelstruktur, allerdings mit Pixeln auf der Oberfläche und nicht im Inneren des Raumbereichs. Dieses holografische Prinzip gehört für mich zu den geheimnisvollsten und schönsten Entdeckungen der modernen Physik. Es hat zur Folge, dass unser beobachtbares Universum nur eine endliche Zahl verschiedener Zustände besitzt. Selbst in einem unendlichen Raum gäbe es also nur eine endliche Zahl von Raumbereichen
276 J. Resag
wie unser sichtbares Universum mit verschiedenen Zuständen. Die für uns zugängliche Welt mit all ihren Sternen, Galaxien und Menschen würde sich in einem unendlichen Raum in absolut identischer Weise unendlich oft wiederholen. Ein Patchwork-Multiversums mit unendlich vielen Kopien endlich vieler Welten wäre die Folge. Womöglich ist das ein deutliches Zeichen dafür, dass die Vorstellung eines unendlich großen Raums hier an seine Grenzen kommt. Ähnlich ist es mit einer ewig andauernden Zeit. Im Prinzip enthält die Schrödinger-Gleichung für die universelle Quantenwelle sogar einen solchen ewigen fundamentalen Zeitparameter, zumindest wenn das Universum eine Gesamtenergie größer als null besitzt. Es wäre allerdings eine wenig greifbare mikroskopische Zeit ohne Richtung und ohne direkte Beziehung zu dem, was wir normalerweise als makroskopische Zeit auf unseren Uhren ablesen können. Interessanterweise verschwindet diese mikroskopische Zeit komplett aus der Schrödinger-Gleichung, wenn die Gesamtenergie des Universums bei null liegt, wofür es viele Indizien gibt. Aus der Schrödinger-Gleichung wird dann die Wheeler-DeWitt-Gleichung, die die Gestalt der zeitlosen universellen Quantenwelle des Universums bestimmt. Erst die Verschränkung von Uhren (oder allem, was den Ablauf der Zeit irgendwie sichtbar machen kann) mit ihrer Umgebung lässt darin eine makroskopische Zeit entstehen, deren Laufrichtung durch einen Anstieg der Entropie gekennzeichnet ist. Diese emergente Zeit ist, ebenso wie der emergente Raum oder der Teilchenbegriff, eng mit der Entstehung der klassischen Realitätszweige verbunden, die aus den Tiefen der universellen Quantenwelle auftauchen. Vermutlich macht es nur begrenzt Sinn, sich diese makroskopische Zeit als ewig vorzustellen. Sie entsteht erst, wenn sich – vielleicht durch einen quantenmechanischen Tunnelprozess „aus dem Nichts“ – ein lokaler Zustand mit sehr geringer Entropie bildet, wie es das winzige Keimvolumen mit hochenergetischem Inflatonfeld darstellt. Für den daraus entstehenden aufquellenden Inflatonkäse mag die Zeit dann ewig andauern, aber in den einzelnen expandierenden Blasenuniversen, die in seinem Inneren entstehen, verliert diese Zeit ihre Bedeutung, wenn sie schließlich ausgelaugt und leer in kalter Dunkelheit versinken. Die Frage nach der Unendlichkeit ist also sehr vielschichtig und gar nicht so leicht zu beantworten. Die Welt funktioniert im ganz Großen und im winzig Kleinen völlig anders, als es sich unser Geist überhaupt vorstellen kann. Raum und Zeit sind eng miteinander verwoben und lassen sich krümmen und verformen. Auf fundamentaler Ebene scheinen sie noch nicht einmal wirklich zu existieren. Sie schälen sich erst als Näherungen aus einer
4 Die Grenzen der Information: Schwarze Löcher … 277
kaum begreifbaren nichtlokalen Quantenwelt heraus, in der alles mit allem verbunden, also verschränkt, sein kann. Diese quantenmechanische Wirklichkeit können wir nicht direkt erkennen. Sie ist für uns lokale makroskopische Wesen verschleiert und wir sehen von ihr nur die makroskopisch greifbaren Spuren, die sie innerhalb unseres klassischen Realitätszweiges hinterlässt. Das, was wir sehen und messen, ist nicht das, was auf Quantenebene wirklich da ist. Wenn ich versuche, mir diese Welt vorzustellen, dann denke ich oft an die künstliche Realität in dem Film Matrix, die von intelligenten Maschinen als Computersimulation erschaffen wurde, um die Menschen zu kontrollieren. Obwohl diese Welt nur aus Bits und Bytes besteht, erscheint sie allen Menschen, die mit ihr verbunden sind, als völlig real. Sie wissen nicht, dass auf der fundamentalen Ebene nur reine Information existiert. „It from Bit“, so hat es John Archibald Wheeler wieder einmal treffend ausgedrückt. Im finalen Kampf mit dem Computerwesen Agent Smith erkennt der Filmheld Neo schließlich die wahre Realität dieser Welt. Der Vorhang lichtet sich und er sieht, wie sich diese Welt – und auch sein Gegner – aus den Bits und Bytes der Matrix formt. Uns selbst ist ein solch direkter Blick auf die „wahre“ Realität der Quanten unmöglich. Aber wir können wie Detektive aus den Spuren, die diese Quantenrealität in unserer klassischen Realität aus Raum und Zeit hinterlässt, immer besser ermitteln, wie der verschleierte Quantenkosmos in seinem Innersten aussieht. Es entsteht das Bild eines riesigen Multiversums mit unzähligen Blasenuniversen und einem sich ständig weiterverzweigenden Baum klassischer Realitäten, eingebettet in einer bizarren, universellen Quantenwelle. Giordano Bruno, jener streitbare Dominikanermönch des 16. Jahrhunderts, mit dem unser Buch begann, hatte an ein unendliches Universum geglaubt. Für einen allmächtigen Gott sei es einfach unwürdig, nur eine endliche, begrenzte Welt geschaffen zu haben. Aber auch wenn unsere Welt nicht wirklich unendlich sein mag, so habe ich doch die Vermutung, dass Giordano Bruno mit der fantastischen Größe und Vielfalt der Welt zufrieden gewesen wäre, die uns die moderne Naturwissenschaft eröffnet. Es ist eine Welt, die in ihrer Mächtigkeit erschreckend sein mag, sodass wir uns erst an sie gewöhnen müssen. Aber, so hätte Giordano Bruno vielleicht gedacht, da Gott groß ist, so muss es die von ihm erschaffene Welt wohl auch sein.
Quellen und Literatur
Hier ist eine kleine sehr persönliche Auswahl an weiterführenden Texten und Quellen.
Kapitel 1 Adam G. Riess: My Path to the Accelerating Universe, Nobel Lecture (2011), https:// www.nobelprize.org/prizes/physics/2011/riess/lecture/ Adams, Laughlin, Graves: Red Dwarfs and the End of the Main Sequence, RevMexAA (Serie de Conferencias), 22, 46–49 (2004), http://www.astroscu. unam.mx/rmaa/RMxAC..22/PDF/RMxAC..22_adams.pdf Alderamin: Gab es den Urknall wirklich? (Teil 5: Alter der Sterne), ScienceBlogs (2019), https://scienceblogs.de/alpha-cephei/2019/03/16/gab-es-den-urknallwirklich-teil-5-alter-der-sterne/ Alderamin: Das Hertzsprung-Russell-Diagramm: Teil 3, Altersbestimmung und Vorhauptreihenphase, ScienceBlogs (2021), https://scienceblogs.de/alphacephei/2021/01/19/das-hertzsprung-russell-diagramm-teil-3-altersbestimmungund-vorhauptreihenphase/ Bill Bryson: Eine kurze Geschichte von fast allem, Goldmann Verlag (2005) J. J. O'Connor, E. F. Robertson: Aleksandr Aleksandrovich Friedmann, (1997), https://mathshistory.st-andrews.ac.uk/Biographies/Friedmann/ Delia Perlov, Alex Vilenkin: Kosmologie für alle, die mehr wissen wollen, Springer (2021) Doug Linder: Bishop James Ussher Sets the Date for Creation (2004), http://law2. umkc.edu/faculty/projects/FTrials/scopes/ussher.html Florian Freistetter: Wie bestimmt man das Alter eines Sterns? ScienceBlogs (2016), https://scienceblogs.de/astrodicticum-simplex/2016/04/25/wie-bestimmt-mandas-alter-eines-sterns/ © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Resag, Grenzen der Wirklichkeit, https://doi.org/10.1007/978-3-662-67400-0
279
280 Quellen und Literatur
James Peebles: How Physical Cosmology Grew, Nobel Lecture (2019), https://www. nobelprize.org/prizes/physics/2019/peebles/lecture/ Helmut Hornung: Eine Sonnenfinsternis erhellt die Physik, Max-Planck-Gesellschaft (2019), https://www.mpg.de/9236014/eddington-sonnenfinsternis-1919 Kentaro Nagamine, Abraham Loeb: Future Evolution of Nearby Large-Scale Structure in a Universe Dominated by a Cosmological Constant, (2002), https://arxiv.org/ abs/astro-ph/0204249 Keith Sircombe: Rutherford's time bomb (2004), https://www.nzherald.co.nz/nz/ rutherfords-time-bomb/R2KUTHULJVBBMOOT3FDBN6QRJM/ Markus Pössel: Interpretations of cosmic expansion: anchoring conceptions and misconceptions, (2020), https://arxiv.org/abs/2008.07776 Markus Pössel: Cosmic event horizons and the light-speed limit for relative radial motion, (2020), https://arxiv.org/abs/1912.11677 Mano Singham: When Lord Kelvin Nearly Killed Darwin’s Theory, Scientific American (2021), https://www.scientificamerican.com/article/when-lord-kelvinnearly-killed-darwins-theory1/ Norbert Straumann: The history of the cosmological constant problem, (2002), https:// arxiv.org/abs/gr-qc/0208027 Richard David Precht: Eine Geschichte der Philosophie, Band 1: Erkenne die Welt (2015), Band 2: Erkenne dich selbst (2017), Band 3: Sei du selbst (2019), Band 4: Mache die Welt (2023), Goldmann Verlag Robert Woodrow Wilson: The Cosmic Microwave Background Radiation, Nobel Lecture (1978), https://www.nobelprize.org/prizes/physics/1978/wilson/lecture/ Ronald S. Brashear, Joel A. Gwinn und Donald E. Osterbrock: Edwin Hubble und die Expansion des Universums, Spektrum der Wissenschaft 9/1993, Seite 78, https://www.spektrum.de/magazin/edwin-hubble-und-die-expansion-des-universums/821083 Sascha Staubach: Woher wissen wir, wie alt die Erde ist? Vom Schöpfungsmythos zur modernen radiometrischen Datierung, Forschung Frankfurt (2017), https://www. forschung-frankfurt.uni-frankfurt.de/66791096.pdf Steven Weinberg: Einstein’s Mistakes, Physics Today 58, 11, 31 (2005); https:// doi.org/10.1063/1.2155755, https://physicstoday.scitation.org/doi/ pdf/10.1063/1.2155755, auch enthalten in Steven Weinberg: Lake Views – This World and the Universe, Harvard University Press (2009) Steven Weinberg: Cosmology, Oxford University Press (2008) Subir Sarkar: The history of Big Bang Nucleosynthesis, (2021), https://indico.ph.tum. de/event/6798/contributions/4431/attachments/3616/4433/Sarkar_BBNhistory. pdf Thomas de Padova: Leibniz, Newton und die Erfindung der Zeit, Piper Verlag (2015) J. Tang, M. Joyce: Revised Best Estimates for the Age and Mass of the Methuselah Star HD 140283 using MESA and Interferometry and Implications for 1D Convection, https://arxiv.org/abs/2105.11311
Quellen und Literatur 281
Kapitel 2 Aaron Glanville, Tamara Davis: Can an Infinitely Long Object Fit in an Expanding Universe? (2020), https://arxiv.org/abs/2005.01968v2 Alan Guth: Inflation and the New Era of High-Precision Cosmology, MIT physics annual (2002), https://physics.mit.edu/wp-content/uploads/2021/01/ physicsatmit_02_cosmology.pdf Alan Guth: Inflationary universe: A possible solution to the horizon and flatness problems, (1981), Physical Review D. 23 (2): 347–356, https://www.astro.rug. nl/~weygaert/tim1publication/cosmo2007/literature/inflationary.universe.guth. physrevd-1981.pdf Alan Guth: Eternal inflation and its implications, (2007), https://arxiv.org/abs/hepth/0702178 Arvind Borde, Alan H. Guth, Alexander Vilenkin: Inflationary spacetimes are not past-complete, (2003), https://arxiv.org/abs/gr-qc/0110012v2 Brian Greene: Der Stoff, aus dem der Kosmos ist: Raum, Zeit und die Beschaffenheit der Wirklichkeit, Siedler Verlag (2004) Markus Pössel: Das Milne-Universum: Die Expansion des Kosmos als relativistische Explosion, Astronomie+Raumfahrt im Unterricht 57 (2020) 6, S. 10–14, https:// www2.mpia-hd.mpg.de/homes/poessel/milne-universum-v3.pdf Sarah Scoles: How Vera Rubin confirmed dark matter, (2016), https://astronomy. com/news/2016/10/vera-rubin Tamara M. Davis, Charles H. Lineweaver: Expanding Confusion: common misconceptions of cosmological horizons and the superluminal expansion of the Universe, (2003), https://arxiv.org/abs/astro-ph/0310808 William Lane Craig vs. Sean Carroll: God and Cosmology: The Existence of God in Light of Contemporary Cosmology, (September 2015), https://www. reasonablefaith.org/media/debates/god-and-cosmology-the-existence-of-god-inlight-of-contemporary-cosmol
Kapitel 3 Albert Einstein, Hedwig und Max Born: Briefwechsel 1916–1955, kommentiert von Max Born, https://wuecampus2.uni-wuerzburg.de/moodle/pluginfile. php/2044577/mod_resource/content/1/Einstein%2C%20Born%20-%20Briefwechsel.pdf Andrew Whitaker: John Stewart Bell (1928 - 1990) – Biography, MacTutor History of Mathematics (st-andrews.ac.uk, 2002), https://mathshistory.st-andrews.ac.uk/ Biographies/Bell_John/ Brian Greene: Die verborgene Wirklichkeit: Paralleluniversen und die Gesetze des Kosmos, Pantheon Verlag (2013)
282 Quellen und Literatur
H. Dieter Zeh: Physik ohne Realität: Tiefsinn oder Wahnsinn? Springer (2012) Hugh Everett: The Theory of the Universal Wave Function, (1956), https://www.pbs. org/wgbh/nova/manyworlds/pdf/dissertation.pdf Einstein, Podolsky, Rosen: Can Quantum-Mechanical Description of Physical Reality Be Considered Complete? Physical Review. Princeton, New Jersey: Institute for Advanced Study. 47 (10): 777–780. https://journals.aps.org/pr/pdf/10.1103/ PhysRev.47.777 Eugene B. Shikhovtsev, Kenneth W. Ford: Biographical Sketch of Hugh Everett, III, (2003), https://space.mit.edu/home/tegmark/everett/ Feynman, Leighton, Sands: Feynman Vorlesungen über Physik, Band 3: Quantenmechanik, auch im englischen Original im Internet unter http://www. feynmanlectures.caltech.edu/ Kierkegaard und Niels Bohr, https://www. sartreonline.com/kierkegaardbohr.pdf Heinrich Päs: Der Alte Mann und das Multiversum – Ein Nachruf auf H. Dieter Zeh, (2018), https://scilogs.spektrum.de/das-zauberwort/der-alte-mann-und-dasmultiversum-ein-nachruf-auf-h-dieter-zeh/ John Stewart Bell: Against ‘measurement’, Physics World (August 1990), https:// www.tau.ac.il/~quantum/Vaidman/IQM/BellAM.pdf John Stewart Bell: On the Einstein Podolsky Rosen Paradox. Physics. Band 1, Nr. 3, 1964, S. 195–200, https://cds.cern.ch/record/111654/files/vol1p195-200_001. pdf Mark Oliver Everett: Finding My Father, https://www.pbs.org/wgbh/nova/ manyworlds/father.html Max Born: The Statistical Interpretations of Quantum Mechanics, Nobel Lecture (2054), https://www.nobelprize.org/prizes/physics/1954/born/lecture/ Niels Bohr: Can Quantum-Mechanical Description of Physical Reality be Considered Complete? Physical Review. 48 (8): 696–702. http://cds.cern.ch/record/1060284/ files/PhysRev.48.696.pdf Peter Byrne: The Many Worlds of Hugh Everett, Scientific American (Dez. 2007), https://www.scientificamerican.com/article/hugh-everett-biography/ Peter Byrne: Viele Welten: Hugh Everett III – ein Familiendrama zwischen kaltem Krieg und Quantenphysik, Springer (2012) Richard P. Feynman: Simulating Physics with Computers, International Journal of Theoretical Physics, VoL 21, Nos. 6/7 (1982), https://battle.shawwn.com/sdb/ papers/simulating_physics_with_computers_feynman_1981.pdf Sean Carroll: Was ist die Welt und wenn ja, wie viele: Wie die Quantenmechanik unser Weltbild verändert, Klett-Cotta (2021) Thomas Gull: Geniestreich und bitterer Abschied, Neue Züricher Zeitung (2017), https://www.nzz.ch/feuilleton/erwin-schroedinger-und-thomas-mann-in-arosageniestreich-und-bitterer-abschied-ld.1309927
Quellen und Literatur 283
Tilman Sauer: (How) Did Einstein Understand the EPR Paradox? MPRL, New Vistas on Old Problems, https://www.mprl-series.mpg.de/proceedings/3/6/index.html, PDF: https://www.mprl-series.mpg.de/media/proceedings/3/6/Proc3ch5.pdf H. D. Zeh: Dekohärenz und andere Quantenmißverständnisse, Beitrag zum DidaktikWorkshop Physik an der TU Karlsruhe (12. Juni 2009), http://www.rzuser.uniheidelberg.de/~as3/KarlsruheText.pdf Wojciech Hubert Zurek: Quantum Theory of the Classical: Einselection, Envariance, Quantum Darwinism and Extantons, (2022), http://export.arxiv.org/ abs/2208.09019v1
Kapitel 4 Andreas Albrecht: Cosmic Inflation and the Arrow of Time, (2003), https://arxiv.org/ abs/astro-ph/0210527v3 Areeba Merriam: The Eddington-Chandrasekhar Confrontation, https://www. cantorsparadise.com/the-eddington-chandrasekhar-confrontation-e77516867fab Audrey Mithani, Alexander Vilenkin: Did the universe have a beginning? (2012), https://arxiv.org/abs/1204.4658 Claus Kiefer: Der Quantenkosmos: Von der zeitlosen Welt zum expandierenden Universum, Fischer (2019) Dennis Overbye: Jacob Bekenstein, Physicist Who Revolutionized Theory of Black Holes, Dies at 68, The New York Times (Aug. 22, 2015, Section B, Page 7), https://www.nytimes.com/2015/08/22/science/space/jacob-bekenstein-physicistwho-revolutionized-theory-of-black-holes-dies-at-68.html Geraldine Zenz: Soldat, der Schwarze Löcher vorhersah, https://science.orf.at/v2/ stories/2772700/ Jim Holt: Gibt es alles oder nichts? Eine philosophische Detektivgeschichte, Rowohlt (2014) Kameshwar C. Wali: Chandrasekhar vs. Eddington – an unanticipated confrontation, Physics Today 35, 10, 33 (1982); https://doi.org/10.1063/1.2914790, https:// physicstoday.scitation.org/doi/pdf/ Lawrence M. Krauss: Ein Universum aus Nichts, Albrecht Knaus Verlag (2013) Nick Bitter: Die Geschichte des Artillerieoffiziers Carl Schwarzschild, der das Reich der eingefrorenen Zeit entdeckte, Wissenschaft und Leben (2014), https:// de.sciencenetnews.com/die-geschichte-des-artillerieoffiziers-carl-schwarzschildder-das-reich-der-eingefrorenen-zeit-entdeckte/ Roger Penrose: Gravitational Collapse and Space-Time Singularities, Phys. Rev. Lett. 14, 57 (1965), https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.14.57
284 Quellen und Literatur
Sean M. Carroll: Why Is There Something, Rather Than Nothing? (2018), https:// arxiv.org/abs/1802.02231v2 Sean M. Carroll, Jennifer Chen: Spontaneous Inflation and the Origin of the Arrow of Time, (2004), https://arxiv.org/abs/hep-th/0410270 Thomas de Padova: Allein gegen die Schwerkraft: Einstein 1914 – 1918, Hanser Verlag (2015)