131 92
German Pages 427 [411] Year 2024
Reiner Kree
Was geht mich die Physik an? in Gesellschaft, Physikalisch denken Politik und Management
Was geht mich die Physik an?
Reiner Kree
Was geht mich die Physik an? Physikalisch denken in Gesellschaft, Politik und Management
Reiner Kree University of Göttingen Göttingen, Niedersachsen, Deutschland
ISBN 978-3-662-67933-3 ISBN 978-3-662-67934-0 (eBook) https://doi.org/10.1007/978-3-662-67934-0 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Einbandabbildung: vujkekv/stock.adobe.com Planung/Lektorat: Gabriele Ruckelshausen Springer ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany Das Papier dieses Produkts ist recyclebar.
And I’m a stodgy old scientist who believes, naively, that there exists an external world, that there exist objective truths about that world, and that my job is to discover some of them. If science were merely a negotiation of social conventions about what is agreed to be “true”, why would I bother devoting a large fraction of my all-too-short life to it? I don’t aspire to be the Emily Post of quantum field theory. – Alan Sokal Und ich bin ein schwerfälliger alter Wissenschaftler, der naiv glaubt, dass es eine äußere Welt gibt, dass es objektive Wahrheiten über diese Welt gibt und dass es meine Aufgabe ist, einige davon zu entdecken. Wenn Wissenschaft nur eine Aushandlung sozialer Konventionen darüber wäre, was als „wahr“ gilt, warum sollte ich mir dann die Mühe machen, ihr einen großen Teil meines allzu kurzen Lebens zu widmen? Ich strebe nicht danach, der Knigge der Quantenfeldtheorie zu sein.
Vorwort
Dieses Buch ist ein Kunst- und Kulturführer. Es führt nicht durch Opern, Konzerte und Sinfonien. Es erkundet nicht die schönsten Palazzi Venedigs, die Palladio Villen oder die Sehenswürdigkeiten von Paris. Es erklärt nicht die niederländische Malerei des 17. Jahrhunderts und es bietet auch keine Einführung in die Terrakotten der Nok Kultur. Dieses Buch erkundet eine Kultur, die von Vielen gar nicht für eine solche gehalten wird: die Kultur der Naturwissenschaften, insbesondere der Physik. Auch in dieser Kultur gibt es alte Meister, junge Wilde, unverständliche moderne Kunst, gewaltige Architekturen von fremdartiger Schönheit, naturalistische wie auch abstrakte Stilrichtungen. Es gibt Kunstwerke, die unsere Horizonte sprengen, und solche, die man sich als preisgünstigen Nachdruck mit in die Wohnung nehmen kann. Die sprachlichen Werke sind manchmal so verschlüsselt und formal wie Lyrik (andere nennen das Formelkram), aber mit ein bisschen Interpretationshilfe können sie allen zugänglich gemacht werden. Das ist nicht der übliche Blick auf eine Wissenschaft wie die Physik. Nach meinen eigenen Erfahrungen sind gängige Assoziationen zu diesem Wort: schwer verständlich, Raketen, Atombomben, Kernkraftwerke, schwarze Löcher und Zeitreisen. Die Unterschiede und die Verknüpfungen zwischen technologischen Anwendungen, Grundlagen und Spekulationen, zwischen Physik als Naturverständnis, als Basis unserer Zivilisation und als Stichwortgeber für Science Fiction sind für Uneingeweihte schon immer schwer erkennbar gewesen. Mit dem Unwissen im Hinblick auf die Physik als Kulturleistung kann man sogar kokettieren. „Schon in der Schule hab’ ich nichts davon verstanden. Aber dieses abstrakte Zeug braucht man ja auch nicht.“ Das hört man durchaus auch in Kreisen, die sich selbst als gebildet bezeichnen. Ich wette, dass ein sehr beachtlicher Prozentsatz der Entscheidungsträger, die über den Klimawandel, über Energieerzeugung der Zukunft und über Gesetze zur Erreichung politisch gesteckter Ziele auf diesen Gebieten diskutieren, keinen rechten Begriff von Grundlagen der Thermodynamik haben. Stattdessen haben sie ein enormes Wissen über Verwaltungsvorgänge, ökonomische Kennzahlen und Details der Rechtssicherheit. Das bisschen Naturwissenschaft überlassen sie gern einer Beratung, die aber nie so vorurteilsfrei ist, wie sie gern vorgibt. Es lohnt sich VII
VIII
Vorwort
daher auch für Konzernchefs, Minister und Kanzler mal selbst die Grenzen der physikalischen Machbarkeit im Blick zu haben. Dazu muss man die Physik aber erst mal als eine Kultur mit eigenen Kulturtechniken ernst nehmen, dann kann man verstehen, was sie eigentlich zu sagen hat. Die Situation ist vergleichbar mit den Zeiten, als die Kulturtechnik des Schreibens noch nicht so verbreitet war. Das Schreiben und Formulieren wurde als ein Gebiet für Spezialisten angesehen. Herrscher gaben sich damit nicht ab. Juristen fertigten dann für Könige und Fürsten komplizierte Verträge an, die die Unterzeichner selbst gar nicht lesen konnten. Um ein wenig an der Brücke zwischen den Kulturen zu bauen, und die Kultur der Physik einem breiteren Publikum schmackhaft zu machen, habe ich über mehrere Jahre eine Vorlesung für alle Fachrichtungen gehalten. Dabei habe ich sehr viel von den Diskussionsbeiträgen aller Studierenden profitiert, und habe verstanden, dass es auch bei denjenigen ein Interesse an der Kultur der Physik gibt, die keine ausgesprochenen Nerds und Technikfreaks sind. Für sie ist dieses Buch gedacht, – und auch für alle jene, die Entscheidungen über Sachverhalte treffen müssen, die neben ethischen Normen auch die Beschränkungen unserer äußeren Welt zu berücksichtigen haben. Das Buch macht Sie nicht zu Physikern, sowenig wie ein Buch über da Vinci Sie zum Maler macht. Aber ein Kulturführer fördert das Verständnis für die Leistungen einer Kultur, – sei es die Renaissance-Malerei oder die Physik. Dank schulde ich vor allem den Studierenden meiner Vorlesung, die meinen Horizont durch ihre Fragen aus den Blickwinkeln so vieler Fachrichtungen erweitert haben. Dank schulde ich aber auch den Kolleginnen und Kollegen der Fakultät für Physik der Georg-August Universität in Göttingen, mit denen ich jahr zehntelang über zahllose Themen mit irgendeinem Bezug zur Physik diskutiert habe. Ich widme das Buch meiner Frau Gabriele für Unterstützung, Liebe und nie endende Geduld. Göttingen Mai 2022
Reiner Kree
Vorbemerkung zum Gebrauch von Sprache in diesem Buch Dieses Buch richtet sich an alle interessierten Menschen. Nur, – wie schafft man es in der deutschen Sprache, diese interessierten Menschen diskriminierungsfrei anzusprechen? Darüber wird seit einiger Zeit auf allen Medienkanälen unserer Gesellschaft eifrig diskutiert. Da, wo alte weiße Männer „Schnell! ein Arzt !“ rufen, sollte es nach moderneren Auffassungen in etwa „Schnell! ein*(e) A(e) rzt*in!“ heißen. Es gibt mehrere Varianten dieser Innovation, von denen aber
Vorwort
IX
keine wirklich einfacher ist. Der Ursprung der sprachlichen Neuschöpfungen liegt im Unbehagen, das viele Leute bei generischen Formen mit männlichem grammatischem Geschlecht empfinden. Generische Formen, d. h. solche, die eine ganze Personengruppe aufgrund eines Merkmals ansprechen, sind eine enorm praktische und schon lange1 verwendete Methode zur Förderung der Übersichtlichkeit. In der deutschen Sprache sind allerdings häufig die gesellschaftlich hochrangigen oder wertgeschätzten sozialen Positionen und Merkmale, wie z. B. Arzt, Chef oder Ehrengast, grammatisch männlich, während die traditionell als geringer eingeschätzten Positionen nicht selten weiblich sind. Deshalb gibt es „Krankenschwestern“, aber keine „Krankenbrüder“. Das ist sicher kein Zufall, sondern eine Folge der Tatsache, dass noch vor einigen Jahrzehnten Frauen in führenden Positionen einfach undenkbar oder zumindest extreme Ausnahmen waren. Hinzu kommt, dass mit der Diskussion über inter-, trans- und nicht-binärsexuelle Minderheiten noch Sonderzeichen (wie * oder : innerhalb von Wörtern) in die Schriftsprache eingeführt wurden. Das Ergebnis, genannt „Gendern“, ist dann ein sprachliches Rokoko und hinterlässt gewisse, grammatische Unsicherheiten. Wie gendert man das Wort „Ehrengast“? Wie spricht man korrekt „Das Buch gehört dem*(r) Schüler*in“? Insbesondere die Uneindeutigkeit des grammatischen Geschlechts „gegenderter“ Wörter macht den Umgang mit ihnen schwierig. Da Experimente in der Physik eine große Rolle spielen, habe ich mich entschlossen, in diesem Buch ein paar eigene Sprachregeln zu benutzen und mit Ihnen, liebe Leserschaft, ein kleines, sprachliches Experiment durchzuführen. Statt generische Bezeichnungen durch anhängen von Endungen und Sonderzeichen zu verlängern, sind die „gegenderten“ Bezeichnungen in diesem Buch gekürzt und haben ausnahmslos das neutrale grammatische Geschlecht. Das macht den Umgang mit Ihnen sehr einfach. Statt „Der*(ie) Physiker*in liebt Experimente“ heißt es im folgenden: „Das Physike liebt Experimente“. Die Kürzungen sollen natürlich die Wortstammbedeutung noch erkennen lassen. Das sieht zunächst vielleicht etwas merkwürdig aus, aber Sie werden sehen, dass man sich recht schnell daran gewöhnt. Am Ende des Buches finden Sie eine kleine, statistische Auswertung über die Anwendungen meiner Regeln im Buch, ganz wie es sich für ein ordentliches Experiment gehört.
Vorbemerkungen zum Gebrauch von Mathematik Physik, ist das nicht das Fach, dem der Ruf vorauseilt, man brauche zu seinem Studium unheimlich viel Mathematik? Zu Ihrer Beruhigung: Die Mathematiklastigkeit der Physik wird gern übertrieben. Man kann in der Physik mit sehr komplizierter Mathematik arbeiten, teilweise sogar mit Mathematik, die selbst
1 Es
macht keine große Mühe, diese Formen in mittel- und althochdeutschen Texten zu finden.
X
Vorwort
Mathematike (noch) nicht verstehen. Aber man kann auch wundervolle, nobelpreiswürdige Einsichten mit Mittelstufen-Mathematik erhalten; denn es geht nicht um einen Mathe-Wettbewerb, sondern um Verständnis der Natur. Entsprechend lässig ist der Umgang, den man in der Physik mit mathematischen Spitzfindigkeiten pflegt. Sie würden staunen, wenn Sie professionellen Physiken beim Entwickeln Ihrer Ideen zuschauen könnten. Die brauchen dazu keine Supercomputer. Sie lieben eher Skizzen auf einer Kreidetafel. Als Hilfsmittel benutzen sie höchstens mal einen Taschenrechner oder werfen gelegentlich einen Blick in ein Nachschlagewerk. Mehr werden wir in diesem Buch auch nicht brauchen. Die Tafel können Sie durch irgendeine beschreibbare Unterlage ersetzen, wie zum Beispiel eine Papierserviette oder einen Bierdeckel. Das ist auch in der Physik weitverbreitet; und aus der Mathematik – das verspreche ich Ihnen an dieser Stelle – brauchen Sie nur etwas Mittelstufenwissen mitzubringen: nämlich die Grundrechenarten, einfaches Umstellen von Gleichungen und einfache Geometrie, z. B. Umfang und Fläche vom Kreis. Ich will aber nicht verschweigen, dass wir an manchen Stellen auch weitere Teile aus dem großen Werkzeugkasten der Mathematik brauchen. Manche Errungenschaften der Physik lassen sich kaum anders darstellen, wenn man nicht ins Schwafeln verfallen will. Entwicklungen in Physik und Mathematik waren nun mal über 400 Jahre eng miteinander verknüpft. Ich verspreche Ihnen aber, dass ich alle neuen Begriffe elementar und so ausführlich wie nur möglich erklären und auf die Mittelstufenmathematik zurückführen werde. Es ist mir klar, dass viele Leute jede Art der mathematischen Notation hassen. Aber sehen Sie es mal so: Diese Notation ist auch nichts anderes als eine Ansammlung von präzisen Abkürzungen. Man könnte dieselben Dinge auch viel unklarer und mit längeren Sätzen formulieren, dann jedoch würden Sie nicht mehr, sondern weniger verstehen. Abkürzungen sollten doch in unserem Twitter-Zeitalter kein 2 Problem sein. Wenn Sie sich also per Twitter mit Texten wie „fyi:IMHO #Mathe zzz“ verständigen, warum sollten Sie dann Angst vor dx dt = sin(t) haben? Natürlich müssen neue Wörter und Abkürzungen auch erklärt werden. Am Anfang hilft ein Vokabelheft. Daher habe ich ein kleines Glossar von mathematischen Begriffen, die wir häufig verwenden, zusammengestellt. Sie finden es am Ende des Buches. Reiner Kree
2 Hier
die Übersetzung in Langsprech: zu Ihrer Information (fyi): meiner bescheidenen Meinung nach (IMHO) ist Mathe langweilig (zzz).
Inhaltsverzeichnis
1
Was geht mich die Physik an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Was treiben die so? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 So what?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Ohne Sie geht es nicht. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4 Das Angebot: eine geführte Wanderung . . . . . . . . . . . . . . . . . . 10
Teil I Wahrheit und Wirklichkeit 2
Kein Wissen ohne Glauben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1 Glaubensbekenntnisse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Der Elefant im Raum: Ethik . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Grundbegriffe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.1 Grundbegriffe in der Physik. . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2 Grundbegriffe in der Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.3 Physik ist (teilweise) unlogisch. . . . . . . . . . . . . . . . . . . . . . . . . 54 3.4 Alle oder eine, rot oder grün: Prädikatenlogik. . . . . . . . . . . . . . 57 3.5 Grundbegriffe in der Mathematik . . . . . . . . . . . . . . . . . . . . . . . 60 3.6 Das Unendliche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.7 Das kleine Einmaleins der höheren Mathematik. . . . . . . . . . . . 70 3.8 Newton gegen Leibniz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 3.9 Differentialgleichungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4
Wahrheit in der Physik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.1 Wahrheit ist relativ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.2 Beobachtungen, Experimente und Erklärungen . . . . . . . . . . . . 87 4.3 Kausalität und Lokalität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.4 Das große Puzzle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.5 Evidenz und Zweifel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.6 Verständnis ist Kontrolle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 4.7 Determinismus und Vorhersagbarkeit . . . . . . . . . . . . . . . . . . . . 96 4.8 Wahrscheinlich wissen Sie nicht, was Wahrscheinlichkeit ist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 XI
Inhaltsverzeichnis
XII
4.9 Sind Sie vernünftig?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.10 Wollen wir wetten? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.11 Neue Nachrichten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.12 Ein bisschen Kausalität: Zufallsprozesse. . . . . . . . . . . . . . . . . . 109 4.13 Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5
Kampf der Wahrheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.1 Ist die Erde eine Scheibe? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.2 Zwei Kulturen und die Sokal Affäre . . . . . . . . . . . . . . . . . . . . . 121 5.3 Unredliche Argumente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 5.4 Klimamythen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Teil II Wirklichkeit und Modelle 6
Raum und Zeit, gibt’s die wirklich?. . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 6.1 Messen in Raum und Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7
Gott würfelt nicht: Newtons Welt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 7.1 Ein Buch verändert die Welt: Die Principia . . . . . . . . . . . . . . . 159 7.2 Newtons Ideen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 7.3 Newtons Gesetze reloaded. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 7.4 Franziskaner, Voltaire und Émilie du Châtelet. . . . . . . . . . . . . . 171 7.5 Wie man die Newtonschen Gleichungen löst . . . . . . . . . . . . . . 172
8
Die unerschütterliche Energieerhaltung. . . . . . . . . . . . . . . . . . . . . . . . . 181 8.1 Theologische und physikalische Erhaltungssätze. . . . . . . . . . . 181 8.2 Die langsame Entdeckung der universellen Energieerhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 8.3 Energieformen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 8.4 Wie man Energie transportiert. . . . . . . . . . . . . . . . . . . . . . . . . . 195 8.5 Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
9
Gott würfelt nicht: Maxwells Welt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 9.1 (Un)sichtbare Fluide: Felder . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 9.2 Die Physik verteilter Materie. . . . . . . . . . . . . . . . . . . . . . . . . . . 205 9.3 Wellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 9.4 Elektro-Magnetische Felder. . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 9.5 Maxwell Gleichungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 9.6 Was ist Licht?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 9.7 Goethe gegen Newton. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
10 Gott würfelt nicht: Einsteins Welt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 10.1 Der Äther. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 10.2 Albert Einstein und seine „großen Kritiker“. . . . . . . . . . . . . . . 241 10.3 Raum-Zeit-Diagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 10.4 Die Lichtuhr: Zeit-Dilatation. . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Inhaltsverzeichnis
XIII
10.5
Bewegte Körper sind kürzer: LorentzKontraktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 10.6 Zeitdilatation, Längenkontraktion, Lorentz Transformation. . . 246 10.7 Die Minkowski-Raumzeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 10.8 Die berühmteste Formel der Physik: E = Mc2 . . . . . . . . . . . . . 248 10.9 Nochmal die Schwerkraft: Allgemeine Relativitätstheorie. . . . 249 10.10 Gekrümmte Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 10.11 Die Einsteinschen Gleichungen. . . . . . . . . . . . . . . . . . . . . . . . . 254 11 Gott würfelt unverständlich: Quantenphysik . . . . . . . . . . . . . . . . . . . . . 257 11.1 Die Wiederauferstehung der Lichtteilchen . . . . . . . . . . . . . . . . 257 11.2 Spektren und Atome. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 11.3 Das Elektron und der Plum Pudding. . . . . . . . . . . . . . . . . . . . . 260 11.4 Bohrsche Atommechanik und Materiewellen . . . . . . . . . . . . . . 262 11.5 Tschüss, Anschauung!. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 11.6 Der Kern der Quantenmechanik . . . . . . . . . . . . . . . . . . . . . . . . 268 11.7 Atome und Strahlung: Die Quantenelektrodynamik. . . . . . . . . 271 11.8 Neue Kräfte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 11.9 Quark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 11.10 Leim und Farbe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 11.11 Dr. Bertlmanns Socken und die spukhafte Fernwirkung. . . . . . 283 12 Gott würfelt verständlich: Statistische Physik . . . . . . . . . . . . . . . . . . . . 289 12.1 Kondensierte Materie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 12.2 Thermodynamik: Das Komplexe unterkomplex . . . . . . . . . . . . 292 12.3 Die Entropie im Gleichgewicht. . . . . . . . . . . . . . . . . . . . . . . . . 296 12.4 Bigger als Big Data. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 12.5 Statistische Physik des Gleichgewichts. . . . . . . . . . . . . . . . . . . 303 12.6 Die statistische Entropie: Wissen ist Energie. . . . . . . . . . . . . . . 308 Teil III Modelle und Katastrophen 13 Künstliche Intelligenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 13.1 Was ist Intelligenz? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 13.2 Große KI ganz klein. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 13.3 Neuronale Netzwerke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 14 Radioaktivität, Kernenergie und Atombomben. . . . . . . . . . . . . . . . . . . . 331 14.1 Die Entdeckung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 14.2 Der Hype und die Prophezeiung . . . . . . . . . . . . . . . . . . . . . . . . 339 14.3 Biologische Strahlenwirkungen. . . . . . . . . . . . . . . . . . . . . . . . . 341 14.4 Kernenergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 15 Biologische Kettenreaktionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 15.1 Bevölkerungswachstum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 15.2 Der ökologische Traum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 15.3 Wie man sich ganz einfach ökologisch ruiniert. . . . . . . . . . . . . 367
XIV
Inhaltsverzeichnis
16 Das Klima und wie man es vermurkst . . . . . . . . . . . . . . . . . . . . . . . . . . 371 16.1 Globale Erwärmung, global gesehen. . . . . . . . . . . . . . . . . . . . . 372 16.2 Die Klimamaschine der Atmosphäre auf großen Skalen. . . . . . 377 16.3 Die Klimamaschine der Atmosphäre auf kleinen Skalen . . . . . 383 16.4 Die Temperatur der Erde. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 16.5 Der Treibhauseffekt und seine Verstärkung. . . . . . . . . . . . . . . . 390 16.6 Einwände und Klimamythen. . . . . . . . . . . . . . . . . . . . . . . . . . . 392 Anhang A : Mathematisches Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 Anhang B : Die Statistik zum Gendern. . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 Personenverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 Sachverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
Kapitel 1
Was geht mich die Physik an
Neulich auf dem Stehempfang. Alle lungern Häppchen kauend herum. „Ach, Sie sind Physiker?“, mischt sich der ältere Herr („Dr. Fischbach, angenehm“) in unser Gespräch, „Da können Sie mir doch sicher sagen, ob es wahr ist, dass man demnächst mit Überlichtgeschwindigkeit reisen kann. Hab’ ich kürzlich gelesen.“ „Ja,“, ergänzt eine beflissene, pensionierte Lehrerin („Hallo, ich bin Selma“) neben ihm, „ich hab’ in einem Vortrag gehört, dass man sich mit Quantenmechanik irgendwohin beamen lassen kann, die Entfernung spielt da gar keine Rolle“. Jetzt prasselt es nur so auf uns ein. „ …irgendwie mit Wurmlöchern, …“, „ …aber die dunkle Energie …“, „…man kann da in eine Zeitschleife geraten“, „ …oder man begegnet seinen Ur-urur Enkeln“. Vorsichtig versuche ich einzuwerfen, dass kosmologische Spekulation eigentlich nicht mein Spezialgebiet ist, aber es hilft nichts. „Sie als Physiker müssen solche Sachen doch wissen, oder zumindest müssen Sie wissen, ob das alles wahr ist“. Unser Gesprächskreis wird größer. Jetzt schließt sich eine junge Frau („Hey, ich bin Lea, ich werd’ mal Bundeskanzlerin“) der Runde an, und wirft ein, dass hier über Dinge geredet wird, die völlig nutzlos sind. „Die Menschheit hat ganz andere Probleme, da sollte sich die Physik mal d’rum kümmern, statt über abgehobene Weltformeln und Wurmlöcher nachzudenken.“ „Jawohl“,wird sie von ihrer Begleiterin („Ich bin die Sophia, ich studier’ Kulturanthropologie“) unterstützt, „aber was tun sie, diese Physiker? Sie erfinden Atomkraftwerke und das ganze Teufelszeug, an dem die Welt jetzt zugrunde geht.“ „Das ist doch nicht wahr“, ereifert sich ein junger Mann, der gerade zu unserer Runde gestoßen ist („Mein Name ist Matteo“), „Die Welt geht an der Gier zugrunde, die der Kapitalismus uns gebracht hat“. „Ja, ja natürlich“, stimmt Sophia zu, „der Kapitalismus und das Teufelszeug. Was wir brauchen, das ist eine bescheidene, nachhaltige Lebensweise, ohne Plastik und Flugzeuge und Massentierhaltung und so, aber keine Physik mit so Hochtechnologie“. Die Diskussion nimmt eine Wendung ins Ideologische. Jetzt werden zweifelsfreie Wahrheiten ausgetauscht, und abweichende zweifelsfreie Wahrheiten als kompletter Unsinn oder beleidigend und diskriminierend gebrandmarkt. Wir Physike können uns unbemerkt © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_1
1
2
1 Was geht mich die Physik an
davonmachen. Nachdem sich die Gemüter wieder beruhigt haben, kehren wir zu der Gruppe zurück. Wir fragen uns, woher es kommt, dass das Interesse an der Physik sehr häufig von Dingen herrührt, die besonders spekulativ sind und die gern in der Science Fiction aufgegriffen werden. Im Bereich der fiktionalen Spekulationen hält man Physike für Experte. Andererseits, – von den „Dingen des wirklichen Lebens“ wie Geld, Politik oder ökologischer Landwirtschaft versteht die Physik natürlich gar nichts. Physike sind nämlich nach verbreiteter Meinung etwas weltfremd, und es besteht immer die Gefahr, dass sie „irgendwelches Teufelszeug“ erfinden. „Stimmt doch auch !“, ruft jemand dazwischen. Wir versuchen es mit ein paar Beispielen von Arbeitsgebieten der Physik, die nichts mit Wurmlöchern zu tun haben: die Eindämmung von Seuchen, die Vorhersage von Krisen am Finanzmarkt, die Erfindung des Hochfrequenzhandels an der Börse, Strategien für Abrüstungsverhandlungen wie für Abnutzungskriege, der Lawinenschutz, die Berechnung von Erntemengen, Abschätzungen der Größe des Artensterbens, die Informationsverarbeitung im Gehirn, die genauen Messungen zum Klimawandel. Den Klimawandel glaubt man uns gerade noch („Aber sind das nicht die Klimaforscher?“). Was haben die anderen Dinge mit Physik zu tun? Nun, – in all diesen Bereichen sind Physike nicht nur beschäftigt, sondern sie haben wichtige Beiträge zur Begründung und Fortentwicklung dieser Gebiete geliefert. „Dann erklären Sie uns doch mal“, will Lea wissen, „warum Physike in so viele verschiedene Probleme ihre Nasen stecken wollen? Sind sie in der Physik unterbeschäftigt? Fällt ihnen nichts zur Weltformel ein und deshalb satteln sie um? Oder wissen sie einfach alles?“ Nein, sie gehen nur ihrem ganz normalen Geschäft nach. „…und das wäre? Was treiben Physike eigentlich so?“
1.1 Was treiben die so? Um einen groben Überblick zu bekommen, schauen Sie auf die Abb. 1.1, wo wir die Außengrenzen unseres Wissens (die „Fronten der Forschung“, wie man das auch etwas militaristisch nennt) über die äußere Welt als unregelmäßige Linien skizziert haben. Auf der einen Seite befinden sich Teile der Welt, die wir gut verstehen, auf der anderen Seite erstreckt sich der Ozean unseres Unwissens. Die Grenzen, an denen die Physik arbeitet, sind das Große, das Kleine und das Komplexe. Physikalische Forschung versucht diese Grenzen immer weiter nach außen zu verschieben, d. h. zum Verständnis von Phänomenen auf immer größeren, immer kleineren und immer komplexeren Skalen zu kommen. „Größer“ und „kleiner“ sind einfach zu verstehende Begriffe, sie beziehen sich auf Längen. Die Namen der Hauptforschungsgebiete an diesen beiden Grenzen sind Ihnen vielleicht bekannt; es sind Astronomie und Astrophysik im Großen und Elementarteilchenphysik im Kleinen. Weniger bekannt ist die dritte Grenze, das Komplexe. Diese Grenze ist nicht durch Längenskalen bestimmt, sondern durch – ja, durch was eigentlich? Eine Schwierigkeit besteht schon darin,
1.1 Was treiben die so?
3
Abb. 1.1 Die Fronten der Forschung
dass es bis heute keine so ganz eindeutige, physikalische Definition von Komplexität gibt. Im Moment reicht es aus, unter „komplex“ komplizierte Muster in der Welt zu verstehen: Galaxien, lebende Zellen, Meeresströmungen zum Beispiel. Sie sehen schon an diesen wenigen Beispielen, dass Komplexität auf allen Längenskalen und in allen Bereichen der Welt auftreten kann. In dem großen Meer des Komplexen gibt es andere Inseln von gesichertem Wissen, wie zum Beispiel die Chemie und die Biologie. Die Forschungsfelder der Physik an der Komplexitätsgrenze sind verwirrend vielfältig. Sie tragen Namen wie zum Beispiel „Physik kondensierter Materie“, „Festkörperphysik“, „Materialphysik“, aber auch schlicht „Physik komplexer Systeme“, und sie überschreiten oft Grenzen zu Nachbarwissenschaften wie „Biophysik“, „chemische Physik“ 1 „Neurophysik“, „Geophysik“, „Sozio-Physik“ und viele andere mehr. Die Vielfalt ist ein Ausdruck davon, dass eifrig gearbeitet wird, aber es noch an vereinheitlichenden Erklärungen fehlt. Es ist genau diese Vielfalt, die dazu führt, dass Physike mit ihren Methoden Beiträge zu allen möglichen Fragen machen können, die auf den ersten Blick nichts mit Physik zu tun haben. Trotz dieser Vielfalt kann man mit einigem Recht behaupten, dass es nur vier grundlegende Säulen sind, auf denen alle Erklärungen der heutigen Physik ruhen. Sie heißen „Mechanik“, „Quantenphysik“, „Statistische Physik“ 2 und „Feldtheorien“. Über diese Säulen gibt es viel zu erzählen. An dieser Stelle sind sie nur erwähnt, um
1 2
eng verwandt mit „physikalischer Chemie“ auf Seiten der Chemie. Manche Physike würden hier sagen „Statistische Physik und Thermodynamik“.
4
1 Was geht mich die Physik an
zu betonen, dass die verwirrende Vielfalt von Teilgebieten einen soliden Unterbau besitzt. „Aber ich vermute“, vermutet Dr. Fischbach, „dass die meisten Physiker an den fundamentalen Fragen arbeiten, die Sie Groß und Klein nennen.“ Schauen wir nach. Wie viele „Truppen“ arbeiten an den drei Fronten? Es ist gar nicht so einfach, die Zahlen von forschenden Physiken auf der Welt abzuschätzen, denn niemand führt darüber Buch. Daher benutzen wir jetzt zum ersten Mal in unserem Gespräch eine von Physiken häufig und gern verwendete Technik, die „Größenordnungsabschätzung“. Das ist eine Schätzung einer Zahl bis auf einen Faktor 10, d. h. es wird geschätzt, dass die Zahl zwischen 1 und 10, zwischen 10 und 100, zwischen 100 und 1000 etc. liegt. Liegt eine Zahl zwischen 10 und 100, so wollen wir sagen: „die Zahl ist von der Größenordnung 10“. Natürlich wird so eine Schätzung bei größeren Zahlen immer ungenauer, aber nur, wenn man auf die absoluten Größen schaut. Vergleicht man dagegen die Größe des Schätzfehlers mit dem Wert der geschätzten Zahl, so sieht die Sache anders aus. Die Fehlerintervalle, d. h. der Abstand zwischen dem größten und dem kleinsten Wert der Schätzung sind 10, 100, 1000 etc. Nehmen wir mal an, die genauen Werte wären 5, 50 und 500. Dann ist das Verhältnis des maximal möglichen Schätzfehlers zum wahren Wert 10/5 = 2, 100/50 = 2 und 500/1000 = 2. Das ist natürlich nur ein spezielles Beispiel genauer Werte, aber Sie sehen das Prinzip: das Verhältnis wird nicht größer, wenn die Zahlen größer werden. Solche Abschätzungen benutzen wir häufig, sie sind eine wichtige Orientierungshilfe in vielen Problemen. In der Aprilausgabe 2015 der Zeitschrift „Physics Today“ findet sich so eine Schätzung3 , nach der es weltweit von der Größenordnung 100000 gibt, d. h. maximal 1 Mio. forschende Physike.4 Wenn man die Aufteilung auf Forschungsfelder in Deutschland als typisch ansieht5 , dann arbeiten nur ca. 10 %–20 % davon in Astronomie, Astrophysik und Teilchenphysik, d. h. die anderen 80 %–90 % arbeiten an der Grenze zu komplexen Systemen. Es ist allerdings nicht immer klar, zu welcher Grenze ein spezielles Problem gehört. Ist etwa die Bildung eines komplexen Musters von Sternen in einer Galaxie ein Problem der Astrophysik oder ein Problem der komplexen Systeme? Sie müssen die Zahlen unserer Aufteilung also nicht völlig ernst nehmen. Doch wie immer man es auch abschätzt, die große Mehrheit der Physike arbeitet an der Grenze zur Komplexität. Treffen Sie zufällig auf der Straße ein Physike, das in der Forschung tätig ist, so arbeitet es mit großer Wahrscheinlichkeit an der Komplexitätsgrenze. Wenn Sie andererseits in Tageszeitungen, Magazine und viele andere Nachrichtenkanäle schauen, so scheint es, als würde die Physik praktisch nur 3
Wie genau diese Schätzung zustande kommt, erklären wir hier nicht. Sollte es Sie interessieren, dann schauen Sie einfach mal in den Artikel. Der Autor ist Charles Day, der Titel „One million physicists“ und er findet sich in Physics Today vom 17. April 2015 unter der Rubrik Commentary & Reviews. Damit man sie schätzen kann, muss man erst mal definieren, was forschende Physike genau sind. Der Autor des Artikels benutzt eine Definition, die erlaubt, Zahlen zu bekommen: Ein forschendes Physike ist Mitglied einer nationalen physikalischen Gesellschaft. 4 Genauer sagt die Schätzung: zwischen 372000 und 964000. 5 diese Aufteilung wiederum erhält man aus der Mitgliederstatistik der Deutschen Physikalischen Gesellschaft, kurz DPG.
1.2 So what?
5
aus „Wurm- und schwarzen Löchern“, „Zeitreisen“ oder „Gottes-Teilchen“ bestehen und hauptsächlich Fragen diskutieren wie: „Gibt es unser Universum überhaupt ?“, „Was geschah vor dem Urknall?“, „Wieviele Paralleluniversen gibt es und wie kommen wir von einem ins andere?“. Jetzt kommt der kritische Einwurf von Matteo: „Aber vielleicht sind das ja auch die wirklich wichtigen Fragen und dieser andere Komplexitäts-Kram wird nur von den weniger Begabten beackert.“ Wie kann man das feststellen? Werfen wir einen Blick auf die Nobelpreise der Jahre 2000–2021. Davon sind 12 der Komplexitätsgrenze zuzuordnen6 , 6 der Grenze zum Großen, und 4 wurden für Arbeiten an der Grenze zum Kleinen vergeben. Die Mehrheit der grundlegenden, „nobelpreiswürdigen“ Fortschritte der Physik liegt also an der Grenze zum Komplexen, d. h. die Forschungsergebnisse der dort arbeitenden Leute sind sicher nicht alle mittelmäßig.
1.2 So what? „Schön und gut“, bemerkt nun Lea ungeduldig, „ aber was geht mich das Ganze an? Sollen doch die Physike sich den Kopf über alle möglichen Dinge zerbrechen, und vielleicht finden sie ja auch mal praktische Lösungen für einige unserer Probleme. Mir ist das alles zu hoch. Ich bin keine Expertin in Physik und will es auch nicht werden, also lasst mich mit dieser Physik in Ruhe.“ Diese Haltung haben viele Menschen mittlerweile nicht nur gegenüber der Physik, sondern gegenüber sämtlichen Wissenschaften und Technologien entwickelt. Für sie sind Wissenschaften eine Art Service, der für alle Zwecke und Probleme einen Apparat oder eine App zur Verfügung stellen muss. Man kann alles entwickeln, sei es ein Smartphone, ein Zahnimplantat oder ein Navigationssystem für den nächsten Sahara-Urlaub. Legt man ein paar Scheine mehr auf den Tisch, so wird eben ein Impfstoff gegen die nächste Pandemie erfunden, oder das Klima gesteuert. Alles eine Frage des Geldes und des politischen Willens, die Wissenschaft macht das schon. Die Unterscheidung zwischen lösbaren Aufgaben und purem Wunschdenken ist für die meisten Menschen nicht möglich und überdies uninteressant. Die politische Kehrseite dieser Bequemlichkeit ist mittlerweile deutlich sichtbar. Zum Beispiel kann man den größten Mist über jedes beliebig komplizierte Thema verbreiten (per App!) und behaupten, man verstünde es besser als alle Anderen. Wer kann schon noch die Plausibilität solcher Behauptungen überprüfen, die in schrillen Tönen versuchen, öffentliche Debatten zu beeinflussen?
6
darunter Dinge, die bei Nicht-Eingeweihten Kopfschütteln hervorrufen können, wie zum Beispiel der Nobelpreis 2014 an Isamu Akasaki, Hiroshi Amano und Shuji Nakamura „für die Erfindung effizienter, blaues Licht ausstrahlender Dioden“. Wenn Sie jetzt denken: „Was soll daran toll sein? Ich hab’ überall schon Farbwechsel-LEDs eingeschraubt“, dann spiegelt das genau die Haltung der meisten Leute gegenüber den Naturwissenschaften wider, die wir im nächsten Abschnitt besprechen.
6
1 Was geht mich die Physik an
Jetzt wenden wir uns an unsere Zuhörer. „Könnten Sie zum Beispiel auf Anhieb der Behauptung begegnen, die Erde sei eine Scheibe? Wohlgemerkt, – nicht, indem Sie sich auf andere Autoritäten berufen, sondern durch eigene Argumente.“ Sie schauen etwas verunsichert. „Aber klar. Man sieht doch auf den Bildern aus dem Weltraum, dass die Erde eine Kugel ist. Außerdem gibt es da irgendwas am Horizont, der ist krumm, glaube ich“, traut sich Lea zu antworten. „Tja, so sagt man. Aber wir müssen Ihnen leider mitteilen, dass es hunderte von Argumenten für eine flache Erde gibt, die von der Gemeinde der Flat Earther eifrig gesammelt und verbreitet werden“. Hier ein Beispiel: Die natürliche Physik des Wassers besteht darin, sein Niveau zu finden und zu halten. Wäre die Erde eine riesige Kugel, die sich neigt, schwankt und durch den unendlichen Raum rast, dann gäbe es hier keine wirklich flachen, gleichmäßig ebenen Oberflächen. Da die Erde jedoch eine ausgedehnte flache Ebene ist, entspricht diese grundlegende physikalische Eigenschaft von Flüssigkeiten, die ihr Niveau finden und beibehalten, der Erfahrung und dem gesunden Menschenverstand. Argument Nr.3 aus: Eric Dubay 200 Proofs Earth Is Not A Spinning Ball ASIN : B072PPB3HB
„Gesunder Menschenverstand“, dagegen kann man doch schwer was sagen, oder? Können Sie das Argument widerlegen? Die Gemeinde der Flat Earther ist übrigens auch fest davon überzeugt, dass die Fotos aus dem Weltall per Photoshop App gefälscht sind. Sie selbst mögen das mit der Erdkugel ja glauben, aber unterscheidet sich Ihr Glauben denn von dem Glauben an einen Gott, oder die Existenz Außerirdischer? Könnte man nicht im Rahmen der Glaubensfreiheit fordern, dass man auch an eine scheibenförmige Erde glauben darf, ohne von Anhängern der „Erdkugeltheorie“ diskriminiert zu werden? „Jetzt wollen Sie uns verunsichern. Aber die Erde ist doch keine Scheibe, oder?“ fragt Selma. Wenn Sie der Physik vertrauen, dann können wir Ihnen versichern, dass die Erde eine nur ganz wenig verbeulte Kugel ist. Aber nur, wenn Sie uns vertrauen. Ansonsten bleibt Ihnen nichts anderes übrig, als es selbst herauszufinden. Und wenn Sie nicht ein wenig Physik beherrschen, dann werden Sie schnell zur Beute der Flat Earther. Solange merkwürdige Erzählungen über die Welt keine Konsequenzen für unsere Handlungen haben, können Sie sie als unterhaltsame Skurrilitäten abtun. Lesen Sie vielleicht auch Fantasy Romane, oder schauen mit Begeisterung entsprechende Serien im Fernsehen, in denen es von fliegenden Drachen, schwebenden Städten, Zombiearmeen und mächtigen Zauberern nur so wimmelt? Es schadet Ihnen nicht, solange Sie nicht ernsthaft anfangen, Flugübungen mit einem Besenstiel und einem Zauberstab zu machen. Gefährlich wird es dann, wenn solche Erzählungen Lösungen für reale Probleme aus unserem Lebensumfeld anbieten (Stichworte: Klimakrise, Artensterben, Infektionskrankheiten, alles wegzaubern!). Je wichtiger es wird, diesen Problemen mit angemessenen Handlungen zu begegnen, umso mehr sollte man wissen, woran man in Diskussionen darüber glauben kann. Glauben Sie etwa die folgende Aussage7 zum Klimawandel? „Ich habe gehört, dass die Ozeane in den nächsten 300 Jahren um ein Achtel Zoll ansteigen werden. Wir haben größere Probleme als das. Wir werden ein paar mehr Grundstücke am 7
Die Aussage stammt aus einer Rede von Donald Trump in Anchorage am 09. Juli 2022.
1.3 Ohne Sie geht es nicht
7
Strand haben, das ist nicht das Schlechteste auf der Welt.“ „Nein! Auf gar keinen Fall“, lautet die einhellige Antwort. Aber wie können Sie da so sicher sein? Und wie können Sie solchen Behauptungen begegnen? Sie müssen heutzutage immer damit rechnen, dass es Leute gibt, die ohne zu zögern tausendjährige Bemühungen aller Wissenschaften der Welt in einer Twitter Nachricht zur Seite wischen und durch irgendeine vollkommen blödsinnige Behauptung ersetzen, nur um ihren eigenen Interessen Gehör zu verschaffen.
1.3 Ohne Sie geht es nicht Hier sollten jetzt die Naturwissenschaften ins Spiel kommen. Schließlich haben sie sehr wirkungsvolle Methoden, um Aussagen über die äußere Welt auf ihren Wahrheits- oder Plausibilitätsgehalt zu überprüfen. Warum also erklären sie den Leuten nicht, was Blödsinn ist und was man glauben kann? So einfach ist das eben heute nicht (mehr), denn wir leben ja in einer „postfaktischen Gesellschaft“, in der Wahrheit durch Reichweite in öffentlichen Debatten ersetzt wurde. Da wirken bieder gekleidete und ruhig sprechende Forsche nicht so überzeugend wie coole Milliardäre oder hysterisch besorgte Communities. „Ok, aber warum sollen wir nun ausgerechnet Ihren naturwissenschaftlichen Aussagen vertrauen? Vielleicht ist das ja auch alles nur fake“, wirft Matteo ein. Gute Frage, die wir zunächst mal beantworten sollten. Wir denken, dass man unseren Methoden vertrauen kann, weil wir alle schon sehr lange einen großen Teil unseres Lebens darauf gründen. Egal, ob wir morgens das Licht einschalten, die Zähne putzen, die Kaffeemaschine in Betrieb setzen, ein Automobil, ein Fahrrad, ein Flugzeug benutzen, eine Packung Käse8 kaufen, aufs Klo gehen9 , ob wir unsere Urlaubsbilder per social media verbreiten, unser Haus mit einer Wärmedämmung versehen, einen Acker bewirtschaften, ein Solarmodul auf unser Dach installieren, ob wir einen Herzschrittmacher bekommen oder eine Masernimpfung, – auf Schritt und Tritt benutzen wir Naturwissenschaften und die daraus entwickelten Techniken. Selbst eifrige Vertreter der Scheibenerde finden den Weg zu ihren internationalen Konferenzorten per GPS, das auf der „Erdkugeltheorie“ basiert. Viele dieser wirkungsvollen Techniken sind alt (siehe Abwasser), andere brandneu (Quantencomputer). Nicht alle machen das Leben leichter, denken Sie nur an Atombomben. Deshalb kann und soll man über die Verwendung von naturwissenschaftlichen Erken8
Auch wenn Käse heute so selbstverständlich aussieht; es ist eine geniale Biotechnologie, die seit mindestens 7500 Jahren bekannt ist, und die es den Menschen ermöglicht, die großen Milchmengen einer systematischen Viehwirtschaft ohne Kühlung zu verarbeiten, zu veredeln und zu konservieren. 9 Hygienetechniken sind ein schönes Beispiel dafür, dass der technische Fortschritt nicht zwangsläufig immer weiter zunimmt. Die Indus-Zivilisation (2600 bis 1800 v. Chr. im heutigen Pakistan) kannte gepflasterte Straßen mit Gullys, sowie Haustoiletten, die an gemauerte Entwässerungskanäle angeschlossen waren. Die Stadt London entschloss sich zum Bau eines Abwassersystems erst 1858, im heißen Sommer des „Great Stink“, des großen Gestanks, der von der völlig verunreinigten Themse aufstieg.
8
1 Was geht mich die Physik an
ntnissen sehr wohl diskutieren. Aber eines lässt sich nicht bestreiten. Alle Anwendungen funktionieren nur deshalb, weil sie die Grundprinzipien der Naturwissenschaften, auch Naturgesetze genannt, berücksichtigen und verwenden. Wenn man also Entscheidungen über unser Handeln in der Welt treffen muss, bieten Naturwissenschaften verlässliche Grundlagen, die man niemals ungestraft ignorieren kann. Das unterscheidet die Naturgesetze von den menschengemachten. Ein Steuergesetz zum Beispiel kann man einfach mal ignorieren. Wenn man nicht erwischt wird, kann das sehr lukrativ sein. Das Gesetz der Schwerkraft kann man niemals ignorieren. Vergisst man es bei der Planung einer Brücke, dann stürzt die Brücke ein. Wenn man so will, arbeiten Staatsanwaltschaft, Gerichtsbarkeit und Strafvollzug für Naturgesetze ohne jede Verzögerung und mit einer Aufklärungsquote von 100 %. Darauf sollte man bei öffentlichen Diskussionen immer hinweisen, denn es gibt jede Menge Leute mit lauter Stimme und starker Meinung, die sich von solchen Kleinigkeiten wie Naturgesetzen bei ihren großen Plänen nicht aufhalten lassen wollen. „Dann haben Sie doch die besseren Argumente. Jetzt brauchen Sie nur noch die Reichweite auf Tik-Tok, Facebook und Twitter.“ meint Lea, „Dann müsste es doch klappen mit der Entlarvung von Blödsinn und Verschwörungsmythen.“ Damit kommen wir zu der wichtigen Rollenteilung zwischen Ihnen, den Bürgen und uns, den Forschen. Leider können Sie als Bürge Erwiderungen auf unsinnige Behauptungen oder die Vereitelung von Plänen mit toxischen Aus- oder Nebenwirkungen nicht einfach uns überlassen. In öffentlichen Auseinandersetzungen wirken wir Naturwissenschafte oft merkwürdig hilflos und unterlegen. Wir verlassen uns eben auf die Akzeptanz unserer Methoden und Ergebnisse in der Gesellschaft. Daher verhalten wir uns öffentlich arglos, nämlich so, als sprächen wir in unserer eigenen Gemeinschaft. Zum Beispiel zweifeln wir gern mal unsere Argumente und Ergebnisse an, um klarzumachen, was als nächster Schritt zu tun ist. Das ist in unserer Gemeinschaft guter Stil. Andererseits ist es natürlich eine Steilvorlage für rhetorische Killertypen. Solche Typen haben tonnenweise wirksame Tricks für unredlich geführte Debatten auf Lager. Sie erwecken gern den Anschein, sie hätten Argumente, obwohl sie gar keine haben oder ihre Argumente durch allgemein anerkannte Methoden längst widerlegt sind. Sie benutzen Scheinargumente, um Scheindebatten über Themen zu erzeugen, die wissenschaftlich geklärt sind, und schaffen es damit, eine gesellschaftliche Akzeptanz der längst bestätigten Schlussfolgerungen zu verhindern und ihren eigenen Standpunkt mehrheitsfähig zu machen, selbst wenn der logischen Gesetzen oder Naturgesetzen (oder beiden) widerspricht. Solchen Typen kann man in einer demokratischen Gesellschaft nur gemeinsam begegnen: in einer Allianz aus wissenschaftlich informierten, medienkundigen Bürgen, Managen, Politiken und aus kommunikationsfreudigen Wissenschaften, die sich gegenseitig vertrauen. Wenn dieses Vertrauen da ist, kann Sie die Wissenschaft gegen Tricks der rhetorischen Killer immunisieren. Also sollte man dieses Vertrauen schaffen, denn es existiert nicht einfach so. Es reicht nicht, im Brustton der Überzeugung zu behaupten,
1.3 Ohne Sie geht es nicht
9
die Naturwissenschaften wüssten es eben. Auch die Naturwissenschaften irren10 . Zu selbstbewusste Behauptungen über unsichere Vorhersagen schaden da eher („Das 1.5 Grad Ziel können wir nicht mehr erreichen, sagt eine internationale Forschergruppe“). Solche Aussagen wirken auf Außenstehende so vertrauensbildend wie Verlautbarungen eines Zentralkomittees für die Unterrichtung der „Menschen draußen im Lande“. Gerade wenn es um Entscheidungen geht, die die Zukunft von vielen (möglicherweise von allen) Menschen betreffen, muss man wissen, wie die Naturwissenschaften arbeiten. Nur so kann man als Bürge beurteilen, ob Prophezeiungen und Empfehlungen zuverlässig sind. Man muss also „unter die Motorhaube“ der Naturwissenschaften schauen. „Aber diese Naturwissenschaften sind doch irre kompliziert. Die Physik am allermeisten. Schon in der Schule hab’ ich nix verstanden.“, jammert Sophia, die Kulturanthropologin. Das Argument hört man häufig. Aber sind Sie wirklich nicht in der Lage, komplizierte Dinge in der Welt zu verstehen? Manchmal ist das nur eine Frage der Motivation. Bedenken Sie, dass Sie mit ein wenig Aufwand und Lernbereitschaft viele erfolgreiche Eingriffe in enorm komplexe Systeme vornehmen können, wenn Sie es müssen: Sie können vielleicht ein Rad an einem Auto wechseln, Sie können Ihr neues Smartphone einrichten, Sie können die Kette Ihres Fahrrades spannen, Sie können Ihr Auto zu einem beliebigen Punkt einer Großstadt fahren, Sie können nach einem Stromausfall durch Kurzschluss das Licht am Sicherungskasten wieder einschalten, Sie können möglicherweise sogar Ihre Steuererklärung erstellen11 . Falls Sie es nicht können, gibt es für all diese Tätigkeiten verständliche Anleitungen12 . Da brauchen Sie sich vor etwas Physik nicht zu fürchten, wenn es dafür auch entsprechende Anleitungen gibt. Und was die Motivation angeht, – wenn Sie in den immer schrilleren und drängenderen Diskussionen über Probleme, die über unser Leben in naher und fernerer Zukunft entscheiden, nicht den Rattenfängern hinterherlaufen wollen, dann müssen Sie auch ein wenig über Physik und andere Naturwissenschaften Bescheid wissen. Sie sollen ja keine professionellen Physike werden, Sie sollen nur Vertrauen in die Physik gewinnen. Es ist wie beim Radwechsel. Da sollen Sie auch keine Automechanike werden, bevor Sie Hand anlegen können. Um Vertrauen in die Physik zu gewinnen, sollten Sie auch nicht die neuesten wilden Spekulationen über Multiversen und Wurmlöcher studieren. Da rennt morgen schon wieder eine andere Sau durchs Dorf. Das ist vielleicht faszinierend, aber keine funktionierende Physik.
10
und zwar gar nicht so selten. Die Geschichte des naturwissenschaftlichen Fortschritts ist eine Geschichte von zahllosen Irrtümern. 11 Wahrscheinlich die komplexeste Aufgabe von allen. 12 Außer vielleicht für die Steuererklärung.
10
1 Was geht mich die Physik an
1.4 Das Angebot: eine geführte Wanderung Als vertrauensbildende Maßnahme ist der Rest dieses Buches eine geführte Wanderung durch die Kultur der Physik. Es geht nicht um Physikunterricht oder ein Physikstudium. Es geht um Geschichten, um Menschen, um Arbeitsweisen, um Ergebnisse. Sie werden die Entstehung von mathematischen Naturgesetzen verfolgen können, aber auch Anwendungen dieser Gesetze kennenlernen, – auf Alltagsprobleme ebenso wie auf Grundprobleme unserer Zeit. Wie bei jeder Wanderung gibt es leichte Abschnitte, weite Ausblicke, aber auch steile Anstiege und sogar etwas Kletterei. Weil es eine Kulturwanderung ist, gibt es auch großartige Werke alter Meister und Stilrichtungen der neuen Kunst zu bewundern. Die Route, die ich ausgesucht habe, soll dazu führen, dass Sie viel von der Landschaft und den Werken der Physik kennenlernen, sie aber auch als Teil eines größeren Landes von Wissenschaften und gesellschaftlichen Diskussionen begreifen, als Kultur eben. Als Ihr Tourguide gebe ich Ihnen gleich mal einen wichtigen Tipp: Wenn es Ihnen zwischendurch zu steil wird, dann können Sie dieses Wegstück ruhig überschlagen. Es gibt überall genug zu sehen. Im ersten Teil geht es um Grundsätzliches: die Naturphilosophie, die Physik und ihre Beziehungen zu anderen Wissenschaften und Pseudowissenschaften. Was unterscheidet Physik von Germanistik, von Theologie, von Mathematik? Welche Grundbegriffe benutzen Wissenschaften und wie kommen sie zu solchen Grundbegriffen? Wie kommen Wissenschaften zu Wahrheiten? Der Teil beleuchtet aber auch die Beziehungen anderer Wissenschaften und Pseudowissenschaften zur Physik, und die sind nicht immer erfreulich. Es gibt da eine Reihe von Kämpfen um die anerkannten Wahrheiten, auf die ich Sie aufmerksam machen will. Schon das trägt hoffentlich bei zur Immunisierung gegen die erwähnten rhetorischen Killer. Wir werden aber auch Blicke auf zwei Gebiete der Wissenschaften werfen, mit denen die Physik eng verbunden ist: Logik und Mathematik. Logik wird einfach zu viel ge- und missbraucht, als dass man ohne sie auskäme und Physik ohne die Mathematik ist wie ein Bauer ohne Trecker. Der zweite Teil ist eine Darstellung von den oben erwähnten vier Säulen, die das Fundament der Physik bilden: Mechanik, Elektrodynamik (als Beispiel einer Feldtheorie), Quantenphysik und Statistische Physik. Es geht, wohlgemerkt, um funktionierende Physik, nicht um die letzten Spekulationen über Multiversen. Die sollten Sie sich lieber im Kino anschauen. Auf diesem Teil unseres Weges geht es schon manchmal bergauf, denn Sie sollen einen möglichst gründlichen Einblick unter die Motorhaube der Physik bekommen. Als Belohnung für die Mühen gibt es Anwendungsbeispiele, die Ihr Selbstbewusstsein fördern, und Sie in die Lage versetzen, mit Unterstützung eines Taschenrechners vielen Behauptungen aus Politik und Lobby mal auf den Zahn zu fühlen. Zur Entspannung erfahren Sie daneben Vieles über die zwei naturwissenschaftlichen Revolutionen im 17. und im 20. Jahrhundert. Im letzten Teil zeige ich Ihnen, wie die Methoden der Physik in öffentlichen Debatten verwendet werden können. Aufgrund der aktuellen Lage geht es dabei leider oft um Probleme, Gefahren und Katastrophen.
1.4 Das Angebot: eine geführte Wanderung
11
Wenn Sie Lust haben, an unserer Wanderung teilzunehmen, dann rüsten Sie sich mit einem Notizblock, einem Stift und einem Taschenrechner aus. Begeben Sie sich in eine bequeme Leseposition und versorgen Sie sich mit Tee oder Kaffee. Dann kann es losgehen.
Teil I
Wahrheit und Wirklichkeit
Kapitel 2
Kein Wissen ohne Glauben
Auf die einfache Frage, wie Wissenschaft zu einem Schatz von wahrem Wissen kommt, gibt es keine einfache Antwort, und schon gar keine, die für alle Wissenschaften Gültigkeit hätte. In jeder Wissenschaft stellt sich nämlich das gleiche Problem: Wo anfangen? Alle Eltern kennen dieses Problem, wenn die Kinder in die Warum-Phase kommen. Kinder wollen den Dingen auf den Grund gehen und fragen bei jeder Antwort der Erwachsenen immer wieder „warum?“. Früher oder später verlieren Erwachsene die Geduld und antworten dann in etwa „Das ist eben so“ oder „So eine dumme Frage darf man gar nicht stellen“ (ganz schlechte Antwort, denn „dumme Fragen“ gibt es gar nicht). So billig kann sich eine Wissenschaft allerdings nicht herausreden. Trotzdem, – auch sie muss etwas als „gegeben“ an den Anfang stellen, ohne dass sie weiß, ob es wahr ist.
2.1 Glaubensbekenntnisse Sie muss diesen Anfang glauben! Damit Sie sehen können, von welcher Art diese Glaubensbekenntnisse sind, habe ich hier eine etwas saloppe Version für alle Naturwissenschaften: Glaubensbekenntnis der Naturwissenschaften Ich glaube, dass es eine äußere Welt (die „objektive Wirklichkeit“) gibt, die außerhalb von mir existiert, die mich beeinflusst, über die ich Wissen durch Beobachtung erlangen kann, und die ich durch meine Handlungen auch beeinflussen kann.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_2
15
16
2 Kein Wissen ohne Glauben
Manchen mag das selbstverständlich und alternativlos erscheinen, aber das ist es keineswegs. Hier ist ein ganz anderes Glaubensbekenntnis, das so eine objektive Wirklichkeit schlicht leugnet: Glaubensbekenntnis der Solipsisten Ich glaube, dass es außerhalb meines Geistes nichts gibt. Alle Phänomene der sogenannten objektiven Wirklichkeit, einschließlich aller Personen, sind nur Produkte meiner eigenen Fantasie.
Solipsisten machen sich also ihre Naturwissenschaften selbst, sie komponieren ihre Bachkantaten selbst, sie schreiben ihre Romane, sie lösen die kompliziertesten – von ihnen selbst gestellten – mathematischen Rätsel. Dinge, an die sie sich nicht mehr erinnern, hat es eigentlich nie gegeben. Na, das klingt doch so, als müsste man es spielend leicht widerlegen können. Das haben schon viele Geistesgrößen gedacht, und dabei gelernt, dass man wirklich hartgesottene Solipsisten durch logische Argumente nicht überzeugen kann. Versuchen Sie es doch mal in einem Rollenspiel. Solipsisten begegnen jedem Argument typischerweise mit der Aussage: „Das Argument entspringt natürlich, genau wie Du, meinem Ich, wie soll es mich dann widerlegen?“. Na klar, die Position von Solipsisten ist unplausibel, unsozial, unproduktiv und irgendwie verrückt, aber sie bleibt eben logisch unangreifbar. Man kann aus dieser Betrachtung etwas sehr Wichtiges für Debatten lernen: Die Tatsache, dass eine Idee nicht widerlegt werden kann, bedeutet noch lange nicht, dass es einen Grund gibt, sie für wahr zu halten. Für manche Verschwörungsmythen wäre Solipsismus übrigens eine ideale Grundlage, wenn er nicht so einsam machen würde. Zum Glück gibt es eine Menge von Kriterien jenseits der logischen Konsistenz, die man in Debatten mit solchen Leuten ins Feld führen kann, etwa die praktische Nützlichkeit oder die ethische Vertretbarkeit. Daher argumentiert man in solchen Fällen nicht logisch, sondern geht ungefähr so vor wie der bekannte österreichische Biologe Rupert Riedl (1925–2005), von dem das Bonmot stammt: Ich bin überzeugt, dass ich einen ganzen Solipsistenkongress mit einem wilden Nashorn, das mir der Direktor des Wiener Zoos borgen würde, in die Flucht schlagen könnte1 . -Stammbaum der Erkenntnis- die evolutionäre Erkenntnistheorie Gespräch mit Rupert Riedl, Bayerischer Rundfunk, 23.08.2000
Riedls „Argument“ gegen den Solipsismus ist in gewissem Sinn sehr naturwissenschaftlich. Er geht nämlich davon aus, dass jedes Einzel glauben kann, was es will, solange es nicht in Konflikt mit der objektiven Wirklichkeit gerät. Sollte dies 1
Nebenbei, – es ist übrigens eine interessante Frage, ob es eigentlich mehrere Solipsisten gibt. Nach Ansicht von Solipsisten sicher nicht. Der englische Philosoph Bertrand Russell (1872–1970) hat sich über diese inner-solipsistische Schwierigkeit lustig gemacht, indem er den Solipsistenkongress erfand.
2.1 Glaubensbekenntnisse
17
jedoch passieren, ist es ratsam, die objektive Wirklichkeit als verlässlich anzuerkennen und sich dementsprechend zu verhalten (Nashorn kommt, – fliehen!). Das ist der praktisch nützliche Standpunkt der Naturwissenschaften. Ob es nun tatsächlich Solipsisten gibt, ist wohl äußerst fragwürdig. Man muss schon sehr (!) merkwürdig drauf sein, um diesen Grundglauben konsequent durchzuhalten. Solipsisten sind vermutlich eine philosophische Erfindung, die dazu dient, bestimmte Einsichten zu veranschaulichen. Das nächste Beispiel für ein Glaubensbekenntnis ist schon viel besser geeignet, um alle naturwissenschaftlichen Argumente vom Tisch zu fegen und trotzdem einer verschworenen Gemeinschaft anzugehören. Hier das Glaubensbekenntnis des radikalen Skeptizismus Ich glaube schon, dass es eine objektive Wirklichkeit gibt, aber es ist unmöglich, etwas Zuverlässiges über diese Wirklichkeit in Erfahrung zu bringen, denn alle Information, die ich über die äußere Welt bekommen kann, erhalte ich über meine Sinne, und es ist unmöglich, herauszufinden, ob sie die Wirklichkeit korrekt abbilden.
Diese Grundhaltung ist sehr alt. Schon im antiken Griechenland gab es einen andauernden Streit zwischen Skeptikern und Dogmatikern, wobei die Dogmatiker glaubten, über die Wirklichkeit wahre und beweisbare Aussagen machen zu können. Skeptizismus spielt in den Naturwissenschaften eine wichtige und konstruktive Rolle, man darf ihn nur nicht übertreiben. Die radikale Form des Skeptizismus vertraten bedeutende Philosophen der Neuzeit, allen voran der Schotte David Hume (1711–1776). Seiner Ansicht nach beruhen alle unsere Erkenntnisse, Theorien und Vorstellungen von der äußeren Welt ausschließlich auf unseren Sinneseindrücken. Das Argument klingt bestechend gut und es ist auch unwiderlegbar. Aber die Schwäche des radikalen Skeptizismus ist (wie bei vielen anderen Radikalismen auch) seine behauptete Allgemeingültigkeit. Er bezieht sich also nicht nur auf naturwissenschaftliche Erkenntnisse („Den Klimawandel kann man doch gar nicht beweisen“), er bezieht sich auf alle unsere Erkenntnisse. Wenn Sie vor sich eine Tasse Kaffee stehen haben, was macht Sie so sicher, dass Sie im nächsten Moment danach greifen und einen Schluck nehmen können? Wie kämen Sie in einer Wirklichkeit zurecht, wenn Ihre Sinneseindrücke kein konsistentes Bild liefern würden? Obwohl das normale Menschen davon überzeugen würde, dass man mit dem radikalen Skeptizismus nicht weit kommt, bietet er der Anhängerschaft von Verschwörungsmythen ein Fundament. Viele Argumente aus solchen Kreisen kommen mit dem Zusatz daher: „Wir sind gründliche Wissenschaftler2 und machen uns über alles unsere eigenen Gedanken. Die sogenannten naturwissenschaftlichen Ergebnisse sind ja nicht sicher.“
2
In der Wissenschaftsmythik wird nicht gegendert.
18
2 Kein Wissen ohne Glauben
Die Kritik am radikalen Skeptizismus ist übrigens nicht neu. Schon der Schweizer Mathematiker Leonhard Euler (1707–1783)schrieb an die deutsche Prinzessin Friederike Charlotte Leopoldine Louise von Brandenburg-Schwedt: Wenn ein Bauer es sich in den Kopf setzen würde, einen Zweifel zu hegen, und zum Beispiel sagen würde, dass er nicht glaubt, dass sein Landvogt existiert, obwohl er in seiner Gegenwart steht, würde man ihn für einen Verrückten halten, und das mit gutem Grund; aber wenn ein Philosoph solche Gedanken äußert, erwartet er, dass wir sein Wissen und seine Klugheit bewundern, die die Auffassungsgabe des Normalbürgers unendlich übertreffen. (aus dem 97. Brief an die deutsche Prinzessin)
Schöner kann ich es auch nicht sagen. Nicht alle Glaubensbekenntnisse schließen sich gegenseitig aus. Daher können auch Naturwissenschafte weitere Glaubensbekenntnisse haben, etwa religiöse. Betrachten wir mal ein Stück eines typischen religiösen Glaubensbekenntnisses: Auszug aus einem Glaubensbekenntnis einer monotheistischen Religion Ich glaube, dass es außerhalb der äußeren Welt einen weiteren Bereich gibt, in dem ein Gott existiert. Dieser Gott hat die äußere Welt erschaffen, und könnte sich in sie einmischen und Wunder vollbringen.
Beachten Sie den Konjunktiv: durch das „könnte“ ist dieses Glaubensbekenntnis vollkommen verträglich mit den Naturwissenschaften. Ein Naturwissenschafte, das diesem Glaubensbekenntnis folgt, kann auch für sich Wege finden, mit diesem Gott zu kommunizieren. Mit anderen Worten: Naturwissenschafte können tiefgläubig sein, ohne je in Konflikt mit ihrer naturwissenschaftlichen Arbeit zu kommen. Denken Sie daran, wenn mal wieder eine Diskussion mit so einem Titel wie „Wie entstand die Welt: Urknall oder göttliche Schöpfung“ angekündigt wird. Geisteswissenschaften haben natürlich ganz andere Glaubensbekenntnisse als Naturwissenschaften. Ich kann und werde Ihnen hier nicht im Detail erklären, was genau Geisteswissenschaften sind, denn das ist eine lange und kulturgebundene Diskussion. Ganz grob gesagt, beschäftigen sie sich mit geistigen, sozialen und kulturellen Leistungen von Menschen. Dazu zählen Wissenschaften wie die Theologie, die Philosophie, die Mathematik, die Sprachwissenschaften, die Musikwissenschaft. Auch alle Formen der Kunst (Musik, Literatur, Malerei, Bildhauerei u. s. w.) haben ein geisteswissenschaftliches Glaubensbekenntnis. Ich möchte Sie lediglich nach Physikerart davon überzeugen, dass die Gegenstände dieser Wissenschaften in einer Geisteswelt angesiedelt sind, die im Bewusstsein von Menschen existiert (aber möglicherweise nicht nur da). An diese Geisteswelt muss man glauben, wenn man in ihr Wissenschaft betreiben will. Das hört sich vielleicht etwas okkultistisch an, aber es ist ganz praktisch gemeint. Nehmen wir als erste Illustration eine der reinsten Geisteswissenschaften, die Mathematik, und betrachten einen ihrer Gegenstände, nämlich die Zahl π . Diese Zahl ist das Verhältnis vom Umfang U zum Durchmesser d eines idealen Kreises, also π = U/d.
2.1 Glaubensbekenntnisse
19
Das hört sich so an, als wäre diese Zahl ein Element der objektiven Wirklichkeit, schließlich kann doch jedes von uns einen Kreis auf ein Stück Papier malen. Ja schon, aber solche Kreise sind keine idealen Kreise, sie realisieren ideale Kreise nur bis auf – möglicherweise sehr kleine – endliche Fehler. Daher ist bei diesen Kreisen das Verhältnis U/d nicht exakt gleich π . Es gibt keine Möglichkeit, einen idealen Kreis in der objektiven Wirklichkeit zu basteln oder aufzufinden3 . Aber vielleicht kann man π ja einfach durch natürliche Zahlen (1, 2, 3, · · · ) ausdrücken, zum Beispiel 355 = 3.141592 · · · . 113 Endlich viele, natürliche Zahlen kann man in der objektiven Wirklichkeit schon finden (zum Beispiel 101 Dalmatiner). Die gezeigten Nachkommastellen des Dezimalbruchs stimmen tatsächlich mit π überein, aber die weggelassenen sind leider falsch. Die Zahl π besitzt unendlich viele Nachkommastellen, die sich nicht irgendwie periodisch wiederholen (so wie zum Beispiel 1/7 = 0.142857, wobei der Strich andeutet, dass sich genau diese Ziffernfolge als Nachkommastellen immer wiederholt.) Wie man es auch dreht und wendet, – es gibt keinen Weg, die Zahl π durch endlich viele, natürliche Zahlen darzustellen, man braucht immer unendlich viele. Dafür gibt es einen mathematischen Beweis. Um π zu konstruieren, muss man einen Prozess mit unendlich vielen Schritten durchlaufen, bei dem man sich der Zahl immer weiter annähert. Und damit haben wir die objektive Wirklichkeit verlassen. Diese Konstruktion lässt sich in der äußeren Welt nicht realisieren. Aber wo existiert die Zahl π dann? Jedes Mathematike wird Ihnen versichern, dass π existiert, – aber wo? Sie sehen, wir müssen ihr eine Welt außerhalb der objektiven Wirklichkeit zubilligen, die natürlich zunächst eng mit unserem Bewusstsein verknüpft ist. Es bleibt die vertrackte Frage, ob mathematische Objekte wie die Zahl π auch ohne Menschen existieren. Es könnte ja zum Beispiel Aliens geben, die auch so etwas wie Mathematik betreiben und dabei auf diese Zahl stoßen. Wenn wir mittlerweile ausgestorben sind, wo hat sie gesteckt, bevor die Aliens sie entdeckt haben? Darauf kann man verschiedene Antworten geben. Alle diese Positionen haben hochtrabende Namen, die sich auf den griechischen Philosophen Platon (428–348 v. Chr.) beziehen: • Für das Arbeiten ist es nützlich, so zu tun, als ob die Zahl in einer Geisteswelt existiert. (methodischer Platonismus) • Mathematische Objekte entstammen eigentlich Eigenschaften in der äußeren Welt, von denen wir uns über unsere Sinne ein geistiges Abbild in unserem Kopf schaffen (wie auch immer).(ontologischer Platonismus) • Mathematische Objekte existieren in einer Geisteswelt unabhängig von uns, aber wir haben einen Zugang zu dieser Welt. (epistemologischer Platonismus) • Die Existenz in irgendeiner Geisteswelt spielt für die Mathematik keine Rolle. Diskussionen darüber kann man sich schenken. (Formalismus)
3
Das letzte Hindernis ist die endliche Genauigkeit jeder physikalischen Messung, auf die wir im nächsten Abschnitt zu sprechen kommen.
20
2 Kein Wissen ohne Glauben
Beachten Sie, dass der Formalismus die gestellte Frage nicht beantwortet. Er ist eine elegante Ausrede (und deswegen auch sehr beliebt). Der ontologische Platonismus hat natürlich eine Menge zu erklären, um die Frage nach der Zahl π zu beantworten. Für uns reicht es, dass wir ein erstes Element einer „Geisteswelt“ gefunden haben, über das sich mit den Naturwissenschaften keine Aussagen gewinnen lassen. Nebenbei habe ich Ihnen hier noch zwei sehr gelehrt klingende, philosophische Begriffe vorgeführt, mit denen man auf Cocktailpartys oder in intellektuellen Kneipengesprächen glänzen kann: Ontologie beschäftigt sich mit allem, was es in der Welt tatsächlich gibt4 , Epistemologie dagegen untersucht, wie wir Wissen über die Welt erwerben können. Wir werden diese Begriffe gelegentlich noch mal brauchen. Ein Glaubensbekenntnis der Geisteswissenschaften bezieht sich auf diese Geisteswelt und könnte ganz grob etwa so aussehen Glaubensbekenntnis der Geisteswissenschaft Ich glaube, dass es eine Geisteswelt gibt, in der ich mit meinen geistigen Fähigkeiten Objekte, Strukturen und Aussagen entdecken, erschaffen und untersuchen kann
Geisteswissenschaften und Naturwissenschaften können äußerst fruchtbare Wechselbeziehungen pflegen, obwohl sie auf ganz unterschiedlichen Glaubensbekenntnissen basieren. Die Beziehungen zwischen Physik und Mathematik sind dafür ein Musterbeispiel. Keine andere Naturwissenschaft macht derart intensiven Gebrauch von Mathematik wie die Physik, und man kann umgekehrt sagen, dass die Physik der Mathematik immer wieder Anregungen für neue Objekte, Strukturen und Aussagen in ihrer Geisteswelt gegeben hat. Aber die Beziehung zwischen Geistes- und Naturwissenschaft ist noch viel fundamentaler. Damit wir überhaupt Naturwissenschaft betreiben können, müssen wir nachdenken, Dinge benennen und miteinander in einer Sprache kommunizieren. All dies spielt sich in der Geisteswelt ab. Wenn wir Naturwissenschaft betreiben, dann ist das also sozusagen ein Tanz zwischen diesen beiden Welten. Von jeher waren die Menschen brennend an der Frage interessiert, ob die Geisteswelt die äußere Welt beeinflussen kann. Viele Theologen bejahen diese Frage ausdrücklich, sie glauben an direkte göttliche Eingriffe in die äußere Welt. Auch pseudo-naturwissenschaftliche Erzählungen, die „paranormale Kräfte“ und „spiritistische Erscheinungen“ untersuchen wollen, gehen von einer Geisterwelt aus, die irgendwie in unsere äußere Welt hineinwirkt, ohne Teil von ihr zu sein. Aber selbst bei nüchternster Betrachtung durch die naturwissenschaftliche Brille gibt es so eine Schnittstelle zwischen Geisteswelt und äußerer Welt. Diese Schnittstelle sind wir selbst. Schließlich haben wir ja Zugang zu beiden Welten. Dann erscheint es gar 4
Der US-amerikanische Philosoph Willard Van Orman Quine (1908–2000) bemerkte in seinem berühmten Essay On What There Is: Das Merkwürdige am ontologischen Problem ist seine Einfachheit. Es lässt sich in drei Einsilbern ausdrücken: Was ist da? Es kann außerdem mit einem Wort beantwortet werden – Alles – und jeder wird diese Antwort als wahr akzeptieren.
2.2 Der Elefant im Raum: Ethik
21
nicht mehr erstaunlich oder gar mystisch, dass durch uns die Geisteswelt die äußere Welt beeinflusst. Man nennt das „Ideen in die Tat umsetzen“. Umgekehrt beeinflusst die äußere Welt unsere Gedanken und wir schaffen oder entdecken dadurch Neues in der Geisteswelt. Erst, wenn man versucht, diese für uns selbstverständlichen Funktionen „out-zu-sourcen“ und Wesenheiten einzuführen, die unabhängig von uns die Welten aufeinander einwirken lassen können, wird es mystisch, okkult, theologisch, – oder wir befinden uns in einem Labor zur „harten künstlichen Intelligenz“ (hKI). Diese Wissenschaft versucht sich an der technischen Realisierung der Schnittstelle zwischen den Welten, allerdings trotz aller Erfolgsmeldungen über KI, die Sie gegenwärtig in Zeitschriften lesen können, noch mit keinerlei Ergebnis. Darüber werden wir später in Kap. 13 mehr zu sagen haben. Glaubensbekenntnisse tragen die Wissenschaften nicht so gern offen vor sich her. Das führt dazu, dass Diskussionen (zum Beispiel zwischen Geistes- und Naturwissenschaften) destruktiv verlaufen, wenn nicht bemerkt wird, dass man über Glaubensbekentnisse streitet. Solche Diskussionen sind von Anfang an zum Scheitern verurteilt. Hüten Sie sich also davor, in so etwas verwickelt zu werden und fragen Sie im Zweifelsfall nach dem grundlegenden Glauben der anderen Seite. Es gibt neben den seriösen Glaubensbekenntnissen leider auch noch solche, die gegenüber anderen übergriffig werden, die Alleinvertretungsansprüche aufstellen und diese aggressiv durchsetzen wollen. Ich möchte an dieser Stelle nur ein Beispiel erwähnen, von denen später noch mehr die Rede sein wird, die „übergriffigen Postmodernisten“. Das Wort übergriffig habe ich vorangestellt, weil es von diesem Glaubensbekenntnis auch ganz friedliche und konstruktive Varianten gibt, das sei hier ausdrücklich betont. Das fragliche Glaubensbekenntnis sieht in etwa so aus: Glaubensbekenntnis der übergriffigen Postmodernisten Ich glaube, dass die gesamte Wirklichkeit eine soziale Konstruktion ist. Sie entsteht aus gleichberechtigten Erzählungen in Diskursen. Das gilt selbstverständlich auch für die Erzählung, die man Naturwissenschaften nennt.
Man erkennt die Übergriffigkeit daran, dass in den Bekenntnissen einem anderen Glaubensbekenntnis oder zentralen Elementen eines anderen Bekenntnis widersprochen wird. Die Ergebnisse solcher toxischen Bekenntnisse sind Kulturkämpfe oder Schlimmeres.
2.2 Der Elefant im Raum: Ethik Neben Glaubensbekenntnissen über Dinge, die wir wissen und tun können, gibt es noch andere, die für menschliches Verhalten enorm wichtig sind, nämlich Glaubensbekenntnisse über Dinge, die wir wissen und tun sollen. Die gehören in den Bereich
22
2 Kein Wissen ohne Glauben
der Ethik und werden in diesem Buch nicht behandelt. Ethik beschäftigt sich mit Dingen in der Geisteswelt, die es geben sollte (oder eben nicht), wie das „Gute“ (oder das „Böse“). Sie bewertet Handlungen und Gedanken („moralisch verwerflich“) und stellt Regeln auf („Du sollst nicht töten“). Seit Menschen sich Gedanken über ihr Verhalten und die Konsequenzen machen, versuchen sie immer wieder, eine Ethik zu begründen, – entweder logisch oder aus den Naturgesetzen. Aber das klappt nicht. Es war der schottische Philosoph David Hume (der radikale Skeptiker, s. o.), der bemerkte, dass man von Sätzen, die ein „sein“ beinhalten („Nach Wochen ohne Nahrung ist man verhungert“) nicht auf ein „sollen“ schließen kann („Also sollst Du ordentlich reinhauen“). Das ist kein Schluss, wie das „also“ am Satzanfang suggerieren will, es ist einfach eine Verhaltensregel. Es gibt keine logischen Begründungen ethischer Sätze. Moralische Verhaltensregeln folgen auch nicht aus Naturgesetzen. Eine pragmatische Begründung der Ethik könnte sein, dass sich Menschen per Diskussionen auf bestimmte Grundsätze geeinigt haben. Aber solche Begründungen gibt es viele. Man kann daher in der Ethik von ganz verschiedenen Glaubensgrundsätzen ausgehen. Ein paar Beispiele mögen genügen: Ethische Glaubensbekenntnisse 1. Ich glaube, dass die ethischen Regeln durch Gott festgelegt wurden. 2. Ich glaube, dass jedes menschliche Wesen eingebaute ethische Regeln hat. 3. Ich glaube, dass ethische Regeln entstehen, weil sich gleichberechtigte Menschen darauf verständigen. 4. Ich glaube, dass ethische Regeln von einer gesellschaftlichen Elite bestimmt werden. 5. Ich glaube, dass ethische Regeln so gewählt werden, dass das Glück aller Menschen optimiert wird.
Es gibt noch viel mehr verschiedene Startpunkte für Ethik. Auch wenn Sie die Ethik in diesem Buch nicht mehr antreffen, – Sie sollten auf keinen Fall vergessen, dass sie für alle Wissenschaften eine große Rolle spielt. Sie gibt Richtungen der Forschung vor (z. B. Nahrungsmittelproduktion steigern, Ausstoß von klimabeeinflussenden Spurengasen verringern, Impfstoffe gegen gefährliche Infektionskrankheiten entwickeln, Verhandlungsstrategien für Abrüstung entwickeln) und bewertet Forschungsmethoden (Tierversuche sollten vermieden werden). Sie stellt auch Regeln für die wissenschaftliche Praxis auf (keine Ergebnisse fälschen, nicht abschreiben, Ergebnisse offen und verständlich kommunizieren). Sie ist also in öffentlichen Diskussionen allgegenwärtig. Aber die Humesche Regel (kein Sollen folgt aus einem Sein) muss bei Diskussionen immer beherzigt werden, sonst kracht’s. Achten Sie also darauf, dass keine unzulässigen Vermischungen ethischer und wissenschaftlicher Argumente stattfinden. Politische Debatten sind voll davon, hier nur zwei kleine Beispiele.
2.2 Der Elefant im Raum: Ethik
23
• „Obst und Gemüse sind gesund“, also sollen Kinder vegetarisch ernährt werden. • „Die persönliche Freiheit ist ein hohes Gut“ also soll mir keiner vorschreiben, wie schnell ich auf der Autobahn fahre. Wenn Sie das Schema einmal durchschaut haben, können Sie sich den Spaß machen, ein paar Parteitagsreden zu analysieren. Das ist eine gute Immunisierung.
Kapitel 3
Grundbegriffe
Immer wieder werden Sie auf unserer Wanderung eine Eigenschaft der Physik erleben, die ich Ihnen von Anfang an ganz besonders ans Herz legen möchte, weil oft das genaue Gegenteil vermutet wird. Physik geht Probleme genau so an, wie Sie Ihre Alltagsprobleme angehen. Es gibt da keine Geheimwissenschaft. Auch die unverständlichsten Formeln und die kompliziertesten Experimente kann man, mit genügend viel Zeit und Geduld, in Ausdrücken der Alltagslogik und Alltagspraxis erklären. Wenn wir also neue Teile der äußeren Welt erforschen, dann tun wir das in der Physik genauso, wie wir alle am Anfang unseres Lebens. Betrachten Sie mal ein sehr junges Baby. Es besitzt nur ein paar wenige angeborene Fähigkeiten, alle weiteren muss es erst lernen. Das tut es, indem es seine Umgebung mit allen Sinnen erkundet, es erforscht seine Welt experimentell. Diese Experimente werden schnell immer zielgerichteter, denn es ist in der Lage, ein Modell der Außenwelt in seiner Innenwelt zu schaffen. Dieses Modell wird dauernd fortentwickelt, bis es den Überprüfungen standhält. Dann kann das Modell zu weitergehenden Forschungen anregen. Das Modell ist ein Produkt der Geisteswelt. Aber es ist unverzichtbar zur Orientierung, zur Kontrolle, zur Kommunikation in der äußeren Wirklichkeit. Ausgewachsene Naturwissenschafte tun genau dasselbe. Sie starten von dem Modell der äußeren Wirklichkeit, das sie sich durch Erfahrungen geschaffen haben und versuchen durch gezielte Experimente und Überlegungen, das Modell zu erweitern, sodass es im immer Kleineren, immer Größeren und immer Komplexeren zuverlässig anwendbar wird. Genau wie ein Baby steht auch die Physik am Anfang vor dem Problem, sich Grundbegriffe für alle weiteren Forschungen zu schaffen.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_3
25
26
3 Grundbegriffe
3.1 Grundbegriffe in der Physik Da! Wauwau! Die einfachste Art, Begriffe für die Wirklichkeit zu prägen ist es, Dingen in dieser Welt Namen zu geben. „Das ist ein Baum“, „Das ist ein Auto“ u. s. w. Jede Person lernt solche Begriffe während des frühkindlichen Spracherwerbs. Dabei ist die Namensgebung keineswegs so eindeutig, wie sie auf den ersten Blick erscheint. Wenn wir ein Gebilde vor uns als „Baum“ bezeichnen, so ist das ja kein Individualname (wie zum Beispiel „mein Kuschelbär Petzi“), sondern wir verstehen dieses Gebilde als einen Vertreter einer Menge von Gebilden, die alle gewisse Merkmale gemeinsam haben. Welche Merkmale das sind, ist oft nicht einfach zu durchschauen und es kann auch von Person zu Person variieren. Trotzdem starten die Naturwissenschaften von diesen Namen der natürlichen Sprachen. Die reichen im Alltag auch meist aus. Bei Bedarf können sie verfeinert werden, zum Beispiel können „Bäume“ bei genauerer Betrachtung „Nadelbäume“ oder „Laubbäume“ sein. Mit der Kunst dieser auf Beobachtung beruhenden Verfeinerung und einer guten Benennung kann man es in den Naturwissenschaften schon weit bringen. Schubladenbegriffe Im 18. Jahrhundert schuf der schwedische Naturforscher Carl von Linné (1707– 1778) ein System, mit dem er alle existierenden (auch die noch nicht entdeckten) Pflanzen, Tiere und Mineralien1 aufgrund beobachtbarer Merkmale in einer „hierarchischen Struktur“ klassifizieren (Taxonomie) und benennen (Nomenklatur) wollte. Seine Hierarchie der Lebewesen kennt verschieden Ebenen (auch Taxa genannt), deren feinste Unterteilung eine „Art“ ist2 , gefolgt von „Gattung“, „Ordnung“, „Klasse“ und „Reich“. Bei Linné gab es nur die Reiche der Tiere und Pflanzen, er kannte noch keine Mikroorganismen, und Pilze rechnete er den Pflanzen zu. Später wurde das System immer weiter verfeinert. Zwischen Gattung und Ordnung findet sich nun die „Familie“ (z. B. die Familie der Hundeartigen, Canidae mit 13 Gattungen und 38 Arten, u. a. die Gattung der echten Hunde (Canis) mit 8 Arten, darunter der Wolf Canis lupus und das, was wir umgangssprachlich „Hund“ nennen, Canis familiaris), zwischen Klasse und Reich der „Stamm“. Oberhalb der Reiche (mittlerweile 7 verschiedene) gibt es nach heutigem Stand noch 3 Domänen: eine der Eukaryoten, deren Zellen Zellkerne haben und zwei Prokaryoten ohne Zellkern: die Bakterien und die Archaeen oder Urbakterien. Nebenbei bemerkt gibt es noch eine eigene Taxonomie für Viren, die ja überhaupt keine Zellen haben. Dazu gibt es alle möglichen Unterund Ober- Versionen der Ebenen. Sie sehen, dass so ein Klassifizierungssystem mit der Zeit immer komplizierter wird. Damals war die Systematik von Linné ein großer Wurf, der viel zum Fortschritt der Biologie beigetragen hat, obwohl die Merkmale, 1
Sein System für Mineralien war überhaupt nicht erfolgreich, weil er viel zu wenig von Chemie verstand. 2 bei Lebewesen mit geschlechtlicher Fortpflanzung dadurch definiert, dass Individuen derselben Art Nachkommen haben können, wenn sie sich paaren.
3.1 Grundbegriffe in der Physik
27
nach denen Unterscheidungen getroffen wurden, oft recht willkürlich scheinen 3 . Bis heute ist die Linnésche Idee der Namensgebung aufgrund dieser Schubladen – nämlich eine Art mit zwei Wörtern zu kennzeichnen, den Gattungs- oder Familiennamen und den Individualnamen – aber eine wirklich großartige Errungenschaft der biologischen Informationswissenschaften geblieben. Was soll man nun weiter mit diesen Namen anfangen? Das Klassifizierungssystem beruht zwar auf der Verfeinerung von Beobachtungen, es hat aber wenig erklärenden Charakter. Warum sollen Rosen und Birnen zu einer Familie gehören? Erklärungen der Ähnlichkeiten von Lebewesen gab es erst mit der Evolutionsbiologie und schließlich mit der Entdeckung der Molekulargenetik, die sozusagen unter die Haube der Biologie der einzelnen Arten schauen konnte. Damit ließen sich Ähnlichkeiten als Verwandtschaften erklären, die sich aus gemeinsamer Abstammung ergeben haben. Man kann aus dem Beispiel lernen, dass eine gute und systematische Beschreibung der äußeren Welt durch Verfeinerung von Merkmalen sehr nützlich ist, dass man aber für Erklärungen mehr braucht. In der Physik gibt es diese Entwicklung von Beobachtungen zu Klassifizierungen und weiter zu Erklärungen natürlich auch. Ein Musterbeispiel dafür ist die Astronomie, die Erforschung von Bewegungen und Eigenschaften von großen Objekten im Universum. Die Teile der äußeren Welt, mit denen sie sich beschäftigt, liegen so fern, dass wir sie zwar beobachten, aber so gut wie gar nicht beeinflussen können. Experimente mit Sternen oder Galaxien können wir nicht durchführen, aber Beobachtungen des Sternenhimmels sind wahrscheinlich so alt wie die Menschheit selbst, und sie wurden in etlichen Hochkulturen schon sehr systematisch betrieben. Viele Sterne, die Sie am Nachthimmel mit bloßem Auge bewundern können, tragen beispielsweise arabische Namen: Wega, (an-nasr al-w¯aqi „der herabstürzende Adler“), Altair (an-nasr al-ta’ir „der fliegende Adler“), Formalhaut (fam al-h¯ut „Maul des Wals“), Deneb (danab ad-dagaga „Schwanz des Huhns“ 4 ), um nur ein paar zu nennen. Diese Namen sind mehr als tausend Jahre alt. Der zugrundeliegende Katalog der Sterne und Sternbilder ist jedoch nicht arabischen Ursprungs, sondern wurde von dem griechischen Gelehrten Claudius Ptolemäus verfasst. Der Katalog ist Teil seines astronomischen Werks, entstand zwischen 141 und 147 n. Chr. und umfasst Positionen und Helligkeiten von 1025 Sternen. Von denen sind allerdings schon 900 in einem wesentlich älteren Katalog von Hipparchos (190–120 v. Chr) aufgeführt. Das Werk des Ptolemäus ist heute bekannt unter dem Namen Almagest 5 , und stellte für 1500 Jahre – nämlich bis zur astronomischen Revolution im 16. und 17. Jahrhundert – das Standardwerk der Astronomie dar. Es enthielt nicht nur Beobachtungsdaten, sondern versuchte sich auch an Erklärungen. Es setzte eine kugelförmige Erde in den Mittelpunkt des Universums (geozentrisches Weltbild) und berechnete völlig falsche 3
So unterteilte Linné die Blütenpflanzen nach Zahl und Anordnung der Staub- und Fruchtblätter der Blüte. Diese Willkür hat mich im Biologieunterricht der Schule zur Weißglut gebracht, zumal mir auch niemand erklären konnte, warum gerade das „essenzielle Merkmale“ sein sollen. 4 das Huhn heißt heute „Schwan“. 5 Eigentlich hieß das Werk mathematiké syntaxis („mathematische Zusammenstellung“), später dann megiste syntaxis („größte Zusammenstellung“), bei den Arabern al-magisti, aus dem dann Almagest wurde.
28
3 Grundbegriffe
Abb. 3.1 HertzsprungRussel Diagram für einige (wenige) Sterne. Die Temperatur ist als „Spektralklasse“ angegeben: O entspricht mehr als 30000 Grad, M ungefähr 2000–3500 Grad. (©user:Rursus CC-BY-SA-3.0 via Wikimedia Commons)
Abstände zur Sonne, den Planeten und den Sternen. Die Himmelskörper bewegen sich in diesem Weltmodell mit konstantem Tempo auf kompliziert verschachtelten Kreisbahnen (Epizykeln). Woher diese komplizierten Kreisbewegungen kommen, wird nicht erklärt. Sie sind erforderlich, um die Beobachtungsdaten für die Positionen von Planeten am Himmel zu reproduzieren. Das Ptolemäische Weltbild wurde durch das heliozentrische Weltbild verdrängt, das die Erde zu einem Planeten der Sonne machte, – eine Herabstufung, die insbesondere der katholischen Kirche gar nicht gefiel. Aber der Sternenkatalog des Almagest behielt seine Bedeutung und wurde erweitert und präzisiert. Erst Mitte des 19. Jahrhunderts kam ein weiteres Merkmal der Sterne hinzu, nämlich ihre „Spektralfarben“, d. h. die Farbzusammensetzung des Lichts6 , das sie aussenden. Heutige Sternkataloge ergänzen die hellen Sterne, die wir mit bloßem Auge sehen können, um viele Milliarden. Zum Beispiel umfasst der Katalog der Gaia Satellitenmission der ESA (European Space Agency) eine gute Milliarde Sterne nur allein aus unserer Milchstraße, das sind ungefähr 1 %. Man kann in der Vielzahl der Sterne Muster erkennen, die Klassifizierungen (analog zu der Linnéschen Klassifikation) erlauben, aber noch nichts erklären. Ein wichtiger Zusammenhang ist das Hertzsprung-Russell Diagramm kurz HRD, benannt nach dem US-Amerikaner Henry Norris Russell (1877–1957) und dem Dänen Ejnar Hertzsprung (1873–1967) (s. Abb. 3.1). Es wurde 1913 veröffentlicht und zeigt, etwas vereinfacht gesagt, Zusammenhänge zwischen der Leuchtkraft7 und der Temperatur der Sterne an deren Oberfläche8 . In dem Diagramm gibt es Bereiche, in denen 6
genauer: der elektromagnetischen Strahlung, dazu mehr in den Abschn. 9.5 und 9.6. Es ist für den Anfang völlig korrekt, sich Leuchtkraft wie die Helligkeit einer Glühbirne vorzustellen. 8 die liest man aus den Spektralfarben ab, mehr dazu in Kap. 9 und 11. 7
3.1 Grundbegriffe in der Physik
29
sich haufenweise Sterne finden und solche, in denen (fast) keine beobachtet werden. Mit dem theoretischen Verständnis der Sternentwicklung durch die Astrophysik kamen dann Erklärungen dieser Muster, die sich auch in den Namen der mit Sternen besetzten Bereiche des HRD widerspiegeln, wie zum Beispiel „Rote Riesen“, „Weiße Zwerge“, „braune Zwerge“. Das Gros der Sterne bildet die sogenannte „Hauptreihe“, dort findet sich auch unsere Sonne. Begriffe aus dem Rezeptbuch Klassifikationen bringen Ordnung in die verwirrende Vielfalt der äußeren Welt. Sie beruhen auf beobachtbaren Eigenschaften oder Merkmalen, deren An- oder Abwesenheit man feststellen kann. Aber längst nicht jede Eigenschaft, die Sie sich ausdenken können, lässt sich mit Methoden der Physik beobachten. Sie gehen spazieren und denken „Was für ein lieblicher Maientag“. Kann man „Lieblichkeit“ beobachten? Sie betrachten ein Bild im Museum und seufzen „Wunderschön“, während ihr Nachbar „Grauenvoll“ murmelt. Kann man An- oder Abwesenheit von Schönheit feststellen? Es gibt eben eine ganze Menge von Eigenschaften, denen wir Namen geben, die aber für jedes von uns etwas anderes bedeuten können. Solche Objekte der Geisteswelt werden gern und intensiv von Geisteswissenschaften diskutiert9 . Naturwissenschaften haben nicht viel dazu zu sagen. Für sie ist es wichtig, dass wir uns auf eine Methode der Beobachtung (ein „Messgerät“) für eine Eigenschaft einigen können, die stets eindeutig die An- oder die Abwesenheit der Eigenschaft feststellen kann. Nur wenn es so ein Messgerät gibt, nennen wir die Eigenschaft physikalisch. Die zugehörige Beobachtung oder Messung nennen wir eine Ja-Nein Messung, denn sie liefert nur eines dieser beiden Ergebnisse: „Ja“, wenn das Merkmal vorliegt, „Nein“, wenn es fehlt. Es gibt physikalische Eigenschaften, die mit subjektiven Eindrücken verwandt sind. Nehmen Sie die Aussage: „Mir ist heiß“. Es ist nicht offensichtlich, dass eine andere Person unter exakt gleichen Bedingungen dasselbe meint. „Heiß“ ist also ein subjektiver Eindruck und noch keine physikalische Eigenschaft. Es gibt aber ein Messgerät, nämlich das Thermometer, mit dessen Hilfe wir eine Ja-Nein Messung für eine Eigenschaft realisieren können, die wir „physikalisch heiß“ nennen wollen. Zur Definition dieses Begriffs müssen wir uns darauf einigen, ab wie viel Grad wir etwas „physikalisch heiß“ nennen wollen, sagen wir zum Beispiel ab 30◦ Celsius. Dann ist ein Ja-Nein Messgerät für diese Eigenschaft ein Thermometer, das statt einer Skala nur zwei Temperaturbereiche markiert, grün für Temperaturen unter 30◦ und rot für alle Temperaturen ab 30◦ . Für dieses Messgerät können Sie eine detaillierte Bastelanleitung angeben, wenn Sie wissen, wie man ein Thermometer baut. Nun kommt ein sehr wichtiger Punkt: In der Physik wird die Eigenschaft „physikalisch heiß“ definiert durch das Ja-Nein Messgerät, b. z. w. dessen genaue Bastelanleitung. „Genau“ bedeutet, dass sie andere Personen in die Lage versetzen muss, das Messgerät nachzubauen. Auch das Thermometer selbst wird so definiert: 9
denn diese Begriffe sind ja nicht sinnlos. Das Konzept „Schönheit“ leuchtet uns allen ein, auch wenn wir über eine Definition, die auf konkrete Fälle anwendbar ist, oft verschiedener Meinung sind.
30
3 Grundbegriffe
Es ist genau das Ding, das man erhält, wenn man die Bauanleitung in Handlungen umsetzt. Das ist die Methode, mit der in der Physik alle Grundbegriffe der äußeren Welt definiert werden! Diese Art von Definition nennt man operativ, denn sie besteht aus Handlungsanleitungen. Eigentlich ist diese Art der Definition aus vielen Alltagsbereichen sehr vertraut. Was ist zum Beispiel ein Risotto Milanese? Sie können ein Buch über italienische Küche aufschlagen und finden dort ein Rezept, d. i. eine Zutatenliste und eine Folge von Handlungsanweisungen. Mit anderen Worten: Da steht die operative Definition des Risottos. Lassen Sie uns diese grundsätzlich wichtige Methode der Physik noch mal zusammenfassen: Operative Definition Ein Grundbegriff, der für einen Aspekt (eine Eigenschaft, ein Merkmal) der äußeren Welt stehen soll, wird in der Physik definiert durch eine Bauanleitung für die Herstellung oder (Ja-Nein) Beobachtung dieses Aspekts. Die operative Methode funktioniert auch dann, wenn wir keinerlei Bezug zu subjektiven Eindrücken haben. Beispielsweise haben wir kein Sinnesorgan für ein sogenanntes „elektrisches Feld“ 10 . Was genau ein elektrisches Feld ist, erfahren Sie im Abschn. 9.4, hier ist nur wichtig, dass ein elektrisches Feld Kraft auf eine „elektrische Ladung“ (siehe ebenfalls Abschn. 9.4) ausübt, die wir an ein Gummiband gehängt haben. Durch die Kraft auf die Ladung wird das Gummiband verlängert. Damit können wir ein Ja-Nein Messgerät bauen, dass die Eigenschaft „An diesem Platz ist ein elektrisches Feld“ feststellt. Wenn man Dingen der äußeren Welt Namen gegeben hat, dann werden sie in die Physik eingebaut, indem man eine Ja-Nein Messung für sie konstruiert. Erst, wenn man in der Lage ist, mit einem Messgerät feststellen zu können, ob ein Gebilde ein Baum ist oder nicht, wird der Begriff „Baum“ physikalisch. Immer raffiniertere Ja-Nein Messungen haben unser Wissen über die äußere Welt enorm erweitert. Wenn in der Physik von „Elektronen“, „Neutronenstrahlen“, „Gravitationswellen“, „Antimaterie“, „schwarzen Löchern“ und vielen, vielen anderen Dingen die Rede ist, von denen man außerhalb der Physik eher mit skeptischem Staunen hört („Was die sich so alles zusammentheoretisieren“), dann stehen hinter jedem dieser Begriffe solide Ja-Nein Messungen, die auch wirklich durchgeführt wurden. Aber aufgepasst! Es gibt in der Physik auch Mutmaßungen, die zu Begriffen führen, für die noch nie eine Ja-Nein Messung durchgeführt wurde, d. h. insbesondere, dass man das entsprechende Merkmal auch noch nie beobachtet hat. Dazu gehören Dinge, die besonders Science Fiction Fans an der Physik toll finden, wie zum Beispiel „Wurmlöcher“, „Multiversen“, oder „Warp Antriebe“. Es ist nicht so, dass in der Physik über solche Dinge nicht diskutiert würde, aber es sind eben 10
Im Unterschied zu Haien, die haben ein sehr empfindliches, nämlich die Lorenzinischen Ampullen unter der Kopfhaut.
3.1 Grundbegriffe in der Physik
31
gegenwärtig nur Spekulationen. Wenn es darauf ankommt, und wenn die Physik der Welt eine Lösungsmöglichkeit für ein Problem verkaufen möchte, dann bestehen Sie auf dem „Ja-Nein Test“: hat man das, was die Lösung darstellen soll, je beobachtet oder gemessen? Und dann muss eine redliche Physik in der Lage sein, die Grundlagen ihrer Lösungen einem interessierten Publikum verständlich zu erläutern. Zur Bewältigung der Klimakrise ist ein Übergang aus unserem Universum in eine andere Parallelwelt, in der es keine Klimakrise gibt, eher kein vertrauenswürdiger Vorschlag. Die Macht der Zahlen Mit den Ja-Nein Messungen haben wir die Grundbegriffe in der Physik definierbar gemacht. Um die volle Durchschlagskraft dieser Wissenschaft zu entfalten, fehlt aber noch ein wesentlicher Aspekt der äußeren Welt: Viele ihrer Merkmale sind „quantifizierbar“, d. h. wir können nicht nur sagen, ob sie vorliegen oder nicht, wir können auch sagen wieviel vorliegt. Betrachten wir dazu ein konkretes Beispiel, nämlich die Masse. Um zu einem physikalischen Verständnis von Masse zu kommen, müssen wir lediglich fragen : Wie misst man Masse? Eine Ja-Nein Messung liefert die Aussage: Dieses oder jenes physikalische System hat Masse (oder eben nicht). Aber so ein Messgerät interessiert uns nicht sehr, denn wir können ein viel besseres bauen. In der Abb. 3.2 sehen Sie so ein bewährtes Messgerät. Das Besondere daran ist, dass es uns die quantitative Größe der Masse verrät. Das ist viel mehr als eine Ja-Nein Messung11 . Mit dem Grundprinzip, auf dem dieses Gerät beruht, nämlich der Schwerkraft, lassen sich übrigens auch Planeten- und Sonnenmassen problemlos ermitteln. Das abgebildete Exemplar eignet sich jedoch besonders gut für Wochenmärkte, zum Beispiel für das Wiegen von Kartoffeln. Links geben Sie eine Menge Kartoffeln (das physikalische System) in die Wägeschale, rechts stellen Sie Gewichtsnormale auf den Wägeteller. Das sind Stücke aus irgendeinem Material (welches, spielt keine Rolle), die geeicht sind und daher Vielfache oder Bruchteile eines Kilogramms an Masse besitzen. Wenn die Balken der Waage in Balance sind, rechnen Sie zusammen, wie viel Masse Sie auf den Wägeteller gelegt haben. Das ist dann die Masse der Kartoffeln. Damit haben wir die wichtigsten Eigenschaften einer quantitativ messbaren Größe demonstriert. Quantitative Messgröße Eine quantitative Messgröße ist eine physikalische Eigenschaft, für die ein quantitativer Vergleich mit einem Normal möglich ist. Dabei ist es wichtig, dass man die Normale addieren und Bruchteile von Normalen bilden kann.12 Woher kommen die Normale einer Messgröße, warum benutzen wir zum Beispiel als Maßeinheit das Kilogramm? Die Normale sind willkürlich festgesetzt, sozusagen 11
Das Nein wäre in unserer quantitativen Messung das Ergebnis: die Masse ist Null. Um Bruchteile von Normalen zu bekommen wählt man ein kleineres Normal, also zum Beispiel statt Kilogramm das Gramm, sodass 1000 Grammgewichte sich zu ein Kilogramm addieren. Dann kann man jede beliebige Menge von tausendstel Kilogramm realisieren.
12
32
3 Grundbegriffe
Abb. 3.2 So misst man (schwere) Masse. (Photo: Andreas Praefcke, Public domain, via Wikimedia Commons)
per Verwaltungsakt. Es spielt keine Rolle, wie groß sie sind, solange man beliebige Vielfache und Teile von ihnen bilden kann. Bis zum Jahr 2019 war das Normal der Masse (Urkilogramm) ein Metallstück, das in einem Tresor in der französischen Stadt Sèvre (nahe Paris, bekannt durch ihre Porzellanmanufaktur) aufbewahrt wird, geschützt unter zwei Käseglocken. An solchen Normalen nagt allerdings der Zahn der Zeit, daher geht man heute dazu über, die Normale unter den Naturkonstanten zu suchen, das sind physikalische Größen, die die Natur von sich aus mit beliebiger Genauigkeit überall im Universum zur Verfügung stellt. Solche Größen sind unter anderem die Massen von (unbewegten) Elementarteilchen. Für die Praxis kommt es darauf an, möglichst präzise und reproduzierbar messbare Größen zu wählen. Darum kümmert sich ein eigenes Teilgebiet der Physik, die Metrologie. Um eine Masse festzulegen, braucht man also zwei Angaben: eine Zahl (die Maßzahl) und das benutzte Normal (die Einheit), also z. B. 2.5 kg. Das gilt analog für alle quantitativen Messgrößen. Eine Länge zum Beispiel gibt man durch eine Zahl (z. B. 75) und eine Einheit (Meter, abgekürzt m) an. Die physikalische Eigenschaft – also Masse oder Länge – nennt man allgemein physikalische Dimension. Zahlen ohne Einheit heißen in der Physik dimensionslos. Die Einheiten sind ein sehr wichtiger Bestandteil einer Größe, so wichtig, dass sogar im Grundgesetz (Artikel 73 Abs 4) festgelegt ist, wer die ausschließliche Gesetzgebungskompetenz für Maße, Gewichte und die Zeitgebung hat (der Bund). Es gibt dazu ein eigenes Bundesgesetz, das Gesetz über die Einheiten im Messwesen und die Zeitbestimmung, EinhZeitG, in dem auch Bußgelder angedroht werden, wenn man Einheiten weglässt oder die falschen Einheiten verwendet: (1) Ordnungswidrig handelt, wer im geschäftlichen Verkehr ... Größen nicht in gesetzlichen Einheiten angibt oder für die gesetzlichen Einheiten nicht die festgelegten Namen oder Einheitenzeichen verwendet. (2) Die Ordnungswidrigkeit kann mit einer Geldbuße geahndet werden. (EinhZeitG §10)
3.1 Grundbegriffe in der Physik
33
Solche Bußgelder wollen wir in diesem Buch vermeiden. Wenn man eine Gleichung zwischen physikalischen Größen aufstellt, dann muss die physikalische Dimension auf beiden Seiten der Gleichung übereinstimmen, sonst ist es keine physikalische Gleichung, sondern ein Unfug vom Typ 5 Äpfel = 3 Birnen. Damit die Zahlen stimmen, muss man außerdem auch auf beiden Seiten gleiche Einheiten verwenden. Ein Beispiel, das wir immer mal wieder betrachten, ist das Tempo. Wenn wir einen Stein fallen lassen, dann ändert sich sein Tempo v während des Falls, und zwar wächst es proportional13 zur Fallzeit t. Also muss v = g · t sein, wobei g die Proportionalitätskonstante ist. Nun müssen die physikalischen Dimensionen auf beiden Seiten der Gleichung übereinstimmen. Für die Dimension einer Größe führt man manchmal ein Extrasymbol ein, z. B. [v] ist Länge pro Zeit. Dann muss [v] = [g][t] sein. Die Dimension t ist eine Zeit. Die Konstante g muss daher die physikalische Dimension Länge pro Zeit zum Quadrat haben. Diese Art von Analyse einer Gleichung ist ein wichtiger Check und wird Dimensionsanalyse genannt. Man kann auch eine Menge über die Natur der äußeren Welt mit Unterstützung solcher Analysen lernen. Zum Beispiel kann man sich fragen, ob die Konstante g von der Art des Gewichts abhängt, das wir fallen lassen. Es ist eine enorm wichtige und sehr weitreichende experimentelle Erkenntnis, dass das nicht der Fall ist. Die Konstante g nennt man auch Erdbeschleunigung und sie hat einen Wert von ungefähr g ≈ 9.81m/s 2 . Mehr darüber können Sie in Kap. 7 erfahren. Soweit klingt die Methode der quantitativen operativen Definition ganz nett und praktikabel. Leider sind die definierten Begriffe aber nicht so endgültig fixiert, wie das Begriffe durch mathematische Definitionen sind. Unsere Bastelanleitung und Messvorschrift für die Masse ist ja einfach, aber doch nicht für alle Zwecke ausreichend. Sie ist gut genug für Kartoffeln, Ziegelsteine und solche festen Körper, auch für Flüssigkeiten wie zum Beispiel Wasser. Aber nun stellen Sie sich vor, Sie möchten einen mit Heliumgas gefüllten Luftballon wiegen. Der Ballon würde aufsteigen, wenn man ihn loslässt und wenn man ihn an der Wägeschale festbindet, dann zieht er sie nach oben. Was soll das bedeuten? Ist seine Masse etwa negativ? Nichts dergleichen, das Aufsteigen des Ballons hat dieselben Gründe wie das Aufsteigen eines Stück Holz im Wasser. Dieser Effekt heißt Auftrieb und er rührt daher, dass das Gewicht eines Volumens eines Stoffes (Holz, Helium) kleiner ist als das Gewicht des gleichen Volumens der umgebenden Substanz (Wasser, Luft). Wir müssen also unsere operative Definition erweitern und verfeinern. Ein aufwendiges Verfahren wäre zum Beispiel, die Waage in einen luftleeren Raum zu bringen. Dann kann man den Ballon ohne Weiteres wiegen14 . Das Beispiel zeigt uns eine allgemeine Eigenschaft aller operativen Begriffsbildungen. Sie sind ein Prozess, der eventuell nie zu Ende kommt, weil immer wieder Phänomene auftreten können, die Korrekturen oder Verfeinerungen an den Bastelanleitungen nötig machen. Das ist ganz typisch für die Physik, nichts ist so endgültig 13
Was zum Teufel, war noch mal dieses proportional? Schauen Sie in das Mathe-Glossar am Ende des Buchs. 14 Es geht natürlich einfacher, wenn man den quantitativen Einfluss des Auftriebs auf das Gewicht des Ballons kennt.
34
3 Grundbegriffe
und ewig, wie wir es in unseren Wünschen gern hätten. Wer nach solchen Wahrheiten sucht, muss Geisteswissenschaften betreiben. Wir wissen nun, wie man Masse misst, aber was ist Masse? Hier nun kommt die für Viele überraschende Seite der operativen Definition: Masse ist diejenige physikalische Eigenschaft, die man mit einer Balkenwaage misst. Nicht mehr und nicht weniger. Leute mit einem Hang zum Philosophieren sind mit solch einer Art der Definition gar nicht einverstanden. Sie möchten nicht hören, dass Zeit diejenige Eigenschaft ist, die man mit einer Uhr misst. Sie möchten wissen, was Zeit an sich ist. Für all diese tiefen Denken, die wissen wollen, was die Welt im Innersten zusammenhält, hier noch mal die schlechte Nachricht: Alle Begriffe werden in der Physik entweder operativ definiert, d. h. man gibt eine Messvorschrift oder Bastelanleitung für den Begriff an, oder man führt den Begriff durch logische und mathematische Operationen auf operativ definierte Begriffe zurück. Diese schlichte Erkenntnis ist noch gar nicht so alt. Sie wurde besonders klar von dem Astrophysiker und Philosophen der Naturwissenschaften, Sir Arthur Eddington (1882–1944) ausgedrückt: Bei der Einführung neuer physikalischer Größen hat es sich eingebürgert, diese als durch die Messungen und Berechnungen, aus denen sie resultieren, definiert zu betrachten. Diejenigen, die mit dem Ergebnis ein geistiges Bild von einer Wesenheit verbinden, die sich in einem metaphysischen Existenzbereich vergnügt, tun dies auf eigene Gefahr; für diese Verzierung kann die Physik keine Gewähr übernehmen – eigene Übersetzung aus: Sir Arthur Eddington, The Philosophy of Physical Science, Tarner Lectures, Cambridge University Press 1939
Diskussionen über die Zeit an sich gehören also nicht in die Physik, Physike bezeichnen sie salopp und etwas herabsetzend als Metaphysik. Wir alle machen Fehler Quantitative Messergebnisse enthalten natürlich viel mehr Information über ein Merkmal als Ja-Nein Messungen. Sind denn nun alle physikalischen Merkmale quantitative Messgrößen? Keineswegs. Nehmen Sie zum Beispiel die Eigenschaft „rot“. Das ist zunächst ein subjektiver Eindruck, aber er lässt sich objektivieren, sobald wir etwas mehr über das Licht gelernt haben (siehe Abschn. 9.7). Es gibt also eine Ja-Nein Messung für die Eigenschaft „rot“. Um festzustellen, ob eine physikalische Eigenschaft eine quantitative Messgröße ist, hilft ein einfacher Test: Fragen Sie, ob es Sinn macht, die Eigenschaft zu verdoppeln. Macht es für Sie Sinn zu sagen: „Das Rot im Bild Rote Pferde von Franz Marc ist doppelt so rot wie das Rot im Bild GelbRotBlau von Wassily Kandinsky“. Doppelt so rot? Eher nicht. Quantitative Messgrößen müssen sich aber verdoppeln lassen. Wie stehen denn nun Ja-Nein Messungen und quantitative Messungen zueinander? Wenn man etwas darüber nachdenkt – was wir jetzt tun wollen – so stellt man fest, dass jede quantitative Messung sich als eine Ansammlung von Ja-Nein Messungen realisieren lässt. Das klingt komplizierter als es ist, lassen Sie es mich erklären. Nehmen wir an, sie wollen die Länge eines Bleistifts messen. Ihr Lineal, das Sie benutzen wollen, ist schon ziemlich alt, und Sie können nur noch wenige Teilstriche und Zahlen entziffern, nämlich nur einen Teilstrich, an dem 0 steht, einen, an dem
3.1 Grundbegriffe in der Physik
35
6 cm steht, und einen weiteren, an dem 7 cm steht. Jetzt halten Sie das Lineal an den Bleistift, sodass ein Ende mit der Null übereinstimmt. Ihr ramponiertes Lineal ist ein Messgerät für eine Ja–Nein Messung, die folgende physikalische Eigenschaft misst: „Die Länge des Bleistifts ist kleiner als 7 cm und größer als 6 cm“. Falls das Ergebnis Ja ist, Sie aber Genaueres über die Bleistiftlänge wissen wollen, müssen Sie sich nach einem Lineal umsehen, das weitere Einteilungen zwischen 6 und 7 cm hat, falls das Ergebnis Nein ist, brauchen Sie Lineale, die andere Längenintervalle anzeigen. Ein intaktes Lineal können Sie also für die Zwecke der Längenmessung als eine Ansammlung aus lauter ramponierten Linealen auffassen, von denen jedes einzelne nur eine Ja-Nein Messung für ein kleines Längenintervall realisiert. Damit das intakte Lineal reproduziert wird, dürfen sich die einzelnen Intervalle nicht überlappen und müssen nahtlos aneinander anschließen. Ein universelles Längenmessgerät muss außerdem für jede zu bestimmende Länge auch einen Wert ergeben, d. h. das Lineal darf nicht zu kurz sein. Eine solche Ansammlung von Ja–Nein Messungen entspricht dann dem ganzen, intakten Lineal. Beachten Sie dabei, dass auch das intakte Lineal die Länge nicht genau misst, denn es hat ja auch nur endlich viele Striche. Die endliche Messgenauigkeit ist eine (für die Geisteswelt) ärgerliche Eigenschaft aller physikalischen Messungen. Hier treffen wir auf die erste, ernsthafte Barriere zwischen dem, was wir wissen können (Epistemologie) und dem was wirklich ist (Ontologie). Die übliche Ausrede bei der Barriere der Messgenauigkeit lautet: „Wenn Sie es genauer wissen wollen, dann messen Sie halt genauer. Kaufen Sie sich ein Lineal mit einer feineren Einteilung.“ Die Idee dahinter ist, dass man im Prinzip beliebig genau messen könnte. Ob das wirklich stimmt, werden wir noch diskutieren. An dieser Stelle merken wir uns nur, dass ein Messwert streng genommen keine Zahl (versehen mit einer Einheit) ist, sondern ein ganzes Intervall von Zahlen. Man benutzt aber trotzdem als Messergebnis eine Zahl (zum Beispiel den linken Rand des Intervalls) und sagt dann dazu: „im Rahmen der Messgenauigkeit“. Wenn man die Messintervalle immer kleiner werden lässt, um diese Ungenauigkeit zu unterdrücken, so macht man eine weitere, ärgerliche Beobachtung: Die Messergebnisse sind gar nicht mehr reproduzierbar. Wenn Sie mit einem Lineal die Länge eines Stifts auf Mikrometer genau messen wollen, dann erhalten Sie bei Wiederholungen der Messung unter – wie es Ihnen scheint – völlig gleichen Bedingungen verschiedene Ergebnisse. Diese Unterschiede werden statistische Messfehler genannt15 . Ihr Ursprung liegt in den unvermeidlichen Einflüssen der Umgebung (einschließlich der Person, die misst) auf die Messung. Sie können vielleicht den Stift nicht ruhig und genau genug fixieren, oder Ihr Blick ist beim Ablesen etwas verschwommen oder es fährt gerade eine Straßenbahn vorbei, deren Erschütterungen den Stift etwas verrücken oder der Stift hat durch eine andere Luftfeuchtigkeit seine Länge etwas verändert, oder, oder, oder…Die statistischen Messfehler bewirken, dass das Ergebnis einer Einzelmessung noch nicht als endgültiges Messergebnis aufgefasst werden kann. Das besteht in einer Messwertstatistik, d. h. einer Liste von 15
Im Gegensatz zu systematischen Messfehlern, die auf einen fehlerhaften Aufbau oder eine fehlerhafte Durchführung des Experiments zurückzuführen sind, und die man im Prinzip vermeiden kann.
36
3 Grundbegriffe
Abb. 3.3 Das Ergebnis einer Einzelmessung ist nicht reproduzierbar. Daher braucht man eine Messreihe. Dann trägt man die relativen Häufigkeiten von Einzelmessergebnissen auf, so entsteht ein Histogramm
Einzelergebnissen, die bei N Wiederholungen der Messung herauskommen. Diese Statistik können Sie in einem Diagramm veranschaulichen. Dazu unterteilen Sie das Intervall, in dem Messwerte liegen, in kleine Stücke (genannt Bins) und zählen, wie viele Messwerte in jedem Bin liegen. Diese Zahlen (n i im i-ten Bin) können Sie dann gegen die Bins auftragen. Da verschiedene Messreihen (wenn Sie oder jemand anderes Messungen wiederholen möchten) aber verschieden viele Einzelmessungen N enthalten können, so tragen Sie lieber die relative Häufigkeit n i /N auf, wie dies in Abb. 3.3 gezeigt ist. Diese Darstellung, genannt Histogramm, enthält die gesamte statistische Information über die Messung16 . Aus so einem Bild können Sie mühelos die Streuung Ihrer Messwerte durch Hinschauen abschätzen. Mehr zur Auswertung solcher Statistiken erfahren Sie in Abschn. 4.13. Die statistischen Messfehler haben eigentlich zwei Ursachen. Erstens bringt das Messverfahren selber Fehler mit. Wenn das nicht mehr tolerierbar ist, kann man nach einem besseren Verfahren suchen. Das haben wir schon am Beispiel des Lineals gesehen. Wenn die Stiftlänge zwischen zwei Markierungen auf dem Lineal liegt, und Sie schätzen die genaue Position, dann haben Sie einen statistischen Messfehler produziert. Wenn Sie genauer messen wollen, brauchen Sie ein Lineal mit mehr Markierungen. Die zweite Ursache besteht in zufälligen Störungen durch den Rest des Universums. Das bezeichnet man auch als Rauschen. Man bemüht sich zwar um experimentelle Aufbauten mit wenig Rauschen, aber das ist nicht immer möglich. Es ist klar: wenn die Effekte, die man messen will, immer kleinere Wirkungen auf ein Messgerät haben, dann werden andere Einflüsse, die auch auf das Messgerät wirken, das Ergebnis immer stärker beeinflussen. Auf ganz kleinen Skalen kommt man schließlich in den Teil der äußeren Welt, der durch die Quantenmechanik beschrieben wird. Dort gibt es i. a. selbst dann keine reproduzierbaren 16
Die allerdings immer noch von der Wahl der Größe der Bins abhängt. Bei sehr genauen Auswertungen von Messreihen benutzt man daher einen ganzen Satz von relativen Häufigkeiten, die jeweils aus verschiedenen Bingrößen hervorgehen.
3.1 Grundbegriffe in der Physik
37
Messwerte mehr, wenn man das zu messende System perfekt vom Rest des Universums trennt. Mit anderen Worten: entweder aus fundamentalen oder aus praktischen Gründen ist das Ergebnis einer Messung immer eine Messwertstatistik, also ein Histogramm. Dieser statistische Aspekt wird umso wichtiger, je genauer man die Maßzahlen bestimmen will. Oder andersherum: Wenn die Anforderungen an die Messgenauigkeit nicht so besonders groß sind, kann man häufig die Messwertstatistik durch einen einzigen (bei Wiederholungen stets beobachteten) Wert ersetzen. Oft ist es aber so, dass die Statistik um einen deutlich erkennbaren häufigsten Wert herum etwas streut, d. h. die Kurve der relativen Häufigkeiten fällt zu beiden Seiten um den häufigsten Wert herum ab. Dann gibt man diesen häufigsten Wert und eine Schwankungsbreite als verkürztes Ergebnis an. Man sagt dann zum Beispiel: Der Messwert ist 5 ± 0.2 cm. Die Schwankungsbreite ist nicht ganz scharf definiert, meist wählt man den Messwert, bei dem die relative Häufigkeit auf die Hälfte des maximalen Wertes abgefallen ist. Diese Angabe eines Messergebnisses ist aber nur dann sinnvoll, wenn die Kurve der relativen Häufigkeiten einigermaßen symmetrisch um den Maximalwert verläuft. Wenn nun aber ein Rauschen nicht wegzubekommen ist, und der Effekt, den man messen will, geht völlig in diesem Rauschen unter, ist dann für die Messung alles verloren? Nicht unbedingt. Aus den Messdaten inklusive Rauschen (auch Rohdaten genannt) kann man mit einer Menge von Auswertungstricks Rauschen unterdrücken. Wenn Sie mit einer Digitalkamera fotografieren, dann wissen Sie, dass man mit einer Nachbearbeitung eine Menge unerwünschten Rauschens aus Bildern herausfiltern kann. Man kann zum Beispiel ausnutzen, dass Rauschsignale zufällig aufeinanderfolgen (in der Zeit oder im Raum), während ein Signal von einem Effekt in der Nachbarschaft eines Zeit- oder Raumpunktes nicht stark von dem Wert an diesem Punkt abweicht. Ein quantitatives physikalisches Messergebnis ist also längst nicht immer eine Maßzahl und eine Einheit, sondern es ist in den allermeisten Fällen eine Statistik von Maßzahlen und eine Einheit. Achten Sie darauf, dass die Messwertstatistik eine wichtige Information darstellt, vor allem, wenn man aufgrund der Messung eine Entscheidung treffen will. Wenn Sie einen Teich durchqueren wollen, ist die Aussage, er sei an den allermeisten Stellen 70 cm tief, gefährlich irreführend. Wie sieht die Messwertstatistik von Tiefenmessungen aus? Wenn Tiefen bis zu 3 m dabei sind, ist die Durchquerung für Nichtschwimmer nicht empfehlenswert. Ist schwer und träge dasselbe? Damit ist die Frage nach der Definition von Begriffen in der Physik nun zwar im Prinzip geklärt, es gibt aber noch einen wichtigen Punkt anzufügen. Für viele Eigenschaften gibt es nämlich mehr als eine Messmethode. Kehren wir zurück zur Masse. Die Abb. 3.4 zeigt Ihnen eine andere Möglichkeit, Masse zu messen. Dieses Messprinzip findet Anwendungen in der Elementarteilchenphysik, wo man in Beschleunigern sehr kleine Teilchen aufeinanderprallen lässt, aber mit Pkws ist es einfach spektakulärer. Die Messanordnung ist in der Physik bekannt als inelastischer Stoß. Man lässt zwei Massen frontal zusammenstoßen, die sich beide mit gleicher Geschwindigkeit aufeinander zu bewegen. Die eine Masse will man bestimmen, die
38
3 Grundbegriffe
Abb. 3.4 Noch eine Messmethode der Masse: der inelastische Stoß. Etwas für Crash-Freunde
andere ist aus Normalen zusammengesetzt und daher bekannt. Die Massen sind so präpariert, dass sie nach dem Stoß zusammenkleben. Ist die unbekannte Masse größer als die bekannte, so bewegt sich in Abb. 3.4 nach dem Stoß alles nach rechts, ist sie leichter nach links. Sind die Massen genau gleich groß, so bleibt alles liegen. Ja, zugegeben, das scheint eine recht aufwendige Messmethode zu sein. Sie lässt sich zwar noch beträchtlich optimieren, das interessiert uns hier aber nicht. Für uns stellt sich die folgende Frage: Wenn wir eine weitere Messmethode haben, mit der wir Masse definieren, ist dann die Masse nach der neuen Methode tatsächlich dasselbe wie die Masse nach der ursprünglichen Methode. Schließlich sehen die beiden Methoden ja sehr verschieden aus. Sind wir also vorsichtig und geben den beiden Definitionen erst mal verschiedene Namen. Die ursprüngliche nennen wir schwere Masse, die neue träge Masse, d. h. Materie könnte zwei unterschiedliche Eigenschaften haben: Schwere und Trägheit. Diese Bezeichnungen sind in der Physik gebräuchlich. Der erste Name deutet an, dass die Messmethode nur funktioniert, wenn wir uns nicht in der Schwerelosigkeit befinden, denn sie beruht ja darauf, dass die Wägeschalen durch die Erdanziehung nach unten gezogen werden. Der zweite Name beschreibt eine Eigenschaft der Masse, die wir heute am direktesten in Videos aus der internationalen Raumstation (ISS) sehen können. Schubst man in der Schwerelosigkeit einen Gegenstand an, so fliegt er mit konstantem Tempo längs einer geraden Linie davon, jedenfalls so lange, bis irgendwer oder irgendetwas wieder auf ihn einwirkt. Die Masse möchte also ihren gleichförmigen Bewegungszustand erhalten, genau das ist mit Trägheit gemeint. Diese Erkenntnis ist gar nicht so einfach zu gewinnen, wenn man nur Bewegungen aus dem irdischen Alltag studiert. Dort sieht es nämlich so aus, als ob bewegte Massen immer wieder zur Ruhe kommen. So sahen es denn auch die alten Griechen. Die erste Formulierung des Trägheitssatzes musste bis zur frühen Neuzeit warten. Sie stammt vom einflussreichen französischen Philosophen René Descartes (1596–1650)17 . Man muss, um zum Konzept der Trägheit vorzudringen, erst mal einsehen, dass auf irdische Massen im Alltag ständig eingewirkt wird, und muss all diese Einflüsse ausschalten können. Wir werden die Trägheit und die Bewegungsänderungen durch Einwirkungen noch sehr ausführlich in Kap. 7 diskutieren. Um die Äquivalenz von schwerer und träger Masse zu überprüfen, wartet auf Experimentalphysike ein Haufen Arbeit. Bereits Isaac Newton (1643–1727), der Urahn 17
das ist der mit dem „Ich denke, also bin ich“.
3.1 Grundbegriffe in der Physik
39
der mathematischen Naturphilosophie, versuchte sich im 17. Jahrhundert daran, und bis zum heutigen Tag werden immer genauere Überprüfungen vorgenommen, seit einigen Jahren sogar mit eigens für diesen Zweck gestarteten Satellitenmissionen (zum Beispiel der 2016 gestartete französische Satellit Microscope). Das ist wirklich ungewöhnlich viel Aufwand, um die Äquivalenz von zwei Messmethoden zu zeigen, aber dafür gibt es einen guten Grund. Die Äquivalenz von schwerer und träger Masse ist nämlich einer der wichtigsten Grundbausteine der Allgemeinen Relativitätstheorie von Albert Einstein (siehe Abschn. 10.9). Nicht an allen Vergleichen verschiedener Messmethoden für eine Größe hängt so berühmt gewordene Physik. Wir werden aber bald noch eine weitere Größe kennenlernen, die sich mit vielen verschiedenen Methoden messen (und damit definieren) lässt, bei der die Äquivalenz all dieser Messmethoden ebenfalls sehr weitreichende Konsequenzen hat, nämlich die Energie (siehe Kap. 8). Systeme: Divide et impera Die natürliche Sprache, die am Anfang der Physik steht, erlaubt nicht nur die Benennung von Objekten der äußeren Welt, sie kann auch mehrere Objekte zu einem neuen Ganzen zusammenfassen und dadurch vom Rest der Welt unterscheiden. Viele Bäume machen einen Wald, viele Töne machen ein Musikstück. Alle Objekte, die sich auf Bahnen um unsere Sonne befinden, bilden das Sonnensystem. Solche neuen Einheiten, die vom Rest der Welt aufgrund von Merkmalen abgegrenzt werden, sind in der Physik ein sehr wichtiges Konzept, ohne das Erklärungen unmöglich wären. Einen Teil der äußeren Welt, den wir durch bestimmte physikalische Eigenschaften in Gedanken vom Rest abtrennen, nennen wir physikalisches System. Den Rest der Welt nennen wir dann Umgebung. Oft handelt es sich um räumliche Trennungen: die Erde im Sonnensystem, unser Sonnensystem in der Milchstraße. Aber räumliche Distanz ist nicht der einzige Weg, um Systeme von ihrer Umgebung zu trennen, jede andere physikalische Eigenschaft kann ebenso gut dazu dienen. Wenn Sie ein Bällebad aus verschiedenfarbigen Kugeln haben, dann können Sie alle roten Bälle zu einem System erklären. Wenn Sie Eiswürfel in einem Glas Wasser betrachten, können Sie die Eiswürfel zu einem System erklären. Ein Pollenkorn im Wasserglas kann auch ein System sein, oder alle Orte auf der Erde, die an einem bestimmten Tag eine Höchsttemperatur zwischen 15◦ und 25◦ Celsius haben. Das Merkmal, dass es erlaubt, zwischen System und Umgebung zu unterscheiden, muss aber physikalisch sein. Alle schönen Bilder in einem Museum sind daher kein physikalisches System, ebenso wenig wie alle lieblichen Tage im Mai. System und Umgebung beeinflussen sich im allgemeinen gegenseitig. Ein Ball, den man durchs Wasser zieht, spürt eine Reibung, die vom Wasser herrührt. Er erzeugt aber auch in dem Wasser eine Strömung. Gegenseitige Beeinflussungen sind ein so wichtiges Konzept der Physik, dass sie dafür eine eigene Bezeichnung eingeführt hat: die Wechselwirkung. Wenn ein System sehr stark durch die Umgebung – d. h. den Rest der Welt – beeinflusst wird, so erschwert das das Auffinden von Gesetzen, die das Verhalten des Systems beschreiben, denn das hängt ja vom ganzen Rest des Universums ab. Ist andererseits ein System völlig isoliert vom Rest der Welt (das nennt man in der Physik abgeschlossen), so kann man es beschreiben,
40
3 Grundbegriffe
ohne etwas über den Rest zu wissen. Solche idealen Systeme gibt es in der äußeren Wirklichkeit zwar nicht, aber die Physik versuchte von jeher, Systeme zu finden, die möglichst wenig mit ihrer Umgebung wechselwirken. Bei der Untersuchung dieser Systeme vernachlässigt sie zunächst die Wechselwirkung ganz (in Gedanken) und stellt Regeln für das System auf, die so tun, als wäre es perfekt isoliert. Das klingt nach Schummelei, ist aber eine der erfolgreichsten Strategien zum Verständnis der äußeren Welt. Der Vorteil liegt auf der Hand. Man muss sich nicht gleich von Anfang an mit dem ganzen Universum beschäftigen und die Chance ist größer, verlässliche Gesetze für das abgeschlossene System zu finden. Wenn der Rest des Universums dann keine zu großen Effekte verursacht, hat man gewonnen. Dann kann man auch versuchen, mehrere (verstandene) Systeme zu größeren Systemen zu vereinen. Manche Systeme kann man in der äußeren Wirklichkeit mithilfe besonderer Tricks isolieren, sowohl im Physiklabor als auch im täglichen Leben. Im Labor kann man dann Voraussagen des Modells eines perfekt isolierten Systems überprüfen. Im täglichen Leben möchte man vielleicht nur heißen Kaffee für unterwegs. Man benutzt eine Thermosflasche, um das System Kaffee vom Rest der Welt zu isolieren. Im Labor wie im täglichen Leben klappt die Isolierung relativ gut, aber nie perfekt. Bei anderen Systemen sorgt die Natur schon für eine hervorragende Isolierung. Das System Erde zum Beispiel wird am meisten durch die Sonne beeinflusst, und zwar durch die Schwerkraft und das Licht. Daher ist es naheliegend, Erde und Sonne als ein System zu betrachten. Natürlich gibt es im Sonnensystem auch noch unseren Mond, alle anderen Planeten, Monde, Asteroiden und sonstigen Objekte, und natürlich gibt es auch noch die Milchstraße und den ganzen Rest des Universums. Für viele wichtige Zwecke ist es aber ein völlig ausreichendes Modell, nur Erde und Sonne als System zu betrachten, die vom Rest der Welt isoliert sind. Der Vorteil dieser Vereinfachung ist, dass man ein äußerst präzises, mathematisches Modell für die Bewegung der Erde relativ zur Sonne aufstellen und (ohne Computer!) lösen kann. Die Ergebnisse kann man mit astronomischen Beobachtungen vergleichen, und sie stimmen atemberaubend gut überein. Was nun den Mond betrifft: ohne ihn gibt es natürlich keine Gezeiten, insofern ist er unverzichtbar, um das System Erde zu verstehen. Wenn man aber von diesem einen Effekt absieht, ist die Wechselwirkung zwischen Erde und Mond sehr gering, verglichen mit der Sonne-Erde Wechselwirkung. Man kann also das Sonne-Erde System um einen Mond-Einfluss erweitern und erhält ein Modell, das für die meisten Schwerkraft-Probleme auf menschlichen Zeitskalen ausreicht. Wirkungen von anderen Planeten, oder von anderen Fixsternen kann man vernachlässigen, ohne an der Genauigkeit von Vorhersagen über die Bewegung der Erde auf menschlichen Skalen etwas zu verändern18 . Es ist ein alter philosophischer Traum, dass man die ganze äußere Welt verstehen kann, indem man sie in Teilsysteme zerlegt, und nachdem man diese Teilsysteme verstanden hat, wieder zusammensetzt. Der Traum heißt auch Reduktionismus. Dabei nimmt man außerdem an, dass kleinere Teilsysteme weniger kompliziert sind als 18
Natürlich nur in der profanen äußeren Welt. In der astralen Welt der Horoskope sind nichtstoffliche Einflüsse anderer Planeten enorm wichtig.
3.1 Grundbegriffe in der Physik
41
große. Wenn man also die ganze Welt aus sehr einfachen Teilchen zusammensetzen kann, dann hat man sie verstanden. Wie alle philosophischen Konzepte ist auch dieses in der praktischen Naturwissenschaft zwar nützlich, aber nur, wenn man es nicht übertreibt. Den Nutzen, den man aus der Wahl eines vom Rest des Universums gut getrennten Systems ziehen kann, haben wir ja schon betont. Aber: • Es kommt nicht nur auf die Bestandteile (einfache Teilchen) an. Die Wechselwirkungen zwischen diesen Bestandteilen sind mindestens ebenso wichtig, und die können ziemlich kompliziert sein. Wenn man Systeme zusammensetzt, dann darf man die Wechselwirkung zwischen den Systemen nicht vergessen. Die zu berücksichtigen kann genauso kompliziert sein wie die Aufgabe, gleich beide Systeme als eins zu betrachten. Wenn man Atome verstanden hat, hat man noch lange nicht verstanden, wie aus Atomen Moleküle werden. Wenn Sie ein A380 Großraumflugzeug in seine Bauteile zerlegt haben, hilft Ihnen das nicht viel zur Beantwortung der Frage, warum dieses Ding eigentlich fliegt. • Die kleinsten Bestandteile sind gar nicht unbedingt einfacher als große. Wenn Sie Elementarteilchen für die kleinsten Teile halten, aus denen die Welt besteht, so müssen Sie akzeptieren, dass die Teilchen (und ihre Wechselwirkungen) durch Quantenfelder beschrieben werden, die wir bedeutend schlechter verstehen als Fußbälle auf unseren alltäglichen Skalen. • Aus einfachen Teilsystemen müssen sehr komplizierte Eigenschaften entstehen, Eigenschaften, die die elementaren Bausteine selbst nicht haben. Das nennt man Emergenz. Aber wie? Wie kann ein Haufen Elementarteilchen zu einer Kuh werden? Es ist ein verbreiteter Irrtum, dieses Problem für eines zu halten, das sich allein in der äußeren Welt lösen lässt. Eine neue, interessante Eigenschaft entsteht nämlich durch unsere Sinne in unserer Geisteswelt. Der äußeren Welt ist es wurscht, ob wir einen Prozess oder eine Struktur in ihr für interessant halten. Uns aber nicht. Stellen Sie sich als Gedankenspiel ein Alien vor, das überhaupt keine Ähnlichkeit mit uns hat. Es ist keine Struktur mit einem Körper aus Molekülen, sondern, – denken Sie sich irgendwas Schräges aus. Ein solches Alien kann rund um die Erde laufen und dann herauf funken „Beam me up, Scotty. Hier gibt’s kein intelligentes Leben“. Von allem was es antrifft, hat es den Eindruck, dass es sich um natürliche, aber nicht weiter interessante Prozesse und Strukturen handelt. Was also interessante Eigenschaften sind, regelt nicht die äußere Welt, das regeln wir selbst. Dass beispielsweise elektrische Ströme ohne jeden elektrischen Widerstand fließen, finden wir interessant. Zumindest in der Physik. Und dass es Kühe gibt, finden wir auch interessant. Wenn man solche Eigenschaften mal beobachtet hat, kann man sich daran machen, sie im Sinn der Physik zu erklären. Wenn man aber eine Eigenschaft noch nie beobachtet hat, ist es aussichtslos, sie durch Nachdenken zu erfinden. Ist ja nur ein Modell Um zu einer Beschreibung eines Systems zu kommen, die das Verständnis der Vorgänge in dem System und damit Vorhersagen ermöglicht, muss man eine vereinfachte
42
3 Grundbegriffe
Abbildung eines Teils der äußeren Welt auf die Geisteswelt basteln. Dieses Abbild nennt man physikalisches Modell. Ohne Vereinfachung geht es nicht. Die Komplexität der äußeren Welt erschlägt jeden Versuch eines kompletten Verständnisses selbst kleinster Teile. Die naive Idee, die Welt aus kleinen, „ganz simplen“ Teilen zusammenzusetzen, ist – wie wir gerade betont haben – krachend gescheitert. Die Naturphilosophie (ebenso wie unser normaler „Alltagsverstand“) sagt uns schon lange, dass zwischen unserer Geisteswelt und der äußeren Welt eine Barriere steht, die wir nicht völlig überwinden können. Das liegt an unserer Beschränktheit. Wir haben von der äußeren Welt nur das Bild, das unsere „Sinne“ uns liefern. Zwar haben wir mit der Zeit gelernt, unsere biologischen Sinne durch künstliche Sinne zu erweitern, nämlich mit Messgeräten. Wir haben zum Beispiel keine biologischen Sinnesorgane für radioaktive Strahlung. Bevor wir Messgeräte hatten, die uns vor der Gefahr warnen können, wäre ein Mensch, der intensiver Radioaktivität ausgesetzt war, aufgrund unerklärlicher Umstände gestorben. Radioaktivität existierte in unserer Geisteswelt noch nicht. Aber wer weiß denn, was noch alles in der äußeren Wirklichkeit herumliegt, ohne dass wir etwas davon ahnen? Dinge, die wir nicht wahrnehmen, existieren für uns nicht, obwohl sie uns beeinflussen können. Das gesamte Bild, das uns unsere Sinne (natürlich und künstlich) von der äußeren Welt vermitteln, erzeugt in unserem Geist ein (vereinfachtes) Modell der äußeren Welt. Unser ganzes Wissen über die äußere Welt – egal ob in der Wissenschaft oder im Alltag – ist ein Modell, der „direkte Zugang“ ist uns versperrt. Das betone ich, weil Verschwörungsmythen als typisches Argument zur Anzweifelung wissenschaftlicher Ergebnisse den einfachen und überall anwendbaren Satz benutzen: „Das ist ja alles nur ein Modell“. Damit wird impliziert, dass es in Wirklichkeit natürlich ganz anders ist, und zwar so, wie der propagierte Mythos sich das jeweils wünscht. Klimawandel, Artensterben, Bodenerosion, Vermüllung der Ozeane, Erdkugel, Evolution: alles nur wissenschaftliche Modelle, aber nicht die Wirklichkeit. Selbst gutwillige Laien wünschen sich manchmal, dass die Empfehlungen der Wissenschaft nicht immer nur auf Modellen beruhen. Modelle werden stets – und immer abwertend – der Wirklichkeit gegenüber gestellt. Es sollte Ihnen jetzt aber klar sein, dass Modelle nicht „theoretische Spinnereien“ sind, die man einfach durch genaues Hinschauen ersetzen kann. Wir haben nichts anderes. Wenn Sie der Meinung sind, dass man doch statt zu modellieren einfach Experimente durchführen soll, bedenken Sie, dass man auch in Experimenten die Barriere zur Wirklichkeit nicht überschreiten kann. Man kann nur seinen Schatz an Erfahrungen und damit das Modell von der äußeren Welt immer weiter bereichern. Ich krieg’ Zustände Einer der wichtigsten Bestandteile für ein Modell eines Systems ist der Zustand dieses Systems. In der Physik ist ein Zustand zunächst (wie könnte es anders sein) operativ definiert. Die Definition ist ganz einfach: Mache etwas Wohldefiniertes mit dem System, dann hast Du einen Zustand hergestellt. Wohldefiniert ist wieder nichts anderes als eine verständliche Bastelanleitung. Ein erstes Beispiel: Nimm ein Glas mit Wasser. Stelle es auf den Tisch eines Raumes ohne Luftzug und mit konstanter Temperatur. Warte bis sich keine Beobachtungsgröße in dem Glass mehr ändert. Der
3.1 Grundbegriffe in der Physik
43
Zustand, den man so hergestellt hat, heißt Gleichgewichtszustand. Das Glas Wasser befindet sich im Gleichgewicht mit seiner Umgebung. Ist dieser Zustand einmal erreicht und ändert sich in der Umgebung nichts, so bleibt der Gleichgewichtszustand für alle Zeiten bestehen. Ob sich mit einem Zustand für das Verständnis oder für Voraussagen etwas anfangen lässt, ist eine andere Frage. Nehmen wir ein kleines Gewicht und befestigen es an einer nach unten hängenden Spiralfeder. Dann ziehen wir die Feder 2 cm in die Länge und lassen los. Damit haben wir einen Zustand hergestellt. Das Gewicht bewegt sich periodisch auf und ab, bis es schließlich wieder zur Ruhe kommt. Die Gesetze der klassischen Mechanik erlauben es, die Bewegung des Gewichts quantitativ vorherzusagen. Dabei benutzen wir Modelle für die Feder, das Gewicht, und die Reibung. Aber auch der Zustand von unserem Glas Wasser ist nützlich. Ein erfolgreiches Modell für die Wassermoleküle nimmt an, dass man alle Details der Atome, die das Wasser bilden, weglassen kann. Man kann die Moleküle als beliebig kleine Teilchen betrachten. Dann ist ein Glas Wasser ein System aus enorm vielen solcher Teilchen, die im Vakuum herumfliegen. Die Gesetze der Mechanik, die wir in Kap. 7 noch genauer betrachten werden, erlauben es im Prinzip, aus der Kenntnis der Orte und Geschwindigkeiten aller Teilchen zu einem Zeitpunkt die Orte und Geschwindigkeiten zu allen späteren Zeitpunkten zu berechnen. Wenn man für ein Modell Gesetze hat, die es erlauben, aus Daten zu einem Zeitpunkt alle Daten zu einem späteren Zeitpunkt zu berechnen, dann nennt man diese Daten (b. z. w. die Prozedur zur Festlegung all dieser Daten) den mikroskopischen Zustand oder Mikrozustand des Systems. Wenn Sie also zum Beispiel eine Rechenmaschine haben, die eine Reihe von 100 Ziffern („0“, „1“ bis „9“) in 100 andere Ziffern überführt, dann ist der Mikrozustand dieser Maschine eine Sequenz von 100 Ziffern. Der Mikrozustand eines einfachen Flüssigkeitsmodells besteht also aus den Orten und Geschwindigkeiten aller Teilchen. Am liebsten ist der Physik die Darstellung eines Zustands durch Zahlen. Man nennt dann diese Zahlen den Zustand, aber dahinter steht eigentlich die Prozedur, die diese Zahlen als physikalische Größen festlegt. Ein Glas Wasser besteht aus einer riesigen Zahl von Wassermolekülen. Wenn Sie nur wissen, dass es sich im Gleichgewicht mit einer Umgebung von 200 Celsius und einem festen Luftdruck befindet, dann können Sie nicht viel über die einzelnen Teilchen sagen. So einen Zustand, der nicht alle Informationen des Mikrozustands festlegt, nennt man in der Physik Makrozustand. Makrozustände kommen im Alltagsleben dauernd vor. Wenn Sie zum Beispiel mit zwei Würfeln spielen, dann ist der Mikrozustand die Angabe der Ergebnisse von Würfel 1 und Würfel 2 (also zwei Zahlen), wenn es Ihnen bei dem Spiel aber nur auf die Gesamtpunktezahl ankommt, dann notieren Sie auf dem Zettel für den Spielverlauf nur eine Zahl, nämlich die Summe. Das ist ein Makrozustand. Zur Beschreibung von Makrozuständen benutzt die Physik Wahrscheinlichkeiten (wie und warum, das erklären wir in Kap. 12). Alles nur Theorie Theorie ist ein sehr missverständliches Wort in der Kommunikation zwischen der Physik und der Öffentlichkeit. Im allgemeinen Sprachgebrauch versteht man unter „Theorie“ das, was in der Physik „Spekulation“ heißt, also eine Vermutung, die noch
44
3 Grundbegriffe
gar keine Bestätigung hat. In der Physik ist eine Theorie dagegen eine Menge von mathematisch präzise formulierten Aussagen über die äußere Welt, die durch viele Experimente und Beobachtungen gestützt wird und die einen hohen Erklärungswert hat. Diese Zweideutigkeit wird natürlich beim Leugnen wissenschaftlicher Erkenntnisse besonders gern benutzt. Aussagen wie „Der menschliche Einfluss auf das Klima ist nur eine Theorie“ hört man in den einschlägigen Kreisen besonders oft. Die abfälligen Aussagen über eine Theorie werden häufig verbunden mit der Aufforderung an „mündige Bürger“, doch selbst nachzuschauen und Experimente zu machen. „Die Erde ist kein Ball, der durch’s Weltall taumelt, das ist nur eine Theorie. Schauen Sie sich selber um und Sie werden sehen, nirgendwo ist die Erde gekrümmt.“ In der Physik hat man sich im Laufe der Jahrhunderte darum bemüht, erklärende Gesetze in eine mathematisch strenge Form zu bringen. Daraus entwickelte sich von Anfang an (beginnend mit dem Buch Philosophiae Naturalis Principia Mathematica(deutsch: Die mathematischen Prinzipien der Naturphilosophie) von Isaac Newton, das wir in Kap. 7 genauer kennen lernen, eine besondere Methode der Physik. Die besteht darin, dass man die mathematisch formulierten Gesetze (selbst, wenn sie nur wenig getestet sind) als mathematische Wahrheiten betrachtet, und dann mit mathematischen und logischen (geisteswissenschaftlichen!) Methoden neue Vorhersagen daraus gewinnt. Wenn sich diese Vorhersagen im Experiment bestätigen, so ist das eine wichtige Bestärkung für die Gesetze, von denen man gestartet ist, insbesondere dann, wenn die Vorhersagen überraschend oder sehr präzise sind. Dieser Zweig der Physik nennt sich Theoretische Physik.
3.2 Grundbegriffe in der Logik Logik ist eine der wichtigsten Grundlagen unseres rationalen Umgangs miteinander und mit der Welt. Mit der Logik kann man zwei wichtige, eng verwandte Dinge tun: man kann argumentieren und man kann beweisen. Daher ist sie von alters her ein Gebiet sowohl der Redekunst als auch der Mathematik gewesen, und spielte in allen Wissenschaften, Diskussionen und Debatten eine wichtige – aber auch oft missbrauchte – Rolle. Eine erste und bereits sehr klare Darstellung logischer Schlussfolgerungen und Argumentationstechniken findet sich beim altgriechischen Universalgelehrten Aristoteles (384–322 vor Christus) in seiner Schrift Analytica priora in der (byzantinischen) Schriftensammlung Organon. Seine Schlussregeln (genannt Syllogismen) waren bis ins 19. Jahrhundert die Grundlage aller Logik. Im ausgehenden 19. Jahrhundert und zu Anfang des 20. Jahrhundert gab es Revolutionen in der Logik. Die begannen mit einem schmalen Büchlein von dem in Jena lehrenden Logiker und Mathematiker Gottlob Frege („Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“, Verlag Louis Nebert, Halle, 1879) und einer Schrift des englischen Mathematikers und Philosophen George Boole („The mathematical analysis of logic, being an essay towards a calculus of deductive reasoning“. Macmillan, Barclay and Macmillan u. a., Cambridge, 1847).
3.2 Grundbegriffe in der Logik
45
Da Logik derart grundlegend ist, denken viele Menschen, Logik sei eine Art Super-Mathematik und man könne mit ihrer Hilfe alles lernen, was wirklich wahr ist. Wenn Sie zu diesen Menschen gehören, – ich muss Sie enttäuschen. Logik ist nämlich in ihrem Kern eine ethische Wissenschaft. Sie sagt nicht, wie wir richtig denken, sie sagt, wie wir richtig denken sollen. Wenn Sie die Spielregeln der Logik befolgen, dann sind Sie rational. Die Frage, warum wir so denken sollen, beantwortet die Logik nicht. Es gibt natürlich ein paar pragmatische Antworten. Verhält man sich in der äußeren Welt unlogisch, so bringt das Nachteile mit sich. Wenn man denkt, ein Löwe und noch ein Löwe heben sich gegenseitig weg, kann man schon mal gefressen werden. Aber die Logik verteilt keine Werturteile, in dieser Hinsicht ist sie nicht so richtig ethisch (andernfalls gehörte sie auch nicht in dieses Buch). Sie kennt zwar die Kategorien „wahr“ und „falsch“, aber sie kann Wahrheit nur beurteilen, nachdem eine Menge von elementaren Aussagen schon als wahr angenommen wurden. Logik kann also aus wahren Aussagen andere wahre Aussagen gewinnen. Sie kann auch feststellen, wann man aus wahren Aussagen falsche Aussagen erzeugt hat. Für ihre Zwecke übersetzt sie einen (kleinen) Teil unserer natürlichen Sprachen in eine formale Sprache, deren grammatische Regeln so gebaut sind, dass sich aus wahren Teilsätzen keine falschen Sätze zusammenbauen lassen. So betrachtet, ist Logik einfach ein Sprachspiel, allerdings eines, das versucht, unsere fundamentalen, erfolgreichen Denkmuster abzubilden. Um besser zu verstehen, wie das funktioniert, betrachten wir zunächst die einfachste Variante, die sogenannte Aussagenlogik (AL). Das ist schon schwer genug. Es handelt sich um eine Methode, um aus Teilaussagen kompliziertere, zusammengesetzte Aussagen zu machen, und deren Wahrheit zu beurteilen, allerdings ohne das Geringste über die Inhalte der Teilaussagen zu wissen. Alles, was die AL weiss ist, ob die Teilaussagen wahr oder falsch sind. Will man mehr, so muß man den inneren Aufbau der elementaren Aussagen in Betracht ziehen. Diese Erweiterung der AL, genannt Prädikatenlogik (PL), werden wir uns anschließend noch anschauen. Man darf als Laie19 allerdings von der Logik keine Wunderdinge erwarten. Im Gegenteil erscheinen die Schritte der logischen Methode oft sehr winzig, und erst, wenn man verblüfft feststellt, welche Irrtümer einem unterlaufen können und was alles unlogisch ist, beginnt man den Wert der Logik zu erahnen. Wenn Sie also aus diesen Abschnitten den Eindruck bekommen, dass Logik eine ziemlich schwerfällige Methode des Denkens ist, und oft nur Selbstverständliches produziert, so stehen Sie damit keineswegs allein. Unser „Dichterfürst“ Goethe lässt den Teufel (Mephistopheles) im „Faust“ während einer Studienberatung folgendes über Logik erklären: Mein teurer Freund, ich rat Euch drum Zuerst Collegium Logicum. Da wird der Geist Euch wohl dressiert, In spanische Stiefeln eingeschnürt, Daß er bedächtiger so fortan Hinschleiche die Gedankenbahn, 19
Um mal wieder daran zu erinnern. Bei uns ist es das Laie. Wie soll es im Sternchengendern heißen? Laie*innen?
46
3 Grundbegriffe Und nicht etwa, die Kreuz und Quer, Irrlichteliere hin und her. Dann lehret man Euch manchen Tag, Daß, was Ihr sonst auf einen Schlag Getrieben, wie Essen und Trinken frei, Eins! Zwei! Drei! dazu nötig sei.
Wenn Sie also Logeleien nicht mögen und auch nicht besonders neugierig darauf sind zu erfahren, was eigentlich diese Logik ist, dann überschlagen Sie einfach diesen Abschnitt und machen weiter mit dem Abschn. 3.3 (nicht verpassen!). Danach dürfen Sie sich auch den Abschn. 3.4 schenken. Wir anderen machen uns auf ins Collegium Logicum! Ich bin schlau und Du bist doof: Logik der Aussagen Bei Diskussionen fallen oft Bemerkungen wie „Mein Argument ist logisch zwingend“ oder „Was Sie da reden ist total unlogisch“. Die Logik wird gerne als Totschlagwaffe gegen rhetorische Kontrahenten eingesetzt. Es lohnt sich daher auf jeden Fall, einen Blick auf dieses oft missbrauchte Waffenarsenal zu werfen, wenn man in Debatten bestehen will. Argumente Was ist denn überhaupt ein Argument und was daran soll „zwingend“ sein? Betrachten wir ein ganz einfaches Beispiel: A: Goethe schrieb den Faust B: Wenn Goethe den Faust schrieb, dann ist er ein großer Dichter C: Goethe ist ein großer Dichter Die ersten beiden Aussagen A und B nennen wir Voraussetzungen oder Prämissen, die letzte, C nennen wir Konklusion oder Schluss(folgerung), das Ganze ist das Argument. Ein Argument kann beliebig viele Prämissen haben, aber immer nur eine Konklusion. Zwischen Prämissen und Konklusion besteht ein Zusammenhang, den man Begründung nennt. Ein Argument dient also dazu, eine Behauptung (die Konklusion) zu begründen. Die Logik untersucht die Natur dieses Zusammenhangs sehr genau, und das wollen wir im folgenden auch tun. Gründe für eine Behauptung zu finden muss ja nicht bedeuten, dass das Argument zwingend ist. Übrigens: In der Logik sagt man statt „zwingendes Argument“ lieber schlüssiges Argument. Wann also ist ein Argument schlüssig? Betrachten Sie das Beispiel A: Martin ist zu einer mehrstündigen Wanderung aufgebrochen B: Er ist jetzt anderthalb Stunden fort C: Also wird er noch unterwegs sein Das ist doch ganz ordentlich begründet, aber ist es schlüssig? Dieses Beispiel lässt Schlupflöcher. Es könnte sein, dass Martin besonders schnell war oder dass er die
3.2 Grundbegriffe in der Logik
47
Wanderung abgebrochen hat und schon wieder zu Hause ist. Beim ersten Beispiel gibt es diese Schlupflöcher nicht. Werfen wir nun einen genaueren Blick auf ein Argument. Sowohl Prämissen als auch die Konklusion sind Aussagen, und für die AL bedeutet das, dass sie entweder wahr (w) oder falsch (f) sind. Damit ist längst nicht jede sprachliche Äußerung auch eine Aussage. „Verdammt !“, „Alfons ist dick“, „Nachts ist es kälter als draußen“, „Morgen wird es regnen“ sind zum Beispiel keine Aussagen. Die letzte klingt zwar so, aber Äußerungen über die Zukunft sind heute weder wahr noch falsch. Bei der zweiten Äußerung scheitert die Zuordnung von wahr oder falsch an der Unbestimmtheit der Eigenschaft dick20 . Was bedeutet es nun, dass Prämissen eine Konklusion schlüssig begründen? Es bedeutet zweierlei: • Die Prämissen sind wahr. • Wenn die Prämissen wahr sind, dann muss die Konklusion auch wahr sein. Ist nur der zweite Punkt erfüllt, dann nennt man das Argument in der Logik gültig. Aber Achtung, gültig ist nicht schlüssig. Für die Gültigkeit des Arguments ist es unerheblich, ob die Prämissen wahr sind, d. h. im Rahmen des Arguments zweifelt man nicht an ihnen, obwohl sie vielleicht falsch sind. Das drückt sich in der oft verwendeten Redewendung aus: „Nehmen wir mal an, dass …“. Natürlich kann man später in einer Diskussion über die Wahrheit der Prämissen streiten, aber ein Argument kann gültig sein, selbst wenn die Prämissen falsch sind. Schauen Sie auf das folgende Beispiel: A: Schiller schrieb den Faust B: Wenn Schiller den Faust schrieb, dann ist er ein großer Dichter Also C: Schiller ist ein großer Dichter. Die Prämisse A ist falsch, aber die Struktur des Arguments ist dieselbe wie beim Goethe-Argument, d. h. das Argument ist gültig. Wir haben nur den Eigennamen ausgetauscht und von solchen Inhalten weiß die AL ja nichts. Sie können die Konklusion nicht bezweifeln, wenn Sie die Prämissen glauben. Selbst Argumente mit falschen Prämissen und falscher Konklusion können gültig sein. So ein Beispiel eines gültigen, aber nicht schlüssigen Arguments ist: A: Schiller schrieb den Faust B: Wenn Schiller den Faust schrieb, dann ist er ein großer Mathematiker Also C: Schiller ist ein großer Mathematiker.
20
Denken Sie an Obelix, der immer von sich behauptet: Ich bin nicht dick.
48
3 Grundbegriffe
Andererseits – und das wird oft und gern übersehen – können Prämissen und Konklusion wahr sein, das Argument aber logischer Schmarr’n (in zivilerer, logischer Sprechweise: es ist ein ungültiges Argument), wie zum Beispiel A: Goethe schrieb „Die Leiden des jungen Werthers“ B: Eine wichtige Figur darin ist „Lotte“ Also C: Goethe hatte eine Geliebte mit Namen Charlotte Stimmt ja alles, aber ein logischer Schluss ist das nicht. Das Argument ist ungültig. Ungültige Schlüsse, die sich aber irgendwie gut anhören, finden sich gerade in politischen Diskussionen häufig, zum Beispiel A:Wenn Tim ein Nazi ist, trägt er ein Hakenkreuz B:Tim trägt kein Hakenkreuz Also C: Tim ist kein Nazi Über solche Scheinargumente, logischen Irrtümer oder logischen Tricks werden wir noch mehr hören (in dem Abschn. 5.3). Argumente kommen im wirklichen Leben nicht in so geordneter Form vor wie in unseren obigen Beispielen. Daher muss man in der Lage sein, Argumente in natürlicher Sprache zu erkennen, d. h. sie in die geordnete Form zu bringen. Das muss man üben. Dabei fängt man am besten mit der Konklusion an, die erkennt man oft an Wörtern wie „also“, „wie durch …gezeigt“, „folglich“, „Dies zeigt, dass“ u. s. w. Es ist jedoch überhaupt nicht leicht, ein Argument in natürlicher Sprache in die logisch geordnete Form zu bringen. Das nutzt man in Debatten oft aus. Hier ein Beispiel: „Wenn die Gewerkschaften moderate Lohnabschlüsse akzeptieren, werden die Arbeitsplätze sicher.“ Was ist hier die Konklusion? „Die Arbeitsplätze werden sicher“ ist ein guter Kandidat. Was sind die Prämissen? Eine ist ganz klar: „Die Gewerkschaften akzeptieren moderate Lohnabschlüsse“. Aber wieso folgt da etwas raus? Hier fehlt offenbar noch mindestens eine Prämisse. Das ist ein gern gebrauchter rhetorischer Trick. Man tut so, als gäbe es selbstverständliche Prämissen, die wir alle akzeptieren und die man deshalb nicht mehr erwähnen muss. Hier ist zum Beispiel eine versteckte Prämisse: „Wenn die Arbeitgeber mehr Geld durch moderate Lohnabschlüsse zur Verfügung haben, dann investieren sie dieses Geld“. Das müssen sie aber nicht. Sie könnten sich auch eine neue Yacht kaufen oder das Geld in höheren Dividenden an Aktionäre auszahlen. Eine weitere versteckte Prämisse ist: „Wenn die Arbeitgeber Investitionen tätigen, dann sichert das Arbeitsplätze“. Muss nicht sein. Vielleicht investieren sie lieber in automatisierte Produktion und künstliche Intelligenz, um Lohnkosten einzusparen. Sie sehen, es ist in kontroversen Debatten gar nicht so einfach, den Überblick über Argumente zu behalten. Oft ist das, was nicht gesagt wird, der springende Punkt. Noch schwieriger wird das Entwirren, wenn Argumente geschachtelt werden, so dass die Schlussfolgerung eines Teilarguments wieder zur Prämisse eines anderen Teils wird. „Wenn es in den nächsten 3 Mona-
3.2 Grundbegriffe in der Logik
49
ten nicht regnet, wird die Ernte vertrocknen und dann werden wir hungern. Wenn wir hungern, werden wir abnehmen, und da wir alle Übergewicht haben, wird es sehr gesund sein, wenn es nicht regnet.“ Gerade die deutsche Sprache ist durch ihre Vorliebe für Schachtelsätze prima geeignet für solche Art von Argumenten. Argumentformen Wie können wir nun die Gültigkeit eines Arguments jenseits von unserem Bauchgefühl begründen? Wo ist „die Logik“ eines Arguments? Die Antwort auf diese Frage kann man nur geben, wenn man eine kleine Einführung in die Sprache der Logik in Kauf nimmt. Die wollen wir in den nächsten Abschnitten geben. Wenn Sie Logeleien mögen, dann mögen Sie vielleicht auch diese Abschnitte. Andernfalls überschlagen Sie sie einfach und machen mit der Prädikatenlogik weiter. Zunächst vergessen wir alle Inhalte von Teilaussagen, denn die kennt die AL ja sowieso nicht. Betrachten wir als Beispiel wieder unser Goethe-Schiller Argument. Man kann es erheblich abmagern. Man braucht überhaupt nicht zu wissen, wer hier was schrieb. Wenn es auf die spezielle Aussage gar nicht ankommt, benutzt die AL statt eines bestimmten Namens (zum Beispiel A)Platzhalter oder Variablen, das sind Leerstellen, in die man jede beliebige Aussage einfügen kann. Platzhalter bezeichnen wir mit kleinen Buchstaben, also x,y,z · · · . Wir können also die spezielle Prämisse A durch einen Platzhalter x ersetzen. Beachten Sie, dass Platzhalter keinen Wahrheitswert haben, den bekommen sie erst, wenn wir eine Aussage dafür einsetzen. Statt der Prämisse B und der Konklusion C könnte man jetzt auch Platzhalter einsetzen, z. B. y und z. Aber dann ist das Argument kein Argument mehr, denn man kann ja beliebige Aussagen für x,y und z einsetzen. Also zum Beispiel für x: „Goethe schrieb den Faust“, für y „Petersilie ist grün“ und für z „Hilbert war ein bedeutender Mathematiker“. Die wichtige Struktur „Wenn x, dann y“ in Prämisse B darf nicht verloren gehen und Prämisse C muss durch y ersetzt werden, denselben Platzhalter, der in B vorkommt. Dann sieht das abgemagerte Argument so aus: x Wenn x dann y Also y Es gibt eine Schreibweise, die etwas platzsparender ist und die wir auch benutzen, nämlich x, Wenn x dann y ⇒ y. Der logische Schluss, dem wir auf die Schliche kommen wollen, wird durch ⇒ dargestellt und die Prämissen werden durch Kommata getrennt. Ein abgemagertes Argument, in dem nur Platzhalter vorkommen, nennt man eine Argumentform. Füllt man die Platzhalter wieder mit speziellen Aussagen, so erhält man ein anderes Argument derselben Form. Hier ist ein (schlüssiges) Beispiel, ganz ohne Goethe und Schiller:
50
3 Grundbegriffe
A: Es ist Nacht B: Wenn es Nacht ist, dann ist es dunkel Also C: Es ist dunkel. Nun sind wir bereit für den zweiten Schritt zum Verständnis einer logischen Schlussfolgerung. Verknüpfungen In der Prämisse B unseres Beispiels taucht noch ein wenig natürliche Sprache auf, nämlich „wenn …dann“. Damit werden zwei Teilaussagen verknüpft, zum Beispiel „Es ist Nacht“ und „Es ist dunkel“. Diese beiden Aussagen kann man nicht weiter in Teile zerlegen. Solche Aussagen heißen elementar oder atomar. Falls Sie sich fragen sollten wie man feststellt, ob eine Aussage atomar ist: Am Ende dieses Abschnitts werden Sie es wissen. Um kompliziertere Sätze zu bilden, verknüpft man Aussagen miteinander. Die natürliche Sprache kennt viele Möglichkeiten das zu tun. Betrachten wir dazu ein Beispiel mit zwei Aussagen in natürlicher Sprache. Die Aussage A sei: „Ich bin im Urlaub“ und B: „Mein Chef ist im Urlaub“. Diese beiden Aussagen kann man auf viele Arten verknüpfen, zum Beispiel mit „weil“, „und“, „während“, „weder · · · noch“ u. s. w. Denkt man über diese sprachlichen Verknüpfungen nach, so fällt auf, dass der Wahrheitswert der zusammengesetzten Aussage bei einigen Verknüpfungen gar nicht von den Inhalten der beiden Aussagen abhängt, sondern nur von deren Wahrheitswert. Die Aussage „Ich bin im Urlaub und mein Chef ist im Urlaub“ ist wahr, wenn beide Teilaussagen wahr sind, andernfalls ist sie falsch. Auch die Verknüpfung „oder“ braucht nur die Wahrheitswerte, aber es gibt eine kleine Komplikation, weil „oder“ in der Umgangssprache zwei Bedeutungen hat. In der ersten Bedeutung ist die zusammengesetzte Aussage wahr, wenn eine von beiden, aber auch wenn beide Teilaussagen richtig sind. Sowohl mein Chef, als auch ich selbst, als auch wir beide können im Urlaub sein. Die zweite Bedeutung entspricht dem „entweder oder“, in der Logik XOR genannt. Sind wir beide im Urlaub, ist die Aussage falsch. Daher kennt die Sprache der Logik zwei verschiedene „oder“. Aber für beide Versionen gilt, dass der Wahrheitswert der zusammengesetzten Aussage völlig durch die Wahrheitswerte der Teile festgelegt ist. Ganz anders verhält es sich mit dem Wahrheitswert der Aussage „Ich bin im Urlaub weil mein Chef im Urlaub ist“. Das kleine Wörtchen „weil“ zeigt eine kausale Verknüpfung an. Um zu wissen, ob etwas der Grund für etwas Anderes ist, genügt es nicht allein zu wissen, ob die Teile richtig oder falsch sind. Hier muss man auch die Bedeutung der Aussagen kennen. Die AL befasst sich ausschließlich mit Verknüpfungen, deren Wahrheitswert sich eindeutig aus den Wahrheitswerten der Teilaussagen ergibt, und sie nennt solche Verknüpfungen Junktoren. Eine Zerlegung eines komplizierten Satzes in atomare Aussagen und Junktoren nennt man logische Analyse. Eine Aussage, die keine Junktoren enthält ist also atomar. Zum Beispiel ist die Aussage „A weil B“ eine atomare Aussage, falls A und B selbst atomar sind.
3.2 Grundbegriffe in der Logik
51
Nun noch ein Wort zur Notation der logischen Sprache. Zur Abkürzung und um Uneingeweihte zu beeindrucken schreibt man in der Logik ∧ für „und“ 21 , ∨ für ˙ für das XOR. A ∧ B bedeutet also „A und B“. A und B stehen hier „oder“ und ∨ für 2 bestimmte Aussagen. Der Zusammenhang zwischen den Wahrheitswerten von A und B und dem Wahrheitswert von A ∧ B ist aber für alle Aussagen gleich. Wir können die Aussagen auch durch Platzhalter ersetzen und x ∧ y schreiben. So etwas nennt man ein Aussagenschema, und solche Schemata tauchen als Prämissen oder Konklusionen in Argumentformen auf. Wie können wir den logischen Gehalt von einem Junktor beschreiben? Ein praktisches Hilfsmittel dafür sind die Wahrheitstafeln. Sie stellen den Wahrheitswert eines Aussagenschemas für alle möglichen Wahrheitswerte der Platzhalter übersichtlich zusammen. In der Praxis ist das ganz einfach. x ∧ y ist nur wahr, wenn man sowohl für x als auch y wahre Aussagen einsetzt, und x ∨ y ist wahr, wenn mindestens eine Teilaussage wahr ist. Für das logische ∧ zum Beispiel sieht eine Wahrheitstafel so aus: x w w f f
y w f w f
x∧y w f f f
˙ gibt es noch eine einfache logische Operation, die Neben den Junktoren ∧, ∨ und ∨ man auf jede einzelne Aussage anwenden kann, nämlich die Verneinung (dargestellt durch das Symbol ¬). Ist A wahr, dann ist die Verneinung von A (¬A) falsch, und umgekehrt. Wie sieht wohl die Wahrheitstafel dafür aus? Als letzten kennt die Aussagenlogik noch einen nicht ganz unproblematischen Junktor. Er hat zahlreiche Namen, zum Beispiel Konditional, Subjunktion oder materiale Implikation. In Logik-Sprech sieht der Junktor so aus A → B. Hier ein Beispiel aus der Umgangssprache: „Wenn morgen die Sonne scheint, dann gehe ich schwimmen.“ Wann ist diese Aussage wahr? Sicher, wenn morgen die Sonne scheint und ich schwimmen gehe. Andererseits ist sie sicher falsch, wenn morgen die Sonne scheint und ich nicht schwimmen gehe. So weit, so gut. Aber was ist, wenn morgen die Sonne nicht scheint? Muss ich dann zu Hause bleiben, damit die Aussage wahr ist? Viele Menschen würden diese Frage intuitiv bejahen. Das liegt daran, dass sie entweder denken: Genau dann, wenn die Sonne scheint, gehe ich schwimmen oder aber, dass sie denken, der Sonnenschein sei der Grund dafür, dass ich schwimmen gehe und wenn der Grund entfällt, dann bleibe ich zu Hause. Diese beiden Bedeutungen, die ein „Wenn“ ... „dann“ in der Umgangssprache haben kann, sind in der Aussagenlogik gerade nicht gemeint.
21
und zwar für genau dieses „und“. Im Deutschen gibt es fast unüberschaubar viele andere Bedeutungen von „und“, denken Sie zum Beispiel an „Arm und Reich“, „Ich sprang hinunter und brach mir ein Bein“ e.t.c.
52
3 Grundbegriffe
Das „wenn“ der Logik meint, dass der Sonnenschein eine hinreichende Bedingung dafür ist, schwimmen zu gehen, aber kein Sonnenschein verpflichtet mich zu nichts. Die Wahrheitstafel für → sieht daher so aus: x w w f f
y w f w f
x→y w f w w
Andererseits könnte der Sonnenschein auch eine notwendige Bedingung sein, um schwimmen zu gehen, dann würde man umgangssprachlich sagen: „Nur wenn die Sonne scheint, gehe ich schwimmen“. Der Unterschied zwischen einer hinreichenden und einer notwendigen Bedingung ist eine der wichtigsten Dinge, die man in der AL beherrschen muss, und die Verwechslung der beiden ist einer der häufigsten Logikfehler (oder Logiktricks, ganz wie sie wollen). Eine notwendige Bedingung ist unersetzlich. So ist zum Beispiel Wermut eine notwendige Bedingung für einen Martini, aber natürlich nicht hinreichend, denn es fehlen noch Gin, Eis und eine Olive. Dagegen ist klares Wasser hinreichend zur Stillung des Durstes. Notwendig ist es aber nicht, denn das tun auch Kaffee, Tee, Saft, Bier, Wein und viele andere Getränke. Hinreichende Bedingungen können wir am Konditional A → B ablesen. Wie steht es mit notwendigen Bedingungen? Wenn wir ausdrücken wollen, dass A eine notwendige Bedingung für B ist, so können wir sagen „wenn kein A, dann kein B“ oder in Logik-Sprech ¬A → ¬B. Wenn es keinen Wermut gibt, können wir keinen Martini mixen. Die Verwechslung von notwendigen und hinreichenden Bedingungen wird oft als rhetorischer Trick verwendet. Betrachten wir die Aussage „Wenn wir den C O2 Ausstoß reduzieren, bekommen wir die Klimakrise in den Griff“. Nun ist die Reduktion des C O2 Ausstoßes nach wissenschaftlichen Aussagen eine notwendige Bedingung, aber ob sie auch hinreichend ist, das ist keineswegs klar. Wenn wir beispielsweise zu wenig reduzieren, oder wenn wir gleichzeitig den Ausstoß von Methan genügend stark erhöhen, dann bekommen wir die Klimakrise eben nicht in den Griff. Eine von mehreren notwendigen Bedingungen zu erfüllen reicht nicht. Eine häufige Pseudo-Beweisführung (schon von kleinen Kindern gern gebraucht) ist es, darauf zu verweisen, dass man eine notwendige Bedingung erfüllt hat, aber die Folge trotzdem nicht eingetreten ist („Jetzt war ich schon 3 Stunden artig, aber ich krieg immer noch kein Eis“), d. h. man gibt die notwendige als hinreichende Bedingung aus. Ein subtilerer Irrtum besteht darin, in A → B die hinreichende Bedingung A als Grund für B anzusehen. Solche kausalen Beziehungen gibt es in der AL nicht. In der Konjunktion „Wenn das rote Lämpchen leuchtet, dann fährt das Auto nicht“ ist die hinreichende Bedingung nicht der Grund; der liegt darin, dass das Lämpchen leuchtet, weil der Akku des E-Autos leer ist. Die Schwierigkeit, hinreichende Bedingungen von kausalen Gründen zu unterscheiden, ist eine besondere Herausforderung in den Naturwissenschaften, die ja kausale Gründe für Ereignisse finden will. Wenn man
3.2 Grundbegriffe in der Logik
53
sich vertut, so kann das manchmal weitreichende Konsequenzen haben. Beispiel: Wenn sich im Gehirn Ablagerungen (sogenannte amyloide Plaque) finden, so leidet man unter Alzheimer. Es ist aber (noch) keineswegs klar, ob die Ablagerungen Grund oder Merkmal der Krankheit sind. Soll man also Therapien erforschen, die die Ablagerungen verhindern oder auflösen? Eine Bedingung kann auch beides gleichzeitig sein: notwendig und hinreichend. Um das klar zu machen, kann man umgangssprachlich sagen: „Genau dann, wenn“. Logisch bedeutet es, dass A → B und ¬A → ¬B. Zur Abkürzung schreibt man A ↔ B. Nun sollte klar sein, dass die Konjunktion ein problematisches Kind der Logik ist. Das liegt aber nicht etwa daran, dass sie irgendwie schlecht definiert wäre, sondern es liegt an der großen Bedeutungsfülle des umgangssprachlichen „Wenn …. dann“. Betrachten Sie noch mal unser allererstes Beispiel von Teilaussagen, verknüpft mit einer Konjunktion: „Wenn mein Chef in den Urlaub fährt, fahre ich in den Urlaub“. Was könnte hier nicht alles gemeint sein: Es kann 1) eine zeitliche Koinzidenz sein, 2) Es kann eine notwendige Vorbedingung sein 3) Es kann eine kausale Verknüpfung sein, d. h. der Grund für meinen Urlaub ist, dass der Chef weg ist 4) Es kann eine hinreichende Vorbedingung beschreiben, ohne dass die der Grund für meinen Urlaub ist. Die AL bildet nur einen winzigen Teil unserer natürlichen Sprache ab, und bevor man etwas „logisch“ nennt, muss man die Mehrdeutigkeiten der Umgangssprache in der logischen Sprache völlig aufgelöst haben. Während „und“, „oder“ und „nicht“ mit etwas Übung zu bewältigen sind, stößt man beim Konditional immer wieder auf sehr unintuitive, merkwürdig ausschauende Beispiele von wahren Aussagen. Betrachten Sie mal dies hier: „Wenn Karl der Große ein Mongole gewesen ist, dann ist Pipin der Kleine ein Karolinger gewesen“. Da die zweite Teilaussage wahr ist, kann die Herkunft Karls des Großen nichts an der Wahrheit der gesamten Aussage ändern. Oder wie wäre es mit „Wenn Karl der Große ein Mongole gewesen ist, dann ist Pipin der Kleine ein Japaner gewesen“? Ist das wahr? Mit Hilfe der Junktoren können wir nun beliebig komplizierte Sätze bilden, wie zum Beispiel ((x ∧ y) → z) ∨ u. Wir können auch Platzhalter für logische Sätze einführen. Die schreiben wir in der ausführlichen Form P(x, y, z), wobei in den Klammern steht, welche logischen Platzhalter für atomare Aussageplatzhalter die Sätze enthalten. Wenn uns das mal Wurscht sein sollte, dann können wir diese Platzhalter auch weglassen und einfach P oder Q oder andere große Buchstaben aus der Mitte des Alphabets Variablen für Sätze schreiben.
54
3 Grundbegriffe
3.3 Physik ist (teilweise) unlogisch Induktion Längst nicht alle logisch ungültigen Argumente sind wertlos. Denken Sie nur an unser Beispiel über den wandernden Martin. Das klingt doch sehr vernünftig. Das Argument gibt Gründe an, die durch eine große Menge an Erfahrungen in der realen Welt gestützt werden. Das sind genau die Gründe, die auch die Naturwissenschaften für ihre Behauptungen zu bieten haben. Solche Gründe können geradezu überwältigend werden, wie in diesem Beispiel: A: Die Wahrscheinlichkeit, dass ich im Lotto den Hauptgewinn errate, ist ungefähr 1 zu 140 Mio. B:Ich spiele einmal Lotto Also C: Nächste Woche habe ich keine 6 Richtigen Schlussfolgerungen dieser Art, die auf Erfahrungsdaten beruhen, nennt man induktiv. Sie sind nicht absolut wahr, sie sind aber wahrscheinlich wahr. Über Wahrscheinlichkeit erfahren Sie eine Menge mehr in Abschn. 4.8–4.12. Hier reicht es, sich unter Wahrscheinlichkeit einen Grad an Vertrauen in die Schlussfolgerung vorzustellen. Der Grad kann zwischen 0 und 1 variieren. 0 bedeutet, dass die Konklusion mit Sicherheit falsch ist, 1, dass sie mit Sicherheit wahr ist. Je mehr Beobachtungen Sie machen, die die Konklusion stützen, desto mehr wächst Ihr Vertrauen. Induktive Schlüsse kommen also mit einer Bewertung ihrer Vertrauenswürdigkeit. Zumindest sollten sie das, aber in der Praxis ist es dann doch eher selten. Gerade die Verschwörungsmystik argumentiert gern mit sehr schwachen induktiven Schlüssen, die sie den starken induktiven Schlüssen der Naturwissenschaft gegenüberstellt. „Den Klimawandel gibt es nicht, denn ich habe im Garten ein Wetterhäuschen, mit dem ich seit 10 Jahren Messungen durchführe. Aber noch nie ist mir aufgefallen, dass es ein ganzes Jahr lang besonders warm war.“ „Die Erde ist eine Scheibe, denn wenn ich mich in der norddeutschen Tiefebene umschaue, sehe ich nirgends eine Erdkrümmung“. „Jetzt kam 10 mal hintereinander rot, da setze ich auf schwarz, denn das muss jetzt mal kommen“. Abduktion Von Skeptiken wird immer gern behauptet, dass naturwissenschaftliche Erkenntnisse nichts als induktive Schlüsse aus einem Haufen von Beobachtungen sind, und dass sie sich deshalb schon morgen als falsch herausstellen können. Stellen Sie sich vor, Sie sehen monatelang nur weiße Schwäne. Daraus leiten Sie das Naturgesetz ab, dass alle Schwäne weiß sind. Plötzlich sehen Sie einen schwarzen Schwan und ihre Schlussfolgerung ist kaputt. Aber so funktionieren Naturwissenschaften nicht. Ihre Logik ist eine Logik der Erklärungen. Erst, wenn Sie einen Grund für Beobachtungen angeben können, stellen Sie die Behauptung auf, diese Beobachtungen immer wiederholen zu können, wenn der Grund vorliegt. Aber wie findet man einen Grund,
3.3 Physik ist (teilweise) unlogisch
55
Abb. 3.5 Ein induktiv abgeleitetes, sehr bekanntes, aber trotzdem nicht korrektes Naturgesetz. (Herbert Kuhl, gemeinfrei, via Wikimedia Commons)
wenn man nur endlich viele Beobachtungen zur Verfügung hat? Nehmen wir an, Sie machen eine überraschende Entdeckung, zum Beispiel, dass ein Zündkabel Ihres Autos kaputt ist. Sie erneuern das Kabel, aber nach einer Woche ist es wieder kaputt. Nach dem dritten Reparaturversuch installieren Sie eine Überwachungskamera und die zeigt ein Tier, das sich Ihrem Auto nähert. Irgendwann müssen Sie nun einen Schritt tun, der eine erklärende Aussage (Hypothese) enthält, d. h. eine Aussage, aus der man die überraschenden Beobachtungen per Deduktion ableiten kann. Ihre Hypothese ist, dass das Tier ein Marder war, und der hat Ihre Zündkabel zernagt. Der amerikanische Logiker Charles Sanders Peirce (1839–1914) führte für diese Art der Erzeugung einer Hypothese den Begriff Abduktion ein und beschrieb sie so: „Die überraschende Tatsache C wird beobachtet; aber wenn A wahr wäre, würde C eine Selbstverständlichkeit sein; folglich besteht Grund zu vermuten, daß A wahr ist.“ Charles Sanders Peirce, Bd 5 aus: „Collected Papers.“ Band 1–6 hg. von Charles Hartshorne und Paul Weiß. Band 7 und 8. hg. von Arthur W. Burks. Cambridge 1958.
Das ist eine ganz andere Art des Schließens als das induktive Schließen. Es wird nicht versucht, eine Menge von Beobachtungen als eine Regel zu verallgemeinern. Eine solche Regel kann völlig wertlos oder grob irreführend sein. Das ist im wirklichen Leben bei vielen Untersuchungen über komplexe Phänomene der Fall. Sie können zum Beispiel zwei Beobachtungsreihen in einem Bild darstellen wie in der Abb. 3.5. Aus diesem Beobachtungsmaterial stellen Sie die Regel auf, das die Geburtenzahl von der Zahl der Störche abhängt. Wenn Sie nun diese Regel als Erklärung betrachten, dann liegen Sie leider daneben (wie Sie wahrscheinlich wissen). Aber wie kamen Sie zu der Hypothese über das kaputte Kabel? Sie könnten auch andere Hypothesen aufstellen. Zum Beispiel könnten Sie vermuten, das marderähnliche Tier wäre nur eine Ablenkung, die eine radikal ökologische Gruppe von Autogegnern benutzt, um sich an ihr Auto heranzuschleichen und es fahruntüchtig zu
56
3 Grundbegriffe
machen. Oder das Tier wäre am Auto vorbeigelaufen, während ein spontan aufgetretener Kurzschluss das Kabel zerstört hätte. Unter allen möglichen Hypothesen entscheiden Sie sich für die, die den höchsten Erklärungswert und die größte Plausibilität hat. Aber nichtsdestotrotz, – die Hypothese ist geraten. Bei der Abduktion muss man die erklärende Hypothese also raten. Das klingt nicht gerade systematisch, aber der wissenschaftliche Fortschritt ist eben auch nicht systematisch. Allerdings ist das Raten nicht so blind, wie es sich zunächst anhört. Im täglichen Leben und in der Naturwissenschaft rät man immer auf der Grundlage von dem, was man schon weiß, und dadurch werden die Möglichkeiten sehr drastisch eingeschränkt. Peirce sagt das so: Ein Physiker begegnet einem neuen Phänomen in seinem Laboratorium. Woher weiß er, daß nicht die Konjunktionen der Planeten etwas damit zu tun haben oder dass es vielleicht deshalb so ist, weil die Kaiserinwitwe von China zur selben Zeit im Vorjahr zufällig ein Wort von mystischer Kraft ausgesprochen hat oder vielleicht ein unsichtbarer Dschin anwesend sein kann? Denken Sie an die vielen Millionen und Abermillionen von Hypothesen, die gemacht werden könnten, von denen nur eine wahr ist; und doch trifft der Physiker nach zwei oder drei oder höchstens einem Dutzend Vermutungen ziemlich genau die richtige Hypothese. Aus Zufall hätte er das wahrscheinlich die ganze Zeit über, seit sich die Erde verfestigte, nicht getan. - Peirce: Collected Papers (CP 5.172)
Trotz der vielen Einschränkungen bleibt bei der Abduktion immer Raum für das, was man Kreativität oder Genie nennt. Die Erkenntnis für eine Erklärung kann blitzartig und ohne jede Logik erscheinen. Ob die geratene Hypothese dann allerdings zu einer Theorie wird, die Bestand hat, muss sich erst durch viele Tests erweisen. Aus einer Hypothese wird eine Theorie, wenn ihr Erklärungswert immer weiter zunimmt. Ist die Hypothese erst mal so präzise formuliert, dass die theoretische Physik per logischer Schlussfolgerung weitere zu erwartende Beobachtungen daraus abzuleiten vermag, kann man auch diese überprüfen. Treffen die Vorhersagen zu, so vergrößert sich der Erklärungswert der Hypothese. Außerdem kann man versuchen, Experimente zu entwerfen, die sehr empfindlich auf die Gültigkeit der Hypothese reagieren. Besteht die Hypothese einige Tests, so wird aus ihr eine Theorie. Wenn sich dann mit ihr sehr viele weitere Beobachtungen in der äußeren Welt (möglichst quantitativ) erklären lassen, so ernennt man sie schließlich zum Naturgesetz. Die Reichweite der Theorie, also ihr Gültigkeitsbereich, wird i. a. nicht die ganze äußere Welt sein. Das ist in der Physik auch gar nicht gefordert (obwohl Viele das vermuten). Fast alle Naturgesetze haben einen eingeschränkten Gültigkeitsbereich. Erst, wenn man sich über den im Klaren ist, hat man ein Naturgesetz gut verstanden. Ein Naturgesetz ist um so stärker, je größer sein Erklärungswert und sein Gültigkeitsbereich ist. Die von Newton aufgestellte Mechanik und Theorie der Schwerkraft beispielsweise haben einen riesigen Erklärungswert und einen sagenhaften Gültigkeitsbereich. Wenn aber die Geschwindigkeiten von Körpern zu groß oder die Körper zu schwer werden, sind Grenzen dieser Theorie erreicht. Ebenso, wenn die Körper zu klein werden. Man könnte also sagen, die Theorie ist widerlegt. Aber auf die Idee würde in der Physik niemand kommen, denn man kennt heute diese
3.4 Alle oder eine, rot oder grün: Prädikatenlogik
57
Grenzen sehr genau. Die Theorie erhebt nur Anspruch auf Gültigkeit innerhalb dieser Grenzen. Daher steht sie auch nach wie vor auf dem Lehrplan des Physikstudiums.
3.4 Alle oder eine, rot oder grün: Prädikatenlogik Sie werden schon gemerkt haben, dass eine Logik, die gar nichts von den Inhalten der Aussagen weiß, nicht so leistungsfähig ist, wie man sich das oft wünscht. Daher liegt es nahe, die elementaren Aussagen in noch elementarere Bruchstücke zu zerlegen, mit denen man formal hantieren kann. Das tut die Prädikatenlogik (PL). Diese Logik befasst sich mit dem Innenleben von Aussagen, die über Objekte gemacht werden. Objekte können alles mögliche sein: Steine, Menschen, Zahlen, Autos, Gedanken e.t.c. Alle Objekte, über die man logisch sprechen will, fasst man zu einer Menge zusammen, die wir hier immer M nennen. In der PL heißt diese Menge etwas hochtrabend Universum, ein Begriff, auf den man auch gern verzichten kann. In der Mathematik heißt M auch der Wertebereich. Den einzelnen Objekten gibt man Namen (a, b, c · · · ). Ähnlich wie in der Aussagenlogik, kann man auch Platzhalter für die Namen einführen (x, y, z · · · ). Wenn man nun aus einem Satz, in dem man über die Objekte spricht, alle Objektnamen durch Platzhalter ersetzt, so ist der Rest genau das, was in der Logik Prädikat genannt wird. Um das zu verstehen, betrachten wir ein paar Beispiele. Im einfachsten Fall ist das Prädikat eine Eigenschaft eines Objekts. Nehmen wir die Menge M als eine Menge von Personen, die alle verschiedene Vornamen haben. „Jutta trägt rosa Socken“ ist dann eine Aussage über Jutta. Ersetzen wir ihren Namen durch einen Platzhalter, so bleibt „x trägt rosa Socken“. Das Prädikat ist „…trägt rosa Socken“. Damit sind die Möglichkeiten von Prädikaten aber noch lange nicht erschöpft. Betrachten wir den Satz „Jutta ist größer als Lea“. Streichen wir die Eigennamen, so bleibt „x ist größer als y“. Prädikate, die zwei Leerstellen enthalten, werden zweistellig genannt. Nun ahnen Sie sicher schon, dass es auch drei-, vier,- und höher-stellige Prädikate geben kann. Den Prädikaten geben wir Namen, zum Beispiel A als Name für „x trägt rosa Socken“ und B für „x ist größer als y“ Die PL benutzt eine etwas gewöhnungsbedürftige Art, Aussagen mit Prädikaten zu notieren. Sie schreibt einstellige Prädikate als A(x), zweistellige als B(x, y) u. s. w. So wird aus „Jutta ist größer als Lea“ der prädikatenlogische Satz B(Jutta, Lea). Verschiedene Objekte können verschiedene Eigenschaften oder Relationen zueinander haben. Daher stellen sich in der PL Fragen nach der Häufigkeit von Objekten mit einem bestimmten Prädikat. Für die grundlegenden Fragen, ob alle Objekte oder nur einige gemeint sind, gibt es in der PL besondere Sprachelemente, die sogenannten Quantoren. Der Allquantor (∀x · · · ) bedeutet, dass die darauf folgende Aussageform · · · stets wahr wird, wenn man für x jedes beliebige Element aus M einsetzt. Das Symbol ∀ ist eine ziemlich einleuchtende Eselsbrücke: es ist ein auf den Kopf gestelltes A (für Alle). Der Existenzquantor ∃x bedeutet, dass es einige Elemente in M gibt, das man für x einsetzen kann, um die Aussageform zu einer wahren Aussage zu machen. Dabei bedeutet „einige“, dass es eins oder mehrere gibt. In der Mathematik
58
3 Grundbegriffe
sagt man stattdessen: „es existiert ein Element...“. Auch der Existenzquantor ∃ ist eine Eselsbrücke, nämlich ein gedrehtes E. In unserem obigen Beispiel bedeutet also (∀x A(x)), dass alle Personen rosa Socken tragen. (∃x B(x, Jutta)) besagt, dass es (einige) Personen gibt, die größer sind als Jutta. Nicht selten beziehen sich verschiedene Leerstellen auf verschiedene Teile der Menge M. Wir könnten z. B. unsere Personengruppe zerlegen nach männlich (Mm ), weiblich (Mw ), divers (Md ). Wenn wir dann sagen wollen, dass alle männlichen Personen rosa Socken tragen, so können wir das mit einem Zusatzprädikat ausdrücken: C(x) soll heißen, dass x männlich ist. Dann können wir schreiben: (∀x, S(x) ∧ C(x)). Es gibt aber auch noch eine andere Schreibweise, die ein neues Sprachelement einführt, dazu schreiben wir: (∀x ∈ Mm S(x)). x ∈ Mm bedeutet das x ein Element der Menge Mm ist. Das wird in der Mathematik sehr häufig verwendet. Mit ein bisschen Übung merkt man, dass sich viele Aussagen, die in der Aussagenlogik elementar sind, mit Hilfe der PL weiter zerlegen lassen. Das ist wichtig für die logische Analyse. Schauen wir folgendes Beispiel an: A: Herr Müller ist Steuerberater B: Herr Müller ist Deutscher Also C: Es gibt einen Deutschen, der Steuerberater ist In der Aussagenlogik sind das 3 atomare Aussagen, die wir A, B, C nennen. Aber aus zwei beliebigen wahren Aussagen A und B kann man im allgemeinen gar nichts schließen. Trotzdem wissen wir: das ist ein schlüssiges Argument. Wie zerlegen wir diese Aussagen in der PL? Herr Müller ist ein Objekt (M) und Deutsche bilden eine Menge von Objekten, die wir mal D nennen. „Steuerberater sein“ ist ein Prädikat namens S. Dann können wir schreiben A: S(M) B: ∃x ∈ D (M = x) Also C: ∃x ∈ D S(x) Obwohl das eine Aussage ist und keine Aussageform tauchen bereits hier Platzhalter auf. Das liegt natürlich an den Quantoren, die bringen immer einen Platzhalter mit. Dieser Platzhalter ist also an einen Quantor gebunden und wird daher auch als gebundene Variable bezeichnet. Eine solche Variable kann man nicht – wie bei einer Aussageform – beliebig auffüllen, sondern für sie werden Elemente der Objektmengen eingesetzt, die der Quantor verlangt. Wir können unser Argument weiter abmagern, nämlich zu einer zu einer Argumentform, indem wir den speziellen Herrn Müller durch eine Leerstelle ersetzen. A: S(y) B: ∃x ∈ D (y = x) Also C: ∃x ∈ D (S(x)).
3.4 Alle oder eine, rot oder grün: Prädikatenlogik
59
Die PL, in der man Quantoren hat, die sich über alle Objekte erstrecken, nennt man auch PL1, oder Prädikatenlogik 1. Stufe. Das ist noch nicht das Ende der Stufen. In der obigen Argumentform zum Beispiel ist S ein ganz bestimmtes Prädikat. Man kann die PL noch mal erheblich erweitern, wenn man auch ein Universum von Prädikaten mit zugehörigen Quantoren benutzt. Dann könnte man zum Beispiel ein Menge von Berufen betrachten (Steuerberater, Bankangestellte, Hebammen) und auch über diese Menge All- und Existenzaussagen zulassen. Das nennt man PL 2. Stufe, also PL2. Sie ahnen wohl schon, dass es angesichts dieser Abstraktionen schwierig wird, die Gültigkeit einer Argumentform nachzuprüfen. Hier versagt die Methode der Wahrheitstafeln. Wenn man einen logischen Satz mit Quantoren hat, so kann man den Einzelteilen keine Wahrheitswerte mehr zuordnen. In dem PL1 Satz ∀x S(x) ∧ K (x) hat keines der einzelnen Teile ∀x, S(x) und K (x) einen Wahrheitswert, sondern nur der ganze Satz. Die Methode, den Wahrheitsgehalt von Sätzen oder die Gültigkeit von Argumenten der PL zu überprüfen besteht darin, die Aussage(formen) mit Hilfe einer Menge von Umformungsregeln, die garantiert den Wahrheitsgehalt nicht verändern, auf Aussagen zurückzuführen, von denen man weiß, dass sie stimmen (also die Prämissen). Diese Methode nennt man auch Deduktion oder deduktives Schließen. Was sind das für geheimnisvolle Regeln? Hier ein paar Beispiele: • Was für alle Objekte einer Menge gilt, gilt auch für ein Element a der Menge. (∀x(A(x)) ⇒ A(a) • Wenn alle x die Eigenschaft A nicht haben, dann gibt es kein x, dass diese Eigenschaft hat ∀x¬A(x) ⇒ ¬∃x A(x). Wenn A die Eigenschaft „…ist unsterblich“ ist, dann ist ¬A die Eigenschaft „…ist sterblich“. Also „Alle Menschen sind sterblich“ ist logisch äquivalent zu „Kein Mensch ist unsterblich“. • Für Aussagen p und q gilt immer: Wenn p hinreichende Bedingung für q ist und p gilt, dann folgt, dass q gilt: ( p → q) ∧ p ⇒ q. Wenn es Nacht ist, dann ist es dunkel.Ist es also Nacht, dann ist es auch dunkel. (Diese Regel nennt man aus historischen Gründen Modus ponens.) Es gibt in der PL eine Menge solcher Regeln (so ungefähr 25 Stück), und der korrekte Umgang mit ihnen erfordert einen Teil des Mathematik- oder Philosophiestudiums. Mit diesen Regeln werden alle logischen Schlussfolgerungen und mathematischen Beweise ausgeführt. Nur wenn man sie auf diese Umformungen zurückführen kann sind sie logisch schlüssig (vorausgesetzt, die Prämissen sind wahr). Ab hier überlassen wir dieses Gebiet lieber den Experte. Sie sehen, dass die logische Überprüfung eines Arguments eine ganz schön knifflige Angelegenheit werden kann. Für viele Alltagsargumente kommt man mit etwas Übung schon weiter, ohne das Argument in kleinste logische Schnipsel zu zerlegen. Allerdings muss man erst mal die Aussagen von natürlicher Sprache in die PL Sprache übersetzen, und auch das ist nicht so einfach. Man muss Entscheidungen treffen: 1) Um welche Objekte geht es? 2) Welche logischen Variablen werden gebraucht? 3) Welche Prädikate treten auf und wieviele Stellen haben die Prädikate? 4) Welche Universen, d. h. Mengen für Quantoren treten auf? Das ist nicht immer eindeutig zu beantworten.
60
3 Grundbegriffe
Dann gibt es sprachliche Konstrukte, die nicht so ganz einfach in die PL übersetzt werden können. Als Beispiel schauen wir mal auf den aus der Geschichte des Fußballs bekannten Satz:„Es gibt nur einen Rudi Völler“. Wie drückt man mit den Quantoren aus, dass es nur genau einen – nicht mehr und nicht weniger – gibt. Es reicht nicht, im Universum der Trainer zu sagen „Es gibt einen Rudi Völler“ (∃x R(x)), denn dann könnte es ja auch mehrere geben. Wie also sagt man, dass es sowohl mindestens als auch höchstens einen Rudi Völler gibt. Das erfordert in PL1 einen Umweg. Zunächst kann man den Sachverhalt so ausdrücken: „Es gibt keine zwei Trainer, die beide Rudi Völler sind“. Das bedeutet, wenn zwei Trainer x und y Rudi Völler sind, also R(x) ∧ R(y), dann müssen sie identisch sein. Das lässt sich mit PL1 darstellen: ∀x, y (R(x) ∧ R(y) → x = y). Sie sehen, dass das Übersetzen von natürlicher Sprache in PL1 ganz schön trickreich werden kann und eine Menge Übung verlangt. Fehlerfreies logisches Argumentieren in dieser formalen Sprache erfordert viel Mühe im Mathematik- und im Philosophiestudium. Im Physikstudium gibt man sich diese Mühe eher nicht, da empfindet man die formale Logik so wie Goethe in den Zeilen, mit dem wir diesen Abschnitt begonnen haben.
3.5 Grundbegriffe in der Mathematik Auch die Mathematik hat mit dem Kinderfragen-Problem zu kämpfen. Ihre ersten Quellen sind – wie in der Physik – in der Anschauung zu finden. Aber, wie soll man etwas mathematisch definieren, das in der Anschauung (intuitiv) klar ist. Was ist zum Beispiel eine Gerade? Ja, eine Gerade ist eine Ansammlung von Punkten, die eine Länge aber keine Breite hat. Was ist ein Punkt was ist Länge, was ist Breite? Ein Punkt ist ein Objekt ohne Ausdehnung? Ja, aber was ist ein Objekt, was ist Ausdehnung? Sie sehen, so kann das nicht gehen. In der Physik konnte man sich auf die operative Definition berufen, also das Werkeln in der äußeren Welt. Diese Möglichkeit hat eine Geisteswissenschaft nicht. Vielleicht muss man es aber auch gar nicht so genau nehmen? Anschauung ist gut, aber … Kann man nicht mit den intuitiven Begriffen der Anschauung ordentliche Mathematik betreiben? Bis zu einem gewissen Grad geht das schon. In einem der ersten Mathematikbücher der Welt, das unbeschadet 2000 Jahre überstand (Die Elemente), unterschied Euklid von Alexandria (der vermutlich irgendwann im 3. Jahrhundert v. Chr. gelebt hat) zwischen Definitionen, Postulaten und Axiomen22 und zog daraus mathematische Schlussfolgerungen oder löste damit praktische Probleme. Die Definitionen sind von dem Typ wie wir sie gerade versucht haben: „Ein Punkt ist etwas ohne Teile“ oder „Eine Linie ist eine Länge ohne Breite“ u. s. w. Diese Definitionen sollen zunächst unsere Anschauung aussprechen. Es werden dann aber auch neue Begriffe geprägt, zum Beispiel die Parallele: „Parallelen sind gerade Linien, die in 22
Vorsicht, das entspricht nicht den heutigen Bezeichnungen, wie wir gleich noch erklären.
3.5 Grundbegriffe in der Mathematik
61
derselben Ebene liegen und dabei, wenn man sie nach beiden Seiten ins Unendliche verlängert, auf keiner Seite einander treffen“. Die Postulate sind Aussagen, denen man zustimmen kann oder auch nicht, aber sie werden als wahr gesetzt. Beispielsweise „Zwischen 2 Punkten kann man eine gerade Strecke ziehen“ oder „Zu jedem Mittelpunkt und Radius kann man einen Kreis zeichnen“ 23 . Das berühmteste Postulat ist das Parallelenpostulat: „Zu jeder Geraden und jedem Punkt, der nicht auf der Geraden liegt gibt es höchstens eine Parallele zur Geraden durch den Punkt“. Schließlich gibt es noch Axiome, das sind Aussagen, die man aufgrund der Logik nicht bezweifeln kann, wie zum Beispiel „Das Ganze ist größer als ein Teil“. So weit Euklid. Heute würde man die Postulate des Euklid als Axiome bezeichnen und die Axiome des Euklid als logische Grundlagen. Die Definitionen würde man weglassen! Keine Definitionen? Der Grund für diese etwas merkwürdig scheinende Auslassung, die sich damit von der Anschauung verabschiedet, hat eine lange Geschichte in der Mathematik. Die Geschichte ist ein Lernprozess, bei dem man erfahren musste, dass die Begriffe unserer Anschauung Eigenschaften haben können, die unserer Anschauung widersprechen oder die sogar zu logischen Widersprüchen führen. Kostprobe gefällig? Was ist eine Kugel? Eine kontinuierliche Ansammlung von Punkten. Diese Ansammlung hat ein Volumen. Unsere Anschauung sagt: Wenn man die Kugel zerlegt, dann haben die Teile ein kleineres Volumen, und zusammen haben alle Teile wieder das Volumen der Kugel. Na klar. Kann man aber tatsächlich jedem Teil, d. h. jeder Untermenge von Punkten der Kugel ein Volumen zuordnen? Was ist mit einem einzelnen Punkt? Der hat auch ein Volumen, das ist eben nur Null. Wie kann dann aber die ganze Menge, die sich doch aus lauter Punkten zusammensetzt ein endliches Volumen haben? Hier kann man sich retten, denn es gibt ja unendlich viele Punkte und was Unendlich mal Null ist, das ist nicht so klar. Aber es gibt eine viel erschütterndere Zerlegung der Kugel! Der polnische Mathematiker Stefan Banach (1892–1945) und sein Kollege Alfred Tarski (1901–1983) konnten beweisen, dass es eine Zerlegung der Kugel in 6 Teile gibt (wohlgemerkt, 6 Untermengen von Punkten der Kugel, die alle verschieden sind und zusammen genau die Kugel ergeben), die man nur durch Verschieben und Drehen (wie bei den Teilen eines Puzzles) zu zwei (!) Kugeln zusammensetzen kann, von denen jede das Volumen der Ausgangskugel besitzt. Aus eins mach zwei! Leider kann man nur beweisen, dass es diese Zerlegung gibt, es gibt keine Bauanleitung dafür. Aber wie kann das überhaupt passieren? Sollte denn das Volumen nicht erhalten bleiben? Der Grund für den Zaubertrick besteht darin, dass unsere Anschauung uns einflüstert, jede Menge von Punkten aus der Kugel müsse auch ein Volumen haben. Das Volumen kann zwar Null sein (wie bei einem einzelnen Punkt oder einer Strecke in der Kugel), aber es kann nie passieren, dass die Teile gar kein Volumen haben. Genau das ist falsch ! Wenn man unseren Volumenbegriff präzise ausspricht, dann haben eben nicht alle Punktmengen ein Volumen und das Volumen hört auf, eine erhaltene Größe zu sein. Was sagt uns das? Nun, offenbar müssen wir entweder unseren anschaulichen Volumenbegriff oder unseren Begriff vom Aufteilen verfeinern, damit er dem entspricht, was in der äußeren Welt passiert. 23
Es gibt bei Euklid nur sehr wenige, nämlich 5 Postulate.
62
3 Grundbegriffe
Wenn aber die Anschauung uns nicht hilft, die Grundbegriffe zu definieren und sogar zu äußerst bedenklichen Paradoxien führen kann, sollten wir vielleicht erst mal versuchen, von ihr loszukommen. Logik ist gut, aber … Wenn man mit der Anschauung auf Grund laufen kann, vielleicht ist Mathematik dann ja nichts weiter als Logik in einer speziellen Verkleidung? Diese Idee, Logizismus genannt, nahm am Ende des 19. Jahrhunderts mit dem großen Wurf des deutschen Mathematikers und Logikers Gottlob Frege (1848–1925) richtig Fahrt auf. Im Jahr 1879 veröffentlichte er ein schmales Bändchen (etwa 80 Seiten) mit dem Titel „Begriffsschrift: Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“, in dem er die formale Prädikatenlogik, wie wir sie oben beschrieben haben, einführte und damit die Logik revolutionierte24 . Mit diesem Werkzeug machte er sich daran, die Mathematik auf einen Zweig der Logik zurückzuführen. Einige Jahre später (1884) veröffentlicht er „Die Grundlagen der Arithmetik“, in dem er sich mit einer Definition der Zahl herumplagte, aber vor allem das Programm formuliert, die ganze Mathematik auf Logik zurückzuführen. Außer logischen Schlussregeln brauchte er nur eine Struktur, die er aber für unbedenklich hielt: die Menge. Frege spricht nicht direkt von Mengen, weil dieser Begriff erst ein paar Jahre später in die Mathematik eingeführt wurde. Was so eine Menge sein soll, das hat der deutsche Mathematiker Georg Cantor dann 1895 für alle damaligen Zwecke völlig zufriedenstellend definiert: „Unter einer Menge verstehen wir jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die Elemente von M genannt werden) zu einem Ganzen“. Was soll man dagegen sagen? Frege glaubte in seinem Hauptwerk „Grundgesetze der Arithmetik“, dass er sein Ziel erreicht habe. Der erste Band erschien 1893 und 1903 wollte Frege mit dem 2. Band die Arbeit endgültig erledigen. Als der Band1902 fertig war und in Druck gehen sollte, erhielt er einen Brief vom britischen Mathematiker Bertrand Russell (übrigens in tadellosem Deutsch), der ihn darauf hinwies, dass in den Grundlagen, auf denen Frege sein Gedankengebäude errichtet hatte, ein Widerspruch steckte, der heute als Russellsche Antinomie bekannt ist. Dieser Widerspruch kommt vom fahrlässigen Umgang mit dem Begriff der Menge. Mengen kann man einfach durch Aufzählen ihrer Elemente festlegen, das scheint erst mal bombensicher. Ein bisschen kinifflig wird es schon, wenn man auch Mengen zu Elementen von Mengen macht. Das sollte ja nicht verboten sein. Frege nutzte diesen Trick, um die natürlichen Zahlen als rein logische Gebilde einzuführen (glaubte er). Er benutzte dabei aber eine andere Beschreibung von Mengen, die er ebenfalls für unbedenklich hielt, nämlich die Beschreibung einer Menge durch einen logischen Ausdruck (der Prädikatenlogik). Also eine Beschreibung, die etwa so aussieht: „Meine Menge enthält alle Bäume, die grüne Blätter haben“. Damit kann man sogar unendliche Mengen beschreiben, die man nicht einfach aufzählen kann. Das scheint ein Vorteil. Die natürliche Zahl Null definierte Frege als Menge, die über24
Seine Notation war allerdings anders als die heute verwendete.
3.5 Grundbegriffe in der Mathematik
63
haupt keine Elemente hat, die sogenannte leere Menge. Die 1 definierte er als die Menge, die als einziges Element die leere Menge hat. Die 2 ist dann die Menge, die die 0 und die 1 als Elemente enthält u. s. w. Sie sehen schon: Freges Reduktion der Mathematik auf Logik war eigentlich eine Rückführung auf Logik und Mengenlehre. Aber in der Mengenlehre von Frege und Cantor steckte ein Wurm. Der britische Philosoph Betrand Russell entdeckte nämlich, dass man mit logischen Beschreibungen Mengen konstruieren kann, die widersprüchlich sind. Paradebeispiel ist die Menge K aller Mengen, die sich nicht selbst als Element enthalten. Das ist eine logische Beschreibung. Jetzt kann man sich fragen, ob diese Menge sich selbst als Element enthält. Das klingt abstrakt. Russell benutzte, um es zu veranschaulichen, die folgenden Aussagen: Im Dorf rasiert der Barbier alle Männer, die sich nicht selbst rasieren. Dann ist die Frage: Darf sich der Barbier selbst rasieren?
Tja, wie man es dreht, es klappt nicht. Rasiert er sich (und gehört damit zu den Männern, die sich selbst rasieren), dann darf er nicht. Tut er es nicht, dann muss er. Ganz analog ist es auch mit der Menge K. Wenn sie sich nicht als Element enthält, dann gehört sie laut Beschreibung zu K und enthält sich somit als Element. Aber dann gehört sie laut Beschreibung nicht zu K. Wie kommt man aus dieser logischen Zwickmühle heraus? Ein einfacher Ausweg, auf den jedes von Ihnen kommen kann ist: Der Barbier ist eine Frau! Damit gehen sie die ganzen Aussagen nichts an. Auf die Mengen übertragen: K ist keine Menge. Solche Objekte heißen in der Logik Klassen Frege schrieb darauf tief zerknirscht noch einen Anhang in seinem Buch, der mit den Sätzen beginnt: Einem wissenschaftlichen Schriftsteller kann kaum etwas Unerwünschteres begegnen, als dass ihm nach Vollendung einer Arbeit eine der Grundlagen seines Baues erschüttert wird. In diese Lage wurde ich durch einen Brief des Herrn Bertrand Russell versetzt, als der Druck dieses Bandes sich seinem Ende näherte.
Betrand Russell versuchte sich anschließend selbst (zusammen mit seinem Lehrer Alfred North Whitehead) daran, den Logizismus zu retten. Ab 1902 bis 1913 arbeiteten Russell und Whitehead an einer Grundlegung der Mathematik durch Logik, die in 3 Bänden unter dem Titel „Principia Mathematica“ erschien. Berühmt geworden ist ein (für Außenstehende völlig unverständlicher) Beweis, dass 1+1=2 ist. Um die Russelsche Antinomie zu umgehen, wählten Russell und Whitehead den oben beschriebenen Ausweg aus dem Barbierparadoxon, sie unterschieden zwischen Elementen und Mengen und Mengen von Mengen, e.t.c. als verschiedene Objekte, für die verschiedene Regeln gelten. Das Ganze nennt sich Typentheorie, es benötigt Axiome, die überhaupt nicht mehr unmittelbar einleuchtend sind, und wird sehr kompliziert. Heutzutage kann man sagen, dass der Logizismus gescheitert ist.
64
3 Grundbegriffe
Axiomatik: Punkte, Geraden und Bierseidel Wo soll also ein solides Fundament der Mathematik herkommen? Eine praktische Lösung dieses Dilemmas bietet die axiomatische Methode, die vor allem vom deutschen Mathematiker David Hilbert (1862–1943) propagiert wurde. Diese Methode verzichtet auf die Euklidischen Definitionen, d. h. man lässt die Grundbegriffe einer mathematischen Theorie zunächst unbestimmt. Statt dessen legt man nur grundlegende Regeln, denen die Begriffe genügen sollen, mit der Sprache der formalen Logik fest. Diese Regeln nennt man Axiome. Die Wahrheit der Axiome betrachtet man als gesetzt. Nun kann man mit den Methoden der Logik wahre Aussagen aus den Axiomen ableiten. Diese Aussagen (Theoreme) sind dann bezüglich dieser Axiome wahr und beweisbar, denn die Ableitung der Theoreme aus den Axiomen ist ihr Beweis. Bei der Konstruktion sinnvoller Axiome kann man sich von der Anschauung leiten lassen. Also heißen die Grundbegriffe der Geometrie Punkte, Geraden, Ebenen, bleiben aber undefiniert. Die Axiome sind dann Aussagen über diese Objekte, die auch der Anschauung entlehnt sind, wie zum Beispiel „Es gibt drei Punkte, die nicht auf einer Geraden liegen25“. Aber darauf kommt es für die Wahrheit der Theoreme überhaupt nicht an. Besonders prägnant hat das David Hilbert selbst ausgedrückt, der zu Axiomen der Geometrie bemerkte: Man muss jederzeit anstelle von Punkten, Geraden und Ebenen Tische, Stühle und Bierseidel sagen können. – D. Hilbert: Gespräch im Berliner Wartesaal der Eisenbahn,1891, wahrscheinlich mit A. Schoenflies und E. Kötter, entnommen aus: Otto Blumenthal, Lebensgeschichte in : David Hilbert Gesammelte Abhandlungen, Dritter Band, Verlag Julius Springer 1935
Natürlich will man mit Mathematik keine sinnlosen Logeleien und Sprachspiele betreiben, sondern man möchte sinnvolle und nützliche Einsichten in die Geisteswelt. Zunächst scheint es so, als könne man, wenn man es mit der Anwendbarkeit der Ergebnisse nicht so genau nimmt, jeden möglichen Quatsch zu Axiomen ernennen. Aber damit erleidet man fast immer Schiffbruch. Denn es gibt eine wichtige Anforderung: Die Axiome müssen widerspruchsfrei sein. Es darf niemals passieren, dass man mit einer korrekten logischen Schlusskette ein Theorem beweist und mit einer anderen – ebenfalls korrekten – Schlusskette die (logische) Verneinung des Theorems. Das ist sozusagen ein ethisches Prinzip der Mathematik. Damit und mit Begriffen, die unserer praktischen Welt entlehnt sind, betreibt man nun Mathematik. Für ein einfaches Beispiel eines Axiomensystems, das ich Ihnen hier präsentieren kann, ist die Geometrie schon zu kompliziert. Aber die natürlichen Zahlen sind vorzeigbar. Trotzdem hat es recht lange gedauert, bis man herausfand, dass die beweisbaren wahren Aussagen über natürliche Zahlen aus nur 5 Axiomen durch logisches Schließen folgen. Diese Axiome sind bis auf eines selbstverständliche Eigenschaften der natürlichen Zahlen, die wirklich Alle unterschreiben können:
25
In diesem Axiom ist übrigens auch das „auf einer Gerade liegen“ ein Grundbegriff.
3.5 Grundbegriffe in der Mathematik
1. 2. 3. 4. 5.
65
0 ist eine natürlich Zahl Jede natürliche Zahl hat einen Nachfolger 0 ist nicht Nachfolger einer natürlichen Zahl Natürliche Zahlen mit gleichem Nachfolger sind gleich Enthält eine Menge die 0, und ist außerdem für jede natürliche Zahl in dieser Menge auch deren Nachfolger drin, so enthält die Menge alle natürlichen Zahlen.
Diese Axiome wurden von Guiseppe Peano (Peano: Arithmetices principia nova methodo exposita, Turin 1889) aufgestellt. Die Grundbegriffe sind: „natürliche Zahl“, „0“, „Nachfolger“, alles andere ist formale Logik. Platzhalter für natürliche Zahlen nennt man meist n oder m oder k oder l und eine Kurzbezeichnung für den Nachfolger von n ist n . Den natürlichen Zahlen gibt man dann die natürlichen Namen, d. h. 1 = 0 und 2 = 1 und 3 = 2 u. s. w. Vielleicht erscheint es Ihnen einfacher zu sagen, der Nachfolger von n ist n+1, aber + ist in den Peanoschen Axiomen überhaupt nicht erwähnt. Wir müssen es erst mal definieren, was wir gleich auch tun werden. Über die fünfte Aussage muss man nachdenken. Wenn die 0 in der Menge drin ist, dann ist auch die 1 drin, denn die 1 ist der Nachfolger der 0. Wenn die 1 drin ist dann auch die 2, denn sie ist der Nachfolger der 1. Na ja, und so weiter. Diesen unendlichen (!) Prozess nennt man vollständige Induktion, und es ist die einzige, wirklich nicht-triviale Eigenschaft der natürlichen Zahlen. Jetzt kann man mit diesen Axiomen Mathematik betreiben. Das bedeutet aber nicht nur, dass man Theoreme beweist. Ein ganz entscheidender Punkt ist, dass man neue Begriffsbildungen einführen kann, die auf den Axiomen aufbauen. Zum Beispiel können wir nun die Addition zweier natürlicher Zahlen definieren. Dabei bietet das Induktionsaxiom überraschende Möglichkeiten. Zunächst mal definieren wir m + 0 := m 26 Wenn wir nun wissen wollen, was m + 1 ist, so können wir 1 als den Nachfolger von Null betrachten, und dann ist m + 1 = m + 0 := (m + 0) und das ist offenbar m . Wir haben die Addition mit 1 auf die Addition mit Null zurückgeführt. Das erscheint zunächst überflüssig umständlich, aber es ist typisches Mathematikdenken. Der Trick mit dem Nachfolger erlaubt uns nun nämlich, die Definition für die Addition beliebiger natürlicher Zahlen sehr einfach hinzuschreiben: m + n := (m + n) . Damit das eine Definition ist, muss die rechte Seite natürlich schon definiert sein. Das ist sie auch, obwohl man das erst nach etlichen Schritten sieht. Wir können auf die rechte Seite dieselbe Definition anwenden. Dazu bemerken wir, dass es eine natürliche Zahl n gibt (den Vorgänger), dessen Nachfolger gerade n ist. Also ist m + n := (m + n) . Nun müssen wir m + n definieren. Dazu benutzen wir n, d. h. den Vorgänger des Vorgängers von n u. s. w., bis wir schließlich bei m + 0 angekommen sind. Diese trickreiche Art einer Definition nennt man rekursiv. Bei rekursiven Argumenten zählt man einfach eine Leiter herunter (oder gelegentlich auch herauf). Dieser Typ von Definition funktioniert auch für die Multiplikation, da ist er noch eindrucksvoller. Wir definieren zunächst m · 0 := 0 und dann m · n = m · n + m. (Wenn Sie statt n n + 1 schreiben, sehen Sie das leichter 26
Definitionen kann man in der Mathematik häufig ähnlich wie Gleichungen in der Form schreiben: undefiniert := definiert..
66
3 Grundbegriffe
m · (n + 1) = m · n + m). Hier haben wir benutzt, dass + bereits definiert ist. Ok, und schon können wir rechnen. Das klingt pragmatisch, praktisch und ohne viel philosophisches Brimborium. Eigentlich scheint nichts dagegen zu sprechen. Fassen wir noch mal kurz zusammen: • Mathematische Grundbegriffe bleiben unerklärt, nur die Regeln nach denen sie manipuliert werden, werden in Axiomen festgelegt • Grundbegriffe haben und brauchen keine Bedeutung. Damit wird die Mathematik eigentlich zu einem Sprachspiel, denn für die Beweise spielt es keine Rolle, ob grundlegende Objekte in der Wirklichkeit existieren. • Wenn man allerdings erfolgreich Mathematik betreiben will, so sollten die Grundbegriffe und die Axiome Bezüge zur Realität haben. Haben Sie es übrigens bemerkt. Der letzte Punkt ist ein ethisches Prinzip. Aber auch in dieser Methode gibt es Fallstricke. Der österreichische Logiker und Philosoph Kurt Friedrich Gödel (1906–1978) fand einen Satz, auf den keine pseudowissenschaftliche Schwurbelei verzichten möchte. Wir können ihn jetzt schon ziemlich genau wiedergeben: Gödelsche Unentscheidbarkeit In einem Axiomensystem, das die Axiome der natürlichen Zahlen enthält, gibt es wahre Aussagen, die nicht aus den Axiomen ableitbar sind. Insbesondere ist die Aussage „Das Axiomensystem ist widerspruchsfrei“ nicht aus den Axiomen des Systems ableitbar. Oha, das hört sich gar nicht gut an. Die Einschränkung, dass das Axiomensystem mindestens die Axiome der natürlichen Zahlen enthalten muss, ist ja nicht besonders stark. Bedenken Sie, dass jedes System, das Zahlen benutzt, darunter fällt. Ist also fast die ganze Mathematik von der Gödelschen Unentscheidbarkeit geplagt? Zum Glück stellt sich heraus, dass der Gödelsche Satz für die praktische Arbeit kaum von Bedeutung ist. Man beweist halt alles, was sich so beweisen lässt, und das ist ziemlich viel und ziemlich interessant. Wenn man auf etwas stößt, das man nicht beweisen kann, so kann man es zu einem Problem erklären, das auf einen Beweis wartet. Ein schönes, weil einfach zu formulierendes Beispiel dafür ist die (starke) Goldbachsche Vermutung: Jede gerade natürliche Zahl lässt sich als Summe zweier Primzahlen schreiben27 . Daran arbeitet die Mathematik herum, hat aber (noch?) keinen Beweis gefunden, obwohl man per Computer die Vermutung bis zu sehr großen Zahlen getestet hat. Manchmal kann man aber tatsächlich beweisen, dass ein Theorem unbeweisbar ist. Das geht natürlich nur auf der Grundlage eines Axiomensystems. So gibt es Aussagen, die innerhalb des Axiomensystems der natürlichen Zahlen nicht beweisbar sind. Dann kann man sich allerdings immer noch fragen, ob 27
Primzahl ist eine natürliche Zahl, die sich nicht ohne Rest durch eine andere natürliche Zahl (außer 1) teilen lässt.
3.6 Das Unendliche
67
man nicht mit einem stärkeren Axiomensystem die Aussage doch beweisen kann. Und wenn gar nichts mehr geht: dann hat man halt eine unbeweisbare Aussage, aber davon geht die Mathematik nicht unter. Nur muss man sich eben von der Vorstellung verabschieden, die Mathematik könne schlichtweg alle Aussagen, die man sich überhaupt ausdenken kann beweisen oder widerlegen.
3.6 Das Unendliche Jetzt müssen wir uns einen Begriff der Mathematik etwas genauer anschauen, ohne den es auch in der Physik nicht geht: das Unendliche. Die erste Bekanntschaft mit dem Unendlichen macht man wahrscheinlich beim Zählen. Kinder sind stolz darauf, wie weit sie schon zählen können, aber irgendwann merken sie, dass es einfach immer weiter geht. Manchmal fragen sie auch, was denn die größte Zahl ist. Aber sie merken schnell, dass wir alle eine eingebaute Intuition haben, die verhindert, dass es eine größte Zahl gibt, nämlich die Intuition des „um 1 Weiterzählens“. Egal wie groß die Zahl ist, man kann immer 1 dazu zählen. In der Mengensprache sagt man: „Die natürlichen Zahlen bilden eine unendliche Menge“. Aber schon der Schöpfer der Mengenlehre, der deutsche Mathematiker Georg Cantor (1845–1918), bemerkte, dass diese Art von Unendlichkeit noch nicht reicht, um alle Unendlichkeiten zu beschreiben. Wenn Sie eine Menge von Objekten (der realen oder der Geisteswelt) haben, und sie können sie abzählen, dann heißt die Menge dieser Objekte eben abzählbar. Das gilt auch, wenn es unendlich viele solcher Objekte gibt. Gibt es denn Mengen, die so groß sind, dass sie nicht mehr abzählbar sind? Nehmen wir als ein Beispiel die ganzen Zahlen, das sind die natürlichen Zahlen mit Vorzeichen. Zu jeder Zahl +n gehört also auch die Zahl −n zu den ganzen Zahlen. Kann man die abzählen? Nein, werden Sie vielleicht denken, es sind ja doppelt so viele. Aber diese Art von Schluss funktioniert bei unendlichen Mengen nicht! Für ±n brauchen Sie zum Abzählen 2 natürliche Zahlen. Aber das klappt, denn der Topf der natürlichen Zahlen wird nicht leer. Sie ordnen also beim Abzählen die Zahlen so zu: 0 → 0, 1 → 1, 2 → −1, 3 → 2 · · · 2n − 1 → n, 2n → −n Das bedeutet, dass man zu jeder natürlichen Zahl (Abzählnummer) eine (und auch nur eine) ganze Zahl angeben kann und zu jeder ganzen Zahl eine (und auch nur eine) Abzählnummer. So etwas nennt man in der Mathematik eine bijektive Abbildung. Das scheint einleuchtend und genau so definierte Cantor die Abzählbarkeit: Eine Menge ist abzählbar, wenn es eine bijektive Abbildung zwischen den Elementen der Menge und den natürlichen Zahlen gibt. Man sagt auch statt abzählbar: Die Menge hat die gleiche Mächtigkeit wie die natürlichen Zahlen. Könnte es denn nicht noch größere Mengen geben? Wie wäre es mit Brüchen, die bilden die sogenannten rationalen Zahlen und diese Menge scheint doch riesig viel größer zu sein als die natürlichen Zahlen. Aber auch für die funktioniert das Abzählen. Betrachten wir mal alle positiven Brüche (die Erweiterung auf negative
68
3 Grundbegriffe
und die Null können Sie sich ganz analog zu unserem Abzählen der ganzen Zahlen als kleine Kniffelei überlegen, wenn Sie mögen). Cantor hatte einen einfachen Trick zum Abzählen. Er ordnete zunächst alle Brüche in einer (unendlichen) Tafel so an 1/ 1
1/ 2
1/ 3
1/ 4
2/ 1
2/ 2
2/ 3
2/ 4
3/ 1
3/ 2
3/ 3
3/ 4
4/ 2
4/ 2
4/ 3
4/ 4
Nun kann man alle Einträge abzählen, indem man diagonal durch die Tafel läuft wie in der Abbildung gezeigt. Dabei trifft man gelegentlich auf Brüche, die man kürzen kann, und die damit schon mal gezählt worden sind. Die muss man überspringen. Zum Beispiel ist 1/3 auch 2/6, 3/9 u. s. w. Dann hat man die gesuchte bijektive Abbildung hergestellt, d. h. alle positiven Brüche abgezählt. Clever, nicht? Diese Beweisidee heißt auch Cantors 1. Diagonalargument. Sie vermuten ganz richtig, es gibt auch ein 2., dazu kommen wir jetzt, und es liefert ein wirklich verblüffendes Resultat. Obwohl die Brüche eine riesige Menge von Zahlen beinhalten, reichen Sie doch für praktische Zwecke oft nicht aus. Das merkt man insbesondere in der Geometrie. Ein Quadrat der Kantenlänge 1 cm hat einen Flächeninhalt von 1 cm2 . Aber welche Kantenlänge hat ein Quadrat mit einer Fläche von 2 cm2 ? Mit anderen Worten: Welche Zahl z ergibt quadriert 2, also z 2 = 2? Schon in der Antike wußte man, dass diese Zahl kein Bruch sein kann28 , man nennt solche Zahlen irrational. Für Zahlen z, die quadriert √ eine andere Zahl x ergeben, hat man ein eigenes√Symbol eingeführt, nämlich z = x, genannt die Wurzel. Im Beispiel √ ist also z = 2. Die Zahl bekommt einen Namen, nämlich 2 (Wurzel zwei). Gibt es nun viele dieser irrationalen Zahlen? Um diese Frage zu beantworten ist eine Darstellung von 28
Wir könnten das sogar mit unseren Mitteln beweisen, aber das ist nur was für Mathe-Fans.
3.6 Das Unendliche
69
Zahlen sehr nützlich, die sowohl rationale als auch irrationale Zahlen einschließt, nämlich die Dezimaldarstellung, die Sie alle aus der Schule und von Ihrem Taschenrechner kennen. So eine Dezimalzahl schreibt sich zum Beispiel 134.7561, und das bedeutet : 134.7561 = 1 · 102 + 3 · 101 + 4 · 100 + 7 · 10−1 + 5 · 10−2 + 6 · 10−3 + 7 · 10−4 . Sie besteht also aus einer Summe von Zehnerpotenzen (daher Dezimal). Jeder Bruch lässt sich als Dezimalzahl schreiben, das wissen Sie (hoffentlich) aus der Schule. Dabei kann die Zahl der Nachkommastellen endlich sein (z. B. 1/2 = 0.5) oder es gibt unendlich viele Nachkommastellen, aber die bestehen aus der Wiederholung einer endlichen Sequenz (z. B. 1/3 = 0.33333· = 0.3 oder 1/7 = 0.142857). Die Wiederholung deutet man durch den Strich über der Zahlensequenz an. Was aber ist mit der Möglichkeit von unendlich vielen Nachkommastellen, die keine wiederkehrende Sequenz enthalten? Das sind irrationale Zahlen. Alle Dezimalzahlen zusammen, rationale und irrationale, bilden die reellen Zahlen. Kann man die abzählen? Nach unseren Erfahrungen mit den Brüchen würden Sie vielleicht schätzen, dass das auch irgendwie geht. Erstaunlicherweise geht es aber nicht. Um das einzusehen, hat Cantor wieder eine Diagonalmethode verwendet. Das Argument ist ein bisschen komplizierter als im Fall der Brüche. Zunächst mal beschränken wir uns auf reelle Zahlen zwischen 0 und 1, denn bereits die kann man – wie der Beweis zeigt – nicht mehr abzählen. Jetzt wählen wir eine beliebige (abzählbar unendliche) Folge von reellen Zahlen z 1 , z 2 , z 3 , · · · und stellen die Zahlen als Dezimalbrüche dar, d. h. wir schreiben zum Beispiel z 1 = 0. a11 a12 a13 · · · , wobei die a1i Ziffern zwischen 0 und 9 sind. Dann kann man die Folge wie eine Zahlentafel aufschreiben: z 1 =0. a11 a12 a13 a14 a15 · · · z 2 =0. a21 a22 a23 a24 a25 · · · z 3 =0. a31 a32 a33 a34 a35 · · · .. . Als Nächstes basteln wir uns eine reelle Zahl, die garantiert nicht in dieser Folge von reellen Zahlen liegt. Dazu ändern wir die Diagonalelemente aii nach einer einfachen Regel ab. Wenn a11 = 5, dann29 ersetzen wir a11 durch a11 = 4, andernfalls (also wenn es nicht 5 ist) setzen wir a11 = 5. Das Gleiche machen wir mit a22 , a33 u. s. w. Jetzt bilden wir eine neue Zahl (die Diagonalzahl) z dia = 0.a11 a22 a33 · · · . Vergleichen wir z dia mit allen Zahlen der Folge. z dia ist verschieden von z 1 , denn die erste Stelle stimmt ja per Konstruktion nicht überein. z dia ist verschieden von z 2 , denn die zweite Stelle stimmt ja per Konstruktion nicht überein. Jetzt ahnen Sie, wie 29
Die 5 ist nicht irgendwie magisch. Sie dürfen statt der 5 jede andere Ziffer zwischen 0 und 9 benutzen.
70
3 Grundbegriffe
es weitergeht. Also ist z dia verschieden von allen Zahlen der Folge. Ok, aber was soll das beweisen? Sehr wichtig ist, dass die Zahlenfolge ganz beliebig war, denn dann können wir ja sagen: Für jede beliebige, abzählbare Folge von reellen Zahlen gibt es eine reelle Zahl, die nicht in der Folge enthalten ist. Das heißt aber (Achtung Logik!): Keine Folge enthält alle reellen Zahlen! Abzählbar wären die reellen Zahlen aber nur dann, wenn es eine (abzählbar unendliche) Folge gäbe, die alle enthält. Die gibt es also nicht. Die reellen Zahlen sind überabzählbar. Um die verschiedenen Unendlichkeiten auseinander zu halten, führte Cantor besondere Symbole ein. Die Mächtigkeit der natürlichen Zahlen nannte er ℵ0 , die Mächtigkeit der reellen Zahlen ℵ1 . Das komische Symbol ist der erste Buchstabe (Aleph) im hebräischen Alphabet. Alle abzählbaren Mengen (wie zum Beispiel die Brüche) haben also die Mächtigkeit ℵ0 . Und was ist vergleichbar mit ℵ1 ? Wenn Sie mit dem Bleistift eine gerade Linie auf ein Blatt Papier malen, dann ist das das Abbild in der äußeren Welt von einer Vorstellung einer idealen Linie. Und was macht die idealen Linie aus? Sie ist stetig oder kontinuierlich, d. h. zwischen zwei Punkten (egal wie nahe die auch benachbart sind) finden sich immer noch Punkte auf der Linie. Wenn Sie nun eine solche Linie hinzeichnen, so entspricht jeder Punkt auf der Linie einer reellen Zahl. Beachten Sie, dass man mit den Bruchzahlen nicht hinkommt. Die Länge eines Quadrats mit Inhalt 2 ist ja irrational, und muss trotzdem auf der Linie liegen. Die reellen Zahlen schließen also eine wichtige Lücke zwischen der Algebra (Rechnen) und der Geometrie (Zeichnen). In der Geometrie und eben auch in der Physik ist Stetigkeit ein ganz natürliches Konzept, in der Algebra ist das diskrete Zählen ganz natürlich. Will man stetige geometrische Gebilde durch Zahlen beschreiben, so braucht man die überabzählbaren reellen Zahlen, die ein Kontinuum von Zahlen bilden. Gibt es denn nun noch Zahlenmengen, die mächtiger sind als die Menge der natürlichen Zahlen, aber nicht so mächtig wie die reellen Zahlen (also irgendwelche Untermengen der reellen Zahlen)? Die Aussage, dass es keine solchen Mengen gibt, bezeichnet man als Kontinuumshypothese. Ist die bewiesen? Na ja, das Problem ist zwar gelöst, aber nicht so, wie die Mathematik sich das gewünscht hätte. Kurt Gödel konnte beweisen, dass man mit den Axiomen der Mengenlehre die Kontinuumshypothese nicht widerlegen kann. Klingt soweit gut. Allerdings konnte der Us-amerikanische Mathematiker Paul Cohen in den 1960er Jahren beweisen, dass man die Kontinuumshypothese mit den Axiomen der Mengenlehre auch nicht beweisen kann. Man kann sie also weder beweisen noch widerlegen! Das ist ein schönes Beispiel für Gödels Unentscheidbarkeitssatz.
3.7 Das kleine Einmaleins der höheren Mathematik Im Jahr 1665 hatte der Student Isaac Newton gerade von der Universität Cambridge seinen Bachelor Abschluss erhalten, da wurde die Universität wegen der Großen Pest geschlossen, und er musste die Zeit bis 1667 im Home Office in seiner Heimat Woolsthorpe verbringen. In dieser Zeit legte er geniale Grundlagen auf drei
3.7 Das kleine Einmaleins der höheren Mathematik
71
Gebieten, die ihm später unsterblichen Ruhm einbrachten. Es sind die Optik, die Schwerkraft und die Infinitesimalrechnung. Optik und Schwerkraft, das ist Physik, dazu werden wir später noch mehr sagen, aber was ist diese Infinitesimalrechnung? Es ist eine mathematische Methode, deren Wichtigkeit für naturwissenschaftliche und technische Anwendungen man gar nicht hoch genug einschätzen kann. Wenn man für jede Anwendung dieser Methode eine Lizenzgebühr zu entrichten hätte (Bruchteile eines Cents genügen), so würden die Lizenzempfänger schnell in die Liste der Welt-Topverdiener aufsteigen. Wir sind jetzt an einer Steigung in unserer Wanderung angekommen, aber ich bitte Sie, diese Steigung nach Möglichkeit zu meistern. Der Einsatz lohnt sich. Sie lernen das mathematische Hauptwerkzeug fast aller quantitativ arbeitenden Wissenschaften kennen, und außerdem läuft uns diese Methode in den folgenden Kapiteln immer wieder über den Weg. Es fängt sehr einfach an. Stellen Sie sich vor, Sie fahren morgens um 8 Uhr mit dem Auto in Köln los und sind um 10 Uhr in Frankfurt. Auf der Kilometeranzeige steht, dass Sie 190 km gefahren sind. Wie groß ist ihr Durchschnittstempo? Einfach: 190 km in 2 h, das sind 190/2 oder 95 km pro Stunde (km/h). Aber natürlich sind Sie nicht die ganze Zeit mit genau diesem Tempo gefahren. Am Anfang müssen Sie aus der Stadt Köln auf die Autobahn, da geht’s langsamer, dann schneller und zum Schluss in Frankfurt wieder langsamer. Sie können sich Wegstücke heraussuchen und fragen, wie groß das Durchschnittstempo auf diesem Stück ist. Auf dem Stück bis zur Autobahnauffahrt ist das Durchschnittstempo 50 km/h. Auf einem Autobahnstück drücken Sie ordentlich auf die Tube und fahren 15 km in 6 Minuten. Dann ist das ein Durchschnittstempo von 150 km/h. Aber bei jedem Wegstück ist es eben immer ein Durchschnittstempo. Jetzt wollen Sie es ganz genau wissen. Sie machen das Zeitintervall t immer kürzer. Dann wird auch Wegstück x, das sie während dieses Intervalls durchlaufen immer kleiner. Das Durchschnittstempo ist das Verhältnis x/t. Wenn die Wegstrecken und die Zeiten sehr kurz sind, können Sie das Tempo des Autos nicht mehr stark verändern (selbst eine Vollbremsung braucht Zeit). Daher werden Sie feststellen, dass die Durchschnittsgeschwindigkeit sich für kleine Intervalle nicht mehr messbar verändert. Sie können behaupten, dass Sie das momentane Tempo Ihres Autos gemessen haben. Genau das zeigt Ihnen auch Ihr Tacho an. Das Signal für einen Tacho stammt nämlich von einem Teil des Autos, das sich beim Antrieb dreht, zum Beispiel ein Rad (oder die Antriebswelle am Ende des Getriebes). Man befestigt am Rad einen Magneten und bringt einen Schalter an, der immer dann einen Stromkreis schließt, wenn der Magnet nahe daran vorbei huscht (das nennt man einen Reedschalter). Zwischen zwei Einschaltvorgängen liegt eine Radumdrehung, und diese Strecke (den Radumfang) kennt man genau. Daraus kann man die Geschwindigkeit ausrechnen (das Rechnen übernimmt eine Elektronik). Das x ist also der Radumfang und t die für diese Strecke benötigte Zeit. Die Zeitintervalle der Messungen können verschieden lang sein. Aber um uns das Leben nicht unnötig schwer zu machen, wollen wir für unsere Argumente t für alle Messungen konstant halten. Damit wir von nun an genau wissen, von welchen Zeitpunkten und Zeitintervallen wir reden, treffen wir eine Verabredung. Die Anfangszeit nennen wir t0 . Wir geben ihr normalerweise den Wert 0, wenn wir nichts
72
3 Grundbegriffe
anderes sagen. Die Zeit am Ende des n-ten Zeitintervalls nennen wir tn = t0 + nt. So wollen wir es von nun an überall in diesem Buch benutzen. Achtung, Sie verlassen jetzt die äußere Wirklichkeit. Obwohl wir den Zeitschritt bei der Messung nicht beliebig klein machen können, so glauben wir doch fest daran, dass sich das Auto stetig fortbewegt und zu jeder Zeit auch ein momentanes Tempo hat. In den Messungen wird das signalisiert durch die kleiner werdenden Unterschiede unserer Messergebnisse für kleiner werdende Zeitintervalle. Die Prozedur der Verkleinerung von t können Sie in Gedanken immer weiter fortsetzen. Schließlich, am Ende dieser gedanklichen Prozedur, steht dann das letzte Verhältnis30 , heute geschrieben als d x/dt oder als x˙ (so bezeichnete es Newton). In Newtons eigenen Worten: Diejenigen Größen, die ich als allmählich und dauernd veränderlich betrachte, werde ich im Folgenden Fluente oder fließende Größen nennen und sie mit den Endbuchstaben des Alphabets v, x, y und z bezeichnen; damit ich sie von anderen Größen unterscheiden kann, die in Gleichungen als bekannt und festgelegt zu betrachten sind, und die daher durch die Anfangsbuchstaben a, b, c, e.t.c. dargestellt werden. Und die Geschwindigkeiten, um die jedes Fluent durch seine erzeugende Bewegung verändert wird (die ich Fluxionen oder einfach Geschwindigkeiten oder Tempo nennen will31 ), werde ich durch dieselben Buchstaben darstellen, die mit einem Punkt versehen werden, also v, ˙ x, ˙ y˙ und z˙ . The Method of Fluxions and Infinite Series: With Its Application to the Geometry of Curvelines, posthum erschienen als englische Übersetzung von Newtons lateinischem Original 1736
Diese Bezeichnungsweisen haben sich in der Physik bis heute erhalten. Die Größen d x und dt machten den Schöpfern der Methode einen Haufen Kopfzerbrechen. Man nannte sie infinitesimal (unendlich) klein, und das Rechnen mit ihnen Infinitesimalrechnung. Die gedanklichen Prozeduren, bei denen eine Größe immer kleiner (manchmal auch immer größer) wird, und man währenddessen eine andere Größe verfolgt, heißen Grenzprozesse. Für solche Prozesse wollen wir eine (allgemein übliche) Bezeichnung einführen, nämlich dx x → t dt Der Pfeil steht für den Grenzprozess. Wenn am Ende ein sinnvolles Ergebnis für die verfolgte Größe herauskommt, dann heißt es Grenzwert. In der äußeren Wirklichkeit ist so ein Grenzprozess nie bis zum Ende durchführbar. Wir wollen daher einen speziellen Begriff dafür einführen. Die mathematisch unvollständigen, aber realisierbaren Grenzprozesse nennen wir praktisch32 . Der Unterschied war auch den Erfindern der Infinitesimalrechnung klar. Newton wußte, dass es bei diesen Rech30
Die Bezeichnung stammt von Isaac Newton. im englischen Original steht für Geschwindigkeit „velocity“ und für Tempo „celerity“. Meine Übersetzung entspricht dem heutigen Wortgebrauch, aber Tempo und Geschwindigkeit sind mittlerweile etwas Verschiedenes. 32 Obwohl in der Physik dauernd mit praktischen Grenzwerten hantiert wird, hat sich kein eigener Begriff dafür durchgesetzt. 31
3.7 Das kleine Einmaleins der höheren Mathematik
73
nungen um die Vernachlässigung von Fehlern ging, die zwar während der Grenzprozesse vorhanden sind, die aber am Ende des gedanklichen Prozesses keine Rolle mehr spielen. Bei jedem Grenzprozess ist es sehr wichtig zu unterscheiden, ob man mit dem Prozess schon fertig ist, oder ob man noch unterwegs ist. Wenn man die momentane Geschwindigkeit bestimmen will, darf man zum Beispiel auf keinen Fall die Grenzwerte der zurückgelegten Strecke x und des zugehörigen Zeitintervalls t durcheinander dividieren. Die sind nämlich beide Null, und 0/0 ist mathematischer Quatsch. Wenn man aber den Prozess noch nicht abgeschlossen hat, kann man jederzeit x/t bilden und erhält das Durchschnittstempo während immer kleiner werdender Zeitintervalle. Man erhält so eine Folge von Werten des Durchschnittstempos, die man auf der Zahlengeraden auftragen kann und die einem bestimmten Punkt – nämlich dem momentanen Tempo – immer näher kommen. In der Mathematik hat es sich eingebürgert, von einer solchen Folge zu sagen: das Durchschnittstempo erreicht schließlich das momentane Tempo. Das kleine Zauberwort „schließlich“ findet man daher in Argumenten der Infinitesimalrechnung sehr häufig, und wir wollen es auch so benutzen. Beispielsweise könnte man das momentane Tempo durch ganz verschiedene Messintervalle bestimmen. Die beiden Folgen der Werte des Durchschnittstempos können verschieden sein, aber schließlich erreichen sie das gleiche momentane Tempo. In der Abb. 3.6 haben wir ein Stück einer Bewegung (von der Zeit T an) dargestellt, indem wir den Ort x als Funktion der Zeit t aufgetragen haben, und wir haben zwei verschiedene Zeitintervalle t1 und t2 markiert. Im Zeitintervall t2 legt das bewegte Objekt die Strecke x = x(T + t2 ) − x(T ) zurück. Das mittlere Tempo ist die Steigung x/t2 der Geraden, die x(T ) mit x(T + t2 ) verbindet (in der Geometrie wird so eine Gerade Sekante genannt). Das mittlere Tempo ändert sich mit kleiner werdendem Zeitintervall und erreicht schließlich – wie Sie aus der Abbildung sehen können – einen Grenzwert (das momentane Tempo, d x/dt). Aus den Sekanten wird schließlich eine Gerade, die die Kurve x(t) nur im Zeitpunkt T berührt. (genannt die Tangente). Man kann (und sollte) im allgemeinen allerdings auch nicht vergessen, für welche Zeit das d x/dt die momentane Geschwindigkeit ist. Daher notiert man die Zeit T auch noch mit und zwar so: d x/dt (T ). Wenn man nur einen einzigen Zeitpunkt betrachtet (was wir zunächst ja tun), dann kann man sich das T auch wieder schenken. In jedem Schritt des Grenzprozesses ist x/t natürlich verschieden von dem momentanen Tempo. Den Unterschied kann man als Messfehler betrachten, den wir mal f (t) nennen wollen, denn er hängt ja noch von der Größe des Zeitintervalls ab. Wir schreiben daher dx x = + f (t) t dt Die Aussage, dass die Folge der x/t zum momentanen Tempo d x/dt wird, kann man auch so ausdrücken: Für jede Folge von Messintervallen verschwindet der Messfehler f schließlich. Man kann dieselbe Aussage auch noch auf eine dritte Art formulieren, und die liebt die Mathematik besonders. Schauen Sie dazu auf die Abb. 3.7. Multipliziert man nämlich das mittlere Tempo mit t und schreibt die Differenz x wieder aus, so bekommt man
74
3 Grundbegriffe
Abb. 3.6 Aus einem mittleren Tempo wird ein momentanes, indem man die Zeitintervalle zur Tempomessung immer kleiner macht (gestrichelte Geraden). Dann landet man schließlich bei der durchgezogenen Geraden, deren Steigung das momentane Tempo ist. Geometrisch ist diese Gerade die Tangente an die Kurve der tatsächlichen Bewegung x(t)
Abb. 3.7 Die Ableitung als lokale lineare Näherung an die wirkliche Bewegung. Der Fehler, d. h. die Differenz wischen der Bewegung mit konstantem momentanen Tempo und der wirklichen Bewegung wird für kleinere Zeitintervalle immer kleiner
x(T + t) = x(T ) +
dx (T )t + f (t)t. dt
Wir lesen die Bewegung auf der Tangente (rechte Seite ohne f ) als eine (lineare) Annäherung (oder lineare Approximation) an die wahre Bewegung in der Nähe eines Zeitpunkts T . Die Annäherung ist umso besser, je kleiner das Zeitintervall wird, über das wir die Bewegung verfolgen. Der Fehler, den man dabei macht, f (t)t, verschwindet so schnell, dass f selbst schon verschwindet. Diese Lesart wird den Anforderungen der Praxis wie auch der Mathematik gerecht. Solche linearen Approximationen, die für kleine Schritte immer besser werden sind weit verbreitet in allen quantitativen Wissenschaften. Jetzt bekommt das Ganze noch einen Namen: Die Prozedur, zu einer Kurve x(t) die momentanen Geschwindigkeiten zu bestimmen, heißt in der Mathematik differenzieren oder ableiten. Statt
3.7 Das kleine Einmaleins der höheren Mathematik
75
„momentanes Tempo“ sagt man: die Ableitung von x(t) nach t (an der Stelle T ). Diese Bezeichnung ist nicht überflüssig, denn nicht immer interessieren wir uns für Bewegungen. Häufig haben wir einfach irgendeine Größe gegen irgendeine andere aufgetragen. Wir kennen ja solche Veranschaulichungen bereits. Statt des Ortes x könnte da zum Beispiel die Temperatur stehen und statt der Zeit t die Höhe über der Erdoberfläche. Die Größen müssen nicht mal physikalisch sein, sie müssen nur quantifizierbar sein. Man könnte also zum Beispiel den Geschäftsklimaindex gegen den Breitengrad auftragen. Die Verhältnisse (x/t) nennt man auch Differenzenquotienten, und das letzte Verhältnis d x/dt den Differentialquotienten; aber all diese Bezeichnungen sind nur Wortgeklingel (mit denen Sie immerhin Eindruck schinden können, wenn Sie damit um sich werfen). Schön, dass wir in der Physik und Technik das Tempo messen können, aber kann man mit Hilfe der Mathematik das momentane Tempo auch ausrechnen? Lassen Sie uns einen ganz kleinen Blick in Newtons Methodenküche werfen. Um ableiten zu können, muss man zunächst den Fahrtverlauf x(t) kennen. Nehmen wir mal an, eine gute Fee hätte uns diesen Verlauf verraten und betrachten als ein einfaches Beispiel x(t) = at 2 . Wozu das a? Wir haben ja gelernt, dass die physikalischen Dimensionen auf beiden Seiten einer Gleichung übereinstimmen müssen. Dafür sorgt die Konstante a, die offenbar die Dimension Länge/(Zeit)2 haben muss. Jetzt bilden wir die Differenz x = x(T + t) − x(T ) = a(T + t)2 − aT 2 . Wir müssen die Klammer ausmultiplizieren (für Viele eine eklige Angelegenheit, ich weiß, aber Sie dürfen mir das Ergebnis auch glauben) und erhalten (T + t)2 = (T 2 + 2T t + t 2 ). Nun ziehen wir den Term T 2 ab. Unser Resultat sieht jetzt so aus: x = 2T at + at 2 . Wir sind fast fertig, denn wir können problemlos durch t teilen und erhalten: x = 2aT + at. t Wir haben nun die Differenzenquotienten berechnet und finden, dass es einen Term gibt – nämlich den ersten– der überhaupt nicht mehr vom Zeitintervall abhängt und folglich sich während des ganzen Grenzprozesses nicht verändert. Der zweite Term dagegen verschwindet schließlich. Folglich ist das momentane Tempo 2T , es nimmt also mit zunehmender Zeit zu, mit anderen Worten, wir geben Gas. Ist das immer so einfach? Leider nein (wozu brauchten wir sonst die Vorlesungen über Infinitesimalrechnung?). Aber die Rechenstrategie funktioniert immer. Sie besagt: Finde den Beitrag zu x der proportional zu t ist. Die Proportionalitätskonstante ist dann das momentane Tempo. Im Laufe der Jahrhunderte hat man eine Menge Rechenregeln (den Kalkül) gefunden, die das Ableiten enorm erleichtern. Alle Ableitungen, die man überhaupt berechnen kann, berechnet man heute mit Hilfe dieser Regeln. Aber das ist nur die eine Hälfte der Infinitesimalrechnung. Jetzt wollen wir x(t) nicht durch eine gute Fee erhalten, sondern wir wollen den Ort berechnen, indem wir fortlaufend die Tempomesswerte v(t) des Tachos aufschreiben und daraus unsere Route rekonstruieren. Mit anderen Worten, wir wollen aus dem Verlauf von v(T ) = d x/dt (T ) den Ort als Funktion der Zeit bestimmen, also x(T ). Dazu müssen wir als Erstes mal wissen, wo wir starten, also x(0). Das nennt man Anfangsbedingung. Von
76
3 Grundbegriffe
Abb. 3.8 Die Beiträge x zur Strecke in jedem Zeitintervall sind v(tn )t, d. h. die Flächen der Rechtecke. Durch Aufsummieren kann man den Ort aus dem Tempo ausrechnen. Grafisch kann man ihn als Fläche der Rechtecke ablesen. Wenn t immer kleiner wird, so verschwindet der Fehler (der Fehler ist die Fläche in den Rechtecken oberhalb der Kurve v(t))
da aus können wir uns Zeitschritt für Zeitschritt vortasten. Nach dem ersten Schritt ist die Zeit t und der Ort x(t) = x(0) + v(0)t. Nach dem 2. Zeitschritt sind wir bei x(2t) = x(0) + v(0)t + v(t)t. Für die Übersicht es ganz nützlich, die Zeitpunkte nt abzukürzen und einfach tn zu nennen, wie wir das oben vereinbart haben. Dann ist zum Beispiel x(t3 ) = x(0) + (v(0) + v(t1 ) + v(t2 ))t. Nun wollen wir den Ort zur Zeit T ausrechnen, wobei das T auch ein Vielfaches des Zeitschritts ist, also T = N t = t N . Das ist ganz einfach, wir müssen nur die Beiträge der einzelnen Schritte zusammenzählen: x(t N ) = x(0) + v(0) + v(t1 ) + v(t2 ) + · · · + v(t N −1 ) t Das t haben wir ausgeklammert. Nun führen wir für den Grenzwert der Summe über all die Schritte ein eigenes Symbol ein, nämlich v(0) + v(t1 ) + v(t2 ) + · · · + v(t N −1 ) t →
T
v(t)dt.
0
Hier steckt kein mathematisches Geheimnis, es ist bloß eine Kurzschreibweise für den Grenzwert. Man nennt diesen Grenzwert (oder eben das Symbol ) ein Integral und die Prozedur selbst integrieren. Integrieren und Differenzieren sind die beiden Grundrechenarten der Infinitesimalrechnung. Wenn Sie in den quantitativen Naturwissenschaften und der Technik mitreden wollen, dann müssen Sie zumindest eine Ahnung von der Bedeutung diesen Rechenarten haben. Geometrisch hat das Integrieren noch eine sehr hübsche Bedeutung, die aus der Abb. 3.8 klar wird. Das Integral ist nämlich gerade die Fläche unter der Kurve v(t). Newton erkannte das enorme Potential dieser Methoden sehr früh, und wandte sie oft an, aber es dauerte eine ganze Weile, bis diese Einsichten als eine zulässige mathematische Methode anerkannt wurden. Zu Beginn gab es jede Menge Kritik, weil Grenzprozesse in der Mathematik der alten Griechen nicht vorkamen. Nur die
3.8 Newton gegen Leibniz
77
antiken Beweismethoden galten als die einzig akzeptablen. Eine Grundlegung der Grenzprozesse nach den Standards der Mathematik ließ noch auf sich warten, aber die Anwendungen in der Physik ließen jeden Zweifel an der Nützlichkeit der Infinitesimalrechnung verstummen.
3.8 Newton gegen Leibniz Obwohl Newton schon 1666 die Infinitesimalrechnung gebrauchsfertig hatte, dachte er nicht daran, sie zu veröffentlichen. Das passte zu seinem Naturell. Außerdem waren ihm die Grundlagen seiner Methode wohl selbst nicht so geheuer, denn er wollte sie für eine Veröffentlichung mit Methoden der antiken Mathematik beweisen, was aber nicht klappen konnte. Bruchstücke seiner Methode teilte er immer mal wieder Freunden mit, so dass um 1670 ein eingeweihter Kreis von der Leistungsfähigkeit der Methode wußte, die aber von einer großen Geheimniskrämerei umgeben war. Das war im 17. und 18. Jahrhundert nicht ungewöhnlich. Die heutige Vorstellung von wissenschaftlicher Öffentlichkeit gab es nicht. Wissen war Macht, und die gab man nicht so ohne Weiteres aus den Händen. So wurden viele mathematische Ergebnisse ohne jeden Hinweis auf einen Beweis veröffentlicht. Zum Beispiel schreibt der deutsche Universalgelehrte Gottfried Wilhelm Leibniz (1664–1716) an seinen Briefpartner Rudolf Christian von Bodenhausen über eine von ihm veröffentlichte Arbeit: Es ist aber guth, dass wann man etwas würcklich exhibiret, man entweder keine demonstration gebe, oder eine solche, dadurch sie uns nicht hinter die schliche kommen.
Als Newton seine Fluxionenmethode längst fertig hatte, begann sich Leibniz für die Mathematik zu interessieren. Er wurde 1672 vom niederländischen Physiker und Mathematiker Christian Huygens (1629–1695) in die Literatur eingeführt und begann sofort mit eigenen Überlegungen. 1673 reiste er nach London, um der englischen Gelehrtenwelt seine selbst gebaute Rechenmaschine und einige Rechenkunststücke vorzuführen. Der Aufenthalt war aber kein durchschlagender Erfolg, seine hölzerne Maschine für die vier Grundrechenarten funktionierte nur teilweise und die Rechenergebnisse waren schon bekannt. An Newtons Arbeiten zur Fluxionenmethode kam er nicht heran. Nach seiner Rückkehr macht er sich an seine eigene Methode der Infinitesimalrechnung, die in etwa der oben dargestellten entspricht. Er erfindet die Notation der d x, und ein Kalkül, dass viele undurchsichtige Argumente ganz einfach erscheinen lässt, und das heute noch in Verwendung ist. 1676 reist er wieder nach London. Jetzt erhält er Einblick in Newtons Arbeiten, was wohl von Newton selbst als Geheimnisverrat ausgelegt worden wäre. Leibniz legt seine Ergebnisse in einem Brief an Isaac Newton (1677) offen dar und publiziert sie 1684. Zwei Jahre später komplettiert er seine Darstellung der Infinitesimalrechnung. Das Echo war geteilt. Manche lobten seine äußerst gut durchdachten und eleganten Notationen, manche bezichtigten ihn des Plagiats, weil etliche seiner Ergebnisse auf anderen Wegen schon früher gewon-
78
3 Grundbegriffe
nen werden konnten. Newton veröffentlichte sein epochales Werk über die mathematischen Prinzipien der Naturphilosophie (s. o.) 1687 . Darin benutzte er aber nicht etwa die Fluxionenmethode, sondern verwendete geometrische Argumentationsweisen, die nicht immer leicht zu verstehen sind, aber die nach den antiken Standards als richtige Beweise angesehen wurden. Mit seiner eigenen Methode hätte er Vieles wesentlich kürzer darstellen können, aber er konnte nicht darauf bauen, dass diese Methode auch akzeptiert wurde. Da er jedoch merkte, dass ihm jemand (nämlich Leibniz) Konkurrenz machte, erwähnte er die Grundlagen der Fluxionenmethode und fügte in der ersten Auflage sogar eine Fussnote ein, die folgendes besagt: In Briefen, welche ich vor etwa 10 Jahren mit dem sehr gelehrten Mathematiker G. G. Leibnitz wechselte, zeigte ich demselben an, dass ich mich im Besitz einer Methode befände, nach welcher man Maxima und Minima bestimmen, Tangenten ziehen und ähnliche Aufgaben lösen könne, und zwar lasse sich dieselbe eben so gut auf irrationale, als auf rationale Grössen anwenden. Obgleich ich meine Methode ( die Fluxionen zu finden, wenn eine Gleichung mit beliebig vielen veränderlichen Grössen gegeben ist, und umgekehrt) erwähnte, so erklärte ich dieselbe doch nicht. Der berühmte Mann antwortete mir darauf, er sei auf eine Methode derselben Art verfallen und teilte mir die seinige mit, welche von meiner kaum weiter abwich, als in der Form der Worte und Zeichen, den Formeln und der Idee der Erzeugung der Grössen. Die Grundlage beider Methoden ist im vorhergehenden Lehrsatze enthalten.
Damit machte er schon mal klar, dass er der Entdecker (First Inventor) war, während er Leibniz als Second Inventor bezeichnet. Ab 1693 entschloss er sich endlich doch mal, seine Methode zu veröffentlichen. Second inventor ist übrigens kein so schlechter Status, denn Newton hatte ihm ja zugebilligt, die Methode unabhängig gefunden zu haben. Zunächst konnten beide sehr gut damit leben. Bis 1704 glaubte Leibniz, Newtons Methode sei eigentlich nur eine Ansammlung von praktischen Rezepten, während er glaubte, die wahre, fundamentale Methode entdeckt zu haben, mit der man alle möglichen Probleme lösen kann. Dann bekam er eine Veröffentlichung von Newton zu lesen, aus der ihm klar wurde, dass die Fluxionenmethode genauso systematisch und sogar ziemlich ähnlich zu seiner eigenen war. Die Geschichte kochte richtig hoch, als ein Newtonianer namens John Keill im Jahr 1708 die Arbeit von Leibniz als Plagiat darstellte. Jetzt krachte es. Leibniz verlangte eine Entschuldigung, Keill rechtfertigte sich, und schließlich wurde 1712 eine Kommission (unter Newtons Vorsitz) zusammengerufen, die dann eindeutig feststellte, dass Leibniz nur die Bezeichnungen der Newtonschen Theorie geändert, aber nichts wirklich Neues beigetragen habe. Den Bericht dieser Kommission verfasste Newton selbst und lies ihn nur abnicken. Das Recht der Erfindung einer solchen Methode war Newton enorm viel wert. In seinen eigenen Worten: Zweite Erfinder haben keine Rechte. Ob Herr Leibniz die Methode selbst gefunden hat oder nicht, ist nicht die Frage ... Dem ersten Erfinder das Recht zu nehmen und es zwischen ihm und diesem anderen aufzuteilen, wäre ein Akt der Ungerechtigkeit.33
33
Second inventors have no right. Whether Mr Leibniz found the Method by himself or not is not the Question …To take away the Right of the first inventor, and divide it between him and that other, would be an Act of Injustice.
3.9 Differentialgleichungen
79
Die gelehrte Welt auf dem Kontinent sah das etwas anders. Sie liebte die Leibnizsche Methode. Es ging so weit, dass Johann Bernoulli Newton 1713 direkt angriff, und Leibniz davon überzeugen wollte, dass Newton seine (gerade etwas überarbeitete) Methode erst richtig darstellen konnte, nachdem er Leibniz’ Werke gelesen hatte. Es bildete sich in der gelehrten Welt ein Newton-Lager und ein Leibniz-Lager, die sich gegenseitig mit allen Mitteln bekämpften. Newton hatte den Vorteil, dass er Leibniz um 10 Jahre überlebte, – und er lies nie eine Gelegenheit aus, seine Widersacher schlecht zu machen (das gilt übrigens nicht nur für Leibniz). Leibniz hatte dagegen das Pech, dass sein Chef, Georg Ludwig von Braunschweig-Lüneburg im Jahr 1714 als George I. König von Großbritannien wurde, und der schlug seinen Wunsch aus, ihn nach London begleiten zu dürfen. Die englische Wissenschaft folgte ihrem Genie Newton und die Beziehung zwischen der englischen und der kontinental-europäischen Mathematik blieb für 100 Jahre vergiftet. Als Konsequenz entwickelte sich die Infinitesimalrechnung des Kontinents auf der Grundlage der leibnizschen Methode weiter, während die Literatur der britischen Insel die Fluxionen benutzte. Wer hat schließlich gewonnen? Es steht außer Frage, dass Newton der First Inventor der Infinitesimalrechnung war, aber seine Fluxionenmethode ist weitgehend von der Leibnizschen Notation abgelöst34 . Hierin triumphiert Leibniz. Im 18. Jahrhundert wurde die Methode der Infinitesimalrechnung immer weiter ausgebaut und die Anwendungen erlaubten faszinierende Lösungen von komplizierten Problemen. Das grundlegende Unbehagen an der Methode blieb. Erst im 19. Jahrhundert formulierte der französische Mathematiker Augustin-Louis Cauchy (1789–1857) eine Definition des Grenzwertes (Limes) eines Grenzprozesses, der Alle zufriedenstellte. Da waren aber schon sämtliche Anwendungsmöglichkeiten der Methode vorhanden, so dass man in der Physik nur selten auf die völlig exakte mathematische Grundlegung zurückgreifen muss.
3.9 Differentialgleichungen Was ist denn nun so wichtig an dieser Infinitesimalrechnung? Ich hätte Sie Ihnen nicht so ausführlich vorgestellt, wenn sie nicht von ganz zentraler Bedeutung für alle quantitativen Wissenschaften wäre. Sie wird in den Naturwissenschaften ebenso angewandt wie in den quantitativ arbeitenden Sozialwissenschaften, in allen Bereichen der Technik ebenso wie in der Medizin. Sie ist das mathematische Rückgrat einer Strategie, um Modelle für die Wirklichkeit zu formulieren und aus diesen Modellen dann Schlüsse zu ziehen. Diese Strategie beruht auf dem Prinzip der Integration kleiner Schritte. Was ist das genau? Wenn wir den Verlauf x(t) einer Größe in der Zeit bestimmen wollen, dann versuchen wir als Erstes herauszufinden, was die Gründe für die Änderung über einen kleinen Zeitschritt t sind. Diese Gründe versuchen wir, in quantifizierbaren Größen auszudrücken. Klingt etwas abstrakt. Lassen Sie uns ein paar Beispiele geben. 34
Abgesehen vom Kürzel x˙ für die Zeitableitung.
80
3 Grundbegriffe
Angenommen Sie haben ein Sparbuch mir einem festen Zinssatz. Ihr Vermögen V wächst. Der Grund für das Wachstum des Vermögens ist das Vermögen selbst, denn durch die Verzinsung vermehrt es sich in dem Zeitintervall um einen Bruchteil von V . In einem Zeitschritt nimmt Ihr Vermögen um V (T ) = r t V (T ) zu. Wenn man also von 5% Zinsen spricht, dann meint man, dass in dem vereinbarten Zeitschritt r t = 5/100 = 0.02 ist. Der Vermögenszuwachs pro Zeitschritt ist also V = r V (t). t Diese einfache Gleichung ist die kürzeste Form, um die Zinseszins Formeln hinzuschreiben. So etwas nennt man eine Differenzengleichung, denn es drückt die Differenzen durch die Größe selbst aus. Häufig ist der Zeitschritt 1 Jahr, aber es gibt in der Finanzwelt auch viele Fälle mit sogenannter unterjähriger Verzinsung, bei denen die Zeitschritte kleiner werden. Wenn es möglich wäre, den Zeitschritt beliebig klein zu machen, dann würde aus dem Differenzenquotient eine Differentialquotient. Für viele natürliche Prozesse ist diese Differentialgleichung, dV = V˙ = r V, dt ein Grundmodell. Hier habe ich die Änderungsgeschwindigkeit mal sowohl in Leibnizscher als auch in Newtonscher Notation hingeschrieben. Newtons Notation eignet sich besonders gut für das Aufschreiben einer Geschwindigkeit im laufenden Text, und so wollen wir es auch benutzen. Da außerdem Differentialgleichung ein sehr langes Wort ist, werde ich es im Folgenden immer durch DGL abkürzen. Als einfaches Beispiel für eine DGL eines natürlichen Prozesses betrachten wir die Abkühlung einer Tasse Kaffee. Die Temperatur T (t) nähert sich der Umgebungstemperatur TU an, wobei die Änderung in einem kleinen Zeitschritt von der Abweichung T (t) − TU abhängt. Ein einfaches Modell für diese Abhängigkeit stammt von Newton. Sein Abkühlungsgesetz sieht so aus: T˙ (t) = k(T (t) − TU ). Hier läuft die Zeit wirklich kontinuierlich und es ist (im Gegensatz zum Zinseszins) keine Idealisierung, den Grenzprozess bis zum Ende durchzuführen. Die Beispiele drücken die momentane Änderung einer Größe durch die Größe selbst aus. Es kann aber auch andere oder zusätzliche Gründe für Änderungen geben. Sie könnten zum Beispiel pro Zeiteinheit von Ihrem Vermögen immer etwas ausgeben. Dann sähe die (idealisierte) Differentialgleichung für Ihr Vermögen so aus: V˙ = r V (t) − u(t). Die Ausgaben u(t) (pro Zeit) könnten beeinflusst werden von Gewinnen und Verlusten, d. h. Sie verändern Ihr Ausgabeverhalten, je nachdem ob Ihr Vermögen wächst oder schrumpft. Um das zu modellieren, stellen Sie eine Differentialgleichung für u auf, zum Beispiel u(t) ˙ = g V˙ . Jetzt haben Sie 2 DGLn, die allerdings miteinander gekoppelt sind. Vielleicht beginnen Sie nun schon zu ahnen, wie groß die Spielwiese der DGL-Modelle ist. Wir werden noch Gelegenheit haben, physikalische Modelle in Form von DGLn zu formulieren und werden in Abschn. 7.5 auch noch eine funktionierende Methode kennen lernen, solche DGLn
3.9 Differentialgleichungen
81
mit Hilfe eines Taschenrechners (na ja, wenn es zu viel Arbeit wird mit Hilfe eines Computers) zu lösen. Bevor wir jetzt weitergehen, gibt es noch einen wichtigen, letzten Punkt über DGLn zu sagen. Bisher war die „fließende Größe“ immer die Zeit. So wurde die Infinitesimalrechnung auch von Newton eingeführt. Aber es muss nicht immer die Zeit sein, es kann genauso gut der Ort sein. Als Beispiel betrachten wir mal den Luftdruck. Der nimmt ab, wenn Sie in die Höhe gehen. Wir können also den Luftdruck p als Funktion der Höhe messen, also p(h). Dafür gibt es eine einfaches DGL, d. h. ein Gesetz, das kleine Änderungen im Ort betrachtet. Die Form kommt uns bekannt vor, sie lautet dp(h)/dh = −kp. Das sieht aus wie die DGL für eine Abzinsung, also eine negative Zinsrate. Sowohl positive wie negative Raten kommen DGL-Gesetzen für natürliche Prozesse vor und wir werden solche Gesetze noch näher kennen lernen.
Kapitel 4
Wahrheit in der Physik
4.1 Wahrheit ist relativ Ausgerüstet mit dem grundsätzlichen Glauben an eine äußere Welt (und eine Geisteswelt) und gut definierten Grundbegriffen könnten wir nun anfangen, wissenschaftlich zu arbeiten. Aber wie? Das hängt natürlich von der speziellen Wissenschaft ab, die wir betreiben wollen. Trotzdem gibt es so eine Art Grundgerüst, das man im Alltag ganz verschiedener Wissenschaften in ähnlicher Form antrifft. Schauen Sie dazu auf die Abb. 4.1. Aus dem Glauben ergeben sich zunächst Grundbegriffe und Methoden. Mit denen kann man unstrukturiertes Wissen anhäufen, zum Beispiel eine Menge von Beobachtungen von Sternpositionen (Astronomie), eine Aufzählung von verschiedenen Eigenschaftswörtern in einem Roman (Literaturwissenschaft), die Verwandten eines Königshauses (Geschichte), eine Aufzählung von Farbeindrücken in einem Gemälde (Kunstgeschichte), je nach Wissenschaft. Dieser Schritt verlangt oft eine Menge Arbeit, aber erst dann kann man versuchen, erklärende Strukturen in diesem Wissenshaufen zu entdecken. Dabei benutzt man wiederum Methoden, die zur Aufstellung von Erklärungsmustern führen. Diese Muster sind in der Abbildung als Theorien bezeichnet, aber zunächst sind es Hypothesen, d. h. sie stehen noch auf dem Prüfstand. Die Prüfungen erfolgen in zwei Schritten. Als erstes muss man aus den Erklärungsmustern weitere Aussagen gewinnen, die über das schon bekannte Wissen des Wissenshaufens hinausgehen. Dann folgt ein sehr wichtiger Schritt, der wiederum eng mit dem grundsätzlichen Glaubensbekenntnis verknüpft ist: man muss nachprüfen, ob die neuen Aussagen wahr sind. Die Spielregeln, mit denen man diese Prüfung durchführt, nennen wir (etwas hochgestochen) Verifikationsregeln. Diese Regeln können für verschiedene Wissenschaften ganz verschieden sein, und sie sind ein wichtiger Grund dafür, dass Wahrheiten relativ zur jeweiligen Wissenschaft sind. Um den Verifikationsregeln ein wenig auf die Spur zu kommen, schauen wir uns exemplarisch ein paar Aussagen an, und überlegen dann, welche Regeln die jeweils zuständige Wissenschaft wohl anwendet, um die Wahrheit dieser Aussagen zu überprüfen. Woher diese Aussagen kommen, spielt dabei keine Rolle. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_4
83
84
4 Wahrheit in der Physik
Glauben Epistemologie
Veri kationsregeln
Methoden
Wissen
Aussagen
Theorien
Abb. 4.1 Ein simples Grundgerüst, um Wissen zu erzeugen
1. Wenn man eine Magnetnadel horizontal frei aufhängt, so weist die Nadelachse in Nord–Süd Richtung 2. Am 21. September 3470 vor Christus begann Gott mit der Erschaffung der Welt 3. Da unser Herr und Meister Jesus Christus spricht „Tut Buße“ u. s. w. (Matth. 4,17), hat er gewollt, dass das ganze Leben der Gläubigen Buße sein soll 4. Zusammengesetzte Hauptwörter sind ein ausdrucksstarkes Stilmittel im Werk von Theodor Fontane Über die Prüfung der ersten Aussage aus der Physik wollen wir an dieser Stelle noch nicht viel verraten, denn in diesem Kapitel werden wir darüber noch genauer nachdenken. Hier reicht es, wenn wir eine einfache empirische Prüfung vornehmen. Wir schauen nach. Das mag auf den ersten Blick nicht besonders spannend sein1 , aber mehr ist da wirklich nicht zu tun. Erinnern Sie sich daran, dass Physik immer der alltäglichen Logik und Praxis folgt? Wie soll man nun die Wahrheit der anderen Aussagen überprüfen? „Die zweite Aussage ist ja wohl falsch“, werden Sie denken. Die Naturwissenschaft hat doch Steine und Dinosaurierskelette gefunden, die viel älter sind. Ja, das stimmt, aber nur falls die Überprüfung der Aussagen über das Alter nach naturwissenschaftlichen Regeln geschieht. Ein Anhänger des sogenannten „JungeErde Kreationismus“ sagt dazu, dass Gott all diese Steine und versteinerten Skelette geschaffen hat, damit die Naturwissenschaften herausfinden können, dass sie viel älter als 6000 Jahre sind2 . Das Glaubensbekenntnis ist immun gegen logische Argumente und naturwissenschaftliche Beobachtungen. Sie werden sich aber vielleicht 1
Das ändert sich jedoch schlagartig, wenn man in der Aussage ein einziges Wort einfügt, nämlich „... die Nadelachse weist immer in Nord–Süd Richtung“. 2 Man kann dahinter einen gewissen, göttlichen Humor vermuten.
4.1 Wahrheit ist relativ
85
wundern, wenn ich Ihnen verrate, von wem die Aussage 2 stammt. Es war Isaac Newton, der Urahn der modernen, auf Mathematik gegründeten Physik. Er war ein streng gläubiger Mensch, dem es nie in den Sinn gekommen wäre, die Bibel anzuzweifeln. Ganz im Gegenteil, er wollte Wissenslücken über die Entwicklung der Menschen seit der Vertreibung aus dem Paradies schließen. Seine Schriften über religiöse Themen sind weit umfangreicher als die über Physik. Gleichzeitig wollte er alte Mysterien entschlüsseln und beschäftigte sich eingehend mit Alchemie, d. h. der Kunst, unedle Stoffe in Gold zu verwandeln. In seinem (posthum erschienen) Werk The chronology of ancient kingdoms amended („Änderungen in der Chronologie der alten Königreiche“) korrigierte er einen älteren Kalender, der als Ussher-Lightfoot Kalender bekannt ist. John Lightfoot (1602–1675) war ein englischer Pfarrer, James Ussher (1581–1658) war Erzbischof und Primas von Irland. Beide beschäftigten sich mit einer Frage, die immer schon viele Gemüter bewegt hat: Wie alt ist die Erde? Vom Standpunkt der christlichen Religion war es möglich, darauf eine Antwort zu finden, indem man die Bibel wie eine Chronik las und versuchte, die vielen Generationen seit Adam und Eva bis heute nachzuvollziehen. Genau das war die Methode, die Ussher und Lightfoot verwendeten. Wenn Sie mal in das alte Testament schauen, so sehen Sie, dass das erste Stück dieser Chronologie von der Bibel sehr präzise beschrieben wird (Sie erinnern sich vielleicht noch an den 969-jährigen Methusalem). Später wird die Arbeit trickreicher und man muss versuchen, historisch mehr oder weniger Bekanntes mit Bibelstellen zu verknüpfen. Beide Autoren kamen aber unabhängig voneinander auf das gleiche Schöpfungsdatum. Die Methode der Chronologien, die Newton später nochmal präzisierte, ist also doch recht verlässlich. Wenn man nun vom grundsätzliche Glaubensbekenntnis der Junge-Erde-Kreationisten ausgeht und es noch um den Glauben erweitert, dass die Bibel eine korrekte historische Beschreibung enthält, so ist die Aussage 2 tatsächlich wahr3 , im Rahmen des Junge-Erde Kreationsmus. Die Verifikationsregel ist chronistisch, d. h. man muss in der Lage sein, eine lückenlose Chronologie aufzustellen. Schauen wir uns die 3. Aussage an. Es handelt sich um die erste der berühmten 95 Thesen des Martin Luther, die er 1517 veröffentlichte, mit ungeahnten Langzeitwirkungen. Wieso ist diese Aussage wahr? Weil sie Luther durch das Bibel-Zitat (Matthäus 4,17: Von der Zeit an fing Jesus an, zu predigen und zu sagen: Tut Buße; das Himmelreich ist nahe herbeigekommen!) auf den göttlichen Urtext zurückgeführt hat, und das ist eine unschlagbare Verifikationsregel in Religionen. Voraussetzung ist natürlich, dass man die Bibel nicht weiter hinterfragen kann; was drin steht ist nun mal wahr, weil direkt oder indirekt (durch Prophete) von Gott mitgeteilt, und kann daher von keinem Menschen bezweifelt werden. Alles, was man durch logische Schlüsse auf den göttlichen Urtext zurückführen kann, ist somit in der Theologie automatisch ebenfalls wahr. Die endlosen Debatten in jeder Religion über das richtige Verständnis der Urtexte zeigen aber schon, dass das Rückführen nicht so ganz einfach ist, denn diese Texte sind über weite Strecken sehr vieldeutig und zu einem großen Teil sind es auch gar keine Aussagen. Fall Sie nur selten in die Bibel schauen, folgt ein kleines 3
Bis auf Unsicherheiten in den Chronologien, die man vielleicht noch ausmerzen kann, wenn man mehr historisches Wissen angesammelt hat.
86
4 Wahrheit in der Physik
Beispiel. Es stammt aus einem Lieblingstext vieler Pech-und-Schwefel Prediger, der Offenbarung des Johannes, die auch Apokalypse genannt wird: Hier braucht man Kenntnis. Wer Verstand hat, berechne den Zahlenwert des Tieres. Denn es ist die Zahl eines Menschennamens; seine Zahl ist sechshundertsechsundsechzig. (Offenbarung, 13,18)
Mit den Mitteln der Logik kommt man da nicht weiter. Den Sinn solcher vieldeutigen, nicht logisch strukturierten Äußerungen zu erkennen ist Aufgabe der Methode der Hermeneutik, die sich aus der Interpretation religiöser Texte entwickelte. Schon die alten Griechen kannten das Problem, die Äußerungen des Orakels zu Delphi richtig zu interpretieren. Später beschäftigten sich bedeutende Denke mit der Exegese, der Interpretation biblischer Texte. Bei Hermeneutik geht es um ein Verständnis in der Geisteswelt, das sich auf menschliche, soziale, kulturelle Gemeinsamkeiten beruft. Ein einfaches Beispiel zur Illustration ist die Interpretation des Begriffs „Rose“ in einem Text. Dieser Begriff wird in unserem Kulturkreis seit langer Zeit als Symbol verwendet, als beharrlich wiederkehrend für Liebe, Schönheit, Frische und manches Andere, darunter auch Schmerz, Blut und Wunden. Es könnte das am meisten verwendete Symbol in der deutschsprachigen Lyrik und Prosa sein. Wenn man das weiß, kann man aus einem Text etwas herauslesen, was dort gar nicht wörtlich steht. Wenn Sie unter diesem Gesichtspunkt mal Goethes Gedicht „Heidenröslein“ lesen, dann könnten Sie auf die Idee kommen, es müsste auf den Index der Me-Too Bewegung. Luther leitet in der Aussage 3 seine Feststellung, dass das ganze Leben der Gläubigen nach Gottes Willen Buße sein soll, per Exegese aus der Bibel ab. Damit ist die Aussage wahr, allerdings nur, wenn man seiner Exegese folgt. Selbst als gläubiger Christ muss man das nicht unbedingt, denn schließlich sagt Matthäus das ja nicht wörtlich. Kommen wir zur 4. Aussage. Haben Sie etwas von Fontane gelesen? „Effi Briest“ zum Beispiel oder „Der Stechlin“? Dann sind Ihnen vielleicht so originelle, zusammengesetzte Hauptwörter (Nominalkomposita) wie Angstapparat, Generalweltanbrennung oder Schmetterlingsschlacht aufgefallen. Wenn man genügend viel Fontane gelesen hat, kommt man auf die Idee, dass Fontane die Nominalkomposita gezielt einsetzt, dass es sein Stil ist. Erst mal ist das ein persönlicher Eindruck, den man vielleicht mit anderen Lesenden teilt. Kann man das untermauern, kann man das verifizieren? Das ist eine komplizierte Aufgabe. In einer Arbeit4 aus dem Jahr 2018 wird ein wichtiger Beitrag dazu geliefert. Grundlage sind alle Hauptwörter im gesamten Romanwerk Fontanes. Das ist für einen Menschen eine fast unüberschaubare Menge, aber nicht für Computer. Der Computer fischt dann aus allen Hauptwörtern solche heraus, die nur ein einziges Mal vorkommen und die lang genug sind (mindestens 19 Buchstaben lang). So hofft man, ungewöhnlichen Wortschöpfungen auf die Spur zu kommen. Die entstandene Liste umfasst 537 Wörter. Nun kann 4
Von Peer Trilcke in Zusammenarbeit mit Luisa Billepp, Kristina Genzel, Lena Keil, Tabea Klaus, Mona Mia Kurz, Anneke Siedke, Christian Ziesmer mit dem Titel Zwischen „Weltverbesserungsleidenschaft“ und „Schmetterlingsschlacht“. Seltenste Substantive in Fontanes Romanen, erschienen in Fontane Blätter 106 (2018), S. 102–112.
4.2 Beobachtungen, Experimente und Erklärungen
87
man genauer hinschauen und untersuchen, in welchem Kontext diese Wortschöpfungen verwendet werden und welche Funktion sie wohl haben könnten. Dieses Beispiel zeigt Ihnen nebenbei, dass auch Literaturwissenschaft heutzutage computergestützte Methoden in den Verifikationsregeln verwendet, wenn es die Fragestellung erfordert. Die vier Aussagen, die wir vorgestellt haben, stellen im Rahmen eines grundlegenden Glaubensbekenntnisses durch die Methoden dieses Glaubens aufgestellte und verifizierte Wahrheiten dar. Es sind, wie Sie nun hoffentlich klar sehen, relative Wahrheiten.
4.2 Beobachtungen, Experimente und Erklärungen Zurück in die äußere Welt. Wenn man darüber philosophiert, wie wir eigentlich Wissen über diese Welt gewinnen, so stößt man schnell auf einen seit Jahrtausenden andauernden Disput, nämlich zwischen dem Rationalismus und dem Empirismus. Rationalisten glauben, dass wir über angeborene Fähigkeiten verfügen, die es uns erlauben, durch Nachdenken Wissen über die äußere Welt zu gewinnen. Empiristen glauben, dass alles Wissen über die äußere Welt letztlich durch unsere Sinneserfahrungen zustande kommt. Die Physik pfeift auf diese philosophischen Diskurse, ihr Glaube ist: Je nachdem. Die Mischung macht’s. Die philosophischen Zugänge sind für die Zwecke der Physik viel zu allgemein und viel zu geisteswissenschaftlich. Für die Physik dagegen ist das Wichtigste, dass sie Beobachtungen erklären und Teile der äußeren Welt kontrollieren kann. Man kann – auch ohne es zu wollen – in der äußeren Welt durch Beobachtung Entdeckungen machen. Wenn man zum Beispiel in irgendeinem Wald herumläuft, so besteht die Möglichkeit (dafür gibt es viele Beispiele), dass man auf Pflanzen oder Tiere stößt, die noch niemand vorher beschrieben hat. Zu großen Teilen der äußeren Welt ist Beobachten sogar unser einziger Zugang. Wir können zum Beispiel fremde Galaxien mit unseren Instrumenten beobachten, wir können sie aber nicht kontrollieren, steuern, modifizieren oder sonstwie beeinflussen. Trotzdem machen wir „dort draußen“ mit unseren Beobachtungsinstrumenten jede Menge Entdeckungen. Grundlegend neue Dinge oder Prozesse in der äußeren Welt, d. h. solche, an die wir noch überhaupt nicht gedacht haben, finden wir tatsächlich nur durch Beobachtung. Sie waren schon immer da, und eines Tages findet sie halt jemand. Dann können sich ganz neue Facetten der äußeren Welt auftun. Bei der Entdeckung der Erde (aus Sicht Europas) passierte das oft. Seefahrer entdeckten neue Inseln oder neue Kontinente, neue Tiere, neue Pflanzen, neue Kulturen. Auch die Entdeckung neuer Elementarteilchen erweitert unsere Vorstellung von der Welt, nämlich von den Bausteinen der Materie. Eine Beobachtung kann allerdings erst dann zu einer wissenschaftlichen Entdeckung werden, wenn man sie dokumentiert und so genau wie möglich beschreibt. Dann nämlich besteht die Chance, sie mit Hilfe unseres bereits angesammelten Wissens zu erklären und sie zu einem weiteren Baustein in dem großen Puzzle unseres Bildes von der Welt zu machen. Manchmal bleibt so ein Stein für eine ganze Weile liegen, bis
88
4 Wahrheit in der Physik
man ihn passend einfügen kann, das ist typisch für die Physik. Beispielsweise waren die Beobachtungsdaten des 17. Jahrhunderts über Bewegungen von Planeten, Monden und Kometen durchaus nicht alle in perfekter Übereinstimmung mit der Theorie, die Isaac Newton dafür entworfen hatte. Nach Meinung einiger Philosophen wäre die Theorie damit erledigt. Sie ist, wie der Philosoph Karl Popper (1902–1994) das nannte, falsifiziert. Aber so denkt in der Physik niemand. Wer weiß denn schon auf Anhieb, wie präzise eine Beobachtung ist? Wer weiß, wieviel andere Faktoren die Beobachtung beeinflussen können? Daher lagert man unverstandene Beobachtungen erst mal aus und bemüht sich dann immer wieder darum, sie ins Weltbild einzupassen. Das funktioniert meistens auch. Wenn nach langer Zeit eine Beobachtung, die nicht in das Weltbild passt, nur ein einziges Mal gemacht wurde, sortiert man sie aus und vergisst sie. Die Bestätigung durch Wiederholung macht eine Beobachtung stärker. Wenn ein Seefahrer des 14. Jahrhunderts zurückkehrt und ohne weitere Beweise von märchenhaften Gefilden erzählt, dann glauben vielleicht Einige seine Geschichte. Aber nur, wenn sich Weitere auf den Weg machen und mit denselben Geschichten (und besser noch materiellen Beweisen) zurückkommen, wird das sagenhafte Land in das Weltbild eingefügt. Sonst endet es im Reich der Mythen. Ein paar liegengebliebene Puzzlesteine können sich allerdings als Systemsprenger herausstellen. Plötzlich nämlich fällt jemandem auf, dass man einen größeren Teil des Puzzles anders zusammensetzen kann. Dann fügen sich die hartnäckig liegen gelassenen, aber gut bestätigten Puzzlesteine ein. Das Puzzle sieht danach zwar anders aus, aber – ganz wichtig – es hat nur an Erklärungskraft gewonnen, niemals verloren. So etwas bezeichnen manche Philosophen dann als Paradigmenwechsel. Ein Beispiel: der sogenannte fotoelektrische Effekt, d. h. das Freisetzen von elektrischer Ladung an einer Metalloberfläche durch Bescheinen der Oberfläche mit Licht wurde 1839 entdeckt. Ein paar Kleinigkeiten blieben unverstanden. Warum hing der Effekt davon ab, welche Farbe das Licht hat, aber nicht, mit welcher Intensität man bestrahlt? Das schien erst mal keine große Sache, also ein Fall für die Puzzlesteinhalde. Dann lieferte Albert Einstein 1905 eine (hypothetische) Erklärung, die in den Augen vieler Zeitgenossen den Nachteil hatte, dass sie Licht wie Teilchen behandelte. Gerade hatte man sich in vielen Experimenten davon überzeugt, dass Licht eine Welle ist. Dieser scheinbare Widerspruch war ein wesentlicher Auslöser für die Entwicklung der Quantenmechanik, die große Teile unseres bis dahin bestehenden Weltbildes veränderte. Das Bild des Puzzles wurde stark verändert, aber der Erklärungswert war gestiegen. Keine der alten Erklärungen für lange bekannte Beobachtungen verlor ihre Gültigkeit, nur der Gültigkeitsbereich dieser Erklärungen war kleiner, als zunächst gedacht. Die optimale Beobachtung (aus Sicht der Physik) ist eine, die man durch Instrumente beeinflussen kann. Dann wird aus der Beobachtung ein Experiment. Nun kann man nämlich bei der Suche nach Erklärungen aufgestellte Hypothesen testen und weiterentwickeln. Die Hypothese sagt im einfachsten Fall: Jedesmal, wenn der Faktor A (den man kontrollieren kann) verändert wird, dann geschieht mit der Beobachtung ein bestimmtes B. Beachten Sie das wichtige „Jedesmal“. Wenn es nämlich einen Grund für die Beobachtung gibt, und die Hypothese diesen richtig erkannt hat, dann müssen die Ergebnisse des Experiments reproduzierbar sein. Beachten
4.2 Beobachtungen, Experimente und Erklärungen
89
Sie auch, dass Experimente und Hypothesen zusammen gehören. Kein Experiment ohne Hypothese. Aber auch keine Hypothese ohne Beobachtung, zumindest nicht in der Physik. Selbst die wildesten Spekulationen haben eine beobachtete Grundlage, auch wenn sie diese manchmal in geradezu schamloser Weise überverallgemeinern. Über Wurmlöcher wird nur spekuliert, weil sie in der Allgemeinen Relativitätstheorie möglich sind, und diese Theorie durch vielerlei Beobachtungen und Experimente getestet wurde. Tatsächlich ist es aber keineswegs so, dass man in der Physik nur auf eine neue Entdeckung wartet, um dann mit Experimenten und Hypothesenbildung eine Erklärung zu finden. Wir können auch mit unserem ganzen angesammelten Vorwissen über die äußere Welt Experimente machen, von denen wir vermuten, dass sie zu Entdeckungen führen. Wenn wir zum Beispiel (teure) Weltraummissionen ausrüsten, um auf den Monden des Jupiter nach Voraussetzungen und Spuren von Leben zu suchen, oder wenn wir große (teure) Teilchenbeschleuniger bauen, dann geschieht das, weil wir Gründe zu der Vermutung haben, dass wir etwas entdecken werden. Nicht alle Experimente sind so teuer, aber eigentlich ist dieses Vorgehen die häufigste Beschäftigung in der Experimentalphysik. Die Kombination aus Beobachtung, Experiment und Erklärung ist die Kernmethode der Physik. Diese Methode bringt einen Nebeneffekt mit, der für Viele der Hauptzweck der Forschung ist: man lernt, Teile der äußeren Wirklichkeit zu kontrollieren. Aus den Effekten, die man im Labor beobachtet und mit den Geräten, die man zum Experimentieren braucht, lassen sich gelegentlich sehr nützliche (oder sehr destruktive) Technologien für den Alltag gewinnen. Für die Grundlagenwissenschaft ist das nur ein Spin-off, für Leute, die Forschung finanzieren, ist es das, was sie sehen wollen. Meistens jedoch kann man eine grundlegend neue Erkenntnis nicht einfach ruckzuck in ein verkaufsfertiges Produkt verwandeln, auf das die Welt gewartet hat. Dieser lange Weg (wenn er denn überhaupt bis zum Ende führt) ist Gegenstand etlicher anderer Forschungsrichtungen, die schrittweise immer angewandter werden. Grob gesagt kann man drei Phasen unterscheiden: die Grundlagenforschung, die angewandte Forschung und die Produktentwicklung. Betrachten Sie mal als Beispiel einen Laser, mit dem Sie die Abmessungen Ihres Zimmers ausmessen oder verbotenerweise auf irgendwas oder -wen zielen können. Den grundlegenden physikalischen Effekt, der einen Laser ermöglicht, fand Albert Einstein 1916 (die stimulierte Emission) in der Geisteswelt der Theorie und der deutsch-US-amerikanische Physiker Rudolf Ladenberg (1882–1952) 1928 im Labor. In den 1950er Jahren wurden erste Verstärker von Mikrowellenstrahlung nach diesem Prinzip konstruiert und wichtige, physikalische Bauprinzipien für den Laser gefunden. All das war noch physikalische Grundlagenforschung, aber man hatte bereits ein klares Anwendungsgebiet vor Augen: eine Lichtquelle. 1960 gelang es dann dem US-amerikanischen Physiker Theodore Harold Maiman (1927–2007), alle Prinzipien und Erfindungen zusammenzubringen und im Labor den ersten Laser zu basteln. Diese Arbeit stieß in der Fachwelt kaum auf irgendwelches Interesse. Seine Veröffentlichung wurde erst mal abgelehnt. So geht das oft. Ein Prototyp, der auf ganz anderen Grundlagen beruht als bekannte Produkte, wird selten begeistert gefeiert. Das ökonomische Potenzial solcher Erfindungen und Entwicklungen wird regelmäßig
90
4 Wahrheit in der Physik
total unterschätzt, selbst von denen, die den Prototyp hergestellt haben. Berühmt gewordene Prognosen in dieser Hinsicht gibt es viele. Ein paar Beispiele sind durchaus angebracht: • Das Erdöl ist eine nutzlose Absonderung der Erde, – eine klebrige Flüssigkeit, die stinkt und in keiner Weise verwendet werden kann. (Akademie der Wissenschaften, Sankt Petersburg, 1806) • Das Ding hat so viele Mängel, dass es nicht ernsthaft als Kommunikationsmittel taugt. Das Ding hat für uns keinen Wert (Memo der Western Union Financial Services zur Erfindung des Telefons, 1876) • Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten, allein schon aus Mangel an verfügbaren Chauffeuren (Gottlieb Daimler, 1901) • Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt (Thomas Watson, CEO von IBM, 1943) • Es gibt keinen Grund, warum irgend jemand einen Computer zu Hause haben sollte (Ken Olson, Gründer der Firma Digital Equipment, 1977) • Das Iphone hat keine Chance, auf dem Markt zu bestehen (Steve Ballmer, Präsident von Microsoft) Es gibt allerdings ein paar todsichere Tipps, um das Budget für angewandte Forschung und Produktentwicklung zu steigern. Das Forschungsbudget des Lasers wuchs zum Beispiel rasant, nachdem sich das Militär für die neuen „Todesstrahlen“ zu interessieren begann. Aus der militärischen Anwendung zum Abschuss von Raketen und Flugzeugen ist zwar nicht viel geworden, aber dafür konnten wunderbare Methoden zur Materialbearbeitung in der Industrie entwickelt werden. Auch die Leistung der Laser nahm immer mehr zu. In den 1980er Jahren wurden lasende Halbleiterbauelemente entwickelt, die die Anwendungsbreite noch mal stark vergrößerte und die Kosten enorm senkte. Laser finden sich heute in einer fast unüberschaubaren Fülle von Anwendungen: in der Meßtechnik, in der Medizintechnik, in der Materialbearbeitung bis hin zu Gadgets wie dem Laserpointer.
4.3 Kausalität und Lokalität Die Erklärungen der Physik geben einen Grund für Beobachtungen an. Aber das tun andere Wissenschaften mit ganz anderen Glaubensbekenntnissen auch. Wenn es in früheren Zeiten Epidemien gab, so war eine typische theologische Erklärung, dass das eine Strafe Gottes (wofür auch immer) sei. Das ist ja schließlich auch ein Grund. Ein physikalischer Grund (den man auch Ursache nennt) hat aber eine Eigenschaft, die ihn auszeichnet: man kann ihn mit Mitteln der äußeren Welt beeinflussen. Der theologische Grund eröffnet als Handlungsoptionen im wesentlichen Buße und Gebet. Eine naturwissenschaftliche Erklärung (Übertragung von Mensch zu Mensch durch die Luft) ermöglicht Gegenmaßnahmen in der äußeren Welt. Mit einer physikalischen Erklärung lassen sich Voraussagen machen. Dahinter steht eine wichtige und sehr oft getestete Grundlage der Physik und des täglichen
4.3 Kausalität und Lokalität
91
Lebens: die Kausalität. Auch außerhalb der Physik versteht man darunter, dass alle Ereignisse mindestens eine Ursache haben. Aber in der Physik bedeutet Kausalität mehr. Wenn wir ein Ereignis betrachten, dass hier und jetzt stattfindet, dann ist die unmittelbare Ursache dieses Ereignisses ein Ereignis, das sich ganz in der Nähe des hier und in der ganz unmittelbaren Vergangenheit des Jetzt zugetragen hat. Damit ist physikalische Kausalität etwas ganz anderes als Kausalität in anderen Wissenschaften. Für den Untergang des römischen Reiches zum Beispiel führt der deutsche Historiker Alexander Demandt (Der Fall Roms) mehr als 200 Gründe an, die er aus vielen Quellen zusammengesammelt hat. Wer in manchen Sozial- und Geisteswissenschaften nicht eine multi-kausale Erklärung vorweisen kann, der gilt als geistig unterkomplex. Für die Physik dagegen ist die optimale Erklärung das Auffinden eines einzigen physikalischen, lokal wirkenden Grundes. Man geht in der Physik davon aus, dass das auch immer möglich ist und nennt diesen Aspekt unserer äußeren Welt Lokalitätsprinzip. Die Verbindung zwischen Ursache und Wirkung ist also ein kleiner Schritt, aber die Wirkung kann zur Ursache für eine nächste, benachbarte Wirkung werden u. s. w. So können lange Kausalketten entstehen die sich in Raum und Zeit ausbreiten. Physikalische Gesetze, mit denen sich Vorhersagen machen lassen, sind Kausalketten für Zustände (s. Abschn. 3.1). Das ist auch der tiefere Grund für die besondere Bedeutung von Differentialgleichungen in der Physik. Wenn wir einen Zustand zur Zeit t (der ja alles Wissenswerte über ein System enthält) mal mit Z (t) bezeichnen, dann braucht man nur ein einziges Gesetz – für den Zeitschritt von t nach t + t –, um Voraussagen über beliebig lange Zeiten machen zu können. Dieses Gesetz hat man in der Tasche, wenn man die Änderung von Z über das kleine Zeitintervall aus dem Zustand Z (t) bestimmen kann, also Z (t) = F(Z (t)). Wenn sich die Änderungen glatt aneinander fügen, dann ist F(Z (t)) = f (Z (t))t und man hat eine Differentialgleichung. Das Entwicklungsgesetz ist durch die Funktion f (Z ) bestimmt.5 . Dasselbe gilt aber auch für die räumlichen Abhängigkeiten. Der Zustand Z kann über den Raum verteilt sein. Wenn man zum Beispiel die Oberfläche eines Swimming-Pools beschreiben will, dann ist der Zustand die Höhe des Wasserspiegels h(x) an jedem Ort x auf der Grundfläche des Pools. Wenn man einen Stein hineinwirft, dann stört man die Oberfläche, die sich anschließend in der Zeit verändert, bis sie wieder zur Ruhe kommt. Das Gesetz, dass die Veränderung der Höhe am Ort x zur Zeit t beschreibt, hängt von den Höhen zu unmittelbar vorhergehenden Zeiten an unmittelbar benachbarten Orten x + x ab.
In manchen Fällen ändert sich das Gesetz selbst mit der Zeit, dann ist f (Z , t) auch von t abhängig. So was tritt auf, wenn man in einem Experiment einen Parameter kontrolliert zeitabhängig macht. Andere Zeitabhängigkeiten müssen auf unmittelbare Ursachen zurückgeführt werden.
5
92
4 Wahrheit in der Physik
4.4 Das große Puzzle Mehrmals haben wir mittlerweile gesehen, dass die Physik dieselben Methoden benutzt, mit denen wir uns auch im alltäglichen Leben zurechtfinden. Das gilt auch für ihre Verifikationsregeln. Wenn eine Aussage über die äußere Welt gemacht wird, dann überprüft man sie praktisch, d. h. durch Beobachtungen und Experimente. Genau so machen Sie es auch. Wenn Sie die Bedienungsanleitung Ihres neuen Kaffeevollautomaten mit Internetanschluss endlich gelesen haben, dann kommt der Augenblick, an dem Sie sie einschalten und sich am ersten Espresso versuchen. Erst wenn es praktisch klappt, glauben Sie die Ausführungen der Bedienungsanleitung. Diese Verfikationsregel ist so verbreitet, dass es in vielen Sprachen ein eigenes Sprichwort dazu gibt. Im Englischen lautet die Regel: The proof of the pudding is in eating. Die Ansprüche unserer Geisteswelt können allerdings praktische Überprüfungen unmöglich machen. Die Aussage „Jeden Morgen geht die Sonne auf“ enthält einen logischen All-Quantor, der es der Physik nicht mehr möglich macht, den Wahrheitswert der Aussage praktisch zu beurteilen. In diesem einfachen Satz prallen die Geisteswelt der Logik und die äußere Wirklichkeit heftig aufeinander. In der äußeren Welt können wir nur auf endlich viele Beobachtungen zurückgreifen, und die Wahrheit muss induktiv untermauert werden. Es ist eine beliebte Kritik (mit langer Tradition) an der naturwissenschaftlichen Erkenntnis, dass sie „nur“ auf induktiven Schlüssen beruht. Dabei wird die Stärke des Schlusses gern herunter skaliert. Für den Sonnenaufgang wird zum Beispiel gesagt, der Naturwissenschaft bliebe nichts anderes übrig als so zu schließen: Bisher ging jeden Morgen die Sonne auf, also geht sie auch morgen auf. Diese Meinung besteht seit Aristoteles (384–322 v. Chr.). Dabei beschleicht dann Viele ein gewisses Unbehagen. Ist das nicht Alles nur geraten? Warum kann man denn eine physikalische Aussage nicht beweisen? Die Forderung nach einem Beweis wird an die Naturwissenschaften und die Technik oft und gern gestellt, wenn man eine Gegenposition aufbauen will. „Sie können doch gar nicht beweisen, dass der Klimawandel menschengemacht ist“, „Wo ist der Beweis, dass das Atomkraftwerk sicher ist?“, „Gibt es denn einen Beweis, dass Windkraftanlagen nicht auch eine Umweltkatastrophe verursachen“ u. s. w. Ein für allemal: Man kann keine Aussagen über die äußere Welt beweisen, denn beweisen ist eine geisteswissenschaftliche Methode. In der Mathematik und der Logik funktioniert sie prima. Die Physik hat dagegen etwas vorzuweisen, dass die Stärke ihrer induktiven Schlüsse enorm vergrößert. Sie hat ein konsistentes Bild zu bieten, dass große Teile der äußeren Welt erklärt. Die Schlüsse der Naturwissenschaften aus Beobachtungen sind kein blindes Raten aus Daten, sie sind eher vergleichbar mit dem Einfügen eines passenden Puzzlestein in ein gigantisches Puzzle, das der erklärte Teil der äußeren Welt für uns darstellt. Je größer und komplexer das Puzzle wird, desto mehr Bedingungen muss ein weiterer Stein erfüllen, damit er passt. Dadurch wird das Risiko eines Fehlschlusses, das alle induktiven Schlüsse haben, immer kleiner. Die Physik sagt also nicht, dass die Sonne morgen aufgeht, weil sie das schon immer getan hat. Sie hat kausale Erklärungen dafür, warum die Sonne aufgeht, warum sie scheint, was passieren müsste, damit kein Licht mehr von der Sonne zu uns dringt u. s. w. Jeder
4.4 Das große Puzzle
93
dieser Puzzlesteine wurde durch andere Erklärungen, Beobachtungen und Experimente an viele andere Puzzlesteine angepasst. Zum Beispiel geht die Sonne nur auf, wenn sich die Erde um ihre Achse dreht. Diese Drehung wiederum ist konsistent mit den Gezeiten und mit Beobachtungen aus dem Weltall. Die Energieproduktion der Sonne, die das zu uns kommende Licht erzeugt, beruht auf kernphysikalischen Prozessen, die wir sehr genau und ganz unabhängig von der Sonne untersucht haben. Das ganze Puzzle enthält so viele Einschränkungen, dass es nicht einfach ist, neue Steine anzufügen. Dieses Prinzip ist so wichtig und wird so oft vergessen, dass wir es einmal deutlich hervorheben wollen: Das gigantische Puzzle Für die Physik stellt die äußere Welt ein gigantisches Puzzle dar. Sie versucht, immer mehr Teile, die sie mit ihren Methoden (beobachten, experimentieren, erklären) gesammelt hat, zu einem konsistenten Bild zusammenzusetzen. Dadurch werden ihre induktiven Schlüsse extrem stark.
Dieses Prinzip ist die Grundlage ihrer ganzen Arbeitsweise und ihrer Verifikationsregeln. Die Aussage „Jeden morgen geht die Sonne auf“ wird die Physik aufgrund unseres heutigen Bildes etwa so beantworten: „Die Sonne geht jeden morgen auf, weil die Erde sich um sich selbst dreht und weil es Prozesse in der Sonne gibt, die stetig Licht erzeugen. Solange sich daran nichts ändert – und wir könnten Ihnen auf Nachfrage sagen, wie lange das sein wird – geht die Sonne jeden morgen auf. Dabei setzen wir voraus, dass es in dieser (sehr langen) Zeit keine kosmischen Katastrophen gibt, die die Erde (oder die Sonne) zerstören.“ Sie sehen, diese Antwort ist nicht ein „wahr“ oder „falsch“, wie sich die Logik das wünscht. Aber mal ehrlich: Was soll sich die äußere Welt um Logik scheren? Egal wie stark die induktiven Argumente der Physik auch sind, es bleibt eine wichtige Strategie der Wissenschaftsleugnung, die Anforderungen an die Stärke immer höher zu schrauben, bis sie schließlich unerfüllbar werden und dann dem Publikum zuzurufen: „Da habt Ihr’s! Sie können es nicht zeigen!“. Gleichzeitig wird auch die armseligste eigene Beobachtung zu einer „unabhängigen Wissenschaft“ hochgelobt. („Wenn ich mich umschaue, dann sehe ich eine flache Erde, also ist die Erde eine Scheibe“). Solche Argumentationen können funktionieren, wenn die Adressaten unwissend genug sind, oder wenn sie allen wissenschaftlichen Ergebnissen der gesamten Menschheitsgeschichte misstrauen. Dann sind sie allerdings gezwungen, an eine überdimensionale Verschwörung zu glauben, die sich durch alle Bereiche der Gesellschaften in allen Ländern über viele Jahrhunderte erstreckt und uns ein Fake-Puzzle unvorstellbaren Ausmaßes präsentiert. Das eigene Verschwörungsmythen-Puzzle an Erklärungen ist dagegen zwar mickrig, schief und krumm, und passt eigentlich nirgends so richtig, aber dafür ist es selbst gemacht.
94
4 Wahrheit in der Physik
4.5 Evidenz und Zweifel Die meisten Aussagen über die äußere Welt sind aufgrund unseres Puzzles nicht klar als wahr oder falsch zu beurteilen. Die Physik kann aber immerhin die Stärke ihrer induktiven Schlüsse zu dieser Aussage quantitativ angeben. Sie sagt dann: Diese Aussage ist mit einer Wahrscheinlichkeit von 80 % wahr. Woher diese Wahrscheinlichkeit stammt, das untersuchen wir in den Abschn. 4.8–4.11 genauer. Die quantitative Bewertung ist eigentlich nur ein komprimiertes Urteil, dass die vielen Kausalketten zusammenfasst, die uns bekannt sind. So ähnlich wie eine Schulnote, die auch in einer einzigen Zahl komplexe Fähigkeiten einer komplexen Person zusammenfasst. Es reicht aber oft nicht, nur eine Stärke als Zahl anzugeben. Was soll man tun, wenn man aufgrund einer bewerteten Schlussfolgerung oder einer Aussage eine Entscheidung treffen muss? Dann geht die Physik wieder genauso vor wie das Alltagsleben. Sie wägt ab. Wie bei einer persönlichen Entscheidung oder einer Gerichtsverhandlung. Sie fragt, welche Indizien für oder gegen die Aussage sprechen. Alles, was die Aussage unterstützt, nennen wir Evidenz, alles was dagegen spricht, nennen wir Zweifel. Gibt es nur Evidenzen und keine Zweifel, dann betrachten Physike die Aussage als wahr. So machen Sie es selbst auch. Wenn man in der Physik eine tolle Beobachtung macht, oder ein überraschendes experimentelles oder theoretisches Ergebnis findet, dann posaunt man es nicht sofort hinaus. Erst muss man Evidenzen und Zweifel abwägen. Man muss sich jede Mühe geben, Zweifel an eigenen Entdeckungen und Ergebnissen zu finden, was nicht einfach ist. Sobald man das Ergebnis veröffentlicht hat, werden Andere diese Kritikerrolle übernehmen. Aber gerade wenn anerkannte Autoritäten neue Ergebnisse verkünden, fällt es nicht leicht, daran Kritik zu üben. Dadurch kann es dazu kommen, das in das große Puzzle Steine einschmuggelt werden, die nirgendwohin passen, weil man sie schlampig ausgeschnitten hat. Daher gilt es als eine der gröbsten Verletzungen der wissenschaftlichen Arbeitsregeln, leichtgläubig gegenüber der eigenen Arbeit zu werden. Der US-amerikanische Physiker Richard Feynman (1918–1988) sagte dazu: Der erste Grundsatz lautet, dass man sich selbst nichts vormachen darf, und man selbst ist am leichtesten zu täuschen. R.P. Feynman Cargo Cult Science, Antrittsrede am Caltech, 1974
Obwohl man solche Fehler vermeiden sollte, passieren sie im Wissenschaftsbetrieb dauernd. Der Chemiker Irving Langmuir (1881–1957) prägte dafür den Begriff pathologische Wissenschaft. Dabei versagt die wissenschaftliche Selbstkontrolle, und eine zunehmende Anzahl von Veröffentlichungen über ein eigentlich gar nicht existierendes Phänomen setzt ein. Erst nach einiger Zeit bemerkt man durch kollektive Anstrengungen, dass man sich selbst einen Bären aufgebunden hat. Schöne, immer wieder zitierte Beispiel dafür sind die kalte Fusion (die 1989 in den USA angeblich beobachtete Kernfusion bei Zimmertemperatur6 ), das Polywasser (ein poly6
Forschungen an kalter Fusion mit ganz anderen Ansätzen werden nach wie vor betrieben. Hier geht es nur um die „sensationelle Entdeckung“ 1989.
4.6 Verständnis ist Kontrolle
95
merisiertes Wasser mit ganz neuen Materialeigenschaften, erstmals beobachtet 1962 in der Sowjetunion) und die N-Strahlen (nach dem Hype um die Röntgenstrahlen und die Radioaktivität Anfang des 20. Jahrhunderts in Nancy angeblich beobachtete neue Art von Strahlen). Nach Allem, was ich Ihnen bisher erzählt habe, sollte es Sie nicht verwundern, dass es auch jede Menge Aussagen gibt, die man mit naturwissenschaftlichen Verifikationsregeln überhaupt nicht klassifizieren kann. Betrachten wir mal als Beispiel die Aussage „Im Universum gibt es eine Galaxis, die man nicht beobachten kann“. Indem man den naturwissenschaftlichen Zugang (per Beobachtung) ausschließt, kann die Existenz einer solchen Galaxis weder bestätigt noch widerlegt werden. Auch Aussagen, die nicht-physikalische Eigenschaften enthalten, können nicht verifiziert werden, wie zum Beispiel: „Dieser Baum ist schön“, ebenso Aussagen über Objekte der Geisteswelt wie „Faust ist das bedeutendste Drama der deutschen Literatur“. Der Philosoph Karl Popper betonte, dass naturwissenschaftliche Aussagen nur dann als solche akzeptiert werden sollten, wenn sie im Prinzip falsifizierbar sind. Wir haben schon im Abschn. 4.2 betont, dass dieses Prinzip zwar ganz hilfreich sein kann, dass man es aber nicht zu exzessiv auslegen darf. Auf keinen Fall ist eine in dem strikten Popperschen Sinn falsifizierte Aussage in der Physik erledigt, denn das würde bedeuten, dass so gut wie alle physikalischen Aussagen auf den Müll gehören. Eine Abweichung zwischen einer physikalischen Aussage und der beobachteten Wirklichkeit kann unzählige Gründe haben, die alle den Erklärungswert der Aussage nicht vermindern. Wenn Sie aufgrund eines Anrufs ihrer Kinder die Hypothese aufstellen, dass Sie morgen Besuch bekommen, aber es kommt niemand, weil die Bahn streikt, dann zweifeln Sie nicht an der Glaubwürdigkeit der Aussagen Ihrer Kinder. Außerdem ist es eine Illusion zu glauben, man könnte in dem gigantischen Puzzle der Physik jede Aussage getrennt vom Rest des Puzzles testen und falsifizieren. Wenn Sie aufgrund eines Erdbebens eine Tsunamiwarnung ausgeben, aber es entsteht kein Tsunami, was genau haben Sie dann falsifiziert? Die Tsunamiwarnung beruht auf vielen physikalischen Gesetzen. Sind die nun alle falsifiziert? Oder nur bestimmte? Wenn ja, welche? Und wie oft und wie stark dürfen Aussagen von den Ergebnissen abweichen, damit Sie sie als falsifiziert markieren?
4.6 Verständnis ist Kontrolle Ein mathematischer Satz, der einmal bewiesen wurde, gilt für die Ewigkeit. Eine physikalische Einsicht über die äußere Wirklichkeit kann dagegen jederzeit durch eine Beobachtung widerlegt werden, absolut sicher ist sie nie. Tatsächlich ist die Geschichte der Physik voll von brillanten Einsichten und Theorien, die sich später als falsch herausgestellt haben. Während also die Mathematik von Wahrheit zu Wahrheit voranschreitet, erfolgt die Entwicklung der Physik sozusagen von Irrtum zu Irrtum. Das klingt nicht gerade sehr vielversprechend für eine Wissenschaft. Wenn die Theorien und Erklärungen schon zur Zeit ihrer Entstehung falsch waren, was sind sie dann wert? Ein ganz entscheidender Vorteil der unvollkommenen physikalischen
96
4 Wahrheit in der Physik
Erklärungen gegenüber geisteswissenschaftlichen Wahrheiten besteht in ihren praktischen Konsequenzen. Man kann mit Ihnen die äußere Wirklichkeit nach eigenen Vorstellungen beeinflussen und man kann Ereignisse in der äußeren Wirklichkeit vorhersagen, mit anderen Worten: man kann die äußere Wirklichkeit, oder zumindest ein Stückchen davon, kontrollieren. Das ist ein uralter, menschlicher Antrieb. Statt vor Höhlenlöwen7 davonzulaufen oder sich von ihnen fressen zu lassen, kann man sie auch erlegen, wenn man ein paar ordentliche Distanzwaffen wie Speere besitzt. Um die zu konstruieren, muss man keine Raketenphysik beherrschen, aber man muss ein gutes Verständnis davon haben, wie Flugeigenschaften eines Körpers von seiner Massenverteilung abhängen. Alte Speerfunde zeigen, dass solche praktischen Physikkenntnisse schon vor hunderttausenden von Jahren vorhanden waren. Diese Arten der Kontrolle der äußeren Wirklichkeit haben heute ein Ausmaß angenommen, mit dem es uns gelingen könnte, entweder den ganzen Planeten zu ruinieren oder endlich mal allesamt in Frieden in Wohlstand zu leben. Wenn also die Naturwissenschaften von Verständnis der äußeren Wirklichkeit reden, dann meinen sie immer auch ein bisschen Kontrolle der äußeren Wirklichkeit.
4.7 Determinismus und Vorhersagbarkeit Die Physik ist berühmt für ihre ungemein präzisen Voraussagen. Nehmen Sie nur dieses Beispiel aus der Astronomie: Am 23. September 2090 wird sich in Paris ab 17 Uhr und 34 min für 2 min und 39 s die Sonne total verfinstern. Das beeindruckt, nicht wahr. Es erzeugt das Gefühl, der Kosmos funktioniert wie ein Uhrwerk, und die Physik kennt die Regeln dieses Mechanismus. Dabei ist die Idee, dass die Welt nichts ist als eine kausale Abfolge von Ursachen und Wirkungen zwischen kleinsten Teilchen recht alt. Sie findet sich schon bei Leukipp und seinem Schüler Demokrit (460–370 vor Chr). Diese Herren postulierten bereits Atome als unteilbare kleinste Teilchen, aus denen die ganze Welt besteht, und vertraten die Auffassung, dass die Götter sich nicht dauernd in die Geschehnisse der Welt einmischen. Eine kleine Weile lang – im 18. und 19. Jahrhundert – glaubte man sogar, man hätte die Regeln des Uhrwerks vollständig verstanden, denn es seien die Newtonschen Gesetze der Mechanik, die sich in seinem schon erwähnten Buch (Philosophiae Naturalis Principia Mathematica) finden. Darin begründete er das Gebiet der klassischen Mechanik und der Himmelsmechanik. Zum ersten Mal formulierte er quantitative physikalische Gesetze, die nicht nur auf der Erde sondern überall im Universum gelten sollen. Das war eine ungeheuere Revolution des Denkens.
7
In der letzten Kaltzeit, d. h. vor ungefähr 100000 Jahren bis zum Beginn des Holozäns 11700 sind sich Höhlenlöwen und Menschen in Europa über den Weg gelaufen. Das wissen wir aus Höhlenmalereien und zu Schmuck verarbeiteten Löwenzähnen. So ein Höhlenlöwe war wohl ein bisschen größer als ein heutiger, afrikanischer Löwe und jagte alle größeren Tiere, die er kriegen konnte.
4.7 Determinismus und Vorhersagbarkeit
97
Ein weiterer Großmeister der Himmelsmechanik nach Newton, Pierre-Simon Laplace (1749–1827), führte darauf in einer Schrift8 einen „Weltgeist“ ein, der mit Hilfe der Newtonschen Gesetze die Vergangenheit und die Zukunft der ganzen Welt berechnen kann, wenn er alle Informationen über die Gegenwart hat. Aber schon einfach erscheinende Aufgaben der Himmelmechanik verursachten Probleme in dem großen mechanischen Weltgeist-Programm. Dar war zum Beispiel die Mondbahn. Newtons Theorie ergab für die Bahn des Mondes – von der Erde aus betrachtet – zunächst eine Ellipse, aber die astronomischen Beobachtungen zeigten, dass es periodische Störungen der Lage und der Form der Ellipse gibt, und zwar mit verschiedenen Periodenlängen von ungefähr einem Monat („Evaktion“) bis zu fast 20 Jahren. Der Hauptgrund für diese Störungen ist der Einfluss der Schwerkraft der Sonne. Man muss also zur präzisen Berechnung der Mondbahn mindestens drei Körper betrachten: Mond, Erde und Sonne. Newton hat sich an diesem Problem versucht. Der Astronom Edmond Halley (1656–1742), der mit dem gleichnamigen Kometen, von dem noch später die Rede sein wird,9 bemerkte gegenüber John Conduitt (der Mann von Newtons Halbnichte, die in seinen letzten Lebensjahren sein Haus führte), dass er Newton oftmals aufgefordert hatte, die Theorie der Mondbahn zu vollenden und dieser habe ihm geantwortet, dass diese Mondgeschichte ihm soviel Kopfschmerzen bereitet und ihn soviel Nachtschlaf gekostet habe, dass er nicht mehr an ihn denken wolle10 . Im Nachhinein betrachtet ist das kein Wunder, denn Newton war auf ein Problem gestoßen (das 3-Körper Problem), an dem die ganze philosophische Vorstellung eines berechenbaren Determinismus zerschellen sollte. Newton schaffte es tatsächlich, einige Störungen der Mondbahn durch die Sonne zu berechnen, das Ergebnis war jedoch nicht in zufriedenstellender Übereinstimmung mit den Beobachtungsdaten. Er wollte, bevor er weitermachte, aber erst mal bessere Daten. Das 3-Körper Problem blieb ungelöst. Zwei Jahrhunderte vergingen seit dem Erscheinen der Principia. Im Rahmen eines Preisausschreibens11 (anlässlich des 60. Geburtstags des schwedischen Königs Oskar II. 1889) machte sich der damals schon berühmte Mathematiker, Physiker, und Astronom Henri Poincaré (1854–1912) wieder mal an das Problem und produzierte einen preiswürdigen Beitrag. Als sein Manuskript schon im Druck war, fiel ihm bei der Beantwortung einiger Nachfragen ein ziemlich dicker Fehler in seinen Beweisführungen auf. Er ging diesem Fehler nach und entdeckte: das Chaos. Genauer gesagt er entdeckte, dass die Bahnformen so extrem empfindlich auf kleinste Störun8
Die den Titel „Philosophischer Essay über die Wahrscheinlichkeit“ trägt. Übrigens war er auch derjenige, der aus Newtons nicht immer fehlerfreien Berechnungen die erste Hohlerdetheorie aufstellte. Newton hatte nämlich berechnet, dass die Dichte des Mondes größer als die Dichte der Erde sein müsse, – was sie nicht ist – und da man annahm, alle Himmelskörper hätten die gleiche Dichte, müssen im Inneren der Erde Hohlräume stecken. Die besiedelte Halley auch gleich mit Hohlerdebewohnern. Halleys Theorie wurde nicht etwa für durchgeknallt gehalten, sondern sehr ernsthaft diskutiert. Auch Geistesgrößen wie der Mathematiker Leonhard Euler beteiligten sich an Spekulationen über eine innen bewohnte Hohlerde. 10 (Aus: David Brewster, Memoirs of the Life, Writings, and Discoveries of Sir Isaac Newton, Volume 2, 1855, Cambridge University Press 2010). 11 Wie Sie daran sehen, waren die Fragen in Preisausschreiben früher schwerer als heutzutage. 9
98
4 Wahrheit in der Physik
gen oder Fehler in den Anfangsdaten reagieren, dass es unmöglich ist, sie für längere Zeit vorauszuberechnen. Dieses Phänomen wurde zunächst als schwer verständliche astronomisch-mathematische Kuriosität betrachtet, aber nach und nach stellte sich heraus, dass die extreme Empfindlichkeit von Bewegungen gegenüber Störungen viel weiter verbreitet ist als man zunächst dachte. Der US-amerikanische Meteorologe Edward Norton Lorenz (1917–2008) arbeitete 1961 an Modellen der Wettervorhersage. Lorenz beschränkte sich auf insgesamt 3 Daten um den damaligen Computer nicht zu überfordern. Das waren – grob gesagt – eine Temperatur, ein Luftdruck und eine Windrichtung. Er stellte ein sehr (!) einfaches Modell auf, wie diese drei Daten sich gegenseitig beeinflussen, und warf dann den (damals riesigen) Computer an. Als er sein Modell ein zweites Mal zur Kontrolle rechnen lies, unterlief ihm ein kleiner Fehler bei der Eingabe. Eine Zahl, die er beim ersten Durchgang als 0.56127 gewählt hatte, gab er beim 2. Mal als 0.56 ein . Er vergaß die letzten 3 Stellen12 . Zu seinem Erstaunen waren die Ergebnisse total verändert. Als er dem nachging, stellte sich heraus, dass sich sein super-vereinfachtes Wettermodell chaotisch verhielt: geringste Änderungen der Anfangsdaten führten zu völlig anderem Wetter. Dieser Effekt wurde von Lorenz sehr geschickt verkauft, indem er für einen Vortrag über seine Forschung den Titel wählte: „Kann der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas auslösen?“ (1972, Vortrag vor der American Association for the Advancement of Science). Der „Schmetterlingseffekt“ hat es in den wissenschaftlichen und auch in den pseudo-wissenschaftlichen Wortschatz geschafft. Man darf ihn übrigens nicht verwechseln mit dem „Schneeballeffekt“, d. h. dem Auslösen einer riesigen Lawine durch einen winzigen Schneeball. Auch dabei geht es um große Wirkungen mit einer sehr kleinen Ursache, aber die Wirkung ist klar vorhersehbar, nämlich die bergab donnernde Lawine. Beim Schmetterlingseffekt ist die Wirkung aber gerade nicht vorhersehbar. Dieser Verlust der Vorhersagbarkeit zukünftiger Ereignisse ist das Besondere am Chaos. Der australische theoretische Physiker und Ökosystemforscher Robert May (1936–2020) beschäftigte sich Anfang der 1970er Jahre mit sehr einfachen Modellen für die Entwicklung der Anzahl der Individuen von Insekten oder Fischen, die synchrone Generationen haben (d. h. alle Individuen durchlaufen alle Entwicklungsstadien gleichzeitig). Ein besonders bemerkenswertes Beispiel bilden die periodischen Zikaden der Gattung Magicicada, die plötzlich alle 17 Jahre den Osten der USA zu Millionen heimsuchen. Das Modell ist so einfach, dass wir es in einer einzigen Zeile aufschreiben können. Die Anzahl der Insekten in der n-ten Generation nennen wir N (n). Es gibt eine maximale Anzahl von Insekten, Nmax , die niemals überschritten werden kann (d. i. die Begrenzung des Lebensraums). Dann entwickelt sich der Bruchteil x = N /Nmax nach dem Gesetz x(n + 1) = R · x(n) · (1 − x(n)).
12
Andere Quellen behaupten, er hätte das mit voller Absicht getan. Die endgültige Wahrheit wusste nur er allein.
4.7 Determinismus und Vorhersagbarkeit
99
Dieses Gesetz ist so einfach, dass Sie Entwicklungen der Insektenpopulation mit dem Taschenrechner nachvollziehen können13 . Es enthält nur einen Parameter R, der kontrolliert, wieviele Nachkommen ein Individuum hat. May bemerkte 1972, dass die Entwicklung der Individuenzahlen völlig regellos wird, wenn diese Zahl zu groß ist, und er berichtete darüber in einem Vortrag, den er 1974 an der Universität von Maryland hielt. Das fand großes Interesse bei dem Mathematiker und Physiker James Yorke (∗ 1941), der zusammen mit seinem Doktoranden Tien-Yien Li (∗ 1945) eine Arbeit verfasste, in der der Begriff Chaos zum ersten mal eine mathematisch präzise Definition bekam. So veränderte sich Schritt für Schritt der Blick auf Entwicklungsgesetze in der äußeren Welt. Egal ob am Himmel oder auf der Erde, das Chaos lauert überall. Heute betrachtet man regelmäßige, vorhersagbare Bewegungen und Entwicklungen in der Natur als Ausnahmen, die nur über eine gewisse Zeit existieren. Das bedeutet aber, dass wir die Idee eines Determinismus, dessen Konsequenzen wir vorhersehen können, aufgeben müssen. Determinismus und Vorhersagbarkeit werden zu verschiedenen Kategorien. Wir können kein chaotisches System so stark von äußeren Einflüssen abschirmen, und darüber hinaus seinen Zustand zu einer Zeit so genau durch Messungen bestimmen, dass wir in der Lage wären, sein Schicksal vorauszuberechnen. Lassen Sie uns das etwas genauer ausdrücken und dadurch ein wesentliches Element chaotischer Systeme präziser definieren: Wenn wir die Stärke S einer Störung halbieren (zu S/2), so können wir die Vorhersagezeit um einen Zeitraum T vergrößern, sagen wir um 1 h14 . Wenn wir nun die Störung wieder halbieren (zu S/4), so können wir in einem chaotischen System T + T = 2 h vorhersagen. Wenn wir wieder halbieren (zu S/8) so können wir in einem chaotischen System T + T + T = 3 h vorausberechnen u. s. w. Klingt das gut? Nein, überhaupt nicht. Jedesmal, wenn wir die Stärke halbieren kommt nur eine Stunde hinzu. Nehmen wir an, wir wollten eine Vorhersage über ungefähr 2 Tage (50 h). Dann müssten wir die Störung um einen Faktor 250 verkleinern. Zur Erinnerung: das ist 2 · 2 · 2 · · · 2 mit 50 Faktoren 2, und das sind 1 125 899 906 842 624, in Worten 1 Billiarde 125 Billionen 899 Mrd. 904 Mio. 842 Tausend 624. Sie bekommen jetzt vielleicht eine Ahnung davon, was es heißt, dass man ein chaotisches System nicht genau genug kontrollieren kann, um Vorhersagen über interessante Zeiträume zu machen. Insbesondere komplexe Systeme aus vielen Atomen oder Molekülen sind so aberwitzig empfindlich, dass selbst die Schwerkraftänderung durch den Flügelschlag eines Moskitos in einer weit entfernten Galaxie eine Störung bewirkt, die die Vorhersagbarkeit auf millionstel Sekunden einschränkt. Das werden wir noch genauer kennen lernen. Es ist also nichts mit dem Programm des Determinismus, der zur Vorhersagbarkeit führt. Das muss nicht heißen, dass es keinen Determinismus gibt, es sagt nur, dass wir in chaotischen Systemen nichts von dem Determinismus haben, wenn wir das Schicksal des System vorhersagen wollen. Wir können zwar deterministische Entwicklungsgesetze hinschreiben (wie zum Beispiel die Newtonschen Bewegungsgle13
Interessant wird es für R-Werte von 3.5 bis 3.8. Der Vorhersagezeitraum hängt natürlich von dem speziellen chaotischen System ab, das wir betrachten.
14
100
4 Wahrheit in der Physik
ichungen oder Robert Mays Entwicklungsgleichungen für Insekten), aber wir können entweder den Zustand, den wir als Input für die Gleichungen brauchen, nicht genau genug messen oder das System nicht genug vor äußeren Störungen abschirmen (oder beides), um seine Zukunft vorauszuberechnen. Einschränkend müssen wir sagen, dass die Zeitskala, auf der wir noch Vorhersagen machen können, zum Glück für uns bei vielen Systemen akzeptabel ist. Ein Beispiel, das gerade an der Grenze der Akzeptanz liegt, ist das Wetter. Wir können recht anständige Wetterprognosen für einen, zwei, vielleicht auch mal drei Tage machen, aber ab dann geht’s oft daneben. Wir arbeiten mit immer genaueren Daten und immer größeren Computern, aber das Wetter ist chaotisch. Also ist es verständlich, dass unsere Fortschritte in der Wettervorhersage bescheiden bleiben. Wenn wir statt auf das Wetter auf das Klima schauen, so bemerken viele Leute gar keine Änderungen, wenn sie nicht durch wissenschaftliche Ergebnisse darüber informiert werden15 , denn die spielen sich auf Zeitskalen von Jahren, Jahrzehnten, Jahrhunderten, Jahrtausenden und länger ab. Ob das Klimasystem chaotisch werden kann und wenn ja, auf welchen Zeitskalen, das bleibt ein Forschungsgegenstand.
4.8 Wahrscheinlich wissen Sie nicht, was Wahrscheinlichkeit ist Eine physikalisches Gesetz mag durch genügend viel Evidenz, hohen Erklärungswert und Passgenauigkeit in das große Puzzle der Physik gut abgesichert sein. Für Vorhersagen, die man aus einem solchen Gesetz ableitet, hilft das aber nicht unbedingt weiter (siehe Chaos). Der Status einer Aussage wie zum Beispiel „Morgen wird es regnen“ ist überhaupt nicht klar. Ihr Wahrheitswert wird sich natürlich erst morgen herausstellen, aber für praktische Zwecke will man so lange nicht warten. Man möchte die Aussage ja benutzen, zum Beispiel um festzulegen, ob man morgen mit Regenschirm aus dem Haus gehen soll. Also, – soll man die Aussage glauben? Da ist er wieder, der Glaube, diesmal aber in ganz praktischem Kontext. Der Wetterbericht gibt heutzutage Vorhersagen von sich, die etwa so klingen: „Die Regenwahrscheinlichkeit liegt morgen bei 85 %“. Aber was ist diese Wahrscheinlichkeit und wie soll man sie benutzen? Ein weit verbreiteter Irrtum ist, dass die Wahrscheinlichkeit als wissenschaftlicher Begriff völlig klar definiert ist. Das trifft nicht zu. Betrand Russell sagte darüber 1929 in einem Vortrag : Die Wahrscheinlichkeit ist der wichtigste Begriff in der modernen Wissenschaft, zumal niemand auch nur die geringste Ahnung hat, was sie bedeutet (aus: E.T. Bell, The development of mathematics, 1945)
Schauen wir zunächst, was die Mathematik zur Bedeutung der Wahrscheinlichkeit sagen kann. Das ist erstaunlich wenig. Wahrscheinlichkeiten kann man den Ergeb15
Wer hat schon ein Gefühl für die mittlere globale Temperatur.
4.8 Wahrscheinlich wissen Sie nicht, was Wahrscheinlichkeit ist
101
nissen einer Messung zuordnen (was immer für die Mathematik eine Messung sein mag). So sieht das die Mathematik, und so sehen das auch alle Naturwissenschaften. Als einfaches Beispiel kann man einen Würfel werfen. Die Messung ist die Beobachtung der Anzahl der Punkte nach dem Wurf, also eine der Zahlen 1, 2, 3, 4, 5, 6. Die Messergebnisse können aber auch Teile eines Kontinuums sein. Denken Sie zum Beispiel an die Lebensdauer einer Glühbirne. Sie beobachten jeden Tag einmal, ob die Birne noch brennt. Dann sind die möglichen Messergebnisse die Zeitintervalle von einem Tag zwischen je zwei Messungen. Sie können also als Ergebnis erhalten: Donnerstag ging die Birne kaputt. Sie wissen nicht, zu welchem genauen Zeitpunkt das geschah. Selbst wenn sie die Messintervalle kürzer machen, so erhalten sie doch niemals den genauen Zeitpunkt, der ist gar nicht messbar. Bemerkenswerterweise stimmen die Mathematik und die Physik in dieser Aussage völlig überein. Die mathematische Theorie, die diese Tatsache ernst nimmt, nennt sich Maßtheorie. Messergebnisse bezeichnet man mit Buchstaben A, B, · · · . Die Mathematik macht nun drei einfache Aussagen über die Wahrscheinlichkeiten, die man Messergebnissen zuordnet: • Die Wahrscheinlichkeit für irgendeinen Messwert A (sie wird mit P(A) bezeichnet) ist eine Zahl zwischen 0 und 1. • Die Wahrscheinlichkeit, dass irgendein Ergebnis aus der Menge aller möglichen Messergebnisse eintritt ist 1. Mit anderen Worten: Jede Messung liefert auch ein Ergebnis • Wenn zwei Messergebnisse A und B inkompatibel sind, d. h. sich gegenseitig ausschließen, dann ist die Wahrscheinlichkeit entweder A oder B zu messen gerade P(A) + P(B) Diese mageren Aussagen bilden das Axiomensystem der elementaren Wahrscheinlichkeitstheorie16 . Sie umfassen alles, was die Mathematik zu Wahrscheinlichkeiten zu sagen hat. Beachten Sie, dass in diesem Axiomensystem Wahrscheinlichkeit ein Grundbegriff ist. Das System wurde vom russischen Mathematiker Andrei Nikolajewitsch Kolmogorow (1903–1987) aufgestellt und stellt den Abschluss eines langen Ringens um die mathematische Bedeutung von Wahrscheinlichkeiten dar, das mit einem Briefwechsel über Glücksspiele begann. Im August 1654 schrieb der französische Mathematiker und Physiker Blaise Pascal (1623–1662) an seinen Kollegen Pierre de Fermat (1607–1665) einen Brief, in dem er die Frage diskutierte, wie die Einsätze eines Würfelspiels verteilt werden sollten, wenn es vorzeitig abgebrochen wird. Daraus entspann sich ein Briefwechsel, der die ersten Grundlagen der Wahrscheinlichkeitsrechnung enthielt. Aus Kolmogorovs Axiomen kann man eine Menge interessanter Resultate ableiten17 , und sie scheinen ja auch nichts weiter als Schulmathematik zu beinhalten. Die Wahrscheinlichkeit, entweder eine 3 oder eine 4 zu Würfeln ist die Summe 16
Die einzige Erweiterung zur nicht-elementaren Wahrscheinlichkeit besteht darin, im 3. Axiom statt nur zwei gleich abzählbar viele inkompatible Ergebnisse A, B, C, · · · zu betrachten. Die Wahrscheinlichkeit, eines davon zu erhalten ist dann die Summe P(A) + P(B) + P(C) + · · · . 17 Im Mathematikstudium reicht das für mindestens zwei große Vorlesungen.
102
4 Wahrheit in der Physik
P(3) + P(4), so einfach ist das. Allerdings sind Wahrscheinlichkeiten für einen Würfel- oder einen Lottogewinn nicht die einzigen Realisierungen, die mit diesen Axiomen konsistent sind. Nehmen Sie zum Beispiel mal ein Quadrat der Kantenlänge 1 und ordnen jedem Teil, das sie aus dem Quadrat herausschneiden können, seinen Flächeninhalt zu. Diese Flächeninhalte bilden ebenfalls ein System von Zahlen, dass alle Axiome erfüllt. Die ersten beiden sind offensichtlich, und das dritte ist auch nicht schwer einzusehen, denn Flächeninhalte von Flächen, die keine Punkte gemeinsam haben addieren sich. Die Ausbeute für die Bedeutung der Wahrscheinlichkeit in der äußeren Wirklichkeit kann also nicht besonders groß sein. Man kann mit diesen Axiomen nur feststellen, ob eine Zuordnung von Zahlen zu Messergebnissen überhaupt als Wahrscheinlichkeiten verstanden werden können, und man kann Wahrscheinlichkeiten in andere Wahrscheinlichkeiten umrechnen. Zwei wichtige Fragen bleiben aber unbeantwortet: • Wie berechne oder messe ich eigentlich eine Wahrscheinlichkeit? • Was fange ich mit dem Wert einer Wahrscheinlichkeit für die Praxis an? Beachten Sie den Unterschied zwischen umrechnen und berechnen. Wenn man weiß, dass die Wahrscheinlichkeiten für die sechs Würfelergebnisse alle gleich groß sind (Der Würfel ist fair, also nicht gezinkt), dann kann man sofort berechnen, wie groß die Wahrscheinlichkeit ist, eine gerade Zahl (2,4 oder 6) zu würfeln. Aus den Axiomen folgt, dass die Wahrscheinlichkeiten für jede Zahl alle gleich 1/6 sind, und dass dann die Wahrscheinlichkeit für eines der Ergebnisse 2, 4 oder 6 genau P(2) + P(4) + P(6) = 3/6 = 1/2 ist. Man hat also die elementaren Wahrscheinlichkeiten für jedes Einzelergebnis in die Wahrscheinlichkeit für eine kompliziertere Beobachtung umgerechnet. Aber wie kann man die Wahrscheinlichkeiten für einen Würfel berechnen? Oder kann man sie messen? Kann man eine Messvorschrift für Wahrscheinlichkeiten angeben, die dann auch in allen Fällen funktioniert? Hier wird es knifflig. Im Falle eines Würfels können wir das Experiment beliebig oft wiederholen. Dann können wir folgende Messvorschrift angeben: Wiederhole das Experiment N mal und lege ein Histogramm der Ergebnisse (siehe Abschn. 3.1) an. Vergrößere dann die Zahl der Beobachtungen und führe einen praktischen Grenzwert für die relativen Häufigkeiten aus. Dieser praktische Grenzwert ist die Wahrscheinlichkeit, also n(1) = N (1)/N → P(1) für wachsende N . Das nennt man auch die statistische Interpretation der Wahrscheinlichkeit. Im letzten Punkt steckt mal wieder das Problem des induktiven Schließens. Auch wenn ich 100 000 mal gewürfelt habe, wer garantiert, dass die nächste Million Würfe dieselben Ergebnisse für die relativen Häufigkeiten liefern? Die Antwort der Physik ist dieselbe wie beim Sonnenaufgang (siehe Abschn. 4.4). Es ist nicht ausgeschlossen, dass sich die relativen Häufigkeiten bei einem realen Experiment tatsächlich mal ändern. Das Material des Würfel könnte durch häufiges Benutzen zum Beispiel ungleichmäßig abgetragen werden und dadurch wird der Würfel gezinkt. Aber dann haben wir das Experiment eben nicht unter gleichen Bedingungen durchgeführt und darauf müssen wir bestehen. Also: Wenn alle äußeren Bedingungen gleich bleiben und die äußere Wirklichkeit konstant ist, dann sollten sich auch die relativen Häufigkeiten nicht ändern. Beweisen (im geisteswissenschaftlichen Sinn) lässt sich das natürlich
4.8 Wahrscheinlich wissen Sie nicht, was Wahrscheinlichkeit ist
103
nicht. Aber es abzulehnen, würde erhebliche Zweifel an unserer alltäglichen Rationalität wecken. Es müsste nämlich einen Grund geben, der zu den geänderten relativen Häufigkeiten führt, aber dieser Grund dürfte nicht in der äußeren Welt liegen, das haben wir ja ausgeschlossen. Es könnte zum Beispiel die Glücksgöttin Fortuna ihre Hand im Spiel haben, oder ein telekinetisch begabtes Medium könnte feinstofflich Einfluss genommen haben. Oder die Welt ist eben nicht konstant, aber dann kann alles Mögliche passieren und die Kaffeetasse vor Ihnen kann sich jederzeit in ein Monster verwandeln. Wahrscheinlichkeiten, die messbare oder berechenbare Eigenschaften der äußeren Wirklichkeit sind, bezeichnet man auch als objektive Wahrscheinlichkeiten. Es bleibt die Frage, woher bei solchen Wahrscheinlichkeiten eigentlich die Unvorhersagbarkeit einer Einzelbeobachtung kommt. Diese Unvorhersagbarkeit ist das, was wir gemeinhin als Zufall bezeichnen. Sie kann verschiedene Ursachen haben. Es mag sein, dass wir einfach noch nicht genügend Informationen über das beobachtete System gesammelt haben. Wenn Sie wissen wollen, in welchem Viertel heute abend der Mond steht, und Sie wissen nichts über die gegenwärtigen Mondphasen, dann können Sie raten und jedem Viertel die Wahrscheinlichkeit 1/4 geben. Sie können aber die Informationslücke leicht durch Blick in eine astronomische Tafel schließen, und dann wissen Sie es mit Sicherheit. Solche Informationslücken können wir aber nicht immer schließen, wie wir aus der Diskussion über chaotische Systeme bereits wissen. Chaos erzeugt also Zufall, den wir nicht loswerden können. Es kann jedoch sogar noch eine andere, fundamentalere Art von objektivem Zufall geben, nämlich einen, der sozusagen in der äußeren Wirklichkeit fest eingebaut ist, und den wir selbst bei perfekter Kontrolle des Systems nicht vermeiden können. Mit anderen Worten: die Wirklichkeit funktioniert gar nicht nach deterministischen Regeln. In der Quantenmechanik scheint so eine Art von Zufall aufzutreten, und wir werden darüber noch hören. Leider reicht die objektive Wahrscheinlichkeit für die Zwecke der Naturwissenschaften nicht aus. Längst nicht alle Teile der äußeren Wirklichkeit lassen sich in wiederholbaren Experimenten studieren, – viele Ereignisse sind eben einzigartig. Das Wetter in Berlin am 19. Februar 2020 tritt nur ein einziges Mal an einem einzigen Ort auf. Die Wettervorhersage lässt sich daher nicht als objektive Wahrscheinlichkeiten für Regen, Temperatur oder Windstärke formulieren. Was ist dann diese 80 % ige Regenwahrscheinlichkeit? Hier braucht man eine zweite Interpretation der Wahrscheinlichkeit, die man subjektiv nennt. Die Meteorologie untersucht alle Faktoren, die zum morgigen Regen führen können. Das ist also unsere gesamte Erkenntnis, alles was wir über die äußere Wirklichkeit zu diesem Thema (zur Zeit) wissen können. Das reicht nicht aus, um die Frage definitiv zu beantworten, aber es ist vertrauenswürdiger als andere Methoden (zum Beispiel raten oder auf den Laubfrosch schauen). Die Wahrscheinlichkeit, die alle verfügbaren Informationen über die äußere Welt benutzt, nennt man epistemisch. Sie soll die objektive Beweiskraft der beschränkten Information quantitativ erfassen. Beachten Sie das soll, denn es ist nicht so klar, wie das geht. Darauf kommen wir gleich zu sprechen. Nun kann man ja auch Wettervorhersagen aufgrund der eigenen, höchst privaten Kenntnisse versuchen. Man sagt dann sowas wie: „Ich glaube,
104
4 Wahrheit in der Physik
morgen wird es wahrscheinlich regnen.“ Jetzt wird die Wahrscheinlichkeit zu einem Grad an subjektiver Überzeugung, einem Glaubensgrad.
4.9 Sind Sie vernünftig? Aber was soll man mit einem subjektiven Glaubensgrad in einer Wissenschaft wie der Physik anfangen. Schließlich kann man doch glauben, was man will. Die Idee, Wahrscheinlichkeiten mit Glaubensgraden zu identifizieren wurde schon im 19. Jahrhundert propagiert. Der Logiker Augustus de Morgan (1806–1871) drückt das 1847 in seinem Buch Formal Logic or The Calculus of Inference, Necessary and Probable sonnenklar aus: Mit dem Grad der Wahrscheinlichkeit ist eigentlich der Grad der Überzeugung gemeint, oder sollte zumindest gemeint sein.
Mit den Überzeugungen ist es allerdings so eine Sache. Sie können beliebig unlogisch sein, und daher können sie auch die Axiome der Wahrscheinlichkeitsrechnung verletzen. Das ist unter Menschen sogar weit verbreitet. Seit den 1970er Jahren gibt es psychologische Untersuchungen darüber, wie Menschen unter unsicheren Bedingungen urteilen, und wie sie dabei die Gesetze der Wahrscheinlichkeitsrechnung verletzen. Eine schöne Serie von Experimenten dieser Art wurden 1974 von den beiden israelischen Psychologen Amos Tversky and Daniel Kahneman durchgeführt und können in ihrem Artikel Judgement under Uncertainty: Heuristics and Biases in der Zeitschrift Science (Bd. 185, S. 1125) nachgelesen werden. Als ein Beispiel stelle ich Ihnen einen Versuch kurz vor. Sie sollen als Versuchsperson Leuten ihren Beruf zuordnen, oder genauer aussagen, welche Wahrscheinlichkeit sie für seinen Beruf schätzen. Sie erhalten als erste Information, dass die Leute aus einer Gruppe von 100 Personen stammen, von denen 70 Rechtsanwälte und 30 Ingenieure sind18 . Wenn Sie keine weiteren Informationen bekommen und nun gefragt werden, welchen Beruf der Fred hat, dann werden sie sagen: mit 30 % Wahrscheinlichkeit ist er Ingenieur mit 70 % Wahrscheinlichkeit ist er Rechtsanwalt. Das sagen eigentlich Alle. Jetzt erhalten Sie aber zusätzliche Beschreibungen von Fred. Zum Beispiel: Fred ist 30 Jahre alt und kinderlos verheiratet. Er ist sehr begabt und hochmotiviert und man sagt ihm eine glänzende Karriere voraus. An seiner Arbeitsstelle wird er von Allen sehr geschätzt. Diese Beschreibung passt auf Ingenieure ebenso gut wie auf Rechtsanwälte. Was würden Sie nun sagen? Das Ergebnis des Experiments war, dass die meisten Versuchspersonen beide Berufe für gleichwahrscheinlich hielten. Sie orientierten sich also ausschließlich an der Beschreibung und vergaßen die wichtige, erste Information. Wie man neue Informationen für ein Update der eigenen Glaubensgrade benutzen sollte, werden wir im Abschn. 4.11 genau erklären. Subjektive Glaubensgrade sind also im Allgemeinen keine Wahrscheinlichkeiten. Wenn man aber die Versuchspersonen auf ihre Fehler aufmerksam macht, dann sehen 18
Der Einfachheit halber alles Männer.
4.10 Wollen wir wetten?
105
sie schon ein, wie sie ihre Glaubensgrade updaten sollten. Also kann man sich clevere Versuchspersonen vorstellen, die sich nach den Regeln der Wahrscheinlichkeitsrechnung verhalten. Diese Personen nennen wir rational. So wie die Regeln der Logik befolgt werden sollten, wenn man ordentliche deduktive Schlüsse ziehen will, so muss man auch eine rationale Person sein, wenn man Schlüsse unter Bedingungen des Zufalls ziehen will.
4.10 Wollen wir wetten? Wenn wir möglichen Ergebnissen Glaubensgrade zuordnen wollen, wie können wir das quantitativ tun? Es reicht nicht, zu sagen, dass es morgen mit großer Wahrscheinlichkeit regnet und mit geringer Wahrscheinlichkeit trocken bleibt. Wir wollen wissen, mit wieviel Prozent Wahrscheinlichkeit wir glauben, dass es morgen regnet. Eine pfiffige Methode, um subjektive Glaubensgrade quantitativ zu machen, wurde vom italienischen Mathematiker Bruno de Finetti (1906–1985) vorgeschlagen. Wenn man wissen will, wie groß jemand die Wahrscheinlichkeit für das Eintreten eines Ereignisses einschätzt, dann muss man mit dieser Person wetten. Wetten werden meistens mit Wettquoten abgeschlossen. Wenn man eine Wette mit der Quote19 5:1 kauft, dann bedeutet das, dass man für einen Euro Einsatz 5 eausgezahlt bekommt, wenn man die Wette gewinnt. Man macht also 4 eGewinn. Verliert man die Wette, macht man 1 eVerlust, denn der eingesetzte Euro ist futsch. Vor Abschluss einer Wette müssen sich die Beteiligten aber erst mal auf eine Quote einigen. Wenn man bereit ist, eine 5:1 Wette zu kaufen, dann ist man auch bereit jede Wette zu kaufen, die auf einen Euro mehr auszahlt, also zum Beispiel 7:1. Aber es gibt eine niedrigste Quote, die man gerade noch akzeptieren würde. Der Kehrwert dieser Quote ist eine Zahl zwischen 0 und 1, und genau diese Zahl definiert man als den quantifizierten, persönlichen Glaubensgrad. Im Falle einer 5:1 Quote ist die Wahrscheinlichkeit für den Eintritt des Ereignisses also P = 0.2. Wenn man so eine Wette kauft, wird man also sagen: „Ich glaube, dass das Ereignis mit 20 % Wahrscheinlichkeit eintritt“. Aber diese Überzeugung ist rein privat. Andere Menschen können andere Glaubensgrade haben. Was würde man denn nun darauf wetten, dass das Ereignis nicht eintritt? Konsistent mit den Regeln der Wahrscheinlichkeit wäre es, wenn die persönliche Wahrscheinlichkeit dafür 80 % wäre, denn die Summe aus beiden Möglichkeiten muss 100 % ergeben (Wahrscheinlichkeit, dafür dass das Ereignis eintritt oder dass es nicht eintritt). Aber was kümmern mich mathematische Regeln; könnte ich nicht etwas Anderes glauben? Wenn ich zum Beispiel ein typisches Querdenk wäre und es ginge um die Wette: „Gibt es das Corona Virus?“, denn könnte ich vielleicht auf die Idee kommen: „Mit 80 % Wahrscheinlichkeit gibt es das Virus nicht, aber mit 70 % Wahrscheinlichkeit existiert es, denn es wurde im Labor von Bill Gates 19
Es gibt im Wettgeschäft mehrere Begriffe von Quoten. Hier verwenden wir die Bruttoquote.
106
4 Wahrheit in der Physik
hergestellt, um die Menschheit zu versklaven“. Das ist nicht konsistent mit den Regeln der Wahrscheinlichkeit. Als Folge davon ist es einfach, eine Doppelwette anzubieten, die das Querdenk nach seinen Überzeugungen annehmen müsste, die es aber immer verliert! Die Wahrscheinlichkeiten entsprechen den Quoten (1/0.8) : 1 und (1/0.7) : 1. Das Angebot ist nun, diese 2 Wetten im Doppelpack zu kaufen. Beide Wetten sind für das Querdenk akzeptabel, also kann es sie nach seinem eigenen System von Überzeugungen beruhigt eingehen. Aber, – es ist klar dass es immer verliert, denn es kann nur einer der beiden Fälle eintreten: entweder das Virus existiert oder es existiert nicht. Die investierten 2 eEinsatz kommen nie herein. Zugegeben, das war ein sehr einfaches Beispiel. Der britische Mathematiker Frank Ramsey (1903–1930) bemerkte aber, dass man es immer schafft, erfolgreich gegen eine Person zu wetten, die inkonsistente Glaubensgrade hat. Eine Wette, die das schafft, nennt man Dutch Book. Das Buch, das in diesem Namen steckt, ist das der Buchmacher, die Wetten verkaufen. Warum es sich gerade um Holländer handeln soll, die irrationale Typen aufs Kreuz legen, ist nicht so ganz klar. Sie galten wohl eine Zeit lang als besonders geschickt in solchen Dingen. Zwei Aussagen über Dutch Books sind wichtig für eine Theorie subjektiver Wahrscheinlichkeiten: Erstens das Dutch Book Theorem: Bei einer Menge von Wettquoten, die die Wahrscheinlichkeitsaxiome nicht erfüllt, gibt es eine Menge von Wetten mit diesen Quoten, die einen Nettoverlust für eine Seite garantiert. Zweitens die Umkehrung dieses Theorems: Für eine Menge von Wettquoten, die den Wahrscheinlichkeitsaxiomen gehorcht, gibt es keine Menge von Wetten (mit diesen Quoten), die einen sicheren Verlust (Gewinn) für eine Seite garantiert. Eine Person ist also genau dann vor Dutch Books gefeit, wenn ihre persönlichen Wettquoten, b.z.w. ihre subjektiven Wahrscheinlichkeiten, mit den Regeln der Wahrscheinlichkeitstheorie übereinstimmen. In diesem Sinn können wir diese Regeln als Regeln für rationales Verhalten ansehen. Mit allen Entscheidungen die wir treffen (und die sind alle Wetten!) gehen wir Risiken ein. Wenn wir Risiken so kombinieren, dass wir immer verlieren, dann verhalten wir uns eben nicht rational. Wenn Sie also demnächst wieder im Wetterbericht hören, dass die Regenwahrscheinlichkeit morgen 80 % beträgt, dann wissen Sie jetzt, was das bedeutet. Der gesamte Wetterdienst würde (1/0.8) : 1 (oder 1.25 : 1) darauf wetten. In der Praxis sind wir viel öfter irrational, weil wir es gar nicht schaffen, komplexen Ereignissen konsistent Glaubensgrade zuzuordnen. Wie groß ist die Wahrscheinlichkeit, dass der DAX nächste Woche unter 15000 Punkte fällt? Wie groß ist die Wahrscheinlichkeit, dass die globale Durchschnittstemperatur in 10 Jahren um 2◦ gestiegen ist? Wie groß ist die Wahrscheinlichkeit, dass der schwarze Fleck auf Ihrem Handrücken Hautkrebs ist? Für viele solche Fälle verschaffen wir uns Glaubensgrade, indem wir uns zusätzliche Informationen holen oder auf Experten hören.
4.11 Neue Nachrichten
107
4.11 Neue Nachrichten Aber wie sollen wir als rationale Personen unsere Glaubensgrade ändern, wenn wir neue Informationen bekommen? Der Schlüssel dazu ist die bedingte Wahrscheinlichkeit. Um dieses Konzept zu verstehen, betrachten wir ein einfaches Beispiel. Nehmen wir an, Jule (J) und Leo (L) mögen sich. Wir laden beide ein. Daraus können 4 Situationen entstehen: Beide kommen (JL), Leo kommt ohne Jule (J L), Jule kommt ohne Leo (JL), oder keines kommt (J , L). Unsere Wahrscheinlichkeit P(J, L), dass beide kommen, wenn sie eingeladen sind, soll für unser Beispiel 0.5 sein. Die Wahrscheinlichkeit, dass Leo kommt (egal ob mit oder ohne Jule) sei P(L) = 0.6. Beachten Sie, dass diese Wahrscheinlichkeit auf jeden Fall größer sein muss als P(J, L), denn sie ist ja die Summe aus den zwei Wahrscheinlichkeiten P(J, L) + P(J , L). Nun können wir uns fragen: Wie groß ist die Wahrscheinlichkeit, dass Jule kommt, wenn Leo schon da ist? Das ist die bedingte Wahrscheinlichkeit P(J |L). In diesem Fall können wir das Experiment wiederholen und Histogramme machen, um die bedingte Wahrscheinlichkeit zu berechnen. Von N Einladungen finden wir N (J, L) Fälle, in denen beide kommen und N (L) Fälle in denen Leo kommt. Wenn wir nun abzählen wollen, wie oft Jule erscheint, wenn Leo schon da ist, dann können wir alle Fälle außer Acht lassen, in denen Leo gar nicht kommt. Jetzt betrachten wir die Untermenge von Einladungen, in denen Leo erschienen ist, das ist also der Teil der Versuche, in denen die Bedingung erfüllt ist. Wie groß ist die relative Häufigkeit unter diesen Versuchen, dass auch Jule erscheint? Ganz klar, es ist N (J, L)/N (L). Wenn wir also eine lange Versuchsreihe machen, dann kommen wir schließlich zu den Wahrscheinlichkeiten und erhalten das Ergebnis: P(J |L) =
P(J, L) . P(L)
Genau so ist die bedingte Wahrscheinlichkeit für beliebige Ereignisse definiert. Wir können sie nun als ein Update von Glaubensgraden interpretieren. Wenn wir nämlich zunächst glauben, die Wahrscheinlichkeit Jule und Leo zu treffen sei 0.5 (das nennt man in diesem Zusammenhang a priori Wahrscheinlichkeit), und wir sehen dann, dass Leo erschienen ist, dann ist die neue Wahrscheinlichkeit (a posteriori), beide zu sehen P(J |L) = 0.5/0.6 ≈ 0.83. Die bedingte Wahrscheinlichkeit ist so etwas wie die wahrscheinlichkeitstheoretische Version einer hinreichenden Bedingung. Wäre P(J |L) = 1, dann könnte man nämlich sagen: Wenn Leo kommt, dann kommt Jule. Also kann man die bedingte Wahrscheinlichkeit auch als Wahrscheinlichkeit für eine hinreichende Bedingung lesen. Ereignisse können auch vom Eintreffen anderer Ereignisse ganz unbeeindruckt sein. Wenn man zum Beispiel mehrmals würfelt, dann ist das Ergebnis eines Wurfs nicht von Ergebnissen vorheriger Würfe beeinflusst, d. h. die bedingte Wahrscheinlichkeit hängt überhaupt nicht von der Bedingung (vorige Würfe) ab, also P(A|B) = P(A). In solchen Fällen nennt man A und B statistisch unabhängig. Aus der
108
4 Wahrheit in der Physik
Definition der bedingten Wahrscheinlichkeit liest man ab, dass in solchen Fällen P(A, B) = P(A)P(B) ist. Ereignisse, die nicht statistisch unabhängig sind nennt man korreliert. Die bedingte Wahrscheinlichkeit ist also ein Maß für die Stärke dieser Korrelation. Eine ganz besondere Sorte von Bedingungen in bedingten Wahrscheinlichkeiten sind Expertenmeinungen. Sie verhelfen uns zu Glaubensgraden, wenn wir sie akzeptieren. Das lässt sich folgendermaßen ausdrücken: Ein Expert ist der Meinung, dass Ereignis A mit Wahrscheinlichkeit p auftritt, also Pex per t (A) = p. Wenn ich diese Information erhalte, dann richte ich meinen eigenen Glaubensgrad danach aus, d.h P(A|Pex per t (A) = p) = p. Das sollte ich natürlich nur tun, wenn ich dem Expert auch wirklich vertraue. Experte müssen keine Menschen sein. Es gibt ja eine ganze Menge von Zufallsereignissen, die eine objektive Wahrscheinlichkeit besitzen. Nennen wir diese mal Z (A) ( Z wie Zufall). Danach sollte ich mich immer richten, denn die äußere Welt irrt nicht, d. h. P(A|Z (A) = p) = p. Wenn ich dieses Principal Principle20 missachte, dann straft mich das Leben, denn dann schätze ich reale Risiken und Chancen mit Sicherheit falsch ein. Wenn ich der Meinung bin, beim Würfeln kommt am häufigsten die 1, dann werde ich in Würfelspielen verlieren. Beim Eintreffen jeder Art von neuen Informationen sollte man also dazulernen können und seine Glaubensgrade updaten, d. h. beim Eintreffen von B sollte ich mein P(A) durch P(A|B) ersetzen. Aber wie kann ich das tun wenn ich die gemeinsame Wahrscheinlichkeit P(A, B) gar nicht kenne? Die Methode, eine nützliche Form für das Update zu formulieren, geht auf den britischen Geistlichen Reverend Thomas Bayes (1701–1761) zurück. Dazu schreibt man die gemeinsame Wahrscheinlichkeit auf zwei Arten, P(A, B) = P(A|B)P(B) = P(B|A)P(A). Die gemeinsame Wahrscheinlichkeit kennen wir zwar nicht, aber wir können jetzt die bedingte Wahrscheinlichkeit P(A|B) auch ohne sie angeben: P(A|B) =
P(B|A)P(A) . P(B)
Fragt sich, ob man das nutzbringend anwenden kann. Beachten Sie, dass auf der rechten Seite neben der anfänglichen Wahrscheinlichkeit P(A) noch die Wahrscheinlichkeit für B und die (merkwürdig aussehende) Wahrscheinlichkeit für B unter der Bedingung A auftreten. Nur wenn man die kennt, kann man mit der Bayesschen Formel etwas anfangen. Um Sie davon zu überzeugen, dass das in praktischen Fällen auch immer klappt, betrachten wir mal einen. Corona Schnelltest Die Zahlen aus diesem Beispiel stammen vom Robert-Koch Institut, (Infografik: Corona-Schnelltest-Ergebnisse verstehen, 25. Feb. 2021.) Eine Kohorte von 10000 Menschen wird getestet, um die Zuverlässigkeit des Schnelltests zu prüfen. In dieser Kohorte sind 5 Personen tatsächlich infiziert. Der Test identifiziert 4 von ihnen. Aber er spricht auch bei weiteren 200 Personen an, die nicht infiziert sind. Man sagt, er liefert 2 % „falsch positive“ Ergebnisse. Von 20
Es stammt vom US-amerikanischen Philosophen David Kellog Lewis (1941–2001).
4.12 Ein bisschen Kausalität: Zufallsprozesse
109
den 9995 nicht infizierten Personen erkennt er also immerhin 9795 richtig. Um aus den statistischen Daten Wahrscheinlichkeiten zu bekommen, verwenden wir die statistische Interpretation der Wahrscheinlichkeit. Jetzt können wir die Ausdrücke in der Bayesschen Formel zuordnen. A steht für „infiziert“, B für „positives Testergebnis“. Ich würde gern wissen, wie groß die Wahrscheinlichkeit ist, dass ich infiziert bin, wenn mein Testergebnis positiv ist, also P(A|B) . Die Wahrscheinlichkeit, dass eine zufällig herausgegriffene Person infiziert ist, ist P(A) = 5/10000 = 0.05%. Die Wahrscheinlichkeit, dass ein Testergebnis positiv ist, ist P(B) = 204/10000. Die Wahrscheinlichkeit, dass der Test anspricht, wenn man infiziert ist, ist P(B|A) = 4/5. Sie sehen, dass die Größen in der Bayesschen Formel in konkreten Anwendungsfällen ganz anschauliche Bedeutung bekommen. Die Berechnung des Updates ist jetzt per Taschenrechner ganz einfach zu erledigen: P(A|B) =
(4/5) · (5/10000) ≈ 0.02 204/10000
Nanu! Die Wahrscheinlichkeit, infiziert zu sein liegt bei 2 %? So hatte ich mir einen Test eigentlich nicht vorgestellt. Beachten Sie, dass der Test eine Menge richtig macht. Wenn man infiziert ist, so sagt er das mit Wahrscheinlichkeit 4/5 = 80 % (das nennt man Sensitivität), wenn man nicht infiziert ist, sogar mit Wahrscheinlichkeit 9975/9995 = 98 % (das nennt man Spezifität). Warum also die mickrige Vorhersagekraft? Das liegt daran, dass es weit mehr falsch positive Personen (200) gibt als wirklich infizierte (5). Menschen neigen dazu, die Wahrscheinlichkeit P(A) bei Schätzungen außer Acht zu lassen. Sie schauen, wie gut etwas im Einzelfall funktioniert und beurteilen auf dieser Grundlage die Zuverlässigkeit eines Systems oder Verfahrens. Dieser weit verbreitete Irrtum ist auch als Prävalenzfehler bekannt. Wie wichtig P(A) ist, kann man an der Bayesschen Formel leicht ablesen. Zu Ihrer Beruhigung. Wären statt den 5 Personen 1000 infiziert (bei gleicher Sensitivität und Spezifität), so liefert der Test bei den 1000 Infizierten 800 richtig positiv und 200 falsch negativ, unter den 9000 nicht Infizierten 180 falsch positive und 8820 richtig negativ. Dann ergibt sich (Taschenrechner), dass die Wahrscheinlichkeit bei positivem Testergebnis auch infiziert zu sein bei 81.6 %. Aber der Prävalenzfehler kann auch als Waffe in Auseinandersetzungen gute Dienste leisten, wenn man ihn geschickt einsetzt. Die Abb. 4.2 zeigt noch einmal, wie dieser Fehler in den Corona-Impfdebatten benutzt wurde um zu suggerieren, dass die Impfungen nicht wirken.
4.12 Ein bisschen Kausalität: Zufallsprozesse In der Physik will man Ereignisse vorhersagen. Wenn ich heute aus Messungen schließe, dass ein Ereignis mit Wahrscheinlichkeit Pheute eintritt, was nützt mir das,
110
4 Wahrheit in der Physik
Abb. 4.2 Ein beliebtes quergedachtes Argument und typischer Prävalenzfehler. Im Krankenhaus liegen 50 % Geimpfte und 50 % Ungeimpfte. Also kann die Impfung ja nicht sehr wirkungsvoll sein. Allerdings sind das 67 % der Ungeimpften und 17 % der Geimpften
wenn ich wissen will, was ich morgen erwarten kann? In einer deterministischen Physik kann ich aus dem Zustand heute den Zustand morgen (mindestens im Prinzip) exakt ausrechnen. Wenn ich aber die Einflüsse auf das betrachtete System im Laufe der Zeit gar nicht genau kenne, dann nützen mir auch deterministische Regeln nichts. Ist das das Ende aller Vorhersagen? Nein, es bedeutet in vielen Fällen nur eine Abschwächung der Vorhersagekraft. Aus deterministischen Gesetzen zur Zeitentwicklung werden Wahrscheinlichkeitsgesetze. Bei einer deterministischen Zeitentwicklung entsteht aus einem Zustand x(0) = x0 Zeitschritt für Zeitschritt ein Prozess x1 = x(t) → x2 = x(2t) → · · · → xn = x(nt). Die Änderung des Zustands in jedem Zeitschritt kann man aus dem Zustand zu Anfang des Zeitschritts berechnen. Bei einem Zufallsprozess (oder stochastischen Prozess) hat man nur noch die Wahrscheinlichkeit für diesen Prozess, d. h. die gemeinsame Wahrscheinlichkeit aller xi , P(x0 , x1 , · · · xn ). Wie kann man solche Wahrscheinlichkeiten vorhersagen? Meistens kennt man den Startzustand x0 oder wenigstens dessen Wahrscheinlichkeit P(x0 ). Zum Beispiel steht x0 = R für „Heute regnet’s“. Wie groß ist die Wahrscheinlichkeit, dass morgen (d. i. die Zeit t) die Sonne scheint (x1 = S)? Aus der Definition der bedingten Wahrscheinlichkeit ist P(x1 = S, x0 = R) = P(x1 = S|x0 = R, 0)P(R, 0). Die bedingten Wahrscheinlichkeiten für einen elementaren Zeitschritt nennen wir Übergangswahrscheinlichkeiten. Wenn man die kennt, kommt man schon mal einen Schritt voran. Wie geht es nun weiter mit dem Wetter, d. h. wie groß ist die Wahrscheinlichkeit, dass es übermorgen (2T ) wieder regnet. Oder anders gesagt: was ist P(x2 = R, x1 = S, x0 = R)? Nehmen wir erst mal an, wir kennen die Wahrscheinlichkeit des Prozesses für heute und morgen, d. h. P(x1 = S, x0 = R). Dann sagt die bedingte Wahrscheinlichkeit, dass P(x2 = R, x1 = S, x0 = R) = P(x2 = R|x1 = S, x0 = R)P(x1 = S, x0 = R) ist. Beachten Sie, dass es eine Liste von 2 Bedingungen gibt, die beide erfüllt sein müssen. Die Regenwahrscheinlichkeit übermor-
4.12 Ein bisschen Kausalität: Zufallsprozesse
111
gen hängt also im allgemeinen von der Vorgeschichte ab. Das Wettersystem könnte sich erinnern. Diese Erinnerung steckt in der Übergangswahrscheinlichkeit. In der deterministischen Zeitentwicklung eines Zustands gibt es keine Erinnerung. Der Zustand soll die Information für die Zeitentwicklung über den nächsten Schritt beinhalten. Auch Zufallsprozesse können diese spezielle Amnesie besitzen. Besonders drastisch ist das bei Spielen wie einem einfachen Münzwurf. Das Ergebnis des nächsten Wurfs ist statistisch unabhängig von allen vorhergehenden Würfen. Eine Reihe von Münzwürfen ist also ein Zufallsprozess, bei dem die Ergebnisse in jedem Schritt statistisch unabhängig voneinander sind. Der interessanteste und wichtigste Typ von Zufallsprozessen (für die Beschreibung der äußeren Welt) ist der, bei dem die Wahrscheinlichkeit für einen Zustand xn zur Zeit nt nur vom Zustand xn−1 zur unmittelbar vorherigen Zeit (n − 1)t abhängt. Der Prozess hat sozusagen ein Ein-Schritt-Gedächtnis, genau wie die deterministischen Prozesse für Zustände. Solche Prozesse nennt man auch Markov Prozesse, nach dem russischen Mathematiker Andrej Andreeviˇc Markov (1856–1922). Für unser Wetter bedeutet das, dass die Übergangswahrscheinlichkeit immer nur vom Wetter des Vortags abhängt, also zum Beispiel P(x2 = R|x1 = S, x0 = R) = P(x2 = R|x1 = S) und der Regen vor zwei Tagen ist vergessen. Die schönste Eigenschaft von Markovprozessen ist, dass sie die Kausalität und Lokalität bewahren, denn man kann Prozesse, die viele Schritte lang sind, einfach aus Einzelschritten zusammensetzen. Zum Beispiel ist die Wahrscheinlichkeit für das Wetter der nächsten 3 Tage (wenn es heute x0 ist) einfach P(x3 , x2 , x1 , x0 ) = P(x3 |x2 )P(x2 |x1 )P(x1 |x0 ). Das ganze Entwicklungsgesetz eines solchen Prozesses steckt in der Übergangswahrscheinlichkeit für einen Zeitschritt. Für diskrete Zustände gibt es eine sehr übersichtliche Darstellung eines solchen Modells in Form eines Zustandsdiagramms. Ein solches Diagramm für ein Wettermodell mit drei Zuständen („Sonne“ = S, „Wolken“ = W, „Regen“ = R) ist in der Abb. 4.3 gezeigt. Die Übergänge in einem Zeitschritt sind durch Pfeile markiert, und an den Pfeilen steht die jeweilige Wahrscheinlichkeit. Einen einzelnen Wetterprozess (sowas nennt man eine Realisierung) erhält man, indem man immer den Pfeilen folgt und die dabei angelaufenen Zustände markiert. Also zum Beispiel SSW R R (von links nach rechts). Die Wahrscheinlichkeit für diesen Prozess ergibt sich, wenn man die Übergangswahrscheinlichkeiten multipliziert. Das ergibt für SSW R R die Faktoren (s. Abb. 4.3) 0.5 · 0.25 · 0.25 · 0.75. Die Wahrscheinlichkeiten werden mit wachsender Prozesslänge immer kleiner. Das muss auch so sein, denn es gibt immer mehr mögliche Prozesse und die Gesamtsumme muss ja immer noch 1 bleiben. Wettermodelle von diesem Typ wurden vor der Entwicklung der numerischen Wettervorhersage tatsächlich verwendet (das nennt sich phänomenologische Wettervorhersage). Selbst die alten Bauernregeln funktionieren so. Regnet es um den Siebenschläfertag herum, dann ist die Wahrscheinlichkeit, dass es auch in den Wochen danach nochregneterhöht(DieWahrscheinlichkeit,dassdieRegelstimmt,beträgtfürMünchen 80 %). Typische Wetterlagen haben eine Lebensdauer von mehreren Tagen, so lange erinnert sich das Wetter. Das heißt aber nicht, dass ein Markov Modell damit ausgeschlossen ist. Bei der Zustandsdefinition kommt es nämlich auch auf den Zeitschritt an. Wenn das Wetter typischerweise 3 Tage stabil bleiben würde,
112
4 Wahrheit in der Physik
Abb. 4.3 Zustandsdiagramm für einen einfachen Markovschen Wetterprozess
dann könnte man als Zustand eben das Wetter von 3 Tagen benutzen. Man kann also Gedächtniseffektevermeiden,wennmanalleZuständewährendderGedächtnisspanne (dienenntmanauchKorrelationszeit)zueinemneuenZustandvereinigt.Nurbeieinem Langzeitgedächtnis wird das schwierig, dann brechen Markov-Modelle zusammen. Mit einem Markovschen Zufallsprozess kann man also Vorhersagen für den Zustand zu einer späteren Zeit t machen. Die Zuverlässigkeit (und damit praktische Nützlichkeit) der Vorhersage hängt allerdings von der gefunden Lösung P(x, t) ab. Wenn zum Beispiel alle x gleichwahrscheinlich sind, hätte man genauso gut raten können. Aber wenn nichtverschwindende Wahrscheinlichkeiten nur in der Nähe eines einzigen Wertes x0 liegen, kann man diesen Wert ganz gut als Erwartung des zukünftigen Ergebnisses betrachten und ihn und seine Streuung angeben. So geschieht das auch in heutigen Wettervorhersagen.
4.13 Statistik Jedes Experiment und jede systematische Beobachtung (zum Beispiel am Sternenhimmel) der Physik produziert einen Haufen quantitativer Daten. Der systematische Umgang mit solchen Daten nennt sich Statistik. Wir haben uns schon in Abschn. 4.2 klargemacht, dass aufgrund von statistischen Messfehlern auch das Ergebnis einer simplen Messung keine Zahl, sondern ein Histogramm ist (vgl. Abb. 3.1). Betrachten wir noch einmal solche Histogramme.
4.13 Statistik
113
Wenn man eine Größe X N mal misst, so spiegelt das Histogramm der Messergebnisse die unkontrollierbaren Einflüsse auf den Messprozess wider. Für viele Arten der Messung in der Physik sind diese Einflüsse (fast) statistisch unabhängig, d. h. ein Resultat einer Einzelmessung hat die Form X = X 0 + F, wobei X 0 der ideale Messwert ist, den wir eigentlich gern bestimmen möchten, und F zufällige, statistisch unabhängige Zahlen sind, die von den verschiedenen Störungen des Ergebnisses her kommen. In jeder Einzelmessung vergrößert oder verkleinert F den Messwert gegenüber dem X 0 ein bisschen. Die Einflüsse dürfen aber das Histogramm von X nicht systematisch verzerren, d. h. die Verkleinerungen und Vergrößerungen müssen mit gleichen relativen Häufigkeiten auftreten. Andernfalls enthalten die Störungen einen systematischen Messfehler. Das Histogramm der Störungen muss also symmetrisch um F = 0 herum liegen (und damit das Histogramm der X symmetrisch um X 0 ). Die Streubreite des F-Histogramms (und das ist auch die Breite des X -Histogramms) nennen wir mal B. Wenn die relativen Häufigkeiten in dem Histogramm der X sich Grenzwerten annähern (was sie in den allermeisten Fällen auch tun), dann sind diese Grenzwerte die statistischen Wahrscheinlichkeiten der Messwerte. Die Mathematik hält nun zwei sehr nützliche Ergebnisse für uns bereit. Das erste Resultat ist bekannt als Gesetz der großen Zahlen. Es besagt, dass bei N -facher Wiederholung der Messung mit Ergebnissen X 1 , · · · X N die Summe der Messergebnisse, geteilt durch N , dem Wert X 0 immer näher kommt und ihn schließlich erreicht. Diese Summe X = (X 1 + · · · + X N )/N , nennt man den empirischen Mittelwert. Es ist, wie Sie sehen, eine Summe aus Zufallsergebnissen, die alle das gleiche Histogramm haben. Man benutzt in der Praxis den empirischen Mittelwert als Schätzung des Wertes X 0 . Kann man etwas über den Fehler sagen, den man bei solch einer Schätzung macht? Hierfür gibt es das zweite nützliche Ergebnis der Mathematik, das Zentraler Grenzwertsatz (ZGS) genannt wird. Dieser Satz sagt etwas Genaueres über die Streuung der empirischen Mittelwerte X um den Wert X 0 . Der ZGS besagt, dass sich das Histogramm der X mit zunehmender Anzahl N von Einzelmessungen einer sogenannten Gaußschen Glockenkurve annähert (und sie schließlich auch erreicht). Diese Kurve ist in Abb. 4.4 gezeigt. Sie liegt symmetrisch um X 0 und ihre Breite, also die typische √ Streuung der Messergebnisse ist B/ N . Mit anderen Worten: die Streuung nimmt mit zunehmender Länge der Messreihe immer weiter ab, und zwar schrumpft√sie auf die Hälfte, wenn man die Anzahl der Messungen vervierfacht. Der Faktor 1/ N gibt das Tempo an, mit dem das statistische Ergebnis vertrauenswürdiger wird, wenn man die Anzahl der Messungen vergrößert. Wenn Sie Lust haben, dann können Sie die mathematischen Aussagen mal mit einem Münzwurf überprüfen. Setzen Sie „Zahl“ = 1, „Kopf“ = 0, nehmen Sie ein Blatt Papier und einen Euro und experimentieren Sie mit Histogrammen bei verschieden langen Messreihen. Wieviel Würfe brauchen Sie, um ein Histogramm zu produzieren, dass so ähnlich aussieht wie eine Gaußsche Glockenkurve? 50 Würfe sind schon nicht schlecht. So bekommen Sie ein Gefühl für Statistik. Wenn die Histogramme von Beobachtungsdaten einer Gaußschen Glockenkurve ähneln, kann man durch Angabe des empirischen Mittelwerts und einer Streubreite
114
4 Wahrheit in der Physik
Abb. 4.4 Die Gaußsche Glockenkurve. Die Wahrscheinlichkeit für Messfehler zwischen 0 und 1 ist die graue Fläche. Die punktierte Linie ist eine typische Streubreite
das Ergebnis ganz gut beschreiben, d. h. statt eines ganzen Histogramms braucht man nur zwei Zahlen. Die Streubreite sollte man allerdings nie vergessen, sie ist wichtig für die Vertrauenswürdigkeit des empirischen Mittelwerts. Denken Sie an einen Wetterbericht. Da werden auf dem Computer viele Wetterlagen mit kleinen Störungen simuliert und daraus erhält man ein Histogramm von Messwerten wie zum Beispiel der Temperatur. Aber die Voraussage: „In 3 Tagen wird es 26 Grad“ ist der empirische Mittelwert der Einzelergebnisse. Als Service bieten viele Wetterdienste mittlerweile auch schon grau unterlegte Temperaturbereiche an, die die Schwankungsbreite veranschaulichen. Für eine typische, ordentliche Messung kommt man immer ganz gut in die Nähe einer Gaußschen Glockenkurve. Es gibt jedoch auch Beobachtungsdaten, für die das Histogramm überhaupt keine Ähnlichkeit mit einer Glockenkurve hat. Betrachten Sie zum Beispiel die Abb. 4.5. Sie zeigt das Histogramm der Einwohnerzahlen deutscher Städte. Klar, es gibt sehr viele kleine und wenige große Städte, aber das Histogramm enthält viel mehr detaillierte Informationen. Ähnliche (sogenannte links-steile) Verteilungen finden sich auch für viele andere Größen, zum Beispiel für die Vermögen von Personen, die Stärke von Erdbeben, der Größe von Mondkratern, die Ausdehnung von Waldbränden, die Stärke von Sonneneruptionen, die Worthäufigkeiten in Texten, die Zugriffe auf Websites u. s. w., u. s. w. Die links-steilen Verteilungen für Größen x haben häufig eine bemerkenswerte, quantitative Besonderheit. Sie haben die Form H (x) = C x −b , also ein Potenzgesetz (siehe Matheglossar), festgelegt durch b21 . Solche Gesetze für Histogramme sind unter dem Namen Pareto Verteilung bekannt. Für Histogramme dieser Form hat 21
Die Konstante C ist nicht frei wählbar. Sie muss dafür sorgen, dass die Summe über alle relativen Häufigkeiten 1 ergibt.
4.13 Statistik
115
Abb. 4.5 Verteilung der Einwohnerzahlen deutscher Städte. (Accountalive, CC0 gemeinfrei, via Wikimedia Commons)
man quantitative Erklärungen, für manche zumindest qualitative. Wenn man zum Beispiel ein System nach dem Prinzip „Wer hat, dem wird gegeben“ installiert, dann ist es nicht weiter verwunderlich, dass der Entwicklungsprozess das Haben auf immer weniger Individuen konzentriert. Wer also Kapitalismus inklusive Zinsgewinne einführt, darf sich nicht wundern, dass sich das Kapital immer mehr bei Wenigen anhäuft („It’s not a bug, it’s a feature“). Die Auswertung und Veranschaulichung von Daten ist zu einem wichtigen Faktor in der Meinungsbildung geworden. Daher gibt es auch eine Industrie, die sich damit beschäftigt, wie man die Öffentlichkeit durch hübsch aufbereitete Daten beeinflussen kann. Das muss nicht immer schlecht sein. Eine wichtige Pionierin für den Gebrauch von gut aufbereiteten Daten in politischen Diskussionen war die britische Krankenschwester und Reformerin des Gesundheitswesens Florence Nightingale (1820–1910). Während des Krimkrieges (1853–1856) leitete sie ein Lazarett in Scutari (Albanien) und stellte fest, dass die verletzten Soldaten mehr an Hygienemängeln starben als an den Verwundungen. Sie reorganisierte die Krankenpflege und sammelte Daten über den Rückgang der Sterblichkeit, die sie zu einem (damals) völlig neuen Bild verdichtete, das heute in der Statistik „Rosendiagramm“ heißt (siehe Abb. 4.6). Es war gewissermaßen die erste Infografik der neueren Geschichte und Nightingale benutzte es, um die Regierung und Verwaltung davon zu überzeugen, dass Hygiene in Krankenhäusern und auch sonst keine schlechte Sache ist. Das war damals hochumstritten, viele Autoritäten glaubten diesen ganzen Kram nicht, mit dem man übertragbare Krankheiten bekämpfen wollte. Zum Glück gewannen Nightingale und ihre Mitstreite die politische Schlacht. Als klar wurde, wie einflussreich aufbereitete Statistiken sein können, fanden sie überall in der Politik und den Medien Anwendung. Dabei ging es auch immer darum, die eigene Position möglichst gut durch die aufbereiteten Daten zu unterstützen. Die sich ausbreitende Datenaufbereitungsflut trifft uns heute mit voller Wucht. Wir werden von allen Seiten mit scheingenauen Statistiken bombardiert. Schon Mitte des
116
4 Wahrheit in der Physik
Abb. 4.6 Florence Nightingales Infografik zur Entwicklung der Sterblichkeit von Verletzten in ihrem Lazarett. Diese Form der Darstellung von Daten ist auch heute noch gebräuchlich. (gemeinfrei, via Wikimedia Commons)
19. Jahrhunderts machte der Satz die Runde „Es gibt drei Sorten von Lügen: Lügen, verdammte Lügen und Statistik“. Heutzutage ist es (neben den bewußte Lügen mit Statistik) vor allem der grassierende statistische Analphabetismus, der Misstrauen gegen diese Informationsquelle schürt. Zum Glück gibt es als Gegenmittel auch jede Menge an Websites und Bücher, mit denen man das statistische Denken lernen kann. Man muss sie nur lesen. Hier fehlt uns leider der Platz dafür. Unterhaltsam ist es auf jeden Fall, Nachrichten der Medien mal auf ihren statistischen Wahrheitsgehalt abzuklopfen. Ich gebe Ihnen zwei kleine Kostproben, denen Sie nachspüren können, sozusagen als freiwillige Hausaufgabe: • Sportmediziner überrascht: E-Bike fahren reduziert Herzinfarktrisiko fast um die Hälfte (Frankfurter Rundschau, 03.04.2023) • ...gingen die fleischlosen Alternativen verhältnismäßig gut weg. „Im Verhältnis zu den zwei herkömmlichen tierischen Varianten wurden insgesamt stolze 40 % vegane Currywurst und 20 % vegane Weißwurst bestellt“, erklärt die Hofbräu-Wirtin. Zur besseren Veranschaulichung bedeutet das: Von 1000 Currywurst-Bestellungen waren 400 vegan, bei der Weißwurst waren es immerhin 200 von 1.000. (Münchner Abendzeitung, 06.10.2022) Beide Aussagen sind ja sowas von irreführend! Für Interessierte gibt es Websites, die jeden Monat so eine „Unstatistik“ auseinander nehmen (schauen Sie zum Beispiel mal auf https://www.rwi-essen.de/presse/wissenschaftskommunikation/unstatistik).
Kapitel 5
Kampf der Wahrheiten
5.1 Ist die Erde eine Scheibe? In den USA ist Meinungsfreiheit ein sehr hohes Gut. Das Verständnis vom Verhältnis zwischen Meinungsfreiheit und Wahrheit ist allerdings für Europäer etwas merkwürdig. Es gilt nämlich etwas als wahr, das sich in einem Kampf von Meinungen durchgesetzt hat. Daher lohnt es sich für jede Art von Verschwörungsmystik, aber auch für bibeltreue oder sonstige Fundamentaliste, groß angelegte öffentliche Kampagnen zu inszenieren, um ihre Privatmeinungen als gesetzlich anerkannte Wahrheiten zu etablieren. Die Zurückdrängung der Evolutionstheorie in den Schulen (und Ersatz durch die Schöpfungsgeschichte) ist nur ein prominentes Beispiel. Wir betrachten zunächst eine drängende physikalische Frage, bevor wir uns allgemeineren Kämpfen um Wahrheit zuwenden. Unser Einstiegsbeispiel in die Kämpfe um Wahrheit beschäftigt sich mit den Flat Earthers, jene Menschen, die die Ansicht vertreten, die Erde sei eine Scheibe. Im Jahr 1846 veröffentlichte Samuel Rowbotham (1818–1884) eine kurze Schrift, in der er die These aufstellte (gestützt auf die Bibel), die Erde sei keine Kugel, sondern eine Scheibe. Diese These versuchte er durch Experimente und Überlegungen zu untermauern, die er in dem 1865 veröffentlichten Buch Zetetic1 Astronomy: Earth not a Globe zusammenfasste. Mit weiteren Auflagen wurde dieses Buch immer dicker. Rowbotham führte 15 Experimente auf, die beweisen sollen, dass die Erdoberfläche nicht gekrümmt ist. In den folgenden Kapiteln erklärt er seine Astronomie, in der die Erde eine Scheibe ist, deren Mittelpunkt sich am Nordpol befindet, während am Südpolarmeer eine unüberwindliche, kreisförmige Eismauer die Grenze der Erde bildet. Sonne, Mond und alle Sterne befinden sich weniger als 2000 km über der Erdscheibe2 . Schließlich widerlegt Rowbotham in einem Kapitel noch kurz sämtliche Beweise für 1
Zetetik bildet als philosophischer Begriff einen Gegensatz zu Dogmatik, stammt von den alten Griechen und bedeutet soviel wie Suche (im Sinne von Forschung). 2 Seine Abstandsangaben variieren zwischen den Auflagen. Diese stammt aus der Auflage von 1881, die man immer noch kaufen kann. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_5
117
118
5 Kampf der Wahrheiten
die Kugelgestalt der Erde. Nach seinem Tod wurde eine Gesellschaft gegründet, die u. a. das Magazin The Earth not a Globe Review herausgab, aber schließlich schlief die ganze Sache ein. 1956 gründete dann Samuel Shelton die International Flat Earth Society als Nachfolgeorganisation, die aber lange Zeit so dahin dümpelte, und die mit den ersten Bildern der Erde aus dem Weltall zu kämpfen hatte. Mit dem Aufblühen der social media änderte sich das sehr schnell. Im Jahr 2019 gab es ca. 200.000 follower der Flat Earth Society auf facebook. Der letzte twist ist nun, dass die cleversten Flat Earther die Flat Earth Society für eine geheime Regierungsorganisation halten, die die Wahrheit über die Scheibengestalt der Erde durch besonders angreifbare Argumente lächerlich machen soll, sozusagen eine Verschwörungstheorie 2. Stufe. Wir wollen hier nicht sämtliche Argumente der Flat Earther betrachten3 , sondern uns auf ein einziges – allerdings für sie sehr wichtiges – konzentrieren. Dieses Beispiel dient aber auch als allgemeine Warnung. Ich möchte Sie mit diesem Beispiel nämlich davor warnen, aus eigenen Beobachtungen vorschnell weitreichende Schlüsse zu ziehen. Die Warnung gilt besonders für die naturwissenschaftliche Erziehung. Es ist schon richtig und wichtig, von Kindesbeinen an Freude an Beobachtung und Experiment zu wecken, aber das muss einhergehen mit der anderen Säule naturwissenschaftlichen Arbeitens, nämlich der Skepsis und Selbstkritik. Sonst landet man statt in der Wissenschaft in der Wissenschaftsmystik. Um seine Scheibenerdetheorie im Experiment zu überprüfen, wählte Rowbotham ein etwa 9.7 km langes, schnurgerades Stück eines künstlich angelegten Entwässerungskanals (Old Bedford River) in Cambridgeshire. Dieses Stück war an beiden Enden von je einer Brücke überspannt. Die Brücken werden gleich noch eine wichtige Rolle spielen. Im Sommer 1838 befestigte er eine ungefähr 1 m hohe Fahne in einem Boot und beobachtete diese Fahne mit einem Teleskop, dass sich 20 cm über der Wasseroberfläche befand, während das Boot sich entfernte. Die Erdkrümmung sollte die Fahne ab einer gewissen Entfernung L verschwinden lassen. Die Entfernung, bis zu der ein Objekt der Höhe h aufgrund der Erdkrümmung noch sichtbar bleibt, können wir berechnen4 . Das Ergebnis ist ziemlich einfach, wenn die Höhe h viel kleiner als der Erdradius R E = 6371 km ist, nämlich 2R E h ≈ L 2 . Wenn man für h 1 m einsetzt, erhält man für L ungefähr 3.57 km. Rowbotham konnte die Fahne aber über fast 10 km noch sehen. Damit – so glaubte er – war die Erdkrümmung widerlegt. Dieser Schluss erscheint erst mal verblüffend, aber korrekt. In der Physik gibt es viele ähnliche Situationen. Man beobachtet etwas in einem Experiment und daraus ergibt sich ein verblüffender Schluss, der nicht in das Puzzle unseres Bildes von der äußeren Welt passen will. Aber jetzt posaunt man nicht heraus, dass man Jahrhunderte wissenschaftlicher Arbeit widerlegt hat, sondern man analysiert das Experiment sorgfältig. Könnte es andere Gründe für das Ergebnis geben? So war es beim Bedford-Experiment. Rowbotham war einem Effekt aufgesessen, der schon damals unter Landvermessern und Seeleuten wohlbekannt war, nämlich der Brechung von Lichtstrahlen in der Atmosphäre. Die optischen Eigenschaften von Luft ändern sich 3 4
Das wären auch viel zu viele, von denen die meisten nur echte Gläubige überzeugen. Das ist Mittelstufe. Aber ich erspare Ihnen die Rechnung.
5.1 Ist die Erde eine Scheibe?
119
Abb. 5.1 Links: Lichtbrechung beim Ein- und Austritt in einen Plastikblock (von ajizai, gemeinfrei, via Wikimedia Commons). Rechts: Lichtstrahlen werden durch die Schichtung in der Atmosphäre (d. h., Druck, Temperatur, Dichte hängen vom Abstand vom Erdboden ab, im Bild dargestellt durch verschiedene Graustufen) gekrümmt. Dadurch kann man den abgebildeten Balken auch dann noch sehen, wenn er bei geraden Lichtstrahlen (gepunktete Linie) schon hinter dem Horizont liegen würde. Der Effekt ist hier übertrieben dargestellt
mit der Dichte, daher ist ein Lichtstrahl in der Luft keine gerade Linie. Bei jeder Dichteänderung wird der Lichtstrahl etwas abgelenkt. Man kann diesen Effekt bei einem einzigen, plötzlichen Übergang leicht sehen (s. Abb. 5.1 links). Dieser Effekt krümmt einen Lichtstrahl in der Luft derart, dass Objekte, die eigentlich schon hinter dem Horizont liegen, noch sichtbar sind (Abb. 5.1 rechts). Der Effekt ist besonders ausgeprägt, wenn die Temperatur mit der Höhe zunimmt. Solche Temperaturinversionen sind bei ganz kleinen Höhen von 1 m nicht selten. Schon eine Erhöhung der Temperatur um 0.11◦ pro 1 m reicht aus, um die Illusion einer ungekrümmten Erdoberfläche zu produzieren. Bei noch stärkerer Inversion erschiene die Erde sogar konkav gekrümmt, so als lebten wir im Inneren einer Hohlkugel. Daher hätte sich eigentlich niemand ernsthaft für Rowbothams Ergebnisse interessieren müssen. Jemand hätte ihn auf seinen Fehler aufmerksam machen müssen und wenn er ein ordentlicher Wissenschaftler gewesen wäre, hätte er das eingesehen. Die Geschichte geht aber noch weiter und ist verbunden mit einer zweiten Warnung. Die betrifft die Art und Weise, in der Wissenschaftsmystiker „argumentieren“. Ein Anhänger der flat earth Theorie, John Hampden, bot 1870 eine Wette über 500 £ (das entspricht nach heutigem Wert ungefähr 49000 £) an, wenn man zur Zufriedenheit eines intelligenten Schiedsrichters eine konvexe, d. h. einer Erdkrümmung folgende Eisenbahn, oder einen solchen Fluss, Kanal oder See vorweisen kann. Der britische Naturforscher Alfred Russel Wallace (1823–1913) nahm die Wette an. Hampden bestimmte den Old Bedford River als Ort der Beobachtung. Wallace führte die Beobachtung professionell durch und vermied Rowbothams experimentelle Fehler, insbesondere die starken Effekte der Lichtbrechung bei kleinen Höhen. Er vermass zunächst zwei gleich hohe Punkte auf den beiden begrenzenden Brücken (siehe Abb. 5.2). Dazu muss man nur den Abstand h der Punkte von der Wasseroberfläche genau messen. Einen dieser Punkte machte er zum Beobachtungspunkt seines Teleskops, den anderen Punkt markierte er mit einem schwarzen Balken. Zwischen diese beiden Punkte stellte er nun einen Pfahl auf, an dem eine Scheibe in genau der Höhe h über der Wasseroberfläche befestigt war. Den Mit-
120
5 Kampf der Wahrheiten
Abb. 5.2 Schema von Wallaces Experiment am Bedford Kanal. Der Mittelpunkt der mittleren Markierung wird angepeilt. Oben: Die flat earth Vorstellung. Unten: Die Kugelerde Version. Hier muss der Balken der weiter entfernten Markierung unter der mittleren Markierung liegen. Die Korrekturen durch Lichtbrechung müssen berücksichtigt werden
telpunkt dieser Scheibe peilte Wallace nun mit dem Teleskop an. Wenn die Erde flach wäre, dann müsste diese Scheibe und die schwarze Markierung auf der Brücke auf einer Linie (und daher im Teleskopbild übereinander) liegen. Das Bild zeigte aber die Scheibe über der Markierung. In Wallaces eigenen Worten: [...] wenn die sechs Meilen lange Oberfläche des Wassers konvex gekrümmt ist, dann würde die obere Scheibe höher erscheinen als das schwarze Band, wobei der Unterschied aufgrund der bekannten Größe der Erde fünf Fuß acht Zoll sein sollten. Dieser Unterschied wird ein wenig durch Brechung auf ungefähr fünf Fuß reduziert.
Wallace kannte also den Effekt der Lichtbrechung und er sorgte dafür, dass dieser nicht genau zu kontrollierende Fehler viel kleiner war als der zu beobachtende Höhenunterschied. Das Experiment wurde von drei Schiedsrichtern begleitet. Hampden hatte dafür gesorgt, dass einer der Schiedsrichter (William Carpenter) ein entschiedener Anhänger der flachen Erde war. Die zwei neutralen Richter bestätigten Wallaces Beobachtung und sprachen ihm den Wettgewinn zu. Hampden selbst weigerte sich, durch das Teleskop zu schauen, dafür leugnete sein Spezi Carpenter das Ergebnis einfach. Zunächst bemängelte er, dass das Teleskop kein Fadenkreuz hatte. Also wurden die Beobachtungen mit Fadenkreuz wiederholt. Am Ergebnis änderte das nichts. Carpenter leugnete weiter, dass die Beobachtung etwas mit einer Erdkrümmung zu tun habe, während die beiden anderen Neutralen Zeichnungen des Teleskopbilds anfertigten und Wallace den Sieg zusprachen. Hampden verfolgte Wallace und seine Frau 15 Jahre lang mit wüsten Beleidigungen und wollte sein Geld in einem Gerichtsverfahren wieder haben. Seine interessante Begründung vor Gericht war, dass ein Urteil von 2 Leuten (nämlich den neutralen Schiedsrichtern) unmöglich eine so wichtige Sache wie die Erdkrümmung entscheiden könnten. Hampden lies nicht locker, schrieb unzählige Briefe an Zeitungen und Institutionen , in denen er
5.2 Zwei Kulturen und die Sokal Affäre
121
immer nur vom „Bedford Kanal Schwindel“ sprach. Er landete auch immer wieder vor Gericht, zum Beispiel mit diesem Brief an Frau Annie Wallace: Madam – wenn Ihr höllischer Dieb von einem Ehemann eines Tages auf einer Bahre nach Hause gebracht wird, mit jedem Knochen in seinem Kopf zu einem Brei zertrümmert, werden Sie den Grund schon wissen. Sagen Sie ihm von mir, dass er ein verlogener Dieb ist, und so sicher wie sein Name Wallace ist, dass er nie in seinem Bett sterben wird. Sie müssen ein erbärmlicher Unglückswurm sein, weil Sie mit so einem verurteilten Verbrecher leben müssen. Glauben Sie nicht, dass ich mit ihm fertig bin, und lassen Sie ihn auch nicht in dem Glauben. aus Wallace, My Life
Was war aber das Ergebnis von dieser Auseinandersetzung? Die Flat Earth Society, die vorher so gut wie niemand zur Kenntnis genommen hatte, gewann Aufmerksamkeit und sie hatte einen echten Märtyrer, einen David, der tapfer gegen den Goliath der Naturwissenschaft kämpfte. Wenn Sie jetzt Parallelen zu heutigen politischen Strategien erkennen können, dann hätte dieser Abschnitt seinen Zweck erfüllt.
5.2 Zwei Kulturen und die Sokal Affäre Vor mehr als 60 Jahren, genauer im Jahr 1959, hielt der englische Physiker und Schriftsteller Charles Percy Snow (1905–1980) in Cambridge (UK) einen Vortrag, dessen Inhalt er dann zu einem Buch ausbaute. Dieses Buch wurde vom Times Literary Supplement im Jahr 2008 in seine Liste der 100 Bücher aufgenommen , die den öffentlichen Diskurs im Westen seit dem Zweiten Weltkrieg am meisten beeinflusst haben. Der Titel des Buches ist Die zwei Kulturen und die wissenschaftliche Revolution (The Two Cultures and the Scientific Revolution). Darin beklagt Snow eine Spaltung der Kultur der westlichen Welt in zwei Lager, die sich nicht mehr verstehen, und auch nicht mehr schätzen. Das für ihn unfassbare Ausmaß der Spaltung beschreibt er zum Beispiel so: Ich habe oft an Versammlungen von Menschen teilgenommen, die nach den Maßstäben der traditionellen Kultur als hochgebildet gelten und die mit großem Elan ihre Ungläubigkeit über die Unbildung der Naturwissenschaftler zum Ausdruck brachten. Ein oder zwei Mal habe ich mich provozieren lassen und die Anwesenden gefragt, wie viele von ihnen den Zweiten Hauptsatz der Thermodynamik beschreiben könnten. Die Antwort war kalt: Sie war auch negativ. Dabei hatte ich etwas gefragt, was das wissenschaftliche Äquivalent zu der Frage ist: Haben Sie ein Werk von Shakespeare gelesen? Heute glaube ich, dass, wenn ich eine noch einfachere Frage gestellt hätte – etwa: Was verstehen Sie unter Masse oder Beschleunigung, was das wissenschaftliche Äquivalent zu der Frage ist: Können Sie lesen? – hätte nicht mehr als einer von zehn hochgebildeten Menschen das Gefühl gehabt, dass ich dieselbe Sprache spreche. Das große Gebäude der modernen Physik wächst in die Höhe, und die Mehrheit der klügsten Menschen in der westlichen Welt hat ungefähr so viel Einsicht darin, wie ihre neolithischen Vorfahren gehabt hätten.
In den vergangenen Jahrzehnten hat sich im Wissenschaftsbetrieb Vieles verändert, auch das Verhältnis zwischen Geisteswissenschaften (wozu ich hier auch mal
122
5 Kampf der Wahrheiten
die Gesellschafts- und Wirtschaftswissenschaften zähle, aber nur, um nicht immer aufzählen zu müssen) und Naturwissenschaften. Leider jedoch ist die Spaltung nicht überwunden, sie hat sich vielmehr an mehreren Fronten vertieft. Zweifellos gibt es mittlerweile etliche, erfolgreich arbeitende Kooperationen zwischen den Naturwissenschaften und den Geisteswissenschaften. Zum Beispiel werden naturwissenschaftliche Methoden gern in der Archäologie angewandt. Satellitenaufnahmen helfen neue Fundstätten zu entdecken und alte zu schützen5 . Statistische Analysen und Computereinsatz haben auch in Sprach- und Literaturwissenschaften Einzug gehalten; ein Beispiel dafür haben wir ja im Abschnitt 4.1 vorgestellt. Seit neuestem ergeben sich aus dem Aufstieg der künstlichen Intelligenz Fragestellungen, für die man Geisteswissenschaften dringend braucht. Wie soll man die Frage „Hat die KI einen kreativen und künstlerisch anspruchsvollen Text verfasst?“ beantworten ohne zu wissen, wovon man eigentlich redet? Nicht zuletzt, – die sogenannten Sozialen Medien erfordern dringend sozialwissenschaftliche Untersuchungen über ihre Konsequenzen. Man könnte also vermuten, dass sich die beiden Kulturen zusammengerauft haben und nun gemeinsam vorangehen, um zur Lösung drängender globaler Probleme beizutragen. Aber der Schein trügt. Die Rahmenbedingungen der Wissenschaft, aber auch ihre innere Dynamik hat vielmehr die eine große Spaltung in mehrere verwandelt. Mit Rahmenbedingungen meine ich hier vor allem die Finanzierung. Forschungsfinanzierung ist ein politisches Geschäft, denn bevor nach Qualität der Vorhaben ausgewählt wird müssen Geldtöpfe bereit gestellt und Antragsbedingungen festgelegt werden. Diese Bedingungen haben sich immer stärker an den Forschungsfeldern mit dem größten Mittelbedarf orientiert, und das sind nun mal naturwissenschaftliche und technische Großprojekte. Solche Projekte werden von einem Team aus mehreren, teilweise auch sehr vielen Personen durchgeführt. Die traditionelle Kultur der Geisteswissenschaften dagegen beruht seit den alten Griechen auf exzellenten Leistungen Einzelner. Ihr Mittelbedarf ist gering, wenn man sie mit der experimentellen naturwissenschaftlichen Forschung vergleicht. Das gilt übrigens auch für die Mathematik und selbst noch für die theoretische Physik. Albert Einsteins Forschungsprogramm (etwas salopp: Einige Aspekte der theoretischen Physik, insbesondere der Schwerkraft) wäre nach heutigen Bewilligungsmaßstäben der Deutschen Forschungsgemeinschaft wohl nicht mehr förderungsfähig. Seine Arbeit ist aber ein beeindruckendes Beispiel dafür, dass man nicht unbedingt riesige Summen braucht, um bahnbrechende Entwicklungen der Wissenschaft zu begründen. Als Einstein 1917 seine Stelle als Institutsdirektor in Berlin antrat (Max Planck hatte ihn 1913 angeworben, aber Krieg und Krankheit hatten den Umzug verzögert), da bestand das von ihm geleitete Kaiser-Wilhelm Institut aus einer Teilzeit-Sekretärin und ihm selbst. Die Institutsadresse war – seine Privatwohnung. Die Hauptaufgabe des Instituts war das Verteilen von Fördermitteln an Forschungsprojekte. Einstein prüfte inhaltlich, hatte aber von der Bürokratie nicht die leiseste Ahnung. Trotzdem (oder deswegen?) gelang dem Institut eine bemerkenswerte Förderung vieler Forschungsvorhaben. Ein5 Sie, liebe Lese, können übrigens selbst bei der Auswertung mithelfen. Das Projekt heisst globalxplorer.com, Sie können es leicht im Netz finden.
5.2 Zwei Kulturen und die Sokal Affäre
123
stein selbst hat nie in großen Teams mitgewirkt. Seine wichtigsten Arbeiten veröffentlichte er meist allein. Mathematische Unterstützung holte er sich von seinem Freund und Studienkollegen Marcel Grossmann (1878–1936), mit dem er auch 1913 eine erste, noch unvollständige Fassung der allgemeinen Relativitätstheorie veröffentlichte6 . Das Institut zog nach dem 2. Weltkrieg um: erst nach Göttingen, wo auch die Kaiser-Wilhelm Gesellschaft als Max-Planck Gesellschaft neu erstand, und dann nach München. Die Verteilung von Forschungsmitteln nach den Bedürfnissen der Forschung wäre an sich kein Nachteil für die Geisteswissenschaften, wenn nicht die durch Anträge eingeworbenen Mittel (Drittmittel) selbst zu einem Indikator für gute Forschung ernannt worden wären. Um beispielsweise als deutsche Universität in den Genuss der Universitäts-Förderung im Rahmen der sogenannten „Exzellenzinitiative“ zu kommen, muß die Uni mindestens zwei „Exzellenzcluster“ betreiben, das sind Verbünde, die so etwa 20–30 leitende Experte haben, und die so um die 100 Personen des wissenschaftlichen Personals beschäftigen können. Solche Rahmenbedingungen sind für experimentelle Naturwissenschaften gemacht, erzeugen aber einen Druck auf Geisteswissenschaften, der hin zu Forschungsverbünden führt. Das ist nicht immer schlecht, denn auch die Forschungsmethoden in diesen Wissenschaften haben sich verändert. Insbesondere die Gesellschaftswissenschaften, Wirtschaftswissenschaften, ebenso die Psychologie haben sich mit den Jahrzehnten weiter von geisteswissenschaftlichen Methoden entfernt und entweder der Empirie zugewandt oder komplizierte mathematische Theorien entwickelt. Damit lassen sich leichter antragsfähige Forschungsteams bilden. Andererseits ist klar, dass eine Einzelperson, die zum Beispiel an einem Artikel für das 15 bändige Lexikon der Literaturgeschichte des deutschen Mittelalters arbeitet, in diesem Verteilungskampf leicht untergehen kann. Wir stellen also fest, dass es eine von außen ebenso wie von der inneren Dynamik der Fächer angetriebene Spaltung der Geisteswissenschaften (einschließlich der Mathematik und sogar Teilen der theoretischen Physik) in ressourcenhungrige Teams und bescheidenere Einzelforschung mit „Papier und Bleistift“ gibt. Die Dynamik einiger Fächer – insbesondere in den Sozial- und Kulturwissenschaften – hat aber eine weitere und sehr tiefgreifende Spaltung zwischen Geistes- und Naturwissenschaften bewirkt, deren Quelle diesmal in den Geisteswissenschaften zu finden ist. Um sie verständlich zu machen, muss ich etwas ausholen. So ab den 1920er Jahren entstand eine philosophische Strömung, die in den 1960er Jahren einen Höhepunkt an wissenschaftlicher Popularität erreichte. Dieser sogenannte Strukturalismus wollte die Entstehung von sozialen Prozessen, insbesondere von Sprache durch Strukturen erklären, die mehr oder weniger universell sind. Das Unternehmen war recht erfolgreich, insbesondere ging die heutige allgemeine Sprachwissenschaft (Linguistik) und die Wissenschaft der Zeichensysteme (Semiotik) daraus hervor. 6
Das Kaiser-Wilhelm Institut wurde übrigens nach und nach erweitert und 1938 kurioserweise und eigentlich gegen den Wunsch der Nazi Regierung in Max-Planck Institut umbenannt. Bei der Einweihung stand Max-Planck Institut groß über dem Eingang. Im Putz an der Klingel stand Kaiser-Wilhelm Institut als offizieller Name.
124
5 Kampf der Wahrheiten
Aber ab den 1960er Jahren entstand eine Schule, die sich von dieser philosophischen Weltsicht abgrenzen wollte: der Poststrukturalismus. Diese Bezeichnung ist etwas schwammig, denn sie wurde nachträglich geprägt und umfasst sehr viele, ganz verschiedene Denkansätze. Die Abgrenzung vom Strukturalismus war eben der kleinste gemeinsame Nenner. Einige Dinge sind sehr einleuchtend und bereiten in den Naturwissenschaften überhaupt keine Probleme. Zum Beispiel fand der Poststrukturalismus den Begriff „Sprache“ den Strukturalisten auf gesprochene und geschriebene Sprache reduzierten, als zu eng gefasst. Ist Tanzen eine Sprache? Unser Kriterium für Sprache ist nur, dass Menschen es irgendwie interpretieren können, da stimmen Naturwissenschaften und Poststrukturalismus völlig überein. Es gab aber andere Ansichten von Poststrukturalisten, die zunächst ganz fruchtbar schienen, die dann aber zu der zweiten Spaltung der Kulturen führten. Der Strukturalismus hatte stets nach allgemeinen Gesetzmäßigkeiten gesucht, die möglichst auch über einzelne Kulturen hinaus gingen und sozusagen das ganze Menschengeschlecht betrafen. Das wurde im Poststrukturalismus abgelehnt, Strukturen, allgemeine theoretische Prinzipien und Ordnungsschemata wurden kritisiert. Dagegen wäre auch von Strukturalisten nichts einzuwenden, wenn das Ziel eine Verbesserung der Theorien gewesen wäre. Daran war dem Poststrukturalismus aber gar nicht gelegen. Man wollte vielmehr genauer untersuchen, wie eine Gesellschaft zu Wahrheiten kommt, die sie anerkennt. Auch das ist im Hinblick auf heute geführte Internetdiskussionen zweifellos eine enorm wichtige Frage. Aber leider lief dieser Ansatz völlig aus dem Ruder, zumindest was die Auseinandersetzung mit Naturwissenschaften betraf. Zwei große französische Philosophen wiesen den Weg in die Spaltung, vielleicht ohne, dass sie selbst das so wollten. Michel Foucault7 (1926–1984) führte für alle Prozesse, die zu gesellschaftlich akzeptierten Wahrheiten führen – die also unser Denken bestimmen – einen Begriff ein: Diskurs. Damit sind nicht nur sprachliche Auseinandersetzungen mit Argumenten gemeint (das wäre die übliche Bedeutung des Wortes), sondern eben auch alle sozialen Prozesse (die öffentliche Meinung, die Traditionen, die Werbung, die Gesetze, der zivile Ungehorsam e.t.c.). Eine wichtige Aufgabe der Philosophie, der Gesellschafts- und der Kulturwissenschaften besteht in der Analyse dieser Diskurse, also in der Diskursanalyse.. Eigentlich kann man solche Untersuchungen von ganz verschiedenen Standpunkten aus starten. Im Poststrukturalismus schlich sich jedoch ein einziger vorherrschender Standpunkt ein: Alle Diskurse sind von Macht bestimmt, und daher ist es ihr Interesse, Herrschaftsverhältnisse entweder zu stabilisieren oder neue zu etablieren. Der französische Philosoph Jaques Derrida (1930–2004) führte für die Diskursanalyse eine philosophische Perspektive und Methode ein, die er Dekonstruktion nannte, ein Kunstwort, zusammengesetzt aus Destruktion und Konstruktion. Was genau Dekonstruktion ist, darüber gibt es viele verschiedene Meinungen, denn um griffige Definitionen hat sich Derrida immer herumgedrückt. Man kann
7
Der sich selbst überhaupt nicht als Poststrukturalisten bezeichnete. Er lehnte solche Etikettierungen ab.
5.2 Zwei Kulturen und die Sokal Affäre
125
es vielleicht als eine Haltung bezeichnen, aus der heraus man Texte oder Diskurse befragt. Hier eine Kurzanleitung. Man beginnt mit dem Aufspüren von Gegensatzpaaren (tot oder lebendig, arm oder reich, männlich oder weiblich) und geht deren Entstehungsgeschichte nach. Dabei versucht man herauszufinden, ob eine der beiden Möglichkeiten in dem Diskurs und seiner Geschichte irgendwie bevorzugt wird (lieber lebendig als tot, lieber reich als arm, lieber männlich als weiblich). Nun kommt der destruktive Teil. Man versucht, das Gegensatzpaar zu zerstören, indem man weitere Alternativen einführt, zum Beispiel (tot, lebendig, Zombie) oder (arm, reich, glücklich) oder (männlich weiblich, queer). Ziel ist dabei, zu zeigen, dass der Gegensatz eigentlich nur durch den bisherigen Diskurs entstanden ist und nicht natürlicherweise gegeben. Nun kommt der konstruktive Teil. Man kann die neuen Kategorien irgendwie wieder zusammensetzen, insbesondere kann man die Bevorzugungen beliebig verändern. Was dabei herauskommt, ist ein dekonstruierter Text. Schließlich betrachtet man diesen neuen Text als einen weiteren Beitrag zu einem nie endenden Diskurs. Manche so dekonstruierten Texte bieten neue Einsichten, manche sind einfach nur Schmarren. Hauptsache, man hat demonstriert, dass der Gegensatz nicht sein muss, sondern auch beliebig anders aussehen kann. Diese Ultrakurzfassung wird natürlich Derridas umfangreichem Werk nicht gerecht, aber es verschafft Ihnen zumindest einen ersten Einblick, worum es gehen soll. Denn auch nach vielen Seiten Derrida-Lektüre muss man nicht unbedingt schlauer werden. Sein Stil war – vorsichtig gesagt – nicht immer klar8 und er handelte sich dadurch auch jede Menge Kritik ein. Obwohl er sicher ein bedeutender Philosoph war, bezeichneten ihn andere bedeutende Philosophen seiner Zeit als Pseudophilosophen, Sophisten (ein Wortklauber, einer der unredliche Argumente benutzt) und abstrusen Theoretiker. Seine Dekonstruktions-Methode fand aber Anklang bei zahlreichen philosophisch, literaturwissenschaftlich, psychoanalytisch und theologisch Forschenden. Wir interessieren uns hier ganz besonders für den Einfluss in den Sozial- und Kulturwissenschaften, denn der markiert den nächsten Schritt auf dem Weg der Spaltung der Kulturen. Eine Vertreterin, die die dekonstruktive Betrachtungsweise auf gesellschaftliche Diskussionen anwandte, dabei aber auch schon naturwissenschaftliche Fragen berührte, ist die US-amerikanische Philosophin Judith Butler (∗ 1956). Ihr 1990 erschienenes Buch Das Unbehagen der Geschlechter (Gender Trouble) ist ein Beispiel der Dekonstruktion der Geschlechtsbegriffe. Sie dekonstruierte das Gegensatzpaar biologisches Geschlecht (englisch: Sex)/soziales und individuelles Geschlecht. Das soziale Geschlecht umfasst all die geschlechtsspezifischen Eigenschaften eines Menschen, die durch soziale Normen zustande kommen. Dafür hat sich der Begriff Gender eingebürgert, aber das deutsche Wort „Geschlechterrolle“ trifft die Bedeutung ganz gut. Daneben gibt es die individuelle Geschlechtsidentität, die die psychologischen Aspekte, das eigene Empfinden, zusammenfasst. Alle drei können verschieden sein. So weit so gut. Aber das ist noch nicht Dekonstruktion. Butler nimmt sich also das Gegensatzpaar Sex und Gender vor und dekonstruiert es. An diesem Punkt werden naturwissenschaftliche Aspekte (Sex) berührt, aber die spielen keine große Rolle in 8
Ehrlich gesagt. Ich finde ihn unerträglich verschwurbelt.
126
5 Kampf der Wahrheiten
dem Buch. Sie ersetzt das Gegensatzpaar (sozusagen Körper-Geist) durch ein Kontinuum von Zwischenstufen. Bemerkenswert daran ist, dass als Ergebnis das biologische Geschlecht als ein soziales Konstrukt erscheint. Wir wollen uns nicht weiter auf das verminte Gelände der als Queer-Theorien bekannten Diskussionen begeben, die sich im Gefolge dieses Buches entfaltet haben. Uns interessiert nur der Punkt, dass ohne viel Federlesens ein naturwissenschaftlicher Begriff zu einem Gegenstand eines gesellschaftlichen Diskurses gemacht wird und es scheint, als könne man die naturwissenschaftlichen Begriffe durch soziale Prozesse beliebig verändern. Es wird dabei suggeriert, diese Begriffe wären viel zu eng (männlich/weiblich) und man müsste durch den Diskurs den Naturwissenschaften mal ihre beschränkte Sichtweise austreiben. Aber ist der naturwissenschaftliche Geschlechtsbegriff wirklich so eng? Werfen wir doch mal einen ganz kleinen Blick auf die Fakten. Es ist nämlich nicht gerade neu, dass die Zusammenhänge zwischen Erscheinungsform (Phänotyp) und genetischer Ausstattung (Genotyp) von Menschen fast beliebig durcheinander geraten können. Dafür braucht man keine Dekonstruktion. Bevor hysterische Diskussionen darüber geführt werden, ob diese oder jene Aussagen über das Geschlecht noch „zeitgemäß“ sind, sollte man erst mal ein Medizin- oder Biologiebuch konsultieren. Schon ein ganz kurzer Blick zeigt, dass auf dem Weg von der Befruchtung zur Geburt allerhand passieren kann, was die Entwicklung des biologischen Geschlechts beeinflusst. Hier nur eine kleine Auswahl. Eine Frau besitzt üblicherweise eine genetische Ausstattung (Chromosomen) vom Typ XX9 , ein Mann besitzt den Typ XY. Es gibt daneben aber auch schon auf dieser Ebene Variationen, zum Beispiel eine nur X Ausstattung (entwickelt sich zum weiblichen Phänotyp) oder eine XXY (entwickelt sich zum männlichen Phänotyp) Ausstattung. Ein spezielles Gen (SRY) auf dem Y spielt eine wichtige Rolle bei der Ausbildung des männlichen Phänotyps. Geht es verloren, so entsteht trotz der XY Ausstattung ein weiblicher Phänotyp. Während der Entstehung eines Menschen aus einer befruchteten Eizelle kann wieder allerhand passieren. Genetische Frauen können sich zu männlichen Phänotypen entwickeln10 , mit männlichen Geschlechtsorganen aber ohne fortpflanzungsfähige Samenzellen. Genetische Männer können weibliche Phänotypen ausbilden, mit primären Geschlechtsorganen aber ohne Ovarien. Eine Erbkrankheit (5-α Reduktase Mangel) führt dazu, dass männliche Embryos keine vollständige Geschlechtsdifferenzierung durchlaufen und mit Geschlechtsmerkmalen geboren werden, die wie eine Vulva wirken. In der Pubertät tritt dann wieder eine Vermännlichung ein, die sogar zu fortpflanzungsfähigen männlichen Individuen führen kann. Über das Thema der geschlechtlichen Entwicklungen gibt es eine riesige Auflistung von Fakten. Nahezu alle Gewebe (einschließlich des Gehirns) erfahren während der Entwicklung des Embryos geschlechtsspezifische Differenzierungen, und da kann eine Menge passieren. Die Biologie hält – so kann man es grob zusammenfassen – schon ein Kontinuum von 9
Details spielen hier keine Rolle, wenn Sie mehr wissen wollen, schauen Sie eben in ein Biologiebuch. 10 Da ist das SRY beim Heranreifen der väterlichen Samenzelle aus Versehen auf das X gerutscht.
5.2 Zwei Kulturen und die Sokal Affäre
127
Möglichkeiten für die Phänotypen bereit. In der übergroßen Mehrheit der Fälle läuft die Entwicklung XX zur biologischen Frau und XY zum biologischen Mann aber problemlos. Für alle anderen Phänotypen gibt es den Sammelbegriff Intersexualität, der angesichts der unüberschaubar vielen Möglichkeiten wenig aussagt. Dieser kleine Seitenblick auf ein kompliziertes, naturwissenschaftliches Thema zeigt vor allem eins: die Frage nach dem biologischen Geschlecht ist eine naturwissenschaftliche, und keine sozial- oder kulturwissenschaftliche. Sie hat auch keine so einfache Antwort, wie oft unterstellt wird. Biologisches Geschlecht ist nicht das Ergebnis einer gesellschaftlichen Diskussion und keine Dekonstruktion kann es beeinflussen. Man kann sehr wohl darüber diskutieren, wie die Gesellschaft Menschen behandelt, bei denen die biologische Geschlechtsentwicklung nicht zu einem eindeutigen Phänotyp geführt hat, das ist eine ethische Diskussion. Man kann darüber diskutieren, wie das biologische Geschlecht die Geschlechterrollen und die Geschlechtsidentität beeinflusst. Man kann darüber diskutieren, wie und ob man durch medizinische Möglichkeiten der Geschlechtsangleichungen Intersexuelle in heterosexuelle Phänotypen verwandeln kann, wenn das der Geschlechtsidentität entspricht. Aber an den naturwissenschaftlichen Fakten kann man mit geisteswissenschaftlichen Methoden nicht rütteln. Dieses Beispiel ist nur die Spitze des Eisbergs. Ab den 1990er Jahren häuften sich philosophische, sozial- und kulturwissenschaftliche Texte, die gegenüber den Naturwissenschaften immer übergriffiger wurden. Einerseits verbreiteten sie die Meinung, Naturwissenschaften seien nur eine Erzählung unter vielen anderen in einer Gesellschaft, und auch diese Erzählung ließe sich in Diskursen verändern. Andererseits benutzten sie Erkenntnisse (oder eher Schlagwörter) der Naturwissenschaften und der Mathematik, um ihre eigenen Theorien aufzupeppen. Dafür gibt es so viele Beispiele, dass man ganze Bücher damit füllen kann. Aber man muss einfach ein paar Zitate gesehen haben, um einen Eindruck von der Übergriffigkeit zu bekommen11 . Es geht mir in den folgenden Zitaten nicht um eine Kritik an den geisteswissenschaftlichen Aspekten der Arbeit der Zitierten (die stünde mir auch gar nicht zu). Es geht einzig und allein um den Umgang mit der Physik und der Mathematik. Beginnen wir damit, dass so etwas wie Realität, also das Betätigungsfeld der Naturwissenschaft, für das tiefe, kritische Denken gar nicht wirklich existiert, zumindest nach Ansicht von Robert Markley, er ist W. D. and Sara E. Trowbridge Professor im Fach Englisch, an der University of Illinois: Radikale Wissenschaftskritik, die versucht, den Zwängen der deterministischen Dialektik zu entkommen, muss auch eng gefasste Debatten über Realismus und Wahrheit aufgeben, um zu untersuchen, welche Art von Realitäten – politische Realitäten – durch ein dialogisches Bootstrapping hervorgebracht werden könnten. In einer dialogisch bewegten Umgebung werden Debatten über die Realität praktisch irrelevant. Die „Realität“ ist schließlich ein historisches Konstrukt. Markley, Robert. 1992. Die Irrelevanz der Realität: Wissenschaft, Ideologie und das postmoderne Universum. Genre 25: 249–276.
11 Eine erweiterte Auswahl mit einer gründlichen Diskussion finden Sie in dem Buch Eleganter Unsinn: Wie die Denker der Postmoderne die Wissenschaften mißbrauchen von Alan Sokal und Jean Bricmont.
128
5 Kampf der Wahrheiten
Das wäre natürlich akzeptabel, wenn mit „Realität“ soziale Realität gemeint wäre, aber weder steht das da, noch lässt der weitere Text einen anderen Schluss zu, als das „Realität“ ganz übergriffig auf die äußere Welt ausgedehnt wird. Und hier gleich noch die Abrechnung mit physikalischen Modellen: Die Erzählungen über den wissenschaftlichen Fortschritt beruhen darauf, dass theoretisches und experimentelles Wissen in binäre Gegensätze – wahr/falsch, richtig/falsch – gekleidet wird, dass Bedeutung gegenüber Rauschen, Metonymie12 gegenüber Metapher, monologische Autorität gegenüber dialogischer Auseinandersetzung privilegiert wird Diese Versuche, die Natur zu fixieren, sind sowohl ideologisch zwingend als auch deskriptiv begrenzt. Sie lenken die Aufmerksamkeit nur auf einen kleinen Bereich von Phänomenen – z. B. die lineare Dynamik –, die scheinbar einfache, oft idealisierte Wege zur Modellierung und Interpretation der Beziehung des Menschen zum Universum bieten. Markley, Robert. 1991. Was nun? Eine Einführung in die Interphysik. New Orleans Review 18(1): 5–8.
Die „lineare Dynamik“ ist ein beliebtes Schimpfwort der übergriffigen Postmodernisten, obwohl nie so ganz klar wird, was sie damit meinen. Die Physik wird auch gern in altmodisch („linear“) und modern (besser noch postmodern) aufgeteilt, und es wird behauptet, die neue Physik hätte sich ja sowieso von der Existenz einer äußeren Welt verabschiedet. Von sehr vielen Zitaten, die eine solche Aussage beinhalten, hier nur ein einziges von Stanley Aronowitz (1933–2022). Er war Professur an der City University of New York und Leiter des Center for the Study of Culture, Technology and Work: Ein einfaches Kriterium für die Einstufung einer Wissenschaft als postmodern ist, dass sie frei von jeglicher Abhängigkeit vom Konzept der objektiven Wahrheit ist. Nach diesem Kriterium wird zum Beispiel die Komplementaritätsinterpretation der Quantenphysik, die auf Niels Bohr und die Kopenhagener Schule zurückgeht, als postmodern angesehen. (Stanley Aronowitz. 1988. Wissenschaft als Macht: Diskurs und Ideologie in der modernen Gesellschaft. Minneapolis: University of Minnesota Press. S. 331)
Auf Interpretationen der Quantenmechanik kommen wir noch in Kap. 11 zu sprechen. Aber schon mal vorweg: Quantenphysik ist genauso „objektive Wahrheit“ wie Kuchen backen. Viele Texte drehen sich um die vermeintliche Männerwelt der Physik und Mathematik. Es gäbe nämlich eine ganz andere Physik und Mathematik, wenn sie von Frauen gemacht würde. Im Schulunterricht muss man auch achtgeben, dass der weibliche Körper und Geist einfach nicht dafür geschaffen ist, die Geometrie der Mittelstufe zu begreifen, wie das folgende Zitat von Suzanne Damarin wohl vermuten lässt. Sie ist übrigens Pädagogik Professorin an der Ohio State University und Autorin eines Algebra Lehrbuchs: In dem von Irigaray [gemeint ist Luce Irigaray, die wir gleich noch vorstellen] gegebenen Kontext können wir einen Gegensatz zwischen der linearen Zeit der mathematischen Probleme von verwandten Raten, Entfernungsformeln und linearer Beschleunigung und der dominanten zyklischen Erfahrungszeit des menstruellen Körpers sehen. Ist es für den weiblichen Geist-Körper offensichtlich, dass Intervalle Endpunkte haben, dass Parabeln die 12
Für Dummies: Wenn man sagt „Der Saal tobt“, dann toben natürlich die Leute darin. Das ist eine Metonymie.
5.2 Zwei Kulturen und die Sokal Affäre
129
Ebene sauber unterteilen und dass die lineare Mathematik der Schulbildung die Welt der Erfahrung auf intuitiv offensichtliche Weise beschreibt? Damarin, Suzanne K. 1995. Gender and mathematics from a feminist standpoint. In: New Directions for Equity in Mathematics Education, edited by Walter G. Secada, Elizabeth Fennema and Lisa Byrd Adajian, published in collaboration with the National Council of Teachers of Mathematics, pp. 242–257. New York: Cambridge University Press.
Mathematische Probleme benutzen also eine lineare Zeit? Die man in Entfernungsformeln (was immer das ist) sieht? Und es gibt nur lineare Beschleunigungen? All das ist mathematisch und physikalisch sinnloses Zeug. Auch hier finden Sie wieder das Wort „linear“ als Schimpfwort der Postmoderne. Im englischen Original gibt es dann noch die Bezeichnung „related rates“, die in der Mathematik sinnlos ist und die ich mal mit „verwandten Raten“ übersetzt habe13 . Und für den weiblichen Geist-Körper ist es überhaupt nicht offensichtlich, das Intervalle Endpunkte haben14 . Solche Argumente sind zwar feministisch gemeint, können aber auch ganz anders interpretiert werden. Schauen Sie sich zum Beispiel dieses Zitat an: Einige meiner Kritiker haben gemeint, meine Abhandlung sei eine Streitschrift gegen das weibliche Geschlecht, und ich sei ein Weiberfeind. Das ist nun freilich recht töricht. Denn in Wahrheit führe ich die Sache des weiblichen Geschlechts gegen seine Schädiger und streite gegen den blutlosen Intellektualismus, gegen den mißverstehenden Liberalismus, der auf eine öde Gleichmacherei hinausläuft.
Wie Sie an der Sprache merken, ist es ein Zitat aus älteren Zeiten. Von einem frühen Feministen? Tatsächlich stammt es aus dem 1900 erschienenen Buch Über den physiologischen Schwachsinn des Weibes von dem deutschen Neurologen und Psychiater Dr. Paul Julius Möbius, in dem er versucht, nachzuweisen, dass Frauengehirne einfach nicht dafür gemacht sind, komplizierte Wissenschaft zu betreiben. Natürlich darf auch Albert Einsteins berühmte Formel nicht unkommentiert bleiben. Die Physik und Mathematik aus feministischer Sicht wurde von Luce Irigaray untersucht, die am Centre National de Recherche Scientifique in Paris zu Themen der Psychoanalyse und der Kulturtheorie forscht: Ist E = Mc2 eine geschlechtlich beeinflusste Gleichung? Vielleicht ist sie das. Lassen Sie uns die Hypothese aufstellen, dass sie es insofern ist, als sie die Lichtgeschwindigkeit gegenüber anderen Geschwindigkeiten privilegiert, die für uns lebensnotwendig sind. Was meines Erachtens auf die möglicherweise geschlechtlich beeinflusste Natur der Gleichung hindeutet, ist nicht direkt ihre Verwendung durch Atomwaffen, sondern die Privilegierung dessen, was am schnellsten geht ... Irigaray, Luce. 1987. „Sujet de la science, sujet sexué?“ Dans: Sens et place des connaissances dans la société, p. 95–121. Paris :Centre national de recherche scientifique
Und dann gibt es noch Zitate mit einem unvorstellbaren Ausmaß an mathematischem und physikalischem Unsinn, der so groß werden kann, dass einem das Hirn weh tut. Schauen Sie sich dieses Zitat von zwei französischen Geistesgrößen an, dem Philosophen Gilles Deleuze und dem Psychoanalytiker Felix Guattari: 13
Ohne, dass ich die geringste Ahnung habe, was das sein soll. Müssen sie auch nicht, es gibt welche mit und ohne Endpunkte in der Mathematik zur Auswahl, aber das nur nebenbei.
14
130
5 Kampf der Wahrheiten
Verlangsamung bedeutet, im Chaos eine Grenze zu setzen, der alle Geschwindigkeiten unterworfen sind, so dass sie eine Variable bilden, die als Abszisse bestimmt wird, während die Grenze gleichzeitig eine universelle Konstante bildet, die nicht überschritten werden kann (zum Beispiel ein maximaler Kontraktionsgrad). Die ersten Funktionen sind also die Grenze und die Variable, und die Referenz ist eine Beziehung zwischen den Werten der Variablen oder, tiefergehend, die Beziehung der Variablen, als Abszisse der Geschwindigkeiten, mit der Grenze. Deleuze, Gilles and Felix Guattari. 1994. What is Philosophy? Translated by Hugh Tomlinson and Graham Burchell. New York: Columbia University Press. [French original: Qu’est-ce que la philosophie? Paris: Editions de Minuit, 1991.]
Haben Sie irgendwas verstanden? Seien Sie ganz beruhigt, ich auch nicht. Das Ganze ist verquirlter Quatsch aus mathematischen Schlagwörtern. Was kann man nun diesen postmodernen Texten vorwerfen? Aus Sicht eines schwerfälligen alten Physikers sind es vor allem drei Dinge: • Erstens verwechseln Sie (ob absichtlich oder nicht) zwei ganz verschiedene philosophische Kategorien, nämlich die Epistemologie (was können wir über die Welt wissen und wie erhalten wir dieses Wissen) und die Wissenschaftssoziologie. Letztere ist ein wichtiges und interessantes Forschungsfeld mit einer Menge spannender Fragestellungen. Wir haben ja bereits festgestellt, dass Wissenschaft immer ein soziales Unternehmen ist, schon allein, weil alle Ergebnisse durch Sprache ausgedrückt werden müssen. Da ist es erlaubt und notwendig zu fragen, welche Einflüsse soziale Prozesse auf die Wissenschaft haben. Einen dieser Einflüsse haben wir gerade schon erwähnt, nämlich die politische Steuerung der Forschungsfinanzierung. Aber es gibt natürlich eine Menge anderer Einflüsse. Warum wurde zum Beispiel über lange Zeit wenig Geld in die Erforschung erneuerbarer Energien gesteckt? Warum verdanken wir zivile Produkte der Militärforschung? Falls Sie das nicht wissen sollten: das US Verteidigungsministerium hat zum Beispiel eine eigene Behörde, genannt Defense Advanced Research Projects Agency (DARPA), die Innovationen und Start-Ups fördert, und aus deren geförderten Projekten nicht nur Tarnkappenbomber hervorgegangen sind, sondern auch das Internet, GPS oder die Spracherkennungssoftware (Alexa,Siri). Warum sind Frauen in den Naturwissenschaften immer noch unterrepräsentiert? Alles sehr berechtigte Fragen. Aber aus der sozialen Beeinflussung der Forschung und aus dem sozialen Prozess, in dem naturwissenschaftliche Ergebnisse entstehen, kann man nicht folgern, dass die Forschungsresultate ausschließlich das Ergebnis dieser sozialen Prozesse sind. Das liegt an der naturwissenschaftlichen Methode selbst. Sie erinnern sich? Man startet von einfachsten Erfahrungen, auf die sich Alle (m/w/d, BIPoC15 , e.t.c.) einigen können (Heute ging die Sonne auf). Dann hangelt man sich vorsichtig, selbstkritisch und durch Abgleich mit der äußeren Welt gut abgesichert, Schritt für Schritt voran. An manchen Stellen gibt es mal abduktive Schlüsse und Verallgemeinerungen (die mögen gruppenspezifisch sein), aber die haben nur Bestand, wenn sie genügend überprüft wurden. Daher können zwar manche Richtungen der Forschung durch die Dominanz einer Gruppe beeinflusst werden, aber nicht die Aussagen über die äußere Wirklichkeit. Auch wenn Newton, Lagrange und 15
Black, Indigenous, and People of Color.
5.2 Zwei Kulturen und die Sokal Affäre
131
d’Alembert Frauen gewesen wären, hätte das nichts am Impulserhaltungssatz (siehe Abschn. 7.3) geändert. Es gibt auch keine weiblichen, männlichen oder queeren Elementarteilchen und keine indigene Elektrizität. • Zweitens werden physikalische und mathematische Begriffe und Theorien verwendet, ohne dass sie verstanden wurden. In dem Zitat von Aronowitz wird schlichtweg behauptet, eine gängige Interpretation der Quantenmechanik wäre „frei von jeglicher Abhängigkeit vom Konzept der objektiven Wahrheit“. Wieso? Wenn das so wäre, könnte man aufhören, Physik zu betreiben. Die postmodernen Texte häufen gern ganze Berge von Bezügen zu ihren favorisierten Forschungsergebnissen an: der Quantenmechanik (vor allem den exotischen Interpretationen und den mystischen Verallgemeinerungen), dem Chaos, dem Gödelschen Unentscheidbarkeitssatz, den Raum-Zeit Singularitäten, um nur ein paar zu nennen. Die werden so nebenbei und ohne sie verstanden zu haben eingestreut. Es kann aber auch so weit kommen, das ganze physikalische Theoriengebäude, wie zum Beispiel die Relativitätstheorie analysiert und – nach Ansicht der Autoren – endlich mal richtiggestellt werden. Ein Beispiel dieser Art ist die Arbeit des Soziologen Bruno Latour „A relativistic account of Einstein’s relativity“. Social Studies of Science 18: 3–44, 1988. • Drittens erhebt sich die Frage, wie es eigentlich mit der Qualitätskontrolle der Arbeiten steht. Schaut da niemand mal drüber und sagt, dass diese oder jene Stelle einfach Quatsch ist? Oder glauben die postmodernen Forsche der Philosophie, Soziologie und Kulturwissenschaften tatsächlich, sie hätten die Physik und Mathematik besser verstanden als die Forsche der Physik und Mathematik? Natürlich kann man Philosophie der Naturwissenschaften auch betreiben, ohne über diese Fächer im mindesten Bescheid zu wissen, aber dann darf man nicht deren Ergebnisse und Begriffe benutzen, und Kritik muss sich auf das beschränken, was man versteht. Wenn man all diese Punkte bedenkt, dann ist es vielleicht überraschend, dass die philosophischen Standpunkte und die Methoden, von Michel Foucault über Jacques Derrida bis zu den zitierten Beispielen im politischen Spektrum als „links“ eingeordnet wurden und zwar nicht von außen, sondern von den Beteiligten selbst. Die Versatzstücke der komplizierten (wenn auch verschwurbelt formulierten) philosophischen Betrachtungen von Foucault, Derrida und auch Deleuze, insbesondere aber die Diskursanalyse und die Dekonstruktion, sowie die Ablehnung einer totalen Rationalität, breiteten sich an amerikanischen Universitäten unter dem Markennamen „French School“ aus und wurden langsam von komplexen Denksystemen zu Totschlagargumenten. Daraus ergaben sich weitere, merkwürdige Entwicklungen, wie zum Beispiel die Wandlung der „alten Linken“, die Gesellschaftsgegensätze in Klassen sehen hin zu „neuen Linken“, die statt der Klassen Gruppen mit einheitlichen Kulturmerkmalen („Identitäten“) als Kontrahenten sehen, und die benachteiligten Gruppen unterstützen wollen. Aber das ist eine andere Geschichte. Angesichts dieser seltsamen Entwicklung der „intellektuellen Elite“ entschloss sich der US-amerikanische Physiker Alan Sokal (* 1955) zu einem Experiment. Er wollte überprüfen, inwieweit die postmoderne Elite eigentlich selbst versteht,
132
5 Kampf der Wahrheiten
wovon sie redet. Er bastelte also einen Beitrag für ein sozialwissenschaftliches Journal, der aus zwei Hauptzutaten bestand: einen möglichst abstrusen Gebrauch von naturwissenschaftlichen Fakten und Theorien, untermauert von möglichst unsinnigen Originalzitaten, und einem Text, der die Absurditäten mit einer möglichst großen Unterstützung der Standpunkte des Herausgebers des Journals verband. Natürlich musste das Ganze in der Form eines akzeptablen Artikels daherkommen und nicht auf den ersten Blick als Parodie erkennbar sein. Sokal leistete gute Arbeit. Sein Artikel Transgressing the boundaries: Towards a transformative hermeneutics of quantum gravity (Die Grenzen überschreiten: Auf dem Weg zu einer transformativen Hermeneutik der Quantengravitation) erschien in der Zeitschrift Social Text (Nr. 46/47 (1996), pp. 217–252). Der Herausgeber war Stanley Aronowitz, den wir mit einem der obigen Zitate kennen gelernt haben. Der Artikel ist für Physike immer wieder eine Quelle wiehernden Gelächters. Alan Sokal hat später durch viele Anmerkungen versucht, die Feinheiten des besonderen Humors dieser Parodie auch einem breiteren Publikum klar zu machen, aber man muss nicht mal über spezielles Fachwissen verfügen, um manche Abstrusitäten zu erkennen. Hier nur eine kleine Kostprobe: In jüngster Zeit haben feministische und poststrukturalistische Kritiken den materiellen Inhalt der gängigen westlichen wissenschaftlichen Praxis entmystifiziert und die hinter der Fassade der „Objektivität“ verborgene Ideologie der Beherrschung enthüllt. So wurde immer deutlicher, dass die physische „Realität“ ebenso wie die soziale „Realität“ im Grunde ein soziales und sprachliches Konstrukt ist; dass naturwissenschaftliches „Wissen“ weit davon entfernt ist, objektiv zu sein, und die herrschenden Ideologien und Machtverhältnisse der Kultur, die es hervorgebracht hat, widerspiegelt und kodiert ...
Klingt doch mindestens genauso gut wie die postmodernen Originalzitate, die wir Ihnen zuvor präsentiert haben. Sokal hat dann seine Parodie in einem Nachwort als solche aufgedeckt, und er hätte auch dieses Nachwort gern in Social Text veröffentlicht, aber der Herausgeber fand, das es den intellektuellen Standards des Journals nicht entsprach. Daher erschien das Nachwort letztlich in der Zeitschrift Philosophy and Literature Nr. 20(2), Seiten 338–346. Dort beschreibt Sokal seine Motive für das Experiment. Ganz vorn steht: Eines meiner Ziele ist es, einen kleinen Beitrag zu einem linken Dialog zwischen Geistesund Naturwissenschaftlern zu leisten – „zwei Kulturen“, die entgegen einigen optimistischen Verlautbarungen (vor allem der ersteren Gruppe) in ihrer Mentalität wahrscheinlich weiter voneinander entfernt sind als je zuvor in den letzten fünfzig Jahren.
Sokal bezeichnet sich übrigens öfter als „links“, wobei man allerdings bedenken muss, dass es sich um eine US-amerikanische Definition handelt. Schon die Einführung einer gesetzlichen Krankenversicherung gilt dort ja Vielen als links-radikales Projekt.
5.3 Unredliche Argumente
133
5.3 Unredliche Argumente In Diskussionen werden Argumente ausgetauscht, die eigentlich den jeweiligen Diskussionsgegenstand betreffen, fair gegenüber allen Teilnehmenden und schlüssig sein sollen. Da man in natürlicher Sprache diskutiert, ist es nicht immer leicht zu kontrollieren, ob man selber oder das Gegenüber auch logisch und inhaltlich korrekt argumentiert. Das haben wir im Abschn. 3.2 ausführlich erfahren müssen. Man kann – gewollt oder ungewollt – Fehler begehen, die die Regeln der Logik verletzen. Wir haben zwar Methoden kennen gelernt, mit denen sich solche Fehler finden lassen (Wahrheitstafel, Deduktion), aber in einer lebhaften Debatte geht das bei komplizierten Argumenten nicht schnell genug. Es ist daher ratsam, Argumente auch nach dem Ende der Debatte zu durchdenken. Einfacher ist es bei Texten, die man sorgfältig sezieren kann. Man kann aber auch – ebenfalls gewollt oder ungewollt – die Logik und die Sprache missbrauchen oder psychologische Tricks anwenden und dadurch Scheinargumente erzeugen, die einer Prüfung nicht standhalten. Solche Pseudoargumente finden Sie in jedem Medium. Sie werden besonders gern angewendet, um in öffentlichen Debatten zu verunsichern und die Oberhand zu gewinnen. So eingesetzt, werden die logischen Irrtümer zu rhetorischen Tricks, die man als Sophismen bezeichnet. Da Debatten schon sehr lange geführt werden, wurden die Irrtümer oder Tricks mindestens seit den alten Griechen ausführlich untersucht, und es gibt sehr umfangreiche Typisierungen mit zumeist griechischen oder lateinischen Bezeichnungen. Damit kann man ganze Bücher füllen. Der Philosoph Arthur Schopenhauer (1788–1860) hat eine bissige Zusammenstellung und Systematisierung von 38 solcher Tricks gegeben, und er hat diesem Gebiet auch einen eigenen Namen verpasst, die Eristik16 : Eristik wäre demnach die Lehre vom Verfahren der dem Menschen natürlichen Rechthaberei [...]. Die angeborene Eitelkeit, die besonders hinsichtlich der Verstandeskraft reizbar ist, will nicht haben, dass was wir zuerst aufgestellt [haben] sich als falsch und das des Gegners als Recht ergebe.
Wir beschränken uns hier auf eine kleine Auswahl (sozusagen als Survival-Kit) und führen Ihnen die Tricks anhand von Beispielen vor. Nicht eindeutige Sprache Worte sind oft nicht eindeutig. Das kann man ausnutzen. Hier ein Klassiker: A: Zeit ist Geld B: Zeit heilt alle Wunden Also: Geld heilt alle Wunden Die erste Aussage kann man (durch das Wörtchen „ist“) als Gleichwertigkeit zwischen Zeit und Geld lesen. So ist sie aber gar nicht gemeint. Solche Argumente 16
Nach Eris, der Göttin der Zwietracht, die den berühmten Apfel für die Schönste in die GötterParty geworfen hat, den Paris dann der Liebesgöttin zuerkannte, was schließlich zum Trojanischen Krieg führte.
134
5 Kampf der Wahrheiten
wirken überrumpelnd, wenn sie nur schnell genug vorgebracht werden. Nicht nur einzelne Worte sind mehrdeutig, auch Satzteile oder Satzkonstruktionen können es sein. Berühmt für seine sehr mehrdeutigen Aussagen ist das Orakel zu Delphi. Als Krösus, der König von Lydien es darüber befragte, ob er die Perser unter ihrem König Kyros bekriegen sollte, bekam er die Antwort „Wenn der König von Lydien gegen Kyros in den Krieg zieht, wird er ein mächtiges Königreich vernichten“. Krösus verlor den Krieg und hatte tatsächlich ein großes Reich vernichtet, nämlich sein eigenes. Unterstellungen Sprachliche Überrumpelungen haben eine lange Geschichte. Ein schönes Beispiel des manipulativen Sprachgebrauchs stammt von Eubulides von Milet aus dem 4. Jahrhundert vor Christus: A: Was Du nicht verloren hast, das besitzt Du noch B: Deine Hörner hast Du nicht verloren Also hast du noch Deine Hörner Hier wird einem eine Voraussetzung untergejubelt (ohne sie explizit zu nennen), die nicht stimmt (nämlich dass Du Hörner hast), aber man muss sich ganz schnell und richtig dagegen wehren, wenn man die Schlussfolgerung abwenden will. Dammbruchargument In Diskussionen über ethische Themen besonders beliebt ist das sogenannte Dammbruchargument. (im englischen: slippery slope argument). Das Argument schließt aus einem kleinen Schritt, den das Gegenüber zugestehen muss, schrittweise auf katastrophale Konsequenzen, oder es versucht von einer klaren Position, die das Gegenüber teilt, schrittweise auf die eigene Position zu kommen. Zwei typische Beispiele: A: Erst wollten diese Grünen den Veggie-Day einführen B: jetzt wollen sie einem die Gasheizung verbieten. Also: Wo soll das enden? Schließlich müssen wir alle in Höhlen leben und Wurzeln fressen. A: Wir sind uns doch einig, dass man keine kleinen Kinder töten darf. B: Dann gilt das aber auch für kleine Kinder kurz nach der Geburt. C: Die unterscheidet aber fast nichts von kleinen Kindern kurz vor der Geburt. D: Und die sind doch so ähnlich zu kleinen Kindern im 4. Monat der Schwangerschaft. E: Schon in der 7. Woche nach der Empfängnis hat das Kind einen Tastsinn. F: Wenn man jetzt immer weiter in der Schwangerschaft zurückgeht, dann gibt es nirgendwo einen Punkt, wo man das Töten einfach so erlauben kann. Also muss man alle Abtreibungen verbieten.
5.3 Unredliche Argumente
135
Es ist nicht immer leicht, sich der Sogwirkung eines gut vorgebrachten Dammbrucharguments zu entziehen und nicht jedes Argument dieser Art muss ein Irrtum sein. Es ist aber deswegen so geschickt und manipulativ, weil es der anderen Seite die Beweislast überträgt (wo genau ist mein Argument denn falsch?). Falsche Alternativen Manchmal gibt es Situationen, in der man nur die Wahl zwischen zwei Optionen hat. Manchmal wird einem das aber auch nur eingeredet (das nennt man falsche Dichotomie). Männlich geprägtes entweder-oder Denken gibt immer schöne Beispiele dafür ab: Entweder wir machen das richtig, oder wir machen es gar nicht Entweder bist Du Freund oder Feind Strohmann Argumente Vom Strohmann-Argument spricht man, wenn das Gegenüber nicht das vorgebrachte Argument widerlegt, sondern ein anderes, selbst fabriziertes Zerrbild des Arguments (den Strohmann). Es wird dann behauptet (explizit oder versteckt), dass damit auch das ursprüngliche Argument erledigt ist. Das kann auf verschiedenen Wegen geschehen. Zum Beispiel kann man die Aussage herauf- oder herunterskalieren wie in diesem Beispiel: A: Kurze Röcke im Sommer sind hübsch B: So, Sie wollen wohl am liebsten, dass alle Frauen nackt herumlaufen Oder es wird eine diskreditierte Person hervorgezogen, die das Argument teilt und damit das Gegenüber in das Zwielicht gebracht, den Vorstellungen dieser Person anzuhängen. Eine immer gern benutzte Person ist Adolf Hitler: A: Tierschutz ist eine wichtige Aufgabe der Gesellschaft B: Das fand auch Adolf Hitler. Schon kurz nach seiner Machtergreifung unterzeichnete er das erste Tierschutzgesetz der Welt. Wollen Sie wirklich mit solchen miesen Typen wie den Nazis gemeinsame Sache machen? Es ist überhaupt (nicht nur bei Strohmann Argumenten) eine Strategie der Rechthaberei, Argumente in einem Disput um eine Sache gegen Personen zu richten (das nennt man Argumente ad hominem). Beliebt ist es auch, vermeintliche Analogien zum Argument des Gegenüber zu konstruieren, und dann diese Analogien zu widerlegen, um damit das Argument für gescheitert zu erklären. Als Beispiel schauen wir uns mal das Grundargument des Kreationismus und des Intelligent Design an, einer Pseudowissenschaft, die die These vertritt, das es sich naturwissenschaftlich beweisen lässt, dass Gott das Universum und die Erde geschaffen hat, und zwar (meinen die Junge-Erde-Kreationisten) vor ein paar Tausend Jahren. Ihr Hauptgegner ist die naturwissenschaftliche Evolutionstheorie. Die Widerlegung der Evolution wird gern mit der sogenannten Uhrmacher-
136
5 Kampf der Wahrheiten
Analogie bewerkstelligt, die auf den englischen Theologen William Paley (1743– 1805) zurückgeht. Der wollte in seinem Buch Natural Theology einen Gottesbeweis in der Komplexität der Welt sehen. Sein Argument lautet: Wenn man auf einem Feld eine Taschenuhr findet, so wird man sofort wissen, dass die dort nicht gewachsen ist, sondern ein Uhrmacher sie hergestellt haben muss. Die Welt ist enorm komplexer als eine Taschenuhr. Warum kann man dann daran zweifeln, dass sie hergestellt worden sein muss? Dieser kosmische Uhrmacher ist Gott. Was ist bei diesem Argument der Strohmann? Es ist die Analogie, die zwischen der Welt und einer Uhr behauptet wird. Klingt doch recht gut, nicht? Aber die Analogie taugt nicht, und zwar aus mindestens zwei Gründen: Erstens, wenn wirklich Alles genügend Komplexe erschaffen worden sein muss, wie steht es dann mit Gott selbst? Wenn sich das Argument nicht auch gegen ihn richten soll, dann muss die Schlussfolgerung modifiziert werden zu: Alles Komplexe ist erschaffen worden, außer Gott selbst. Dann allerdings erklärt das Argument nicht mehr als die Evolution, denn es begründet nicht die Komplexität der Welt, es verschiebt nur deren Ursprung. Die ganze Komplexität wird Gott zugeschoben. Genauso gut kann man daher argumentieren, dass der Ursprung der Komplexität in der Welt selbst liegt. So ganz nebenbei hat die Naturwissenschaft schon eine ganze Menge Evidenz dafür gesammelt, während man die Existenz Gottes nicht weiter mit naturwissenschaftlichen Methoden untermauern kann. Zweitens gibt es einen wichtigen Unterschied zwischen einer Uhr und der Welt. Eine Uhr hat eine Umgebung. Man nimmt den Sondercharakter der Uhr wahr, weil man sie mit der Umgebung vergleicht. Sie ist anders als die Gänseblümchen17 . Was aber soll die Umgebung der ganzen Welt sein? Behaupten die Kreationisten, sie könnten unsere Welt mit Parallelwelten vergleichen, die nicht erschaffen worden sind und sie dann als erschaffene Welt erkennen? Tja, und schließlich ist auch noch der formal logische Schluss falsch. Aus: „Es gibt einen Uhrmacher, der auch wirklich Uhren macht“ folgt „Es gibt eine Uhr“. Aber die Umkehrung kann man nicht schließen. Nebelkerzen und Totschlagargumente Im englischen ist ein red herring ein geräucherter Salzhering, und nach einer weit verbreiteten (aber falschen) Annahme lassen sich Jagdhunde durch einen red herring irritieren und von der Fährte abbringen. In Diskussionen bezeichnet man daher ein Ablenkungsmanöver als red herring (ein deutscher Ausdruck hat sich noch nicht eingebürgert. Roter Hering klingt etwas komisch. Vielleicht Nebelkerze?) So eine Nebelkerze ist eigentlich kein logischer Irrtum, es ist nur ein Trick. Oft versucht man damit auch, Entgegnungen unmöglich zu machen. Dann spricht man von einem Totschlagargument. In der Politik und dem Management eines der wichtigsten Typen von Scheinargumenten, weil man sich damit immer irgendwie aus der Affäre ziehen kann. Beispiele:
17
Und als Naturwissenschaftler kann ich Ihnen versichern: so ein Gänseblümchen ist viel komplexer als das Räderwerk einer Uhr.
5.3 Unredliche Argumente
137
A: Herr republikanischer Abgeordneter, sollten wir nicht nach dem jüngsten Massaker an einer Grundschule ernsthaft darüber nachdenken, die Waffengesetze zu verschärfen? B: Das Problem sind doch nicht die Waffen, das Problem ist der geistige Zustand der Täter A: Ich habe da eine gute Idee, wie wir Energie sparen können B: Wenn die Idee gut wäre, hätte das jemand anders schon mal gemacht Verallgemeinerungen und Spezialisierungen Falsche Verallgemeinerungen und Spezialisierungen sind ebenfalls sehr beliebt in politischen Diskussionen A: Abgeordnete arbeiten als Lobbyisten B: Lobbyisten schaden der Gesellschaft Also: Abgeordnete schaden der Gesellschaft Es reicht – wie in diesem Beispiel – oft schon das Weglassen der Quantoren. Die korrekten Prämissen müssten von einigen Abgeordneten und einigen Lobbyisten sprechen, die (böswillige) Schlussfolgerung möchte suggerieren: alle Abgeordneten schaden der Gesellschaft. Der Klassiker (auch gut zum Merken) der Beispiele ist: A: Menschen sind Zweibeiner B: Zweibeiner sind Vögel Also: Menschen sind Vögel Non sequitur Wenn man sehr selbstbewusst ist, kann man auch etwas folgern, was sich weder inhaltlich noch logisch aus den Prämissen ergibt, man muss nur sehr überzeugend klingen wie zum Beispiel: Der Hund ist sehr niedlich, also ist er ungefährlich Der Pilz läuft beim Durchschneiden nicht an, also ist er essbar Der Mann sieht gut aus. Da wird er eine Menge Frauen kennen A: Alle Affen sind Tiere B: Heringe sind keine Affen Also sind Heringe keine Tiere Zirkelschluss Wenn man es geschickt anstellt, kann man scheinbar eine Folgerung beweisen, indem man die Behauptung als Beweis verkauft. Ich bin unfehlbar und irre nie.
138
5 Kampf der Wahrheiten
Beweis: Ich habe das in meinem Buch „Fünfzehn Dinge, die ich besser machen würde als Gott“ ganz ausdrücklich so geschrieben. Da ich nicht irren kann, muss es wohl stimmen.18 Sein und Sollen Wir haben schon auf David Hume und seine wichtige Regel hingewiesen (s. Abschn. 2.2), dass man nicht vom Sein (also eine Beobachtung der Welt) auf ein Sollen, also eine ethische, normative Aussage schließen sollte. Das wird aber gern getan, wie einfache Beispiele zeigen. A: Dein ganzer Schreibtisch ist ein Chaos B: Du solltest ihn aufräumen A ist eine Beobachtung in der äußeren Welt. Aber die daraus geschlossene Handlungsempfehlung hat damit nichts zu tun, sie drückt nur das Empfinden des Beobacht aus. Viele Menschen können nur produktiv arbeiten, wenn auf ihrem Schreibtisch viele Dinge herumliegen. Wenn Sie mal in laufende Debatten schauen, dann merken Sie, wie oft dieser Irrtum begangen wird. A: Das Tier hat immer nur Schmerzen B: Wir sollten es töten Tscha, – das Tier kann dazu nichts sagen. A: In Deutschland ist die Gleichstellung der Frauen weiter vorangeschritten als in einigen Ländern des globalen Südens. B: Wir sollten unsere Werte exportieren, damit die Gleichstellung der Frauen sich überall auf der Welt unseren Standards annähert.
5.4 Klimamythen Neben dem unredlichen Umgang mit Logik ist die Mythenbildung eine starke Sozialtechnik, um öffentliche Diskussionen zu beherrschen. Sie wird gern gegen die Wissenschaften benutzt. Daher soll sie hier nicht unerwähnt bleiben. Zur Illustration benutzen wir die Auseinandersetzungen um den menschengemachten Klimawandel, der ja schließlich auch in den Zuständigkeitsbereich der Physik gehört. Haben Sie sich nicht auch schon mal gesagt: „Wenn wir das nur früher gewußt hätten, dann hätten wir ja auch schon was machen können“. Manche Nachrichten klingen denn auch, als sei diese Klimabeeinflussung eine Entdeckung der allerneuesten Zeit. Wie steht es damit? Darum ranken sich allerhand Mythen, von denen manche mit viel Aufwand gestrickt worden sind. Denen wollen wir ein bisschen nachspüren. Es geht 18
Das ist eine neutrale Version des Anspruchs vieler heiliger Bücher.
5.4 Klimamythen
139
hier nicht um die Erklärung physikalischer Effekte, die heben wir uns für Kap. 16 auf. Hier geht es nur um Mythen. Eine der frühesten Erwähnungen eines menschlichen Einflusses auf das Klima stammt vom französischen Mathematiker und Physiker Joseph Fourier (1768–1830). Aber Achtung! Fourier war nicht der Entdecker des Treibhauseffekts, auch wenn das noch so oft behauptet wird. Das dazu benutzte Zitat ist meist: Der Aufbau und der Fortschritt menschlicher Gesellschaften, ebenso wie die Einwirkung von Naturkräften, können den Zustand der Oberfläche, die Verteilung des Wassers und die großen Luftströmungen merklich verändern. Solche Wirkungen können zu Variationen der durchschnittlichen Temperatur im Laufe vieler Jahrhunderte führen; denn die analytischen Ausdrücke [der Theorie der Wärmeleitung] enthalten Koeffizienten, die sich auf den Zustand der Oberfläche beziehen, und die Temperatur stark beeinflussen. Fourier, J. B. J., 1827, „Memoir sur les temperatures du globe terrestre et des espaces planetaires“, Memoires de l’Acadeémie Royale des Sciences, Vol. 7, pp. 569–604
Die Änderungen, die hier gemeint sind, beziehen sich nicht auf die Atmosphäre, sondern auf die Erdoberfläche. (Dazu muss man nur ein wenig um das Zitat herum lesen.) Fourier hatte eine quantitative Theorie der Wärmeübertragung in Materie konstruiert, und die wollte er ausprobieren. Von Details der Atmosphäre hatte er keine Ahnung. Wesentlich genauere Vorstellungen vom Einfluss einzelner Gase auf die Wärmeübertragung von der Erde durch die Atmosphäre in den Weltraum hatte der schwedische Physiker und Chemiker Svante Arrhenius (1859–1927). Er veröffentlichte 1886 die Arbeit „On the Influence of Carbonic Acid in the Air upon the Temperature of the Earth“. (Publ. of the Astronomical Society of the Pacific. 9 (54): 14). Darin berechnete er, dass eine Verdopplung des (damaligen) Kohlendioxidgehalts in der Atmosphäre eine Erhöhung der Oberflächentemperatur von 5–6 ◦ C zur Folge hätte. Diese Aussage wurde aber aufgrund eines Experiments angezweifelt, das wir im Abschn. 16.6 noch genauer besprechen werden. Im Ergebnis wurden über einen Zeitraum von ca. 50 Jahren keine Untersuchungen zu diesem Effekt mehr angestellt. Der Einfluss der menschlichen Aktivitäten auf den CO2 Gehalt der Atmosphäre war dagegen unbestritten. In dem 1924 erschienen Buch Elements of Mathematical Biology, des US-amerikanischen Chemikers und (Versicherungs-) Mathematikers Alfred A. Lotka19 findet sich die folgenden Passage: Die Gegenwart ist eine eminent atypische Epoche. Ökonomisch verzehren wir unser Grundkapital, biologisch verändern wir radikal die Zusammensetzung unseres Anteils am Kohlenstoffkreislauf indem wir aus Kohlefeuern und Hüttenöfen zehnmal so viel Kohlendioxid in die Atmosphäre blasen wie beim natürlichen biologischen Prozess der Atmung. Wie groß dieser Einzelposten ist, wird deutlich, wenn man bedenkt, dass allein diese menschlichen Einflüsse im Laufe von etwa 500 Jahren die Menge an Kohlendioxid in der gesamten Atmosphäre verdoppeln würden, wenn keine ausgleichenden Einflüsse ins Spiel kämen.
19
Heute würde man sagen: mit ukrainischen Wurzeln, denn er wurde in Lemberg, heute Lwiw, geboren. Damals gehörte es zu Österreich-Ungarn.
140
5 Kampf der Wahrheiten
Erst in den 1940er Jahren begann man sich für Vorgänge in der oberen Atmosphäre zu interessieren, aber nicht aus Gründen der Nachhaltigkeit. Geld für Forschungen kam (wie bei vielen Innovationen in dieser Zeit) mal wieder vom Militär, das Genaueres über den Bereich wissen wollte, in dem ihre Bomber herumflogen. Jetzt begann die Physik und Chemie, die Rolle von Gasen wie CO2 beim Wärmeaustausch zwischen Erde und All besser zu verstehen. Gut genug, jedenfalls, dass informierte Kreise wußten, was es bedeutete, weiter fossile Brennstoffe zu benutzen. Insbesondere wußte das die Ölindustrie der USA. Als Zeugen dafür möchte ich Ihnen zunächst einen Mann vorstellen, der auf keinen Fall unter dem Verdacht stehen kann, er wäre von frühen Ökologen beeinflusst. Es ist der ungarisch- US-amerikanische Physiker Edward Teller (1908–2003), auch bekannt als „Vater der Wasserstoffbombe“. Er war 1959 zu einem Vortrag anlässlich des 100jährigen Bestehens des American Petroleum Institute (API) eingeladen. Das API ist der größte Interessenverband der Öl- und Gasindustrie in den USA. In diesem Vortrag erklärt Teller den anwesenden Ölmanagern unverblümt und so genau, wie das damals möglich war, den menschengemachten Klimawandel und die Folgen: Meine Damen und Herren, ich werde zu Ihnen über die Energie der Zukunft sprechen. Zunächst möchte ich Ihnen sagen, warum ich glaube, dass die Energieressourcen der Vergangenheit ergänzt werden müssen. Zunächst einmal werden diese Energieressourcen zur Neige gehen, da wir immer mehr fossile Brennstoffe verbrauchen. [....] Aber ich möchte [...] noch einen anderen Grund nennen, warum wir wahrscheinlich nach zusätzlichen Brennstoffquellen suchen müssen. Und das ist merkwürdigerweise die Frage der Verschmutzung der Atmosphäre. [....] Bei der Verbrennung konventioneller Brennstoffe entsteht Kohlendioxid. [....] Das Kohlendioxid ist unsichtbar, es ist transparent, man kann es nicht riechen, es ist nicht gesundheitsschädlich, warum sollte man sich also Sorgen machen? Kohlendioxid hat eine seltsame Eigenschaft. Es lässt das sichtbare Licht durch, absorbiert aber die von der Erde ausgehende Infrarotstrahlung. Sein Vorhandensein in der Atmosphäre verursacht einen Treibhauseffekt [....] Es wurde berechnet, dass ein Temperaturanstieg, der einem 10prozentigen Anstieg des Kohlendioxids entspricht, ausreichen würde, um die Eiskappe zu schmelzen und New York unter Wasser zu setzen. Alle Küstenstädte wären bedeckt, und da ein beträchtlicher Prozentsatz der Menschheit in Küstenregionen lebt, denke ich, dass diese chemische Verseuchung ernster ist, als die meisten Menschen zu glauben pflegen.
Auf eine Nachfrage, ob er die Gefahr etwas genauer beschreiben könnte, antwortete Teller: Gegenwärtig ist der Kohlendioxidgehalt in der Atmosphäre um 2 Prozent gegenüber dem Normalwert angestiegen. Bis 1970 werden es vielleicht 4 Prozent sein, bis 1980 8 Prozent, bis 1990 16 Prozent [etwa 360 Teile pro Million, nach Tellers Rechnung], wenn wir mit unserem exponentiellen Anstieg bei der Verwendung rein konventioneller Brennstoffe weitermachen. Bis dahin wird es ein ernsthaftes zusätzliches Hindernis für die Strahlung geben, die die Erde verlässt. Unser Planet wird ein wenig wärmer werden. Es ist schwer zu sagen, ob es 2 Grad Fahrenheit [1.11 Grad Celsius] sein werden oder nur ein oder 5 [2.78 Grad Celsius]. Aber wenn die Temperatur auf dem gesamten Globus um ein paar Grad ansteigt, besteht die Möglichkeit, dass die Eiskappen zu schmelzen beginnen und der Pegel der Ozeane ansteigt. Nun, ich weiß nicht, ob sie das Empire State Building bedecken werden oder nicht, aber jeder kann es berechnen, indem er sich die Karte ansieht und feststellt, dass die Eiskappen über Grönland und der Antarktis vielleicht 5000 Fuß dick sind.
Die Ölindustrie wußte Bescheid, auch die Politik und die öffentliche Meinung begannen, sich für das Problem zu interessieren. Ende 1965 erhielt der damalige US
5.4 Klimamythen
141
Präsident Lyndon B. Johnson einen Bericht einer wissenschaftlichen Expertenkommission, die die Regierung berufen hatte. Der Bericht lies keine Zweifel an der Gefährlichkeit eines „weiter so“ Kurses. Ohne es zu ahnen, führt der Mensch ein enormes geophysisches Experiment durch. Innerhalb weniger Generationen verbrennt er die fossilen Brennstoffe, die sich in der Erde langsam über die letzten 500 Millionen Jahre angesammelt haben... Die klimatischen Veränderungen, die durch den erhöhten CO2 -Gehalt hervorgerufen werden könnten, können dem Menschen schaden.
Dieser Bericht wurde von der Ölindustrie sehr hellhörig aufgenommen. Frank N. Ikard der Präsident des American Petroleum Institute schreibt in einer Einschätzung des Berichts: Dieser Bericht wird zweifelsohne Emotionen wecken, Ängste schüren und zum Handeln auffordern. Eine der wichtigsten Vorhersagen des Berichts ist, daß der Atmosphäre durch die Verbrennung von Kohle, Erdöl und Erdgas Kohlendioxid in einem solchen Ausmaß zugeführt wird, daß bis zum Jahr 2000 der Wärmehaushalt so verändert sein wird, daß es zu deutlichen Klimaveränderungen kommen kann, die lokale oder sogar nationale Anstrengungen übersteigen. In dem Bericht heißt es weiter, und ich zitiere: „Die Umweltverschmutzung durch Verbrennungsmotoren ist so gravierend und nimmt so schnell zu, daß eine alternative, schadstofffreie Antriebsart für Autos, Busse und Lastwagen wahrscheinlich zu einer nationalen Notwendigkeit wird.“
Während Ölfirmen wie Exxon Mobile intern genaue Forschungen zu Auswirkungen des globalen Einsatzes von fossilen Brennstoffen anstellten, die keinen Zweifel an einem Einfluss auf das Klima ließen, waren ihre nach außen gerichteten Werbebroschüren voller Leugnungen genau der Ergebnisse, die sie selbst gefunden hatten. Die Ölindustrie konnte echte politische Veränderungen verhindern, aber das Thema wollte nicht so richtig in der Versenkung verschwinden, wie sie es am liebsten gehabt hätte. Immer wieder gab es lästige Berichte, die immer in die gleiche Kerbe hauten, wie beispielsweise der 1979 für Präsident Carter angefertigte „Charney Report“ in dem steht: Auf Ersuchen des Exekutivbüros von Präsident Carter hat die Nationale Akademie der Wissenschaften das Climate Research Board einberufen, um die wissenschaftliche Grundlage für künftige klimatische Veränderungen, die sich aus der vom Menschen verursachten Freisetzung von Kohlendioxid in die Atmosphäre ergeben, zu bewerten. Die Schlussfolgerungen dieser kurzen, aber intensiven Untersuchung mögen für die Wissenschaftler beruhigend, für die politischen Entscheidungsträger jedoch beunruhigend sein. Wenn das Kohlendioxid weiter zunimmt, gibt es nach Ansicht der Studiengruppe keinen Grund, daran zu zweifeln, dass es zu Klimaveränderungen kommen wird, und auch keinen Grund zu glauben, dass diese Veränderungen vernachlässigbar sein werden. Die Schlussfolgerungen früherer Studien wurden im Allgemeinen bestätigt. Die Studiengruppe weist jedoch darauf hin, dass der Ozean, das große und schwerfällige Schwungrad des globalen Klimasystems, den Verlauf des beobachtbaren Klimawandels voraussichtlich verlangsamen wird. Eine abwartende Haltung könnte bedeuten, dass man wartet, bis es zu spät ist.
Schließlich wurde das Thema auch noch auf die internationale Bühne gehoben, als die UN-Generalversammlung am 6. Dezember 1988 auf Antrag von Malta (!) in der Resolution 43/53 die Einrichtung des Intergovernmental Panel on Climate
142
5 Kampf der Wahrheiten
Change (IPCC) beschloss. Die Welt- Meteorologie-Organisation (WMO) und das UN-Umweltprogramm (UNEP) sollten einen Ausschuss gründen mit dem Auftrag: „das Liefern international koordinierter wissenschaftlicher Bewertungen zu Ausmaß, zeitlicher Dimension und möglichen ökologischen und sozio-ökonomischen Auswirkungen des Klimawandels sowie zu realistischen Reaktionsstrategien“. Während dieser ganzen Zeit, in der die Ölindustrie über die Konsequenzen des Einsatzes fossiler Brennstoffe bestens informiert war, lief ihre große LeugnungsMaschine. Mit bedeutender finanzieller und juristischer Power wirkte 1989–2002 die Global Climate Coalition (American Petroleum Institute, United States Chamber of Commerce ,Exxon Mobil, Royal Dutch Shell, BP und Texaco sowie die Autohersteller Ford, General Motors und DaimlerChrysler). Aufgabe dieser einflussreichen Lobbyorganisation war es, Belege für den menschlichen Einfluss auf das Klima zu bekämpfen und Klimaschutzmaßnahmen zu verhindern. Wichtig war dabei, dass die Geldgeber aus Energie- und Autobranche völlig unsichtbar bleiben konnten. Die GCC spielte erfolgreich mit allen Funktionen einer Leugnungs-Maschine, von denen wir hier einige wichtige kurz zusammenstellen, weil sie immer wieder und in jedem anderen Kontext Verwendung finden: Fear Uncertainty and Doubt (FUD) Rufe Zweifel an der Wissenschaft hervor. Behaupte, dass alle wissenschaftlichen Belege unsicher sind. Bausche echte Meinungsverschiedenheiten in der Forschung auf und führe Nicht-Experten mit Minderheitenmeinungen als Autoritäten an. Stelle die Konsequenzen einer Politik, die den wissenschaftlichen Empfehlungen folgt, in den düstersten Farben dar, zum Beispiel als Verlust der persönlichen Freiheit oder als unzumutbare ökonomische Belastung. Behaupte, dass die Akzeptanz der vorgestellten wissenschaftlichen Position einer unverzichtbaren Schlüsselphilosophie, einem religiösen Glauben oder einer Tradition (z. B. Pegidas „Abendland“) widersprechen würde. Argumentum ad hominem Stelle die persönlichen Motive und die Integrität von Wissenschaftlen in Frage. Gekaufte Experten Mit ein paar Scheinen (Peanuts für eine Organisation wie GCC) lassen sich manche Personen der Wissenschaft auch dazu bringen, den Zweifeln einen seriösen Anstrich zu geben. Es fanden sich tatsächlich einige. Greenscamming Gib Organisationen, die gegen Umweltschutz arbeiten, umweltfreundliche Namen. Die Global Climate Coalition ist schon so ein Beispiel. Ein weiteres schönes Beispiel sind auch die „Friends of Eagle Mountain“, eine von einer PR Firma organisierte Gruppe im Auftrag eines Bergbauunternehmens, das in einer stillgelegten Eisenerzgrube die größte Mülldeponie der Welt anlegen wollte. Oder, wie klingt „Northwesterners for More Fish“? Sind das Öko-Aktivste, die gegen die gierige Fischindustrie zu Felde ziehen? Diesen Eindruck wollten die Berater großer Firmen im Nordwesten der USA erzielen. Die Firmen wurden von Umweltgruppen
5.4 Klimamythen
143
wegen der Dezimierung der Fischbestände angegriffen. Schließlich ist auch das Europäisches Institut für Klima und Energie (EIKE) so ein Name, der mehr Seriosität verspricht als er liefert. Astroturfing Das Aufblasen virtueller Debatten. Wenige Personen oder einige Bots geben sich als große Zahl besorgter Bürger aus. Das Ganze wird zentral gesteuert und erzeugt virtuelle Debatten von großer Reichweite. Erfunden haben dürfte diese Zutat der Leugnungs-Maschine wohl die National Smoker Alliance in den 1990ern, als es um die Frage ging, ob Rauchen Krebs erzeugt. Für deutsche Ohren ist der Name etwas erklärungsbedürftig. AstroTurf ist eine bekannte Marke von Kunstrasen. Astroturfing meint die künstliche Version der Graswurzelbewegungen, die die Gesellschaft von unten her umstrukturieren wollen. Blogging Ein gut gemachter Blog wirkt überzeugend. Schöne Websites ersetzen wissenschaftliche Argumente. Ein gutes Beispiel ist „Watts up with that ?“ (The world’s most viewed site on global warming and climate change). Wird betrieben von Anthony Watts, Ex Fernseh Wetterfee, Studium der E-Technik u. Meteorologie ohne Abschluss, hat aber 3 Mio. pagehits pro Monat. Rechtsmittel kann man immer benutzen, vor allem in den USA. Zum Beispiel verklagte Exxon in Texas die Staatsanwälte von New York und Massachusetts, die untersuchen wollten, ob Exxon die Anleger und die Verbraucher über Klimawandel durch fossile Energie belogen hat. Flood the zone with shit Diese Technik stammt vom Donald Trump Berater Steve Bannon. Heutzutage ist sie sehr effektiv. Sie besteht darin, alle erreichbaren Medienkanäle mit jedem denkbaren und undenkbaren Unsinn zu einem Thema zu überfluten. Dann nämlich fällt es immer schwerer, die seriösen Informationen vom restlichen Mist zu trennen. Als Folge mistrauen die Nutze allen Informationen. Genau das will man erreichen. Ohne ein bisschen Geld geht es natürlich nicht. Aber die Geldflüsse sind nach Kräften getarnt. Nur das amerikanische Steuergesetz erlaubt gelegentlich kleine Einblicke. Eine aus dem Jahr 2015 stammende Zusammenstellung (aus „giving reports“ und öffentlichen Teilen der Steuererklärung, IRS 990) listet mehr als 70 Klimaleugnerorganisationen auf, denen ExxonMobil zwischen 1997 und 2015 insgesamt fast 34 Mio. US$ zukommen ließ. Finanziert wurde ganz besonders das American Enterprise Institute for Public Policy Research (AEI) (Thinktank, Washington DC) das Competitive Enterprise Institute, das George C. Marshall Institute, die Heritage Foundation, das Heartland Institute und das Committee for a Constructive Tomorrow, die allesamt mindestens eine halbe Million US$ erhielten. Spitzenreiter war das AEI mit ca. 4,2 Mio. US$. Über die Ausrichtung und Arbeitsweisen dieser Institute ließe sich eine Menge sagen. Hier nur eine kleine Notiz aus dem Guardian: Naturwissenschaftlern und Ökonomen wurden von einer Lobbygruppe, die von einem der größten Ölkonzerne der Welt finanziert wird, jeweils 10.000 US$ angeboten, um einen wichtigen Bericht zum Klimawandel zu untergraben, der heute veröffentlicht werden soll.
144
5 Kampf der Wahrheiten
In Briefen des American Enterprise Institute (AEI), eines von ExxonMobil finanzierten Thinktanks mit engen Verbindungen zur Bush-Regierung, wurden die Zahlungen für Artikel angeboten, die die Mängel eines Berichts des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) der Vereinten Nationen hervorheben. Es wurden auch Reisekosten und zusätzliche Zahlungen angeboten. (The Guardian, Februar 2007)
Engagierte Politike sind für eine Leugnungs-Maschine Gold wert. Die Liste ist lang, hier nur wenige Beispiele. Da wäre etwa Frank Luntz der Wandelbare. Er arbeitet als Berater der Republikanischen Partei der USA und schrieb 2002 ein Memo an Präsident George W. Bush, das schon eine gewisse Berühmtheit erlangt hat. Es trägt den Titel „Die Umwelt: Ein saubereres, sichereres und gesünderes Amerika“ (The Environment: A Cleaner, Safer, Healthier America). Darin erkannte er, dass es höchste Zeit wird, die Leugnungs-Maschine wieder anzuwerfen: Die wissenschaftliche Debatte neigt sich dem Ende zu, ist aber noch nicht abgeschlossen. Es gibt immer noch eine Gelegenheit, die Wissenschaft in Frage zu stellen. [...] Die Wähler glauben, dass es innerhalb der wissenschaftlichen Gemeinschaft keinen Konsens über die globale Erwärmung gibt. Sollte die Öffentlichkeit zu der Überzeugung gelangen, dass die wissenschaftlichen Fragen geklärt sind, werden sich ihre Ansichten über die globale Erwärmung entsprechend ändern.
Das durfte natürlich nicht geschehen. Die Privatmeinung des Frank Luntz zum Thema Klimawandel hat sich allerdings etwas geändert, seit sein Haus in Kalifornien fast abbrannte. Am 25. Juli 2019 sagte er anlässlich einer Senatsanhörung in San Francisco Die mutigen Feuerwehrleute von L.A. haben mein Haus gerettet, aber andere haben nicht so viel Glück. Steigende Meeresspiegel, schmelzende Eiskappen, Tornados und Wirbelstürme, die grausamer sind als je zuvor. Es geschieht wirklich.
Noch besser ist es, wenn man echte Fachpolitiker hat, die wichtige Posten in wichtigen Ausschüssen besetzen. Joe Barton war 2003 bis 2007 Vorsitzender des Ausschusses für Energie und Handel (Committee on Energy and Commerce), dem er auch danach noch angehörte. Hier eine seiner protokollierten, fachlich versierten Einlassungen: Wind ist Gottes Art, Wärme auszugleichen. Wind ist die Art und Weise, wie man Wärme von Gebieten, in denen es heißer ist, in Gebiete verlagert, in denen es kühler ist. Das ist es, was Wind ist. Wäre es nicht ironisch, wenn wir im Interesse der globalen Erwärmung den massiven Umstieg auf Energie vorschreiben würden, die eine endliche Ressource ist, die den Wind verlangsamt, was wiederum die Temperatur steigen lässt? Ich behaupte nicht, dass das passieren wird, Herr Vorsitzender, aber es wäre auf jeden Fall etwas von großem Ausmaß. Ich meine, das ergibt einen gewissen Sinn. Wenn man etwas stoppt, kann man die Wärme nicht mehr übertragen, und die Wärme steigt an. Darüber sollte man einfach mal nachdenken.
Ich kann nur hoffen, dass wir in unseren Parlamenten Leute mit etwas mehr naturwissenschaftlicher Bildung sitzen haben. Aber Naturwissenschaften sind ja sowieso zweifelhaft. Joe Barton machte die folgende Bemerkung bei der Anhörung des Unterausschusses für Energie und Strom
5.4 Klimamythen
145
zu H.R. 3, dem Northern Route Approval Act, einem Gesetzentwurf, der dem Kongress die Befugnis zur Genehmigung der Keystone-Pipeline geben würde. (von https://buzzFeed.com 10.03.2013): Ich möchte darauf hinweisen, dass man, wenn man an die Bibel glaubt, sagen muss, dass die Sintflut ein Beispiel für den Klimawandel ist, und das lag sicher nicht daran, dass die Menschheit die Kohlenwasserstoff-Energie überentwickelt hatte.
Na klar, endlich kennen wir die wahren Gründe für den Klimawandel. Der bibelgläubige und streng christliche, verheiratete Abgeordnete Joe Barton trat ab 2019 leider nicht mehr zur Wahl an. Es waren Bilder von ihm in Umlauf geraten, – diese Sorte expliziter Bilder (nicht an seine Ehefrau), vor denen wir unseren Nachwuchs unter dem Stichwort „sexting“ immer warnen. Auch in einer sehr kurzen Liste von Fachpolitikern darf Jim Imhofe nicht fehlen. Unvergessen ist sein berühmter Schneeball, mit dem er die globale Erwärmung im Februar 2015 widerlegte, weil er ihn in der Senatssitzung vorzeigen konnte. Im Senat ist er seit Januar 2015 Vorsitzender des Ausschusses für Umwelt und öffentliche Bauten und einer der profiliertesten Klimawandelleugner. Er hält das alles für einen ausgemachten Schwindel, und hat darüber ein ganzes Buch verfasst das ebenso heißt: The Greatest Hoax. How the Global Warming Conspiracy Threatens your Future. WND Books, Washington, D.C. 2012. (Der größte Schwindel: Wie die Globale Erwärmungs-Verschwörung Ihre Zunkunft gefährdet.) Wenn es irgendwo ein Gesetz gab, dass den Umweltschutz fördern sollte, war er dagegen. Zum Schluss noch ein kleiner Blick auf engagierte Klimamystiker in unserem Land. Das Europäische Institut für Klima und Energie EIKE wurde 2007 als Verein in Hannover durch Holger Thuß (promovierter Historiker) gegründet. Stellvertretender Vorsitzender ist Michael Limburg, Dipl.-Ing. E-Technik, AfD Mitglied und Mitglied im Bundesfachausschuss Energiepolitik der Partei. Seine grundlegende Position wird von ihm schön zusammengefasst bei einer Expertenanhörung im Brandenburger Landtag. Dort stellte er fest, es gebe keinerlei Beweise, „dass das menschgemachte CO2 auf irgendeine mysteriöse Weise die Temperatur der Atmosphäre dieses Planeten erwärmt“.
Teil II
Wirklichkeit und Modelle
Kapitel 6
Raum und Zeit, gibt’s die wirklich?
Häufig hört man raunen, die allergrundlegendsten Begriffe der Physik – ach was, aller Naturwissenschaften – seien Raum und Zeit. Was sind denn Raum und Zeit? Wie steht es mit der operativen Definitionsmethode für diese beiden? Man könnte meinen, dass wir alle so viel Erfahrung und angeborene Intuition über diese Begriffe mitbringen, dass eine Definition fast überflüssig ist. Da erstaunt es Sie vielleicht, wenn ich Ihnen jetzt sage, dass trotz einer jahrtausendelangen, intensiven Beschäftigung mit diesen Begriffen heute immer noch – und in letzter Zeit immer intensiver – darüber diskutiert wird, ohne zu abschließenden Ergebnissen zu kommen. Man kann diese Verblüffung bei jeder Generation von Studierenden der Physik wieder erleben. Es gibt in den Anfangssemestern eine Vorlesung über klassische Mechanik. Wenn ich die abhalte, beginne ich an der Tafel kleine Männchen, Lineale und Uhren in einem leerem Raum zu zeichnen. Das löst immer erstaunte Reaktionen aus („Bin ich hier im Kindergarten? Das wissen wir doch längst alles“)1 Erst wenn dieselben Überlegungen dann in Vorlesungen über Relativitätstheorie und Quantengravitation wieder auftauchen, beginnen Studierende, die Vertracktheit dieser scheinbar einfachen Probleme zu begreifen. Ganz so weit kommen wir hier nicht, aber einen gewissen Vorgeschmack kann ich Ihnen schon geben. Dabei geht es in diesem Abschnitt noch nicht um die sogenannte spezielle und allgemeine Relativitätstheorie, über die wir Genaueres in Kap. 10 erfahren werden. Hier geht es nur um ein wenig Naturphilosophie und um ganz praktische Methoden, die wir später anwenden werden Alles fängt damit an, dass man leider feststellen muss, dass sich Raum und Zeit nicht direkt beobachten lassen. Was wir beobachten, das sind Systeme in Raum und Zeit, und dieser Unterschied ist enorm wichtig. Wir müssen uns nämlich entscheiden: sollen Raum und Zeit selbst physikalische Systeme sein oder sollen sie theoretische Modelle sein, die für uns dazu da sind, die Beziehungen zwischen physikalischen 1
Die Klausurergebnisse zeigen allerdings, dass die Probleme für gewöhnlich unterschätzt werden.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_6
149
150
6 Raum und Zeit, gibt’s die wirklich?
Systemen zu ordnen? Die erste Möglichkeit entspricht eher unserer Intuition. Wenn wir gefragt werden, antworten die meistens von uns, dass der Raum eine Bühne ist, auf der sich das Weltgeschehen abspielt, und zwar als eine Abfolge von Ereignissen in der Zeit. Der Raum existiert also auch, wenn wir alle Systeme aus ihm entfernen, so wie ein Behälter weiter existiert, wenn man ihn völlig leert. Die zweite Möglichkeit kommt erst nach einigem Nachdenken, aber dann scheint sie auch ganz plausibel. Wenn wir in diese Welt geboren werden, müssen wir uns irgendwie darin zurecht finden. Dazu haben Lebewesen biologisch „fest verdrahtete“ Modelle. Raum und Zeit könnten solche Modelle sein, die dafür sorgen, dass wir nicht in einem Chaos von Sinneseindrücken ersaufen, sondern sofort nützliche Beziehungen zwischen ihnen feststellen (wie zum Beispiel „ist nahe“, „ist später als“ u. s. w.). Dieser Begriff von Raum und Zeit ist für Menschen sehr intuitiv und wird oft und seit langem benutzt. Wenn wir zum Beispiel jemandem den Ort eines Objekts beschreiben („Wie komme ich zum Kölner Dom?“), dann tun wir das meistens, indem wir Beziehungen zu anderen Objekten herstellen („Erst geradeaus bis zur Brücke, dann über die Brücke, dann durch den Hauptbahnhof und dann stehen Sie davor“). Zeiten werden in Beziehung zu Ereignissen aufgereiht („Treffen wir uns vor dem Theaterbesuch und danach gehen wir essen“) ohne auf die Länge der Zeitdauern Bezug zu nehmen. Natürliche Zyklen (Tage, Mondphasen, Jahre) bringen dann ein Gefühl von gleichmäßig verlaufender Zeit und Zeitdauern auf. In der Physik probiert man es sowohl mit Raum und Zeit als physikalischen Systemen als auch als Modell von Beziehungen zwischen physikalischen Systemen, aber im Moment kann man nicht sagen, welcher Ansatz der Wirklichkeit näher kommt. Spätestens, wenn die Quantenmechanik ins Spiel kommt führen beide Ansätze auf Probleme. Aber schon mit ganz einfachen Experimenten und Überlegungen sieht man, dass man viele naive Vorstellungen korrigieren muss. Nehmen wir an, wir entscheiden uns dafür, Raum als physikalisches System zu betrachten, nennen wir es den absoluten Raum. Was ist dann dieser Raum? Die Standardantwort lautet: zunächst mal eine Menge von Punkten. Was ist ein Punkt? Den müsste man operativ definieren, aber wie? Man braucht eine physikalische Eigenschaft, die diesen Punkt auszeichnet, so dass man eine Ja-Nein Messung durchführen kann. Zu diesem Zweck können wir zum Beispiel kleine, markierende Kugeln verschiedener Farbe benutzen. Dann legen wir fest: Da wo die rote Kugel ihren Mittelpunkt hat, ist der Punkt P des Raums. Das klingt einfach, aber es gibt viele Fallstricke. Zunächst können wir den Mittelpunkt der Kugel nur mit unvermeidlichen Messfehlern bestimmen, und damit können wir keinen geometrischen Raumpunkt festlegen, denn der hat überhaupt keine Ausdehnung. Das mag für die allermeisten Zwecke kein Schaden sein, – außer wir interessieren uns für die Struktur des Raums auf so kleinen Skalen, dass wir sie mit gegenwärtigen Messmethoden nicht auflösen können. Da kann die Natur noch jede Menge Überraschungen bereit halten. Zum Beispiel könnte der Raum auf diesen kleinen Skalen gar kein Kontinuum sein, sondern in jedem kleinen Volumen aus diskreten Punkten bestehen. Wer weiß. Aber auch wenn wir mal von diesem Fundamentalproblem absehen, birgt die Idee eines physikalischen Systems „Raum“ zahlreiche andere Schwierigkeiten.
6 Raum und Zeit, gibt’s die wirklich?
151
Was ist, wenn sich die Kugel bewegt? Wenn wir keine anderen Markierungen im Raum haben (also einen leeren Raum), macht dann der Begriff Bewegung überhaupt Sinn? Wie sollen wir messen, ob die Kugel sich bewegt, wenn die Kugel per operativer Definition immer (für alle Zeiten) am selben Raumpunkt liegt? Nein, werden Sie jetzt sagen, wenn sich die Kugel bewegt, dann ändert sich ja ihr Ort (sprich Raumpunkt). Aber um das festzustellen, brauchen wir mindestens noch eine weitere Markierung – sagen wir eine grüne – am Raumpunkt Q. Außerdem müssen wir eine Eigenschaft messen können, die beide Markierungen betrifft, nämlich die Lage von P relativ zu Q. Jetzt können wir zumindest per Ja-Nein Messung entscheiden, ob sich die eine Markierung relativ zur anderen Markierung bewegt. Aber mehr nicht! Mit anderen Worten: Bewegung ist immer relativ. Was wir nicht entscheiden können ist, welche der Markierungen ihren Raumpunkt verlassen hat. Ist die grüne Kugel bei Q geblieben? Oder doch die rote bei P? Oder haben beide ihre Ausgangspunkte verlassen? Sobald Bewegungen ins Spiel kommen, ist es aus mit der operativen Definition von Raumpunkten mit Hilfe kleiner Kugeln. Es gäbe noch einen anderen Ausweg, der einen absoluten Raum retten würde. Kann es nicht sein, dass die Punkte des Raums sich durch physikalische Eigenschaften unterscheiden, die wir nur noch nicht wahrgenommen haben? Dann bräuchten wir keine Kugeln, sondern könnten direkt messen, wo im absoluten Raum wir uns befinden. Auch diese Möglichkeit wird diskutiert. Es gibt aber noch einen anderen Weg, der so aussieht, als könnten wir zumindest einige Bewegungen im leeren Raum ohne Zusatzmarkierungen feststellen. Drücken wir es mal so aus: Wenn Sie in einer abgeschlossenen Kiste sitzen, die vom Rest der Welt isoliert ist, gibt es dann eine Möglichkeit, um festzustellen, dass die Kiste sich bewegt? Das hängt ganz entscheidend von der Art der Bewegung ab. Nehmen wir mal an, die Kiste rotiert um eine Achse. Wie Sie aus Achterbahn- und Karussellfahrten wissen, spüren Sie rotierende Bewegungen mit Ihrem Körper. Das Gleiche gilt für das Abbremsen oder das Beschleunigen. Dazu brauchen wir keine weiteren Bezugspunkte oder Markierungen außerhalb unserer Kiste. Also gibt es doch so etwas wie einen absoluten Raum? Gegen was sollten wir uns sonst bewegen? Dieses Argument fand Isaac Newton überzeugend. Er veranschaulichte solch eine Bewegung durch einen Wassereimer, der sich dreht. Wenn er sich dreht, dann erkennt man das an der Verformung der Wasseroberfläche, das Wasser wird zum Eimerrand gedrückt. An diesem Argument gab es aber auch schon zu Newtons Zeiten Kritik. Der scharfsinninge Bischof und Philosoph George Berkeley (1685–1753), ein Zeitgenosse Newtons, kritisierte dessen Auffassung in seiner 1721 erschienenen Schrift De Motu, d. h. Über Bewegung. Er schreibt: Im absoluten Raum gibt es keine Körper. Als solcher wäre er nicht beobachtbar. Der Begriff „absoluter Raum“ sagt nichts aus. Bewegung und Raum sind relativ. Sie setzen eine Beziehung zu einem anderen Körper voraus, durch den sie bestimmt werden. Für eine umfassendere Betrachtung wäre es sinnvoll, die Bewegung relativ zu den Fixsternen zu betrachten, die als in Ruhe befindlich angesehen werden, statt zum absoluten Raum. Genauso wenig wie wir den absoluten Raum kennen können, können wir wissen, ob das gesamte Universum ruht oder sich gleichmäßig in eine Richtung bewegt.
152
6 Raum und Zeit, gibt’s die wirklich?
Die Idee, dass der Fixsternhimmel – also die Massenverteilung im Rest des Universums – dafür sorgt, dass wir Beschleunigungen und Rotationsbewegungen spüren, wurde später vom Physiker und Philosophen Ernst Mach (1838–1916) sehr allgemein formuliert. Albert Einstein prägte dafür den Begriff „Machsches Prinzip“. Da alle Massen sich per Schwerkraft anziehen, ist es nicht ausgeschlossen, dass der Einfluss aller Fixsterne bei uns spürbar wird, wenn wir uns relativ zu ihnen bewegen. Wenn Sie wilde Spekulationen mögen, so dürfte nach diesem Prinzip ein Körper im leeren Raum keine Drehungen oder Beschleunigungen spüren. Und wenn überhaupt nichts mehr in dem Raum wäre, dann gibt es auch den Raum nicht mehr. Das heißt, ein solcher Raum ist nichts anderes als unser eigenes Modell für die Beziehungen zwischen aller Materie. Sie haben nun vielleicht irgendwo mal gehört, dass es eine allgemeine Relativitätstheorie gibt, die die Aussage macht, dass die Verteilung von Materie die Geometrie im Raum beeinflusst. Was heißt das nun? Heißt es, dass der Raum doch nichts anderes ist, als ein Modell für Beziehungen zwischen Materie, denn was wäre die Raumstruktur ohne Materie? Sie müssen mir an dieser Stelle mal glauben: nein, so ist es nicht. Denn auch die allgemeine Relativitätstheorie kann nicht ausschließen, dass es Raumstrukturen gibt, die nicht auf Materie zurückzuführen sind. Einsteins fabelhafte Gleichungen für kosmologische Modelle lassen Lösungen zu, die ganz ohne Materie eine komplizierte Struktur in Raum und Zeit ergeben. Das erste derartige Modell wurde ziemlich bald nach Einsteins Veröffentlichungen der allgemeinen Relativitätstheorie vom niederländischen Physiker und Astronomen Willem de Sitter (1872–1934) gefunden (W. de Sitter, On the relativity of inertia. Remarks concerning Einstein’s latest hypothesis, in: KNAW, Proceedings, 19 II, 1917, Amsterdam, 1917, pp. 1217–1225). Das Match absoluter Raum gegen Raum als Modell ist nach wie vor unentschieden. Ok, beschleunigte Bewegungen können wir spüren, aber was ist mit unbeschleunigter Bewegung, d. h. Bewegung mit konstantem Tempo in eine Richtung ? Wenn Sie in einem Zug sitzen, der auf perfekten Schienen dahingleitet ohne sein Tempo zu verändern und Sie haben auch noch Musik in den Ohren, die alle Fahrtgeräusche verschwinden lässt, dann spüren Sie nichts von der Bewegung. Sie können völlig ungestört eine Tasse Kaffee abstellen. Erst wenn Sie hinaussehen, dann sehen Sie die Landschaft vorüber brausen. Könnten Sie nun im Inneren des Zugs eine Messung vornehmen, die Ihnen verrät, ob der Zug fährt? Hinausschauen ist dabei verboten, die Messung muss vollständig im Zuginneren ablaufen. Darüber kann man lange nachdenken und Vieles probieren. Die Aussage, dass es keine solche Messung gibt, bezeichnet man auch als Relativitätsprinzip. Der Name ist leicht zu verstehen. Wenn Sie nämlich dieselben Messungen auf einem Bahnsteig vornehmen, dann ergeben sie exakt dieselben Ergebnisse wie im Zug. Wäre dem nicht so, dann gäbe es ja ein Experiment, das den Bahnsteig vom Zuginneren unterscheidet. Mit anderen (etwas abstrakteren) Worten: Jede physikalische Messung, die man in einem Bezugssystem A durchführt, zeigt dieselben Ergebnisse in jedem relativ zu A gleichförmig und geradlinig bewegten Bezugssystem. Dieses Prinzip wurde von Galileo Galilei (1564–1641) in seinem Dialog über die beiden hauptsächlichsten Weltsys-
6 Raum und Zeit, gibt’s die wirklich?
153
teme, das Ptolemäische und das Kopernikanische2 bereits 1630. Hier seine Originalformulierung (übersetzt; das Original ist in Italienisch, nicht in Latein, schon das war zur damaligen Zeit sehr verdächtig.): Schließt Euch in Gesellschaft eines Freundes in einen möglichst großen Raum unter dem Deck eines großen Schiffes ein. Verschafft Euch dort Mücken, Schmetterlinge und ähnliches fliegendes Getier; sorgt auch für ein Gefäß mit Wasser und kleinen Fischen darin; hängt ferner oben einen kleinen Eimer auf, welcher tropfenweise Wasser in ein zweites enghalsiges darunter gestelltes Gefäß träufeln läßt. Beobachtet nun sorgfältig, solange das Schiff stille steht, wie die fliegenden Tierchen mit der nämlichen Geschwindigkeit nach allen Seiten des Zimmers fliegen. Man wird sehen, wie die Fische ohne irgend welchen Unterschied nach allen Richtungen schwimmen; die fallenden Tropfen werden alle in das untergestellte Gefäß fließen. Wenn Ihr Euerem Gefährten einen Gegenstand zuwerft, so braucht Ihr nicht kräftiger nach der einen als nach der anderen Richtung zu werfen, vorausgesetzt, daß es sich um gleiche Entfernungen handelt. Wenn Ihr, wie man sagt, mit gleichen Füßen einen Sprung macht, werdet Ihr nach jeder Richtung hin gleich weit gelangen. Achtet darauf, Euch aller dieser Dinge sorgfältig zu vergewissern, wiewohl kein Zweifel obwaltet, daß bei ruhendem Schiffe alles sich so verhält. Nun laßt das Schiff mit jeder beliebigen Geschwindigkeit sich bewegen: Ihr werdet – wenn nur die Bewegung gleichförmig ist und nicht hier- und dorthin schwankend – bei allen genannten Erscheinungen nicht die geringste Veränderung eintreten sehen. Aus keiner derselben werdet Ihr entnehmen können, ob das Schiff fährt oder stille steht. [...] Die Ursache dieser Übereinstimmung aller Erscheinungen liegt darin, daß die Bewegung des Schiffes allen darin enthaltenen Dingen, auch der Luft, gemeinsam zukommt. Darum sagte ich auch, man solle sich unter Deck begeben, denn oben in der freien Luft, die den Lauf des Schiffes nicht begleitet, würden sich mehr oder weniger deutliche Unterschiede bei einigen der genannten Erscheinungen zeigen.
Eine Folge aus diesem Relativitätsprinzip ist, dass die intuitive Vorstellung von einem Ort im Raum erschüttert wird. Wenn Sie in einem Bahnhofsrestaurant sitzen und sagen, dass ihre Kaffeetasse auf dem Tisch immer am selben Ort steht, so wird die Beobachtung derselben Tasse aus einem fahrenden Zug heraus ergeben, dass die sich mit einem ziemlichen Tempo bewegt, d. h. ihren Ort verändert. Intuitiv halten Sie die Bahnhofsansicht für zutreffender, weil der Bahnhof ja ruht. Aber er ruht ja nicht! Er bewegt sich mit der Erde. Und die bewegt sich mitsamt dem ganzen Sonnensystem in der Galaxis. Und die bewegt sich u. s. w. Statt eines absoluten Raums, der wie die Bühne eines Kasperle Theaters beschaffen ist, gibt es also ein Art von demokratischem Raum. Galileis Erkenntnis ist, dass alle Systeme, die sich geradlinig und gleichförmig gegeneinander bewegen gleichberechtigt und physikalisch nicht zu unterscheiden sind. Lassen Sie uns das noch etwas genauer untersuchen. Das Relativitätsprinzip gilt nur, wenn in den Systemen Gegenstände nicht durch verschiedene andere Einflüsse bewegt werden. Ein elektrisches Feld kann zum Beispiel Ladungen bewegen. Wenn Galileis Schiff sich durch ein elektrisches Feld bewegt, so kann man das durch ein Experiment im Schiff feststellen, und es würde das System Schiff vom System Ufer unterscheiden, wenn das elektrische Feld dort nicht vorhanden wäre. Ein System, in dem alle äußeren Einflüsse ausgeschaltet sind, nennt man kräftefrei. Wenn man dann in einem solchen System keine Beschleunigungen spürt (was zum Beispiel der Fall 2
Das Buch, das ihm die Schwierigkeiten mit der kirchlichen Inquisition und lebenslange Kerkerhaft einbrachte. Die Haft war allerdings schließlich nur ein Hausarrest in seiner Villa.
154
6 Raum und Zeit, gibt’s die wirklich?
wäre, wenn sich Galileis Schiff drehen würde), dann ist das auch in keinem geradlinig gleichförmig dazu bewegten System der Fall. Solche Systeme heißen in der Physik Inertialsysteme. Sie sind sozusagen ein Ersatz für den absoluten Raum. Wenn man irgendein physikalisches Experiment in einem Inertialsystem durchführt, erhält man exakt die gleichen Ergebnisse wie in jedem anderen Inertialsystem. Das nennt man das Galileische Relativitätsprinzip. Es war der Ausgangspunkt für Einsteins spezielle Relativitätstheorie. Für die Zeit könnte man Einiges von dem wiederholen, was wir gerade über den Raum gesagt habe. Einerseits empfinden wir die Zeit als einen „Strom“ der alle Ereignisse trägt, aber andererseits sehen wir in der Zeit eben genauso gut ein Ordnungsschema, dass wir eingebaut haben, um die Wirklichkeit zu begreifen. Im Unterschied zum Raum können wir allerdings in der Zeit nicht reisen. Daher ist es auch nicht so einfach, Abstände in der Zeit zu definieren. Es fehlen Lineale. Dafür bietet die Zeit eine enorm wichtige Struktur, mit der wir unser Leben ordnen und die äußere Welt verstehen, nämlich die kausale Aufteilung in Vergangenheit, Gegenwart und Zukunft. Nur Ereignisse in der Vergangenheit können Gegenwart und Zukunft beeinflussen. Obwohl diese Struktur immer wieder getestet wird (von allen Menschen), gibt es keine nachgewiesenen Beispiele für eine Verletzung dieses Prinzips.
6.1 Messen in Raum und Zeit Man verliert sich sehr schnell in philosophischen Spitzfindigkeiten, wenn man die Probleme von Raum und Zeit erst vollständig durchdenken will, bevor man anfängt, sie für die Physik zu nutzen. Höchstwahrscheinlich kommt nicht viel dabei heraus. Statt an diesen Grundsatzfragen zu verzweifeln, geht die Physik (wie immer) von dem einfach zugänglichen Teil der äußeren Wirklichkeit aus und versucht zunächst mal, dafür Modelle und Regeln aufzustellen. Für den Raum und die Zeit soll das bedeuten: wir sind im Besitz von Linealen, Winkelmessern, Uhren und Markierungen. Ein Beobacht, das damit ausgestattet ist, markiert einen Punkt im Raum, den Ursprung, und wählt einen beliebigen Startpunkt, von dem aus die Zeitmessung beginnt. Dann nennen wir das Ganze ein Bezugssystem. Um die Bewegung eines Körpers zu verfolgen wird ein Punkt auf dem Körper markiert und die Bewegung dieser Markierung studiert. Den Ort der Körpermarkierung im Raum können wir relativ zum Bezugssystem bestimmen, womit wir alle Diskussionen über den absoluten Raum vermeiden. Wir messen den Ort, indem wir eine Operation mit dem Ursprung durchführen. Wir verschieben ihn, bis der sich mit der Körpermarkierung deckt. Jede Verschiebung (manchmal vornehm Translation genannt), lässt sich durch einen Pfeil veranschaulichen. Solche Pfeile sind also Modelle für Translationen. Sie werden auch Vektoren genannt, aber diesen Begriff wollen wir vermeiden, weil in
6.1 Messen in Raum und Zeit
155
a+b
b
b a
Abb. 6.1 links: Die Verschiebung eines Objekts kann durch einen Pfeil dargestellt werden, den man an jedem Punkt des Körpers ansetzen kann. rechts: Die Hintereinanderausführung von zwei Verschiebungen a und b ist eine Verschiebung, die durch die Pfeilsumme a + b beschrieben wird
den verschiedensten Wissenschaften alles Mögliche als Vektor bezeichnet wird3 . Die Verschiebung vom Ursprung zur Markierung auf einem Körper nennen wir den Ortspfeil der Markierung. Daher schauen wir uns in der Abb. 6.1 die Pfeile genauer an. Lassen Sie uns verabreden, dass wir Verschiebungen mit kleinen, fetten Buchstaben bezeichnen, also mit a, b u. s. w. Mehrere Verschiebungen kann man hintereinander ausführen, die entsprechenden Pfeile werden geometrisch wie in der Abb. 6.1 gezeigt kombiniert. Man nennt das „Pfeile addieren“ (obwohl das natürlich keine Addition im üblichen Sinn ist) und schreibt lässig a + b = c. Das ist üblich, aber damit erhält das Pluszeichen eine zweite Bedeutung und man muss aufpassen, es nicht mit dem üblichen Addieren von Zahlen zu verwechseln. Für die Länge eines Pfeils führt man das Symbol |a| ein. Die Länge ist eine positive Zahl. Ein Pfeil mit der Länge 2|a| ist doppelt so lang wie a. Man kann jeden Pfeil mit einer positiven Zahl c multiplizieren. Das Ergebnis ist ein Pfeil der Länge c|a|, der in dieselbe Richtung zeigt wie a. Schließlich kann man noch einen Pfeil mit −1 multiplizieren. Dann erhält man einen Pfeil, der in die entgegengesetzte Richtung von a zeigt, den bezeichnet man mit −a, und damit kann man auch subtrahieren: a + (−b) = a − b. Die Richtung kann man durch einen Pfeil der Länge 1 beschreiben, für den wir eine besondere Notation einführen. Wir verzieren den fetten Buchstaben mit einem Hut, nämlich so: aˆ = a/|a|. Noch eine Verabredung: wenn wir herausheben wollen, dass ein Pfeil ein Ortspfeil ist, dann reservieren wir dafür den Buchstaben r. Falls wir mehrere Punkte brauchen, nummerieren wir sie durch r1 , r2 , r3 , · · · . Statt umständlich „der Punkt, der durch den Pfeil r in unserem Bezugssystem festgelegt wird“, sagen wir einfach „der Punkt r“. Als Nächstes können wir Geschwindigkeiten als Pfeilgrößen einführen, indem wir einen Punkt zu zwei dicht benachbarten Zeiten anschauen, also r(T ) und r(T + t). Die Verschiebung von einem Punkt zum anderen nennen wir r(T ) = r(T + t) − r(T ) und die mittlere Geschwindigkeit während dieses kleinen Zeitintervalls ist dann v(T ) = r(T )/t. Nun machen wir das Zeitintervall wieder so klein wie wir es (im Rahmen unserer Messgenauigkeit) brauchen und haben eine operative Definition der Geschwindigkeit v(T ) des Punktes zur Zeit T . Aus dem Zeitverlauf der Geschwindigkeit gewinnen wir mit genau derselben Konstruk3
Beispiel: In der Molekularbiologie ist ein Vektor ein Vehikel zum Transport von Erbmaterial in eine Zelle.
156
6 Raum und Zeit, gibt’s die wirklich?
Abb. 6.2 So stellt man einen Pfeil durch 3 Zahlen (kartesische Koordinaten) dar. Die z-Komponente liest man ab, indem man die Pfeilspitze waagerecht mit der z-Achse verbindet. Dann projeziert man den Pfeil in die x-y Ebene und liest die xund die y-Komponente aus dem projezierten Schatten ab ab
tion einen mittleren Beschleunigungspfeil a(T ) = v(T )/t und den Beschleunigungspfeil per praktischem Grenzwert. Diese Konstruktionen haben wir schon in Abschn. 3.7 für Zahlengrößen, die von der Zeit abhängen kennengelernt und Ableitung nach der Zeit oder Differenzieren nach der Zeit genannt. Wie wir sehen, klappt das auch mit Pfeilen mühelos. Wir können auch hier wieder die mathematischen Grenzwerte und die Notation von Herrn Leibniz einführen. Wir schreiben also kurz v(T ) = d r/dT und a(T ) = dv/dT . Pfeile kann man sehr schön hin malen, aber kann man mit ihnen auch rechnen? Die Physik muss sehr komplizierte Operationen mit großen Haufen von Pfeilen durchführen, und da wäre es wünschenswert, wenn man die mühselige Kleinarbeit einem Computer überlassen könnte. Aber Pfeile kennt der Computer ja nicht, er kennt nur Zahlen. Also muss man wissen, wie man die geometrischen Pfeile in algebraische Zahlen verwandelt (das nennt man auch analytische Geometrie). Dazu verwendet man sogenannte kartesische Koordinatensysteme. Merkwürdigerweise heißen diese Koordinatensysteme nach Descartes (daher kartesisch), obwohl sie sich bei Descartes in der heute üblichen Form gar nicht finden. Die Bezeichnung geht auf Leibniz zurück, und die moderne Fassung findet sich erst bei Newton. Die Darstellung von einem Pfeil durch 3 Zahlen (die heißen Komponenten, bei Ortspfeilen auch Koordinaten) ist in Abb. 6.2 erklärt. Das Schöne an dieser Art der Codierung von Pfeilen ist, dass die Pfeiladdition zu einer Addition von Zahlen wird, d. h.: entspricht dem Pfeil a das Zahlentripel (1, 2, 3) und dem Pfeil b das Tripel (5, 6, 7), so entspricht a + b gerade (1 + 5, 2 + 6, 3 + 7). Damit können wir die geometrischen Pfeiloperationen auf Rechnen mit Zahlen abbilden, womit sie für einen Computer mundgerecht aufbereitet sind. Die Zeit messen wir mit Uhren, aber was ist eigentlich eine Uhr? Um eine Uhr zu erhalten, suchen wir uns Vorgänge, die sich immer wiederholen, die also periodisch sind. Unter diesen Vorgängen suchen wir solche heraus, die – soweit wir das überprüfen können – überall im Universum die gleiche Periode haben4 . Dann legen wir fest, dass das Zeitintervall einer Periode für alle Perioden gleich lang ist. Damit haben wir die Zeit über eine Messung definiert. Wie bei operativen Definitionen 4
oder deren Perioden an verschiedenen Orten wir ineinander umrechnen können.
6.1 Messen in Raum und Zeit
157
üblich, muss man diese Methode immer mal wieder verfeinern. Ein periodischer Vorgang ist beispielsweise die Tageslänge, aber die ist aus einfachen Beobachtungen nicht ganz ersichtlich. Wann soll ein Tag enden und ein neuer beginnen? Die Dauer eines lichten Tages (Sonnenaufgang bis Sonnenuntergang) ändert sich ja im Laufe eines Jahres. Das Jahr ist schon besser geeignet, es hat als Grundlage die Bewegung der Erde um die Sonne. In den Fixsternbildern am Himmel sieht man aufgrund der Erdbewegung periodische Verschiebungen, aus denen man die Jahreslänge direkt beobachten kann. Astronomische Perioden spielten in allen Religionen eine wichtige Rolle, daher waren Messungen der Jahreslänge schon Jahrtausende vor Christi Geburt erstaunlich genau. Der altägyptische Kalender zum Beispiel bestimmte diese Länge auf 365 und 1/4 Tage (Allerdings benutzten sie lieber 365 Tage, denn sonst hätten sich ihre Feiertage dauernd verschoben, was sie gar nicht mochten.) Auf der Erde versuchte man, periodische Vorgänge zu konstruieren. Man ließ zum Beispiel Wasser möglichst gleichmäßig von einem Behälter in einen anderen fließen (Klepshydra), bis der Behälter leer war und wieder mit dem abgeflossenen Wasser gefüllt wurde. Diese Methode findet heute noch (mit Sand) für Eieruhren Verwendung. Größere Genauigkeit erreichte man mit Pendeln. Heute benutzen wir als Normal die Sekunde, und die ist operativ ziemlich aufwändig mit Hilfe der Quantenmechanik und der Theorie elektromagnetischer Wellen definiert (lesen Sie Kap. 11 und 9, dann wissen Sie mehr), nämlich als die Anzahl der Schwingungen der elektromagnetischen Strahlung, die bei einem genau reproduzierbaren Atomprozess im chemischen Element Cäsium ausgesandt wird. Solche Prozesse haben den Vorteil, dass Atome überall im Universum gleich sind, und wir daher eine Uhr haben, die auch überall funktioniert. Außerdem sind sie wahnsinnig genau.
Kapitel 7
Gott würfelt nicht: Newtons Welt
7.1 Ein Buch verändert die Welt: Die Principia Wir haben schon mehrfach erwähnt, dass der englische Physiker, Mathematiker, Alchemist, Theologe und Esoteriker Isaac Newton (1643–1727) ein Buch schrieb, das heute zu einer Art Ikone der Revolution des wissenschaftlichen Denkens geworden ist, die Philosophiae Naturalis Principia Mathematica (kurz Principia). Wir wollen in diesem Abschnitt einen Blick auf die interessante Entstehungsgeschichte werfen, bevor wir uns mit dem Inhalt beschäftigen. Dass es nämlich überhaupt erschien, ist zum nicht geringen Teil dem Astronomen Edmond Halley1 (1656–1742) zu verdanken (s. Abschn. 4.7). Er war es, der Newton ermunterte, das Buch zu schreiben und zu veröffentlichen2 und bezahlte sogar die Druckkosten der ersten Auflage, was für ihn ein ziemliches finanzielles Risiko war. Unsere Geschichte der Principia beginnt an einem klirrend kalten Januarabend3 des Jahres 1684 im Londoner Kaffeehaus Garraways4 . Drei angesehene und bekannte Wissenschaftler kamen von einer Sitzung der Royal Society5 und diskutierten 1
Dem Namensgeber des Halleyschen Kometen. Er berechnete im Jahr 1705 Bahnelemente von Kometen, die in vergangenen Jahren erschienen waren und wagte die Voraussage, dass es sich dabei um ein und denselben Kometen handelt, und dass der 1709 wieder erscheint. Diese Voraussage traf zu. 2 Das war auch nötig, denn Newton war gerade ziemlich vergrätzt über die wissenschaftliche Welt, und bestrafte sie, indem er nichts veröffentlichte. Robert Hooke, den wir gleich treffen, hatte es gewagt, sein Buch über Optik zu kritisieren. Das nahm er ihm zeitlebens übel. Nach der Auseinandersetzung mit Hooke zog er sich erst mal aus dem allgemeinen Wissenschaftsbetrieb zurück. Er reagierte überhaupt sehr empfindlich und nachtragend auf jegliche Kritik an seiner Arbeit. 3 Der Winter 1683–1684 schafft es nach wie vor auf Platz 1 der kältesten Winter in Großbritannien. Zu dieser Zeit befinden wir uns in der sogenannten „Kleinen Eiszeit’“. 4 Das damals berühmte Garraways befand sich in London in der (heutigen) Change Alley und wurde 1866 geschlossen. Kaffeehäuser waren im 17. Jahrhundert noch sehr neu und revolutionär. Dort wurde über Politik und Wissenschaft diskutiert, Mode vorgeführt und Fell- und Sklavenhandel betrieben. 5 Die 1660 gegründete nationale Akademie der Naturwissenschaften des britischen Königreichs © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_7
159
160
7 Gott würfelt nicht: Newtons Welt
über kosmologische Fragen: der Architekt, Astronom und Mediziner Christopher Wren (1632–1723) 6 , der Kurator der Royal Society7 Robert Hooke (1635–1703), und der Astronom Edmond Halley. Alle drei waren in der Naturphilosophie und Mathematik bewandert, und alle drei waren in Diskussionen und durch eigene Arbeiten zum Schluss gelangt, dass die Sonne die Erde anzieht, und dass diese Anziehung mit wachsendem Abstand R zwischen Erde und Sonne schwächer wird, und zwar8 wie R −2 . Sie waren sehr vertraut mit den Arbeiten von Johannes Kepler (27. Dezember 1571–1630)9 , der aus Beobachtungen des dänischen Astronomen Tycho Brahe (1546–1601) drei Gesetze über Planetenbahnen gewonnen hatte. Nach dem ersten der Keplerschen Gesetze bewegen sich Planeten auf elliptischen Bahnen, in deren einem Brennpunkt die Sonne steht (siehe Abb. 7.1). Halley warf die Frage auf, welche Planetenbahn wohl aus einer 1/R 2 -Kraft resultieren würde. Man fand keine Antwort, obwohl Hooke behauptete, er habe einen Beweis, dass die Bahn eine Ellipse sei, genau wie das erste Keplersche Gesetz es aussagt. Wren blieb skeptisch und verwettete ein wertvolles Buch, wenn Hooke diesen Beweis erbringen könne. Hooke lies aber diesbezüglich nichts weiter von sich hören. Halley war zwar äußerst interessiert an dieser Frage, wurde jedoch durch familiäre Probleme in den nächsten Wochen in Anspruch genommen. Danach begann er sich wieder mit den Rechnungen zur Planetenbahn zu beschäftigen. Doch er kam nicht voran. Da entschloss er sich im August 1684, den exzentrischen, isoliert lebenden Professor Isaac Newton in Cambridge um Hilfe zu bitten. Zu seiner Verblüffung wußte Newton die Lösung auf Anhieb, konnte aber dann seine Aufzeichnungen dazu nicht mehr finden. Man muss nämlich wissen, dass Newton schon lange vorher, in seiner Zeit im Home Office 1665–1667 (siehe Abschn. 3.7) an dem Problem der Himmelsmechanik gearbeitet hatte, und längst die von Halley, Wren und Hooke gesuchte Bahnform bestimmt hatte. Da Newton aber – wie gesagt – nur sehr wenig veröffentlichte, häuften sich bei ihm zahllose Notizen an, die später nach seinem Tod gefunden wurden, und aus denen man noch heute versucht, zu rekonstruieren, wann er eigentlich was entdeckt oder entwickelt hatte. Newton hatte sogar eine Zeit lang mit Hooke korrespondiert (auf den er ja im Prinzip ziemlich sauer war, weil er sein Buch über Optik kritisiert hatte). Hooke hatte entdeckt, dass für eine Bewegung auf einer gekrümmten Bahn (zum Beispiel einer Kreisbahn) zwei Faktoren entscheidend sind: die Trägheit, die den Körper in tangentialer Richtung davonfliegen lässt und ein zum Zentrum 6
Er war nicht nur Baumeister der Stadt London und königlicher Generalarchitekt, sondern auch Astronomieprofessor in Oxford und außerdem Erfinder der intravenösen Injektionen. Zur Zeit unserer Geschichte war er noch sehr beschäftigt mit dem Wiederaufbau der Londoner City, die im großen Brand 1666 zu 4/5 zerstört worden war. Seine Bauwerke bestaunen heutige London Touristen immer noch, allen voran die St. Paul’s Cathedral. 7 Die Aufgabe des Kurators bestand darin, bei den wöchentlichen Treffen der Society Experimente vorzubereiten und durchzuführen. 8 Jetzt wäre Zeit, ins Mathe-Glossar zu schauen. R 2 = R · R ist die 2. Potenz des Abstands und R −2 = 1/R 2 . 9 Die gregorianische Kalenderreform fällt in Keplers Lebenszeit. Daher wird sein Geburtsdatum nach dem älteren, julianischen, Kalender angegeben, sein Todesjahr nach dem gregorianischen. Im gregorianischen Kalender wäre er 10 Tage später geboren, d. h. am 6. Januar 1572.
7.1 Ein Buch verändert die Welt: Die Principia
161
Abb. 7.1 Eine Planetenbahn ist nach dem 1. Keplerschen Gesetz eine Ellipse. Eine Ellipse hat zwei sogenannte Brennpunkte. Die Summe der Streckenlängen von den Brennpunkten zu einem Punkt auf der Ellipse ist immer gleich groß (nämlich 2a). Die Strecke e heißt Exzentrizität und wird meist als Bruchteil der großen Halbachse angegeben. Wenn e = 0 ist, steht die Sonne im Mittelpunkt und die Ellipse wird zum Kreis. Die Exzentrizitäten der Planetenbahnen sind klein. Die der Erde ist zum Beispiel 0.0167 · a, das ist mit bloßem Auge auf einem Din A 4 Bogen schwer von einem Kreis zu unterscheiden. Die elliptischste Bahn hat Merkur mit e = 0.2056 · a
gerichteter Einfluss (die Zentripetalkraft). Damit ersetzte er eine ältere Deutung von Descartes, die hinter jeder gekrümmten Bahn eine Fliehkraft (Zentrifugalkraft) vermutete. Hooke hatte verstanden, dass die Fliehkraft eigentlich ein Produkt der Trägheit ist. Newton hatte an sich kein besonderes Interesse an einer Zusammenarbeit mit Hooke, trotzdem entspann sich ein Briefwechsel, und in einem der Briefe bemerkte Hooke 1680 : „Meine Annahme ist jedoch, dass sich die Anziehung reziprok quadratisch zur Entfernung vom Zentrum verhält“. Hooke wollte später, dass seine Entdeckung von Newton in seinem Buch auch gewürdigt werde, woraufhin Newton alle Stellen, an denen er Hooke lobend erwähnte, aus seinem Buch strich. Er mochte weder Kritik, noch Zweifel an seinem Genie. Als er nun die Papiere zur Bahnform der Planeten nicht wiederfinden konnte versprach er Halley, die Rechnungen zu wiederholen und sie ihm zu schicken. Im November erreichten Halley Newtons Aufzeichnungen in einer neunseitigen Schrift mit dem Titel De Motu Corporum in Gyrum (Über die Bewegung der Körper in Umlaufbahnen). Newton war es gelungen, alle drei Keplerschen Gesetze durch mathematische Schlussfolgerungen aus drei sehr allgemeinen Prinzipien der Bewegungen (Newtonsche Gesetze) abzuleiten (die wir im nächsten Abschnitt kennen lernen werden), wobei er ein einziges mathematischen Gesetz für die Schwerkraft benutzte. Dieses Gesetz soll nach Newtons Vorstellung gleichermaßen für die Anziehungskraft der Erde auf irdische Körper wie für die Anziehung zwischen allen anderen Körpern im Weltall gelten. Das war eine revolutionäre Behauptung, denn die seit der Antike
162
7 Gott würfelt nicht: Newtons Welt
gängige Vorstellung war, dass auf der Erde ganz andere Gesetze der Bewegung gelten als in den himmlischen Sphären. Die neunseitige Schrift begründete eine völlig neue Theorie der Bewegung in der Physik und bildete gewissermaßen den Nukleus des Hauptwerks der Principia. Es folgten 18 Monate harter Arbeit, und dann war das Buch fertig. Die erste Auflage erschien 1687. Die Druckkosten übernahm Halley, da die Royal Society ihr Budget mit der Herausgabe eines Werks zur Naturgeschichte der Fische (leider ein Flop) erschöpft hatte. Das Buch, das die Welt verändern sollte, stand nicht gerade auf den Bestsellerlisten, obwohl sich Halley bemüht hatte, die europäische Geisteselite darauf aufmerksam zu machen. Die 1. Auflage wurde in einigen hundert Exemplaren gedruckt und für 6 bis 9 Shillings verkauft10 . Den Verkauf versuchte zunächst Halley in die Hand zu nehmen (er wollte natürlich sein Geld wieder haben), aber erst, nachdem er die Exklusivrechte an einen Profi (Samuel Smith) verkauft hatte, gelang es dem, bis 1690 einige hundert Exemplare europaweit zu verkaufen. Was war nun an dem Buch so revolutionär? Newton schuf darin eine neue Methode zum Verständnis der äußeren Wirklichkeit, die sich als überwältigend leistungsfähig entpuppte. Er verknüpfte den Rationalismus (deduktive, mathematische Schlüsse) und den Empirismus (Wissen aus Beobachtung) miteinander (siehe Abschn. 4.2). Bis dahin war es noch die vorherrschende Meinung, dass man Wissen durch Nachdenken erwirbt. Experimente sind nicht das Wichtigste. Descartes formulierte es mit einer Bemerkung am Ende seiner Abhandlung über Stoßgesetze sehr deutlich: …und selbst wenn uns die Erfahrung das Gegenteil zu zeigen schiene, würden wir trotzdem genötigt sein, unserer Vernunft mehr als unseren Sinnen zu vertrauen.
Newton gelang eine produktive Synthese aus beiden philosophischen Grundhaltungen. Einerseits bestand er auf einem Startpunkt und einem Begriffssystem, das aus sehr präzisen Experimenten gewonnen wird. Dann leitete er aus diesen ersten Grundsätzen neue Voraussagen durch mathematische (also deduktive) Schlussfolgerungen ab. Die überprüfte er wieder experimentell. Schließlich gelangen ihm abduktive Schlüsse, indem er den Gültigkeitsbereich gesicherter Erkenntnisse so weit wie möglich verallgemeinerte. So kam er von der Schwerkraft auf der Erde zur universellen Schwerkraft, die zwischen allen materiellen Körpern nach dem gleichen, quantitativen Gesetz wirkt. … und da wir nun mal beim Thema sind: Die Idee der universellen Schwerkraft ist immer verknüpft mit der Geschichte über Newton und den Apfel. Mit den verschiedensten Ausschmückungen taucht sie immer neu auf, aber ist sie wahr? So ganz eindeutig kann man das nicht beantworten. Sie entstammt der Biografie, die Newtons Freund, der Altertumsforscher William Stukeley (1687–1765) unter dem Titel „Memoirs of Sir Isaac Newton’s life“ 1752 veröffentlichte. Dort findet sich der folgende Abschnitt: Nach dem Abendessen gingen wir bei warmem Wetter in den Garten und tranken im Schatten einiger Apfelbäume Tee, nur er und ich. Inmitten anderer Gespräche erzählte er mir, er sei gerade in derselben Situation wie früher, als ihm der Gedanke an die Gravitation in den 10
Heute bringen Exemplare der 1. Auflage Millionen Euro.
7.2 Newtons Ideen
163
Sinn kam. „Warum sollte dieser Apfel immer senkrecht auf den Boden fallen?“, dachte er bei sich selbst, – hervorgerufen durch den Fall eines Apfels, als er in einer nachdenklichen Stimmung dasaß: „Warum sollte er nicht seitwärts gehen, oder nach oben, sondern immer zum Mittelpunkt der Erde? Der Grund ist gewiß, daß die Erde ihn anzieht. Es muss eine anziehende Kraft in der Materie geben. Und die Summe der Anziehungskraft in der Materie der Erde muss im Erdmittelpunkt liegen, nicht in irgendeiner Seite der Erde. Darum fällt dieser Apfel senkrecht in Richtung des Zentrums. Wenn Materie also Materie anzieht, so muss dies im Verhältnis zu ihrer Menge geschehen. Deshalb zieht der Apfel die Erde an, wie auch die Erde den Apfel anzieht.“
Stukeley ist durchaus glaubwürdig, also gehen wir mal davon aus, dass etwas dran ist, auch wenn es gut möglich ist, dass Newton diese Erzählung bewußt als Werbemaßnahme für seine Theorie einsetzen wollte.
7.2 Newtons Ideen Da die Principia so wichtig für die weitere Entwicklung der Naturwissenschaften war, ist ein Blick hinein ganz lohnenswert. Was steht drin11 ? Sie ist in drei Bücher unterteilt, und noch bevor das erste Buch beginnt, gibt es zwei äußerst wichtige Abschnitte vorweg. Der erste enthält einige fundamentale Definitionen und Erklärungen. Dazu gehört der Begriff der Masse eines Körpers, das Trägheitsprinzip, der absolute Raum und die absolute Zeit, die Newton seinen Betrachtungen zugrunde legt. Außerdem führt Newton eine Größe ein, die sich als grundlegend für alle seine nachfolgenden Betrachtungen erweist und die bis heute eine der wichtigsten Größen der Mechanik ist. Diese Größe heißt heute Impuls (englisch:momentum), aber Newton nennt sie „Menge der Bewegung“. Seine Definition klingt etwas merkwürdig („Die Menge der Bewegung ist das Maß derselben, das sich aus der Geschwindigkeit und der Menge der Materie zusammensetzt“), aber die Erläuterung zu dieser Definition ist sehr präzise: gemeint ist die Größe (träge) Masse mal Geschwindigkeit, oder in unserer Notation P = Mv. Der zweite Abschnitt enthält die Grundgesetze der physikalischen Ursachen einer Bewegung, die die Berechnung einer Bewegung erlauben und die heutzutage als Newtonsche Gesetze bekannt sind. Sie lauten in Newtons eigenen Worten12 1. Ein Körper verharrt im Zustand der Ruhe oder der gleichförmig geradlinigen Bewegung, sofern er nicht durch einwirkende Kräfte zur Änderung seines Zustands gezwungen wird. 2. Die Änderung des Impulses ist der Einwirkung der bewegenden Kraft proportional und geschieht nach der Richtung derjenigen geraden Linie, nach welcher 11
Das wissen übrigens auch nicht viele Physike, denn wirklich gelesen wird sie selten. Na ja, in deutscher Übersetzung. Newton schrieb natürlich, wie es sich in der Wissenschaft zu seiner Zeit gehörte, in Latein.
12
164
7 Gott würfelt nicht: Newtons Welt
jene Kraft wirkt. Das können wir mit unseren Kenntnissen jetzt sehr knapp als eine DGL ausdrücken, dP = F, dt wobei die Pfeilgröße F die bewegende Kraft ist. Die Proportionalitätskonstante, von der Newton spricht, wird durch die physikalischen Einheiten bestimmt, und heute gleich Eins gewählt. 3. Kräfte treten immer paarweise auf. Übt ein Körper A auf einen anderen Körper B eine Kraft aus (actio), so wirkt eine gleich große, aber entgegen gerichtete Kraft von Körper B auf Körper A (reactio). Da Newton einen absoluten Raum voraussetzte, bezieht sich die Bewegung im ersten Gesetz auf eben diesen13 . Aber was sind die „Körper“, über die da geredet wird? Newton schweigt sich erst mal weitgehend aus. Man könnte denken, ein Körper sei eben jedes System aus Materie, aber so kann das nicht gemeint sein. Wenn man zum Beispiel hundert Bälle zu einem System zusammenfasst und „Körper“ nennt, was bedeutet es dann, dass der Körper in Ruhe ist? Soll es heißen, dass alle Bälle ruhen? Können sich alle Bälle mit verschiedenen konstanten Geschwindigkeiten bewegen, aber die ganze Ansammlung kommt nicht vom Fleck? Man muss die Principia geduldig weiterlesen, bis einige Bedeutungen des Begriffs „Körper“ klarer werden. Völlig klar werden sie nie. Um Newtons Gesetze benutzen zu können, braucht man etwas, das die Gesetze nicht explizit erwähnen, sondern hinter dem nebulösen „Körper“ verstecken: man braucht den Ort eines Körpers. Was soll das sein ? Von heute aus betrachtet gibt es zwei mögliche Präzisierungen dieses Begriffs. Erstens kann man Körper einschränken auf eine Masse, die beliebig wenig Raum einnimmt, so dass alle Masse an einem einzigen Ort r konzentriert ist. So etwas nennt man Punktmasse, Massenpunkt oder Teilchen. Alle materiellen Körper, so behauptet man, sind aus solchen Teilchen aufgebaut. Dazu muss man ein klares Bekenntnis zu einer Atomtheorie der Materie abgeben, in der die Atome zwar Masse aber keine Ausdehnung haben. Eine solche Theorie der Materie wurde von dem ragusanischen14 Universalgelehrten Rugjer Josip Boškovi´c (1711–1787) aufgestellt. Er führte die Massenpunkte systematisch in die Newtonsche Mechanik ein. Da jeder Körper aus Teilchen aufgebaut ist, braucht man die Newtonschen Gesetze nur für Teilchen. So werden die Gesetze heute meistens gelehrt und diese Version heißt Punktmechanik. Eine Variante der Massenpunkte sind die Massenelemente. Das sind kleine Volumina eines materiellen Körpers, der aus kontinuierlich verteilter Materie aufgebaut ist. Das war eine im 18. und 19. Jahrhundert sehr beliebte Vorstellung, weil man nicht an Atome glaubte. Allerdings wird die Masse von Massenelementen mit kleiner wer13
Eine modernere Fassung würde da vorsichtiger sagen: Es gibt Bezugssysteme (nämlich die oben diskutierten Inertialsysteme) in denen eine Bewegung ohne Einwirkungen von Kräften mit konstanter Geschwindigkeit erfolgt. 14 Die Stadtrepublik Ragusa war im wesentlichen das, was wir heute Dubrovnik nennen. Sie bestand vom 14. Jahrhundert bis zum Anfang des 19, Jahrhunderts.
7.2 Newtons Ideen
165
dendem Volumen immer kleiner. Das macht das Hantieren mit ihnen komplizierter. Man muss dauernd Grenzwerte von immer kleiner werdenden Volumenelementen im Blick haben, wenn man den Ort eines Elements genau festlegen will. Die so entstehende Kontinuumsmechanik wurde noch bis Mitte des 19. Jahrhunderts eifrig ausgearbeitet. Bis heute gibt es spezielle Zweige der Physik und Technik, die sich damit beschäftigen. Die zweite Interpretation für den Ort eines ausgedehnten Körpers beruht auf einer Erkenntnis, die man aus der Massenpunkt- oder Massenelementtheorie ziehen kann. Es gibt nämlich für jeden materiellen Körper einen ganz speziellen Punkt – genannt der Schwerpunkt – der sich so bewegt wie ein Massenpunkt, der die gesamte Masse des Körpers enthält, und auf den die Pfeilsumme aller Kräfte wirkt, die auf irgendwelche Teile des Körpers wirken. Das folgt sowohl für Punktmassen wie auch für kontinuierliche Massen aus den Newtonschen Gesetzen. Dieser Punkt ist auch ein ganz guter Kandidat für den Ort eines Körpers. Er kann allerdings außerhalb der Materie des Körpers liegen. Das macht das Konzept trotz seiner Nützlichkeit etwas abstrakt. Zwischen einem Körper und dem Rest der Welt bestehen Wechselwirkungen (siehe Abschnitt über Systeme in 3.1). Das erste Gesetz sagt, was passiert, wenn man alle Wechselwirkungen ausschaltet. In diesem Gesetz erkennen Sie das in Abschn. 3.1 eingeführte Descartesche Trägheitsgesetz wieder. Tatsächlich hat Newton es von ihm übernommen. Die beiden anderen Gesetze sprechen über den Begriff „Kraft“, den wir noch gar nicht definiert haben15 . Zunächst ein kurzer Blick auf den Begriff vor seiner operativen Definition. Kraft ist ein Wort germanischen Ursprungs und bezeichnete wohl die Anspannung der Muskeln. Der Begriff ist uralt und eng verbunden mit dem Kausalprinzip. Es ist zunächst die Erfahrung, dass man selbst etwas in der äußeren Welt bewirken kann, wenn man seinen Körper einsetzt. Das legt die Verallgemeinerung nahe, dass alles, was in der äußeren Welt geschieht, auf das Einwirken von Kräften zurückgeht. Die können natürlich, aber auch übernatürlich sein. Dieses Konzept (mit Ausnahme der übernatürlichen Kräfte) wurde genau so in die Physik übernommen. Eine Kraft wirkt aus der Umgebung auf den Körper ein. Das 2. Newtonsche Gesetz sagt genau, wie die Kraft wirkt: sie verändert den Impuls. Aber erst, wenn man Genaueres über den Zusammenhang zwischen der Kraft und der Umgebung weiß und die Kraft F dadurch kennt, kann man mit diesem Gesetz etwas anfangen. Wie man die Kraft bestimmt, die eine spezielle Umgebung auf den Körper ausübt, sagt das zweite Gesetz nicht. Da die Kraft ein physikalischer Grundbegriff ist, müssen wir sie operativ definieren. Wenn wir nichts weiter über die Welt wissen als die drei Newtonschen Gesetze, so bleibt uns nur eine Möglichkeit: wir müssen sie über die Bewegungsänderung eines Körpers messen. Das sieht zunächst verdächtig nach einem Zirkelschluss aus. Wenn man eine Impulsänderung eines Körpers wahrnimmt, dann nennt man die einfach Kraft. Aber das erklärt ja rein gar nichts, es sei denn, man wüßte aus anderen Quellen, was genau die Kraft ist. Aber wie soll das funktionieren , wenn wir nur die drei Geset15
Der Buchstabe F steht übrigens für das englische Wort force und ist in der Physik allgemein im Gebrauch.
166
7 Gott würfelt nicht: Newtons Welt
ze haben? Was also tun? Es ist nicht ganz so hoffnungslos, wie es auf den ersten Blick erscheint und zwar aus zwei Gründen: • Erstens gibt es doch noch andere Wirkungen der Kraft als nur die Änderung des Impulses. Eine Kraft kann nämlich auch Körper verformen. Das ist allgemein bekannt: wenn man an einer Spiralfeder zieht, dann wird sie länger, wenn man mit dem Daumen in Knetgummi drückt, dann produziert man eine Delle. Also gibt es eine weitere Möglichkeit einer operativen Definition über Verformungen. Eine Federwaage ist ein prima Messgerät dieser Art. Man muss dann natürlich genau überprüfen, ob die so definierte physikalische Eigenschaft (verformende Kraft) auch dieselbe ist wie die Newtonsche (bewegende) Kraft. Glauben Sie mir mal, dass das seit Newton unzählige Male bestätigt wurde. • Zweitens kann man versuchen, die Kraft durch Beobachtung einiger weniger Bewegungsdaten zu bestimmen (oder aus wenigen Daten per abduktivem Schluss zu raten), und sie dann für die Berechnung anderer Bewegungen (aus Newtons 2. Gesetz) in derselben Umgebung benutzen. So etwas hat Newton getan. Er zeigte, dass die astronomischen Beobachtungsdaten über einen Planeten (die Kepler in seinen Gesetzen ganz präzise zusammengefasst hatte) ausreichen, um die bewegende Kraft quantitativ zu bestimmen. Sie muss vom Planeten in Richtung Sonne zeigen und sie muss mit dem Abstand R zwischen Sonne und Planet abnehmen, und zwar genau nach dem Gesetz 1/R 2 . Die Kraft muss außerdem proportional zur Masse der Sonne und der Masse des Planeten sein. Genau das ist das Newtonsche Gravitationsgesetz. Nur so entsteht eine Ellipsenbahn eines Planeten. Nun kann man dieses Kraftgesetz auf alle mögliche Situationen anwenden: auf andere Planeten, auf die Bewegung der Monde um die Planeten, auf die Bewegung von Kometen und auch auf den Apfel, der vom Baum zur Erde fällt. Die berechneten Bahnen stimmen quantitativ mit allen Beobachtungsdaten überein, Wie man aus einem Kraftgesetz F mit Newtons 2. Gesetz alle möglichen Bewegungen unter dem Einfluss dieser Kraft bestimmen kann, werden wir in Abschn. 7.5 noch lernen. Das 3. Newtonsche Gesetz sagt Genaueres über Wechselwirkungen. Es besagt, dass ein anderer Körper (Körper 2) als Umgebung für den betrachteten Körper 1 aufgefasst werden kann und auf diesen eine Kraft ausübt. Diese Kraft schreiben wir mal so: F 1→2 . Die Sonne übt zum Beispiel eine Kraft auf die Erde aus. Dann aber – sagt das Gesetz – übt auch die Erde eine Kraft auf die Sonne aus, die in die Gegenrichtung zeigt und gleich groß ist, d. h. die Gegenkraft ist F 2→1 = −F 1→2 . Diese Gesetz hat eine interessante Konsequenz. Beide Körper haben einen Impuls P 1 und P 2 und die Kräfte sind die Änderungen dieser Impulse. Wenn man beide Körper zu einem neuen Körper zusammenfasst, dann hat dieser Super-Körper den Impuls P = P 1 + P 2 und dessen Impuls bleibt ungeändert, denn die Impulsänderungen an 1 und 2 heben sich ja gerade weg. Soweit unsere Erläuterungen zu den wichtigen Vorbemerkungen. In diesem Eingangsteil der Principia stecken eigentlich alle Grundbegriffe und Gesetze zu den Ursachen von Bewegungen, die die Physik bis zum 20. Jahrhundert kannte. Auch wenn wir mittlerweile mit Einsteins Relativitätstheorien und der Quantenmechanik ein
7.2 Newtons Ideen
167
wenig mehr über Bewegung wissen, so gibt es doch unzählige Forschungsprojekte, für die dieses Zusatzwissen gar keine Rolle spielt, weil sie alle im Gültigkeitsbereich der Newtonschen Theorie angesiedelt sind. Selbst die Bewegungen von Atomen und Molekülen in Flüssigkeiten und Festkörpern lassen sich über weite Parameterbereiche mit den Newtonschen Gesetzen beschreiben. Obwohl diese Gesetze Jahrhunderte alt sind, gehören sie in die aktuelle Forschung und nicht ins Museum. Blättern wir weiter in der Principia. Die folgenden beiden Bücher sind HardcoreMathematik und schwierig zu verstehen. Das war zu Newtons Zeit allgemeiner Gesprächsstoff. Dazu gibt es die (nicht wirklich belegte) Geschichte von zwei Studenten, die bei Newtons Anblick auf der Straße zu tuscheln begannen. Der eine wisperte dem anderen zu: „Da geht ein Mann, der ein Buch geschrieben hat, das weder er noch sonst jemand versteht.“ Selbst heute fällt es nicht leicht, den Argumenten in den ersten beiden Büchern der Principia zu folgen. Falls es ausgebildete Physike aus meinem Publikum versuchen wollen, so empfehle ich Ihnen das Buch Newton’s Principia for the common reader, das der nobelpreisgekrönte Astrophysiker Subrahmanyan Chandrasekhar (1910–1995) noch in seinem Todesjahr publizierte (ich kenne leider keine deutsche Übersetzung). Die Bücher 1 und 2 der Principia enthalten im wesentlichen die Themen, die heute noch an Universitäten in den Physik-Vorlesungen über klassische Mechanik unter der Überschrift „Newtonsche Mechanik“ gelehrt werden. Buch 1 behandelt Bewegungen ohne Reibung, Buch 2 mit Reibung. Diese Bücher sind so aufgebaut, wie man es in der Mathematik gewohnt ist: gegliedert nach Lehrsätzen, Folgerungen und Beweisen. Zu besonders schwierigen oder besonders wichtigen Themen gibt es außerdem Anmerkungen (Scholium). Für heutige Interessierte sind diese Bücher vor allem aus zwei Gründen schwer verständlich: Erstens kannte Newton noch keine Pfeile und deren Rechenregeln. Zweitens machte er nur sehr spärlich von seiner wundervollen Methode der Infinitesimalrechnung (s. Abschn. 3.7) Gebrauch. Zur damaligen Zeit war das wohl eine weise Entscheidung, denn die Methode war überhaupt noch nicht anerkannt. Daher ersetzt Newton sie so oft er kann durch komplizierte geometrische Konstruktionen, die schon seit den alten Griechen als die wahren Mittel für mathematische Beweise galten. Das 3. Buch ist völlig anders. Es ist nach Newtons Auffassung populärwissenschaftlich16 , und soll eine breite Leserschaft ansprechen. Newton sagt dazu in der Einleitung zu diesem Teil: Es bleibt noch übrig, dass wir nach jenen Prinzipien [gemeint sind die Ergebnisse der ersten beiden Bände] die Einrichtung des Weltsystems kennen lernen. Aus diesem Grunde habe ich das dritte Buch in populärer Form geschrieben, damit es von mehreren gelesen würde. […] Es dürfte hinreichend sein, wenn man die Erklärungen, die Gesetze der Bewegungen und die drei ersten Abschnitte des ersten Buches aufmerksam durchläse, hierauf zu diesem Buche vom Weltsystem überginge und die übrigen hier zitierten Sätze der früheren Bücher nach Belieben zu Rate zöge.
In diesem 3. Buch entwickelt Newton also das Weltsystem der Physik, d. h. er erklärt irdische und astronomische Beobachtungen aus seinen mathematischen Ergebnis16
Was sich ein ziemlich introvertiertes Genie wie Newton so unter populärwissenschaftlich vorstellte.
168
7 Gott würfelt nicht: Newtons Welt
sen, kombiniert mit dem Gesetz der Schwerkraft, das er als universell postuliert. Er behauptet übrigens nicht, dass er dieses Gesetz gefunden hat. Nirgendwo in der Principia steht eingerahmt: „mein Gesetz der Schwerkraft“. Ganz im Gegenteil. Er schreibt die Entdeckung der 1/R 2 -Abhängigkeit den drei Wissenschaftlern Halley, Hooke und Wren zu, und zwar schon im 2. Abschnitt des 1. Buchs. Wir erwähnten schon, dass Hooke wahrscheinlich der erste war, der diese Vermutung hatte. Aber in der Zwischenzeit hatten Wren und Halley mathematische Argumente gefunden, die für die 1/R 2 Abhängigkeit sprachen. Halley hatte zum Beispiel in der Royal Society berichtet, wie man aus dem 3. Gesetz von Kepler auf diese Abhängigkeit kommt. Diese Überlegung findet sich im 2. Abschnitt des 1. Buchs der Principia wieder. Etwas später liest man dann (in leicht modernisierter Übersetzung): §. 19. Anmerkung. Der Fall des Zusatzes 6.(dort wird erklärt wie aus einem Keplerschen Gesetz die 1/R 2 -Abhängigkeit der Kraft folgt) findet bei der Bewegung der Himmelskörper statt (wie Wren, Hooke und Halley ursprünglich gefunden haben), weshalb ich dasjenige, was sich auf die Abnahme der anziehenden Kraft wie 1/R 2 bezieht, im Folgenden näher betrachten werde.
Man könnte also das Gravitationsgesetz auch Halley-Hooke-Newton-Wrensches Gesetz nennen17 . Hat sich aber nicht so eingebürgert, denn es war Newton, der erkannte, dass es zwischen allen Massen gilt, egal ob Äpfel oder Planeten. Heute wird das Gesetz üblicherweise als Anziehungskraft zwischen zwei Massenpunkten formuliert, einer mit der Masse M1 am Ort r 1 , der andere mit Masse M2 am Ort r 2 . Den Abstand zwischen den beiden Teilchen nennen wir r12 , und der Richtungsvektor von Teilchen 1 nach Teilchen 2 ist (siehe Abschn. 6.1) rˆ 1→2 Dann sieht das Gesetz so aus:: M1 M2 rˆ 1→2 F 1→2 = −G 2 R12 Die Konstante G (Gravitationskonstante) hatte eine große Karriere als Naturkonstante vor sich. Diese Konstante taucht nämlich ganz unverändert auch in der modernsten Theorie der Schwerkraft, der Allgemeinen Relativitätstheorie, wieder auf. Sie hat eine komplizierte physikalische Dimension, denn sie verknüpft einen Ausdruck mit der Einheit kg 2 /m 2 mit einer Kraft, deren Einheit, genannt das Newton, gerade ein Impuls pro Zeit (siehe 2. Newtonsches Gesetz), also kg m/s 2 sein muss. Damit die Einheiten auf beiden Seiten des Gesetzes gleich sind, muss G die Einheit m 3 /kgs 2 besitzen. Ihr gemessener Wert ist G = 6.67430 · 10−11
m3 . kg · s 2
Man kann das Kraftgesetz noch auf eine interessante Art lesen. Wenn man den Faktor M2 mal wegläßt, so ergibt sich für jeden Ort im Raum ein Pfeil, mit E bezeichnet, der die von M1 erzeugte Schwerkraft bestimmt, die eine Masse erfährt, wenn man sie dort hin setzt. Man kann das so schreiben: F 1→2 = M2 E(r 2 ). Eine 17
in alphabetischer Reihenfolge.
7.3 Newtons Gesetze reloaded
169
Masse M1 erzeugt also an jedem Raumpunkt r einen Pfeil E(r), den man auch als Feldstärke bezeichnet. In Newtons Mechanik ist das nur ein Gedankenspiel, im nächsten Kapitel aber werden wir sehen, dass solche Pfeile im leeren Raum Teile unserer äußeren Welt sind. Mit der Form des Gravitationsgesetzes für Punktmassen konnte Newton noch nicht so viel für die Himmelsmechanik anfangen. Planeten, Monde und die Sonne sind bestimmt keine Punktmassen, und es kostete Newton viel Arbeit, mathematisch (aus Massenelementen) zu beweisen, dass die Kraft auch zwischen zwei großen Kugeln genau dieselbe Form hat18 (solange man sich außerhalb der beiden Kugeln befindet). Das war für die Anwendung auf Himmelskörper äußerst wichtig, deshalb war Newton sehr stolz auf dieses Ergebnis, das auch als superb theorem(großartiges Theorem) bezeichnet wird. Kleine Abschweifung für besonders Neugierige: Das großartige Theorem ist wirklich großartig und zwar nicht nur in der Physik zu Newtons Zeiten, sondern auch in der heutigen Physik. Was Newton nicht ahnen konnte: es gilt tatsächlich auch noch in der allgemeinen Relativitätstheorie (dort heißt es Birkhoff Theorem) und hat überraschende Konsequenzen. Wenn nämlich jede (kugelsymmetrische) Massenverteilung im Außenraum dieselben Kraftwirkungen hat wie ein Punktteilchen, dann kann der Radius der Massenverteilung beliebig zeitabhängig sein, ohne dass man davon im Außenraum etwas merkt. Das gilt zum Beispiel für Sterne, die ihren Radius verändern, etwa kollabieren. Aber selbst ein kugelsymmetrisches schwarzes Loch erzeugt ganz unspektakuläre Gravitationskräfte, die im Außenraum zeitunabhängig sind. Mit anderen Worten: solche Systeme erzeugen keine Gravitationswellen. Diese Wellen, die erst vor einigen Jahren (2016) beobachtet wurden, brauchen unsymmetrische Situationen (zum Beispiel zwei zusammenstoßende schwarze Löcher). Anders als in den ersten beiden Büchern geht Newton nun detailliert auf Beobachtungen, insbesondere auf astronomische Daten, ein. Er versucht (und natürlich mit beachtlichem Erfolg) die Bahndaten der Planeten, ihrer Monde, der Kometen, und ebenso Details der Gezeiten mit seiner Methode zu erklären. Nicht alle seine Schlussfolgerungen sind korrekt19 , aber insgesamt ist der Erklärungswert des 3. Buches, verglichen mit den 1500 Jahren vorher, einfach überwältigend.
7.3 Newtons Gesetze reloaded Die drei Newtonschen Gesetze werden gern wie eine Art Monstranz der Physik vorangetragen. Studierende lernen Sie auch heute noch in ihrer ursprünglichen Fassung und können sie herunterleiern wie Konfirmande das apostolische Glaubensbekenntnis. Die Kernaussage können wir aber viel einfacher zusammenfassen, wenn wir konsequent den Impuls betrachten. Das 1. Gesetz sagt, dass der Impuls erhal18
man muß dabei voraussetzen, dass die Massenverteilung in der Kugel symmetrisch ist, d. h. sie bleibt gleich, wenn man die Kugel beliebig dreht. 19 Ich möchte Sie an die Dichte des Mondes erinnern, die Halley zur Hohlerdetheorie inspirierte.
170
7 Gott würfelt nicht: Newtons Welt
Abb. 7.2 So treibt man mit dem Impulserhaltungssatz ein Boot an. Funktioniert auch mit Raketen
ten bleibt, wenn keine Kräfte wirken. Das 2. und das 3. Gesetz zusammen sagen einfach, dass Impulsänderungen von Körpern, die miteinander wechselwirken, sich paarweise wegheben. Verliert der eine Körper Impuls, dann muss der andere genau diesen Impuls gewinnen. Also sagen alle 3 Newtonschen Gesetze nur eins: • Der Impuls eines Systems aus beliebig vielen miteinander wechselwirkenden Körpern ändert sich im Laufe der Zeit nicht (kurz: er ist erhalten) Aus der Perspektive der Nachfahren von Newton können wir also etwas respektlos sagen: Alles, was Newton getan hat war, die Konsequenzen der Impulserhaltung zu studieren, wenn Teilsysteme miteinander wechselwirken. Ich möchte Ihnen hier nur anhand eines einzigen Beispiels zeigen, wie man allein durch Bilanzierung des Impulses interessante physikalische Ergebnisse bekommen kann. Wir wollen den sogenannten Rückstoßantrieb verstehen. Mit dem bewegt man nicht nur Raketen und Düsenflugzeuge, man kann auch einen kleinen Ausflugskahn damit antreiben. Das Prinzip zeigt die Abb. 7.2. Wenn man den Stein der Masse m mit dem Tempo v nach hinten aus dem Boot wirft, so hat der Stein den Impuls −mv in der x-Richtung. Vor dem Wurf war der Gesamtimpuls von Boot und Stein gleich Null, d. h. das Boot ruhte und der Stein lag bewegungslos darin. Nach dem Wurf muss der Gesamtimpuls immer noch Null sein, das ist die Impulserhaltung. Wenn das Boot (ohne Stein) die Masse M hat, so ist sein Impuls nach dem Wurf M · u in x-Richtung. Die Bootsgeschwindigkeit u bestimmen wir aus mv −mv + Mu = 0 ⇔ u = M Das Boot bewegt sich also vorwärts in x-Richtung. Leider sorgt die Reibungskraft, die das Wasser auf das Boot ausübt dafür, dass es bald wieder ruht. Dann ist Zeit für den nächsten Stein. Das können Sie bei einem Ausflug mal probieren. Eine Rakete funktioniert genau nach diesem Prinzip, nur dass sie kontinuierlich Masse mit Impuls herausschleudert, solange ihre Triebwerke laufen. Man muss allerdings beachten, das die Rakete (genau wie das Boot) immer leichter wird, wenn man fortwährend Masse über Bord wirft.
7.4 Franziskaner, Voltaire und Émilie du Châtelet
171
7.4 Franziskaner, Voltaire und Émilie du Châtelet Man könnte nun vermuten, dass die ganze Welt nur auf Newton gewartet hatte, um sofort seine Geniestreiche begeistert zu begrüßen. Das war aber längst nicht so. Auf dem europäischen Kontinent war man stolz auf Descartes und fand außerdem, dass die Leibnizsche Infinitesimalrechnung viel besser funktionierte als die geometrischen Argumente Newtons in der Principia. Newton hatte es in der 2. Auflage gewagt, beide, Descartes und Leibniz, zu kritisieren. Es brauchte daher einige Bearbeitungen und Popularisierungen der Newtonschen Ideen, bevor sie so richtig einschlagen konnten. Von der 3. Auflage erschien 1739 in Genf eine europäisierte Version, die von zwei Franziskanern, Thomas Le Seur (1703–1770) und François Jacquier (1711– 1788) bearbeitet und kommentiert wurde (heute als Jesuiten Ausgabe bekannt). Die Kommentare waren wirklich ausführlich, sie betrafen fast jede Zeile. Außerdem verwendeten die beiden mathematisch sehr gebildeten und begabten Franziskaner die Leibnizsche Infinitesimalrechnung, um viele der komplizierten geometrischen Konstruktionen Newtons in eine einfachere und modernere Form zu bringen. Das sehr umfangreich gewordene Werk blieb aber eher etwas für wenige Spezialisten. Die Jesuiten Ausgabe gilt noch heute als eine der bestkommentierten Ausgaben der Principia. Viel mehr zur Popularisierung der Ideen Newtons trug ein französisches Paar bei, dessen männlicher Teil weltberühmt als Literat und Philosoph ist. Es waren François-Marie Arouet (1694–1778) , genannt Voltaire, und seine Geliebte und Freundin Émilie du Châtelet (1706–1749). Voltaire gilt als einer der bedeutendsten Intellektuellen der Aufklärung in Frankreich. Dort wird das 18. Jahrhundert öfter „la siècle de Voltaire“ genannt. Seine scharfsinnigen und scharfzüngigen Abhandlungen brachten ihn immer mal wieder die Verfolgung durch Staatsorgane ein. So auch im Jahr 1734. Er hatte in Paris die „Philosophischen Briefe“ veröffentlicht, die dem obersten Gerichtshof gar nicht gefielen. Die Richter verboten das Werk und erließen einen Haftbefehl gegen Voltaire. Zum Glück für ihn hatte er 1733 auf der Hochzeitsfeier eines Großneffen des Kardinals Richelieu die Marquise Émilie du Châtelet-Laumont (1706–1749) kennengelernt, die ihm nun als Zufluchtsort das günstig gelegene kleine Schloss Cirey-sur-Blase anbot. Das Schloss war in keinem guten Zustand und gehörte eigentlich ihrem Mann, aber dem hatte sie bereits drei Kinder geboren und damit den wichtigsten Teil des Ehevertrages erfüllt. Also nahm sie sich gewisse Freiheiten. Émilie und Voltaire bauten Cirey mit Voltaires Geld zu einer komfortablen Wohnstätte aus und lebten dort, unterbrochen von längeren Reisen, 15 Jahre lang. Émilie begeisterte Voltaire für die Physik, insbesondere die Newtonsche, von der sie eine Menge verstand. Aber sie war auch eine glühende Bewunderin von Leibniz und seiner Infinitesimalrechnung. Ich vermute mal, dass sie es dann wohl auch gewesen sein wird, die den Inhalt der populärwissenschaftlichen Darstellung lieferte, die unter dem Titel Grundlagen der Philosophie Newtons 1737 erschien. Als Autor fungierte allerdings Voltaire, der konnte sicher flotter schreiben. Er verfasste aber immerhin in dem Vorwort eine Lobeshymne auf sie, und ließ sie
172
7 Gott würfelt nicht: Newtons Welt
auf dem Titelblatt als Vermittlerin zwischen dem Geist Newtons und seinem eigenen abbilden. An den Preussenkönig Friederich II. schrieb er am 1. Januar 1737: Ich hatte die recht einfachen Grundsätze der Philosophie Newtons skizziert, und Madame du Chastelet war sehr zufrieden. Ich hatte meinen Anteil an dem Werk. Minerva diktierte und ich schrieb.
Émilie war eine sehr begabte Philosophin, Mathematikerin und Physikerin. Sie verfasste 1740 das Buch Institution des physique, in dem neben mathematischer Naturphilosphie auch philosophische Diskussionen der Ideen von Descartes, Leibniz und Newton zu finden sind. Ihr Hauptwerk in den Naturwissenschaften war aber eine kommentierte Übersetzung von Newtons Principia ins Französische. In den umfangreichen Anmerkungen und Kommentaren benutzte sie – genau wie die Jesuiten Ausgabe – die Leibnizsche Infinitesimalrechnung. Durch das Werk von Émilie und Voltaire wurden Newtons Ideen bei vielen französischen Mathematikern, Physikern und Philosophen erst richtig bekannt. Sie schaffte es aber leider nicht, ihr Werk zu beenden. Mit 42 Jahren wurde sie noch mal schwanger. Nein, – nicht von Voltaire, sondern von dem Dichter Jean-François de Saint-Lambert. Sechs Tage nach der Geburt ihrer Tochter starb sie, auch die Tochter überlebte nur 18 Monate. Im Jahr 1759 veröffentlichte der Mathematiker Alexis-Claude Clairaut (1713–1769) ihre Übersetzung, an der er selbst auch mitgewirkt hatte, die er für die Publikation eingerichtet hatte, und die sogar einige seiner eigenen Ergebnisse beinhaltet. Émilie blieb in dieser Männerwelt eine Ausnahme. Anders als die meisten ihrer Geschlechtsgenossinnen fand sie Anerkennung in den Kreisen der bedeutendsten Philosophen der Zeit. Mit ihrer Arbeit schaffte sie eine Synthese der Newtonschen und Leibnizschen Naturphilosphie, und diese Verbindung führte in der Folgezeit zu einer Blüte der Physik auf dem Kontinent.
7.5 Wie man die Newtonschen Gleichungen löst Was kann man nun mit der Newtonschen Mechanik anfangen? Es ist ja schön und gut, wenn man Grundgesetze hat und naturphilosophische Betrachtungen anstellen kann, aber letzten Endes muss all das zu Erklärungen und/oder Kontrolle der äußeren Welt führen. Wie also kann man aus der Newtonschen Theorie eine Planetenbahn, eine Mondbahn, eine Raketenbahn zum Jupiter berechnen? Wir wollen Ihnen in diesem Abschnitt einen Einblick in praktische Anwendungen der Newtonschen Mechanik geben. Sie sollen Schritt für Schritt verstehen, wie aus einem fundamentalen Naturgesetz ein praktisches Ergebnis wird. Das 2. Newtonsche Gesetz ist eine Differentialgleichung (DGL), die die Änderung des Impulses mit der Kraft verknüpft. Es ist allerdings eine DGL für eine Pfeilgröße. Wir kennen solche Gleichungen aus dem Abschn. 3.9 bisher nur für Zahlengrößen. So eine Pfeil-DGL lässt sich aber auf Zahlen-DGLn zurückführen, wenn man die Pfeile mit Hilfe von kartesischen Koordinaten darstellt.
7.5 Wie man die Newtonschen Gleichungen löst
173
Bevor wir uns an die Lösung für Pfeil-DGLn machen, betrachten wir zur Einübung erst mal die Lösung der einfachen DGL aus Abschn. 3.9 für eine Zahlengröße x (die hieß im Abschn. 3.9 V , aber x passt besser in Bezeichnungen in der Newtonschen Welt). Als Differenzengleichung hat sie die Form x(tn ) = x(tn + t) − x(tn )) = r x(tn ), und sie beschreibt z.B das Wachstum eines Vermögens unter Verzinsung über Zeitschritte t. Damit wir überhaupt anfangen können, brauchen wir einen Startwert für x zur Anfangszeit t0 = 0, also z. B. x(t0 ) = 5. Um jetzt x(t1 ) auszurechnen, benutzen wir die DGL in der Form x(t1 ) = x(t0 ) + x(t0 )r t. Jetzt brauchen wir noch einen kleinen Zeitschritt. Achten Sie darauf, dass der Zeitschritt wirklich klein ist! x(t0 ) soll ein bisschen (!) vergrößert werden, also wählen wir zum Beispiel r t = 0.01, dann nimmt x um 1 % zu, x(t1 ) = 1.01 · x(t0 ). Das passiert bei dieser einfachen DGL auch in jedem weiteren Zeitschritt. Für x(t2 ) erhalten wir x(t2 ) = x(t1 ) + x(t1 )0.01 = 1.05 · x(t1 ). Jetzt können wir uns eine kleine Tabelle anlegen, die unsere Lösung schrittweise wiedergibt: n 0 1 2 3 .. .
x(tn ) 5 5.05 5.1005 5.151505 .. .
Lösung einer DGL Eine (näherungsweise) Lösung x(tn ) einer DGL bei endlicher Schrittweite ist darstellbar als Tabelle. In dem Grenzprozess verschwindend kleiner Schrittweite wird die Tabelle unendlich groß, dann beschreibt sie die Funktion x(t) in einem Intervall von t-Werten.
Eine Tabelle ist zum Nachschlagen eines einzelnen Wertes ganz praktisch, aber sie gibt noch keinen so richtig anschaulichen Eindruck von der Lösung. Daher zeichnet man Lösungen einer DGL gern auf, wenn das möglich ist. In unserem Fall ist es sehr einfach und führt zur Abb. 7.3. Das Bild zeigt 500 Zeitschritte, eine Arbeit, die ich mal einem Computer überlassen habe, dem ich beibringen kann, was er tun soll. Eigentlich müsste das Bild ja aus Punkten bestehen, denn wir haben mit diskreten Zeitschritten gerechnet. Aber 500 Schritte sind so viele, dass man die Punkte ganz glatt mit kleinen Geradenstückchen verbinden kann (eine Prozedur, die man Interpolation nennt). So kann man bequem in der Grafik den Wert der Lösung zu jeder Zeit ablesen.
174
7 Gott würfelt nicht: Newtons Welt
Abb. 7.3 So sieht sie aus, die Exponentialfunktion
Schließlich noch eine wichtige mathematisch-historische Bemerkung. Wenn man den Grenzwert t → 0 ausführt, so kommt man auf eine glatte Kurve, die sich von der gezeigten mit bloßem Auge nicht unterscheiden lässt. Diese Abhängigkeit x(t) kommt so häufig in allen (!) quantitativen Wissenschaften vor, dass sie einen eigenen Namen verdient, man bezeichnet sie so: x(t) = er t x(0) Das sieht aus wie ein Exponentialausdruck (siehe Mathe-Glossar) („e hoch rt“), und so ist das auch gemeint. Der Schweizer Mathematiker Leonard Euler (17071783) fand heraus, dass bei dem Grenzprozess eine irrationale Zahl e = 2.81 · · · heraus kommt, wenn man r t = 1 setzt. Die Zahl nennt man heute ihm zu Ehren Eulersche Konstante. Die Funktion nennt man Exponentialfunktion. Sie wird auch als exp(r t) bezeichnet. Das Wachstum, das diesem Zeitgesetz folgt, heisst exponentielles Wachstum. Da es für kleine Zeitschritte dem geometrischen Wachstum ähnlich ist, unterscheidet man oft nicht so ganz scharf zwischen diesen beiden Formen. Nun zurück zu dem etwas schwierigeren Problem der Newtonschen DGL. Man kann das 2. Newtonsche Gesetz zunächst wieder für kleine, endliche Zeitschritte hinschreiben, dann sieht es so aus: P(tn ) = F(r(tn ))t Nehmen wir an, die Kraft hängt vom Ort ab (denken Sie nur an Newtons Gravitationsgesetz). Dann muss man auf der rechten Seite den Ortspfeil r(tn ) einsetzen, daraus
7.5 Wie man die Newtonschen Gleichungen löst
175
die Kraft berechnen, und dann erst kann man den nächsten Änderungsschritt für den Impuls, P(tn ), erhalten. Aber woher kommt der Ortspfeil? Dafür muss man die Beziehung zwischen dem Impuls und der Ortsänderung benutzen, r(tn ) = ( P(tn )/m)t. Das ist wieder eine DGL, nämlich die Definition des Impuls P = mv = md r/dt. Aus der Lösung dieser DGL kann man r(tn+1 ) berechnen. Dafür braucht man aber wieder den Impuls! Also hat man ein System aus zwei miteinander gekoppelten DGLn für Ort und Impuls (oder Ort und Geschwindigkeit). Um diese beiden Gleichungen zu lösen, machen wir uns ein Rechenschema (vornehm: einen Algorithmus), in dem wir die einzelnen Schritte in ihrer Reihenfolge auflisten. Das sieht ungefähr so aus: • Am Anfang, zur Zeit t0 = 0, brauchen wir einen Ortspfeil r und einen Impuls( P) (oder Geschwindigkeits- (v)) Pfeil. Das sind die Anfangsbedingungen, die können und müssen wir wählen. Wie? Das wird durch das Problem bestimmt, das wir lösen wollen. Beispiele betrachten wir gleich. • Dann benutzen wir die DGLn, um den ersten Änderungsschritt für Ort und Impuls zu bestimmen, also r(t0 ) und P(t0 ). Dazu müssen wir die Kraft F(r(t0 )) berechnen. • Daraus bestimmen wir die geänderten Orts- und Impulspfeile, r(t1 ) = r(t0 ) + r(t0 ) und P(t1 ) = P(t0 ) + P(t0 ). • Jetzt machen wir es mit dem nächsten Zeitschritt genauso. Wir starten von den Pfeilen bei t1 = t. Dann berechnen wir die Kraft F(r(t1 ) und können wieder einen kleinen Zeitschritt weitergehen. So hangeln wir uns Zeitschritt für Zeitschritt voran. Das Rechenschema erfordert allerdings, dass wir alle Pfeile durch ihre kartesischen Koordinaten, d. h. durch Zahlen darstellen. Wir wollen das Schema nun für ein wichtiges Problem mal ganz detailliert ausarbeiten, nämlich die Bewegung eines Planeten um die Sonne. Eigentlich ist das ja ein System aus 2 Körpern (Sonne und Planet). Damit wir den Überblick behalten, wollen wir uns das Rechen-Leben vereinfachen und die Sonne als unverrückbar betrachten. Der Grund, warum das funktioniert, liegt in dem enormen Massenunterschied zwischen Sonne und Planet. Die Masse der Sonne ist ungefähr 333000 mal größer als die der Erde. Wenn also der Impuls der Erde sich um P verändert, so muss (nach dem 3. Newtonschen Gesetz) der Impuls der Sonne sich um −P verändern. Diese Impulsänderung bewirkt eine Änderung des (beobachtbaren) Tempos der Erde v = P/M E und des Tempos der Sonne um u = P/M S . Die Änderung des Sonnentempos ist also um einen Faktor M E /M S = 333000 kleiner als die der Erde. Die Näherung ist nicht ganz so gut, wie die, die wir machen, wenn wir beim Fall eines Apfels auf die Erde diese als unverrückbar betrachten. Die Erde wiegt 6 · 1024 kg, der Apfel vielleicht 0.2 kg. Aber die astronomischen Beobachtungen im 17. Jahrhundert bemerkten noch keine Bewegungen der Sonne aufgrund der Planeten. Wenn man erst mal ein bisschen Übung mit dem Rechenschema gewonnen hat, kann man auch
176
7 Gott würfelt nicht: Newtons Welt
die Effekte der Sonnenbewegung berücksichtigen. Man kann sogar ganze Planetensysteme mit den Wechselwirkungen aller Planeten mit der Sonne und untereinander berechnen (und noch viel mehr, wie zum Beispiel eine Bahn einer Rakete, die von der Erde zum Mars fliegen soll.) Aber besser, man fängt klein an. Die Ausführung der Rechenschritte wollen wir einem Computer überlassen. Dazu müssen wir ihm nur haargenau sagen, was er tun soll, denn im Grunde sind Computer natürlich blöde. Zunächst müssen wir Anfangsbedingungen und die Masse festlegen, sonst können wir nicht losrechnen. Die Masse des Planeten spielt aber erstaunlicherweise gar keine Rolle für die Bewegung, denn sie steht auf der linken wie auf der rechten Seite der Newtonschen Bewegungsgleichung (schauen Sie nach) und man kann sie herauskürzen. Das finden Sie merkwürdig? Stimmt! Diese Besonderheit liegt daran, dass wir die Rückwirkung der Schwerkraft des Planeten auf die Sonne vernachlässigt haben. Eine wichtige Vereinfachung der Rechnerei ergibt sich bei einer vernünftigen Wahl des Koordinatensystems. Wenn die Anfangsgeschwindigkeit unseres Planeten ein Pfeil in der x-y Ebene ist und auch der Anfangsort in der x-y Ebene liegt, dann bleibt die Bewegung für alle Zeiten in der x-y Ebene. Diese Ebene heisst in der Astronomie Ebene der Ekliptik. Newton konnte tatsächlich beweisen, dass die Bewegung in einer Ebene verläuft. Wir können es uns anhand einer Skizze oder einem Experiment mit einem Gewicht am Bindfaden plausibel machen, den sie herumschleudern. Die Zentrifugal- und die kompensierende Zentripetalkraft liegen beide in einer Ebene, d. h. keine Kraft treibt den Planeten aus dieser Ebene heraus. Natürlich müssen wir diese Zusatzinformation nicht benutzen, aber sie macht das Rechenleben noch einfacher. Alle Pfeile liegen jetzt in der x-y Ebene und können durch 2 (statt durch 3) Koordinaten beschrieben werden. Am Ort r = (x, y) können wir die Kraft aus dem Abstand vom Zentrum r = x 2 + y 2 und der Richtung vom Zentrum zum Planeten rˆ = (x/r, y/r ) berechnen. Das setzen wir in das Newtonschen Gravitationsgesetz ein und erhalten die kartesischen Komponenten des Kraftpfeils Fx = −G M x/r 3 und Fy = −G M y/r 3 . Damit können wir unser Rechenschema jetzt ganz detailliert aufschreiben. Es sieht so aus: Das Rechenschema zur Lösung der Newtonschen DGL 1. 2. 3. 4.
Berechne G M Wähle Zeitschritt t Setze die Anfangszeit t = 0 Wähle den Startort r = (x, y) und wähle die Startgeschwindigkeit v = (vx , v y ) 5. Es folgt eine Schleife, die Du immer wieder abarbeitest 6. Berechne den Abstand vom Zentrum r = x 2 + y 2 7. Berechne die x-Komponente der Kraft Fx = −G M x/r 3
7.5 Wie man die Newtonschen Gleichungen löst
177
Berechne die y-Komponente der Kraft Fy = −G M y/r 3 Berechne die Änderung des Ortes r = (vx t, v y t) Berechne die Änderung der Geschwindigkeit v = (Fx t, Fy t) Berechne den neuen Ort (r)neu = r + r Berechne die neue Geschwindigkeit v neu = v + v Setze r = r neu und v = v neu Erhöhe die Zeit um t Speichere den Zeitpunkt, den neuen Ort und die neue Geschwindigkeit in einer Tabelle 16. Gehe wieder zu Punkt 5
8. 9. 10. 11. 12. 13. 14. 15.
So etwas nennt man auch Pseudocode, denn es ist so detailliert, dass man es einszu-eins in ein Computerprogramm übersetzen kann. Eigentlich ist es ein Computerprogramm, nur eben in natürlicher Sprache und mathematischen Formeln. Ohne weitere Kenntnisse können Sie auch mit Papier und Bleistift dieses Rechenschema abarbeiten, nur dauert das eben länger. Diese Liste ist die Lösung der Newtonschen Bewegungsgleichungen20 . Besser gesagt: es ist eine operative Definition einer Lösung, denn es ist ja eine Bastelanleitung („Tu dies, tu das!“). Physikalische Probleme so zu lösen (und physikalische Gesetze so zu formulieren), wie wir das hier getan haben, nennt man auch Computer-Physik (Computational Physics). Aber nicht der Computer ist das Erkennungszeichen, sondern das Rechenschema. Es gab solche Schemata lange bevor es Computer gab. Physikalische Gesetze werden häufig in sehr abstrakter mathematischer Form präsentiert. So kann man gut allgemeine Überlegungen anstellen. Aber wenn es um die „letzte Meile“ vom abstrakten Gesetz zur praktischen Anwendung geht, führt kein Weg am Zahlenrechnen vorbei. Und ob schließlich eine physikalische Theorie immer aus abstrakten mathematischen Gesetzen bestehen muss ist längst nicht sicher. Statt einer „Weltformel“ könnte es genauso gut einen „Weltalgorithmus“ geben. Auf jeden Fall hat der Zugang über Algorithmen den Vorteil, dass man viele der abstrakten (und schwierig zu erlernenden ) Methoden gar nicht kennen muss. Für die Vermittlung von Physik ist so ein Rechenschema leichter zu verstehen als andere mathematische Methoden. Man kann zum Beispiel die hier gezeigte Planetenbewegung in Form mathematischer Funktionen aus der DGL gewinnen ohne ein Rechenschema zu benutzen. Aber solche (sogenannten analytischen) Methoden kommen schnell an Grenzen. Das 3-Körper-Problem kann man nicht mehr so lösen, aber unser Rechenschema kann man mit wenig Aufwand so verallgemeinern, dass man die Bewegung von Sonne, Erde und Mond damit untersuchen kann. Denn das ist der Sinn der Lösung: man kann Untersuchungen anstellen. Man kann zum Beispiel Anfangsbedingungen variieren und nachschauen, welche Bewegungen entstehen. Ein erster Versuch wäre es, an einem Ort (x0 , y0 ) mit Geschwindigkeit 20
Was jetzt noch fehlt ist eine Ausgabe der Ergebnisse. Sie können zum Beispiel aus den gespeicherten Zeiten und Orten Grafiken erstellen, aber das ist keine Physik mehr.
178
7 Gott würfelt nicht: Newtons Welt
Abb. 7.4 Die erste selbstberechnete Planetenbahn. Der Computer folgt haargenau dem Rechenschema. Der Zeitschritt muss klein genug gewählt werden. Das erfordert Fummelei (oder Kenntnisse in numerischer Mathematik)
Null zu starten. Was passiert dann? Ganz einfach, der Planet stürzt geradewegs in die Sonne. Das ist die Verallgemeinerung des fallenden Apfels im kosmischen Maßstab. Damit das nicht passiert, brauchen wir also einen Impulspfeil, und der sollte nicht zum Zentrum gerichtet sein. Mit einem Computer, der die Drecksarbeit erledigt, ist es eine schöne Beschäftigung, sich die Bahnen anzuschauen, die aus verschiedenen Anfangsbedingungen entstehen. Es gibt im wesentlichen zwei Typen: geschlossene Bahnen um die Sonne und offene Bahnen, die ins unendliche Weltall führen ohne je wiederzukehren. Die geschlossenen Bahnen sind Ellipsen, in deren einem Brennpunkt die Sonne steht, genau wie Herr Kepler mühsam aus Beobachtungsdaten herausgelesen hatte. In der Abb. 7.4 sehen Sie das Ergebnis, wenn ein Computer dem Rechenschema haargenau folgt. Man muss eine Weile herumspielen um herauszufinden, wie klein man den Zeitschritt machen muss, damit die Rechenfehler so klein sind, dass die Ellipse sich wirklich schließt. Wenn man mal begriffen hat, wie sich die Newtonschen Bewegungsgleichungen für dieses Planetenproblem lösen lassen, kann man ohne sehr viel Mehraufwand (abgesehen von der Drecksarbeit der Rechnerei, für die man den Computer hat) auch viel kompliziertere Probleme lösen. Man kann zum Beispiel zwei ungefähr gleich schwere Körper betrachten (zum Beispiel ein Doppelsternsystem). Oder die Bewegung von Exoplaneten. Oder ein System aus 3 Körpern (Erde, Mond, Sonne), das komplizierte, chaotische Bahnen zeigt, wenn man die Anfangsbedingungen geeignet wählt. Oder die Steuerung einer Rakete durch das Sonnensystem. Eine Rakete hat die Besonderheit, dass sie hin und wieder ihre Triebwerke zünden kann und durch Rückstoß ihren Impuls verändert. All diese Dinge lassen sich in das Rechen-
7.5 Wie man die Newtonschen Gleichungen löst
179
schema mühelos einarbeiten und man kann jede Menge Weltraumabenteuer mit Newtonscher Schwerkraft auf der Couch erleben. Aber nicht als Computerspiel, sondern als direkte Anwendung von Naturgesetzen in der äußeren Welt. Und glauben Sie mir: immer noch werden bei solchen Untersuchungen neue physikalische Entdeckungen gemacht.
Kapitel 8
Die unerschütterliche Energieerhaltung
Wir haben bereits gesehen, dass auch fundamentale Naturgesetze in ihrem Gültigkeitsbereich eingeschränkt sind. Welche haben denn nun den größten Gültigkeitsbereich? Gibt es Gesetze, die bislang überhaupt noch nicht falsifiziert wurden? Ja. Es gibt einen Typ von Naturgesetzen, die immer und überall gelten, und die alle die gleiche Form haben, nämlich die eines Erhaltungssatzes: Der allgemeine Erhaltungssatz Eine erhaltene Größe kann nur zwischen verschiedenen Teilen der äußeren Welt ausgetauscht, aber nie erzeugt oder vernichtet werden.
Newtons Impuls ist so eine Größe. Hier lernen wir jetzt eine Erhaltungsgröße kennen, die in so vielen Erscheinungsformen daherkommt, dass es lange gedauert hat, bis man sie überhaupt als eine einzige Größe begriff: die Energie.
8.1 Theologische und physikalische Erhaltungssätze Die Entdeckung, dass es in der äußeren Welt erhaltene Größen gibt, zählt zu den größten Leistungen der Physik. Sie kam jedoch zunächst sehr theologisch daher. Der Philosoph René Descartes veröffentlichte 1644 sein einflussreiches Buch Principia Philosophiae, in dem er aus der Unveränderlichkeit Gottes schloss, dass es im ganzen Universum erhaltene, d. h. unveränderliche Größen geben müsse. Materie (Masse) und Bewegung, die Gott mal geschaffen hat, meinte Herr Descartes, können nicht
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_8
181
182
8 Die unerschütterliche Energieerhaltung
wieder verschwinden. Für die Masse schien das selbstverständlich1 . Über die Größe, die eine Bewegung beschreibt, sagt Descartes: Wir müssen die Bewegungsmenge in zwei Stücken Materie als gleich rechnen, wenn sich das eine doppelt so schnell bewegt wie das andere, und dieses wiederum doppelt so groß ist wie das erste Rene Descartes, Principia philosophiae, in Oeuvres de Descartes, ed. Charles Adam and Paul Tannery, 13 vols. (Paris:Cerf, 1897–1913), Vol. VIII, p. 61.
Nach dieser Beschreibung müsste die erhaltene Bewegungsgröße Masse mal Tempo sein. Wenn man also das Tempo jedes Masseteilchens im Universum kennen würde und würde dann alle diese Beiträge aufsummieren, so müsste das Gesamtergebnis für alle Zeiten konstant sein. Soweit Descartes. Hört sich ja gut an, stimmt aber leider nicht, wie ziemlich bald bemerkt wurde. Im Jahr 1668 erschienen Arbeiten, die Stöße von zwei Teilchen analysierten und zu dem Schluss kamen, dass bei solchen Stößen nicht Masse mal Tempo, sondern Masse mal Geschwindigkeit erhalten ist, also der Impuls. Im Jahr 1686 verfasste der Universalgelehrte Gottfried Wilhelm Leibniz Arbeiten, in denen er die Erhaltungsgröße von Descartes kritisierte und postulierte, die eigentliche, erhaltene Größe der Bewegung sei die sogenannte „lebendige Kraft“ (vis viva), und die sei M · v 2 , also Masse mal Tempo zum Quadrat. In der Folge entspann sich eine rege Kontroverse um das „wahre Kraftmaß“, die von vom Schweizer Mathematiker und Physiker Daniel Bernoulli (1700–1782) in der wenig beachteten Arbeit „Examen principiorum mechanicae, et demonstrationes geometricae de compositione et resolutione virium“ bereits 1726 geklärt wurde2 . Er war es auch, der schließlich den (notwendigen) Faktor 1/2 zu der vis viva hinzufügte. Wir wissen heute, dass Impuls und Energie zwei verschiedene Erhaltungsgrößen sind und „Kraft“ hat seit Newton eine ganz andere Bedeutung. Aber damals herrschte in diesen Punkten eine allgemeine Verwirrung, die erst in langen Diskussionen und zahlreichen Experimenten geklärt werden konnte. Auf den Skalen unseres Alltagslebens (also weit weg von schwarzen Löchern und auch viel größer als das Innenleben von subatomaren Teilchen) gibt es neben diesen beiden Erhaltungsgrößen nur noch eine weitere: die elektrische Ladung. Aber die kannte man zur Zeit Descartes noch nicht so richtig. Der Wert erhaltener Größen war allerdings schon damals klar. Mit ihrer Hilfe lassen sich viele komplizierte Probleme in der äußeren Wirklichkeit auf Buchhaltungsaufgaben zurückführen. Dafür schauen wir uns im Abschn. 8.5 noch etliche Beispiele an, vom Butterbrot bis zum Untergang der Dinosaurier.
1
Mit der speziellen Relativitätstheorie war Schluss mit der erhaltenen Masse. „Eine Untersuchung mechanischer Prinzipien und geometrische Demonstrationen der Zusammensetzung und Auflösung von Kräften“ die Arbeit findet man in: Commentarii Academiae Scientiarium Imperialis Petropolitanae: ad annum 1726 Bd. 1 (1726), 126–142.
2
8.2 Die langsame Entdeckung der universellen Energieerhaltung
183
8.2 Die langsame Entdeckung der universellen Energieerhaltung Vorher wollen wir aber erst mal die eine erhaltene Größe näher kennenlernen, die für viele irdische und außerirdische Probleme vielleicht die Wichtigste ist: die Energie. Was ist Energie? Hier haben wir wieder einen Grundbegriff der Physik, d. h. wir definieren ihn, indem wir eine Messvorschrift dafür angeben. Allerdings gibt es für die Energie nicht nur eine, sondern recht viele verschiedene Messvorschriften. Das liegt an der ziemlich abstrakten Natur der Energie. Wenn wir sie durch unsere eigenen Sinne erfahren wollen, dann tun wir das über ganz verschiedene Erscheinungsformen der Energie. In der Abb. 8.1 sind einige wichtige dargestellt. Viele (aber nicht alle) Energieformen können wir mit unserem Körper spüren. Wir haben Sensoren in unserer Haut für Wärme. Wir haben Augen für das Licht. Wir spüren die Anstrengung in den Waden, wenn wir einen Berg hinauf radeln und das herrliche Gefühl, wenn wir dann bergab rollen können. Wir spüren den Mangel an Nahrung in unserem Körper als Hunger. Elektrische Energie spüren wir meist indirekt dadurch, dass wir sie im Haushalt durch geschickt konstruierte Maschinen zur Erledigung lästiger und anstrengender Arbeit verwenden. Kernenergie kann man benutzen, um in Kraftwerken elektrische Energie herzustellen oder die Welt in
Abb. 8.1 Einige der vielen Erscheinungsformen der Energie (zusammengesetzt aus Wikimedia Commons, gemeinfrei, (Wärme: Gerg˝o Gulyás, Schwerkraft: NASA, ESA, the Hubble Heritage (STScI/AURA)-ESA/Hubble Collaboration, and A. Evans; Hochspannung: Calson2 und Kernkraft von MikeRun, © CC BY − S A4.0))
184
8 Die unerschütterliche Energieerhaltung
die Luft zu sprengen, aber wir spüren diese Energieform nicht mit unseren Sinnen. Schließlich wissen wir auch aus der Zeitung, dass es jede Menge Energie im Universum gibt, insbesondere die Energie, die mit der Schwerkraft zu tun hat (die wir spüren) und die Bewegung sämtlicher Himmelskörper verursacht. Ist all das wirklich eine Energie, eine einzige physikalische Größe? Es hat lange gedauert, bis man das erkannt hat. Der Schlüssel zum Verständnis ist hier, dass man nur dann von einer Energie in verschiedenen Erscheinungsformen reden kann, wenn es möglich ist, sie von einer Erscheinungsform in alle anderen umzuwandeln und bei der Umwandlung mit festen Wechselkursen bilanzieren zu können. Einige Umwandlungen sind einfach, zum Beispiel kann man die chemische Energie in Kohle durch Verbrennen in Wärme verwandeln. Beim Radfahren wird chemische Energie aus der Nahrung in unseren Muskeln in mechanische Energie verwandelt, die wiederum durch eine Maschine in Bewegung umgesetzt werden kann. Hört man vor einem Anstieg auf zu radeln, so treibt die Energie der Bewegung (in der Physik kinetische Energie genannt) das Rad und seinen Fahrer ein Stück bergauf. Startet der Fahrer aus dieser Höhe bewegungslos, so rollt das Rad den Berg hinunter. Die Höhe im Schwerefeld der Erde entspricht also auch einer Energieform, der Lageenergie (in der Physik potentielle Energie genannt), die sich wieder in Bewegungsenergie verwandeln lässt. Wenn man das Rad auf ebener Strecke rollen lässt ohne zu treten, so bleibt es nach einer Weile stehen. Wohin ist seine Bewegungsenergie verschwunden? Der Grund für die nachlassende Bewegung ist das Phänomen der Reibung. Wohin bringt Reibung die Bewegungsenergie? Das kann man feststellen, indem man sehr viel Reibung anwendet, nämlich indem man bremst. Bremsen vernichtet die Bewegungsenergie durch Reibung. Dabei bemerkt man, dass die Bremsen warm werden. Bewegungsenergie verwandelt sich also in Wärme, die auch eine Energieform sein muss, um Energieerhaltung zu gewährleisten. Die Umwandlung zwischen mechanischer Bewegungsenergie und Wärmeenergie war der wichtigste Schritt beim Verständnis der Energieerhaltung. Quantitative Experimente zu dieser Umwandlung gab es erst in der Mitte des 19. Jahrhunderts. Zu dieser Zeit waren die physikalischen Begriffe immer noch recht verwirrt. Man sprach von Kraft, wenn man – nach heutigem Kenntnisstand – Energie meinte. Einen fest gefügten Begriff von Energie hatte man überhaupt nicht. Newtons Mechanik ist auf den Begriff der Kraft im heutigen Sinn gegründet, die Energie spielt nur eine Nebenrolle. Bei dieser Begriffsverwirrung ist es nicht verwunderlich, dass die erste Arbeit, die einen allgemeinen Energieerhaltungssatz ausführlich diskutiert, den Titel trug: Über die Erhaltung der Kraft. Sie stammt aus dem Jahr 1847 von dem Arzt, Physiologen und „Reichskanzler der Physik“ Hermann von Helmholtz (1821–1894). Es bestand zu dieser Zeit ein großes Interesse an den Verbindungen zwischen Wärme und Bewegung, denn die Dampfmaschine war dabei, die Industrie zu revolutionieren. Seit ihren ersten dokumentierten Anfängen im 1. Jahrhundert n. Chr. durch Heron von Alexandria führten dampfgetriebene Vorrichtungen das Dasein eines unterhaltenden Spielzeugs. Das änderte sich ab ca. 1600 sehr langsam, und erst der Schmied Thomas Newcomen (1663–1729) konstruierte eine verwendbare Kolbendampfmaschine, die er zu einem industriellen Zweck (zum Abpumpen von Grundwasser in Bergwerken) einsetzte. Die Maschine war nicht sehr effizient,
8.2 Die langsame Entdeckung der universellen Energieerhaltung
185
wurde dann aber durch Erfindungen des Universitätsmechanikers James Watt3 (1736–1819 ) ganz erheblich verbessert. Verständlicherweise war man sehr daran interessiert, wie viel Bewegung und Arbeit sich denn aus so einer Dampfmaschine prinzipiell gewinnen lassen könnte. Der erste, wichtige Schritt war die Bestimmung des mechanischen Wärmeäquivalents, das ist der Wechselkurs zwischen mechanischer Energie und Wärmeenergie. Dazu musste man aber zunächst die zu dieser Zeit vorherrschende Meinung über die Natur der Wärme über Bord werfen. Man hielt Wärme damals nämlich für einen gewichtslosen Stoff (Caloricum oder Phlogiston genannt), der in der Materie hockt und den man freisetzen kann. Wenn Wärme aber eine Energieform ist, so muss sie aus mechanischer Energie in einem festen Verhältnis umgewandelt werden können, d. h. doppelt so viel mechanische Energie ergibt die doppelte Wärmemenge. Die notwendigen Experimente zur Bestimmung des Wechselkurses wurden von mehreren Wissenschaftlern durchgeführt. Zwei Männer dürfen sich den Ruhm teilen, einigermaßen verlässliche Werte für das Wärmeäquivalent bestimmt zu haben: Der Arzt Robert Mayer (1814–1878) und der Bierbrauer James Prescott Joule (1818–1889) hatten beide die gleiche Idee: Wasser durch Schütteln oder Umrühren mechanische Energie zuzuführen und dann die Erwärmung mit einem Thermometer zu messen. Mayer veröffentlichte seine Ergebnisse 1842 (und formulierte 1845 auch schon einen allgemeinen Energieerhaltungssatz4 , Joule führte seine Versuche 1843 durch. Die wissenschaftliche Fachwelt war nicht besonders angetan. Insbesondere Mayer, der sich nicht im Jargon der Fachwissenschaften ausdrücken konnte, und außerdem einen Hang zu verstiegenen Spekulationen hatte, erfuhr nicht nur Ablehnung, sondern geradezu wissenschaftliches Mobbing. Joules Arbeiten wurden wohlwollender aufgenommen, aber die Mehrheit der Physike hielt zunächst nichts von dem Energiebegriff. Auch die Helmholtzsche Arbeit konnte sie nicht überzeugen. Die Wendung in den Meinungen kam endgültig mit den Arbeiten von Rudolf Clausius (1822–1888), der ein Gebiet der Physik begründete, das man heute Thermodynamik nennt. Clausius vereinte die vielen, teilweise genialen Einzelbeiträge zur Beziehung zwischen Wärmeenergie und mechanischer Energie zu einem neuen Ganzen. Er konnte etwas Ähnliches vollbringen wie Newton in der Mechanik, nämlich die Formulierung von wenigen Naturgesetzen, aus denen eine gewaltige Vielzahl von beobachtbaren Ergebnissen logisch-mathematisch geschlossen werden konnte. Die Naturgesetze nennt man Hauptsätze der Thermodynamik. Sie werden uns noch beschäftigen, im Moment brauchen wir nur den ersten Hauptsatz, denn das ist der Energieerhaltungssatz. Clausius rehabilitiert auch zwei in Vergessenheit geratene 3
Ja ganz richtig, das ist der, nach dem das Watt und Kilowatt benannt sind. Seine Eltern waren zu arm, um ihn studieren zu lassen. Er entpuppte sich als genialer Naturwissenschaftler, Ingenieur und äußerst unterhaltsamer, geselliger und belesener Zeitgenosse. Er brachte es zum Ehrendoktor seiner Universität Glasgow und zum korrespondierenden Mitglied der französischen Akademie der Wissenschaften. 4 Die Veröffentlichung in dem Fachjournal Annalen der Chemie wurde damals abgelehnt, Mayer ließ die Arbeit auf eigene Kosten drucken. Aber mal ehrlich, hätten Sie unter dem Titel „Die organische Bewegung in ihrem Zusammenhange mit dem Stoffwechsel“ die Darstellung eines allgemeinen Energieerhaltungssatzes vermutet? Die Arbeit wurde von der Fachwelt schlicht ignoriert.
186
8 Die unerschütterliche Energieerhaltung
Forscher, indem er ihre Beiträge zitierte und würdigte: Robert Mayer, den wir bereits kennen und Sadi Carnot (1796–1832), dessen Veröffentlichungsverzeichnis nur einen einzigen Eintrag hat, eine 43-seitige Arbeit mit dem französischen Titel „Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance“ (Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen). Diese Arbeit war bald vergriffen und vergessen. Sie enthielt etwas, das von Clausius den Namen 2. Hauptsatz der Thermodynamik bekam, und das bis heute Naturwissenschaftel aller Fachrichtungen fasziniert. Dazu später mehr. Sadi benutzte in seiner Arbeit noch die Sprechweise der alten Caloricum Theorien, aber in seinen Notizen findet sich schon eine Kritik dieser Auffassung und fast so etwas wie der Energieerhaltungssatz (den Sadi damit früher als Mayer, Joule und Helmholtz formuliert hätte). Menschen von heute denken beim Begriff „Dampfmaschine“ an so ein stinkendes, fauchendes Ungetüm aus längst vergangenen Zeiten5 , aber die Analyse der periodisch arbeitenden Wärmekraftmaschinen (wie diese Maschinen genannt werden) hat nicht nur unsere Ansichten von der äußeren Wirklichkeit revolutioniert, sie ist nach wie vor modern. Kernreaktoren sind Dampfmaschinen und Wärmepumpen sind periodisch arbeitende Wärmekraftmaschinen. Wie modern die Auffassungen von Clausius waren, zu denen er durch die Thermodynamik kam, das sei an zwei Zitaten aus seiner akademischen Festrede 1885 mit dem Titel „Über die Energievorräthe der Natur und ihre Verwerthung zum Nutzen der Menschheit“ 6 demonstriert. Das erste ist ein eindringlicher Appell an Nachhaltigkeit (und das Fazit seiner Rede): [So] werden die folgenden Jahrhunderte die Aufgabe haben, in dem Verbrauch dessen, was uns an Kraftquellen in der Natur geboten ist, eine weise Oekonomie einzuführen, und besonders dasjenige, was wir als Hinterlassenschaft früherer Zeitepochen im Erdboden vorfinden, und das was nicht ersetzt werden kann, nicht verschwenderisch zu verschleudern.
Das zweite zeigt, dass es auch damals schon Leute gab, die wussten, was man langfristig für die Energieversorgung ansteuern muss: Die Menschen werden dann darauf angewiesen sein, sich mit der Energie zu behelfen, welche die Sonne im Verlaufe der ferneren Zeit noch fortwährend durch ihre Strahlen liefert
8.3 Energieformen Die vielen Erscheinungsformen der Energie machen es erforderlich, viele verschiedene Messmethoden anzuwenden, und jede Methode kommt dazu noch mit einem eigenen Normal. Lassen Sie uns ein paar wichtige Beispiele durchgehen. 5
oder an Lehrer Bömmel aus der Feuerzangenbowle: „Also, wat is en Dampfmaschin? Da stelle mehr uns janz dumm. Und da sage mer so: En Dampfmaschin, dat is ene jroße schwarze Raum, der hat hinten un vorn e Loch. Dat eine Loch, dat is de Feuerung. Und dat andere Loch, dat krieje mer später.“ 6 Verlag Max Cohen und Sohn, Bonn. Siehe: urn:nbn:de:bvb:210–10-013976266-6.
8.3 Energieformen
187
Bewegungsenergie oder kinetische Energie: Die Menge an Energie dieser Form ist bestimmt durch die Masse des bewegten Körpers und sein Tempo. Es gibt eine einfache Rechenformel für sie: E kin =
M 2 v . 2
Hierbei ist M die Masse und v das Tempo. Wenn man die Masse in Kilogramm (kg) und die Geschwindigkeit in Metern pro Sekunde (m/sek) misst, ergibt sich ein Normal für diese Energie, das man aus den Normalen für Masse, Länge und Zeit gewinnen kann, nämlich 1 Joule = 1 kg (m/sek)2 Man braucht also kein zusätzliches Normal für kinetische Energie. Ein Joule ist die Bewegungsenergie, die in einem Körper von 2 kg Masse steckt, wenn er sich mit 1 m/sek bewegt. Die Einheit heißt Joule zu Ehren von James Prescott Joule, den wir bereits kennengelernt haben7 . Die einfache Rechenformel sollte eigentlich jedem Fahrschüle bekannt sein, denn wie man weiß, vervierfacht sich der Bremsweg, wenn man die Geschwindigkeit verdoppelt. Newton kannte diese Formel nicht und machte in der Principia auch keinen Gebrauch von der Bewegungsenergie. Er meinte, die „wahre“ Bewegungsgröße wäre der Impuls. Die quadratische Abhängigkeit von der Geschwindigkeit wurde experimentell nachgewiesen von Jacob ’s Gravesande (1688–1742), der Messingkugeln verschiedener Masse auf eine Platte aus feuchtem Ton fallen ließ. Eine doppelt so schnelle Kugel erzeugt eine viermal so tiefe Grube. Lageenergie und Arbeit: Wenn man Masse im Schwerefeld der Erde hoch hebt, so leistet man Arbeit gegen die Schwerkraft. Oben kann man die Last ablegen, die nun eine zusätzliche Energie bekommen hat (nämlich die, die man während der Schufterei des Hochhebens aufbringen musste). Diese Lageenergie kann man wieder in Bewegungsenergie verwandeln (siehe Fahrrad). Was auf kleiner irdischer Skala funktioniert, findet sich auch im Weltraum. Entfernt sich ein Planet von der Sonne, oder ein Satellit vom Planeten, so leistet er Arbeit gegen die anziehende Schwerkraft. Die Lageenergie kann der Planet (Satellit) wieder in Bewegungsenergie verwandeln, wenn er sich der Sonne (dem Planeten) nähert. Die Erde zum Beispiel bewegt sich auf einer Ellipse um die Sonne. Im sonnennächsten Punkt (Perihel) beträgt ihr Bahntempo 30,29 km/sek, im sonnenfernsten Punkt (Aphel) ist sie 1 km/sek langsamer. Der Begriff Arbeit ist in der Physik ganz und gar auf diese Bedeutung eingeschränkt: Die Arbeit, die man gegen eine Kraft leistet, indem man einen Körper verschiebt. Die Steuerklärung oder die Mathehausaufgaben sind im Sinn der Physik keine Arbeit. Man kann auch gegen andere Kräfte als die Schwerkraft arbeiten. Zum Beispiel könnte der Körper an einer Feder befestigt sein. Wenn man die Feder spannt, leistet man Arbeit. In der neuen Position hat der Körper dann Lageenergie, die man wieder leicht 7
Die Formel hat eine Einschränkung des Gültigkeitsbereichs, die man im täglichen Leben kaum spürt: das Tempo muss viel kleiner sein als die Lichtgeschwindigkeit (300 000 km/sek). Andernfalls kommt man in den Bereich der Gültigkeit der Speziellen Relativitätstheorie.
188
8 Die unerschütterliche Energieerhaltung
in Bewegungsenergie verwandeln kann. So funktioniert eine mechanische Armbanduhr mit einer Spiralfeder als Lage-Energiespeicher, den man durch Aufziehen füllt. Wie steht es nun mit einem Normal für diese Energieform? Man kann zum Beispiel eines einführen, das gerade der Lageenergie entspricht, die einem Körper der Masse 1 kg hinzugefügt wird, wenn man ihn im Schwerefeld am Erdboden 1 m in die Höhe hebt. Das nennt man Kilopondmeter. Es ist eine veraltete, technische Einheit, die Ingenieure aber gelegentlich gebrauchen. Ein in der Physik gebräuchliches Normal ist das Newtonmeter (Nm). Den sonderbaren Namen erklären wir sofort, aber zunächst definieren wir es mal: 1 Nm ist die Lageenergie durch Arbeit gegen eine Kraft (muss nicht die Schwerkraft sein), die in 1 J Bewegungsenergie verwandelt werden kann. Damit wird die Umrechnung zwischen Arbeit und Bewegungsenergie besonders einfach (1 Nm entspricht genau 1 J). Nun zu dem Namen. Das so definierte Normal liefert nämlich frei Haus auch ein Normal für Kräfte mit, es ist das Newton. Wirkt eine Kraft auf einen Körper und leistet man Arbeit gegen diese Kraft, indem man den Körper um 1 m verschiebt, so ist die Kraft genau dann 1 Newton, wenn die Lageenergie 1 Nm ist. So kann man Kräfte auch durch Lageenergie messen. Kraft ist Lageenergie pro Länge. Wenn man einen Hang hinunterrollt, und pro Meter Höhenunterschied 1 Joule Bewegungsenergie gewinnt, so wirkt auf den Roller die Kraft von 1 Newton. Diese Kraft ist hangabwärts gerichtet. Wärmeenergie: Eine Messvorrichtung für Wärme kennen wir alle: das Thermometer. Aber misst es die Energiemenge? Wohl kaum, denn die nimmt offenbar mit der Menge an Materie zu. 100 l kochendes Wasser haben offensichtlich mehr Energie als 1 l, denn man braucht ja auch entsprechend mehr Energie, um 100 l Wasser zum Kochen zu bringen. Wir können uns aber ein Normal für Wärme verschaffen, ohne dass wir genau wissen, was diese Wärme nun ist, d. h. was im Inneren der Materie vor sich geht, wenn sie sich erwärmt. Das war zu Zeiten von Mayer, Joule und Helmholtz unbedingt nötig, denn damals wusste man das eben nicht. Die Messvorschrift, die schon Mayer und Joule benutzten, ist denkbar einfach. Man führt einer festen Menge an Flüssigkeit (sagen wir mal 1 kg) Energie zu, die man mechanisch messen kann, also zum Beispiel, indem man mit einem Rührwerk Arbeit gegen die Reibungskraft der Flüssigkeit leistet. Dann weiß man, wie viel Energie zugeführt wurde, und nun kann man am Thermometer ablesen, um wie viel sich die Flüssigkeit erwärmt hat. So definiert man die Kalorie. Es ist diejenige Energiemenge, die man 1 g Wasser zuführen muss, um es um 1 Grad Celsius zu erwärmen (genauer: von 14.5 Grad auf 15.5 Grad8 ). Diese Kalorie kürzt man ab als cal15 . Es gibt tatsächlich mehrere Kalorien, für die man Varianten der Messvorschrift betrachtet9 . Für den praktischen Alltagsgebrauch unterscheiden sich die diversen Kalorien aber kaum. Eigentlich braucht man ja heute all diese Kalorien nicht mehr, denn die Messvorschrift sagt genau, wie 8
man muss noch dazu sagen, dass das unter einem Normaldruck geschieht. Wie man vom Eierkochen im Gebirge weiß, spielt der Luftdruck eine Rolle 9 Zum Beispiel die mittlere Kalorie, für die man Wasser von 0 auf 100 Grad Celsius erhitzt und dann die benötigte Energiemenge durch 100 teilt.
8.3 Energieformen
189
viel Energie in Joule wir dem System zugefügt haben. Moderne Ernährungstafeln geben den Energieinhalt von Nahrungsmitteln daher in Joule an, aber die Kalorien halten sich hartnäckig. Für Ernährungszwecke ist die Kalorie eine recht kleine Wärmemenge, daher schreibt man die Kilokalorie (1 kcal= 1000 cal). In angelsächsischen Ländern schreibt man statt kcal meist Cal, also Vorsicht bei vermeintlich schlank machenden Marshmallows. Nachdem wir nun die Kalorie kennengelernt haben, wissen wir auch, wie man im Prinzip den Umrechnungsfaktor zwischen Kalorie und Joule messen kann. Das Ergebnis ist das mechanische Wärmeäquivalent, dessen Wert ist 1cal15 ≈ 4.1855J. Die Kalorie auf den Lebensmittelkennzeichnungen ist übrigens 4.182 J, beschlossen von der Internationalen Union für Ernährungswissenschaften. Tatsächlich ist aber wohl unübersehbar, dass die Kalorie immer mehr aus der Mode kommt. Es ist auch nicht die Zahl des Wärmeäquivalents, die sich so revolutionär für die Physik ausgewirkt hat, sondern die Einsicht, dass Wärme eine Energieform ist. Allerdings hat diese Energieform eine merkwürdige Besonderheit. Man kann die Wärme nie so ganz in eine andere Energieform verwandeln. Während jede andere Form der Energie zu 100 % in Wärme verwandelt werden kann, funktioniert die Umkehrung nur teilweise. Außerdem stellt man fest, dass bei Energieumwandlungen jeder Art immer etwas Wärme anfällt. Wenn Sie Lageenergie in Bewegungsenergie verwandeln, indem Sie den Berg herunterfahren, gibt es immer etwas Reibung, und Reibung ist nur ein anderes Wort für Umwandlung in Wärme. Die besondere Rolle der Wärme unter den Energieformen lernen wir erst im Kap. 12 genauer kennen. Leistung mal Zeit: Die Umwandlung zwischen Energieformen braucht Zeit. Umgewandelte Energie pro Zeit (und nichts Anderes) heißt in der Physik Leistung. Eine Eins in Deutsch, eine fehlerfrei gespielte Klaviersonate von Brahms oder der Gewinn der deutschen Meisterschaft im Stabhochsprung mögen ganz tolle Leistungen sein, aber nicht im Sinn der Physik. Die Einheit der Leistung ist das Watt. 1 Watt ist gerade 1 Joule pro Sekunde, – wie praktisch, man braucht keine Umrechnungsfaktoren. Wenn Sie nun 1000 W Leistung (zum Beispiel aus der Steckdose) eine Stunde lang in andere Energien verwandeln, dann haben Sie eine Kilowattstunde umgewandelt (nach Meinung ihres E-Werks haben sie die „verbraucht“ und müssen sie bezahlen). Neben dem Watt gibt es noch eine unmoderne Einheit für die Leistung, die sich aber bei Besitzen großer Wagen immer noch einiger Beliebtheit erfreut, nämlich die Pferdestärke (PS). Diese Einheit wurde von James Watt eingeführt, der die Leistung von Arbeitspferden und Dampfmaschinen vergleichen wollte. Tatsächlich entspricht 1 PS ziemlich gut der Leistung, die ein Pferd im Durchschnitt im Laufe eines Arbeitstages erbringen kann. Die Umrechnung zwischen PS und Watt ist naturgemäß kein glatter Faktor, heutzutage hat man festgelegt, dass 1 PS genau 75 Kilopondmeter/sek sind10 , das sind ≈ 735.5 W. 10
Also die Leistung, die man aufbringen muss, um einen Körper der Masse 1 kg mit der Geschwindigkeit 1 m/sek bei uns auf der Erde zu heben
190
8 Die unerschütterliche Energieerhaltung
Tab. 8.1 Grobe Übersicht über typische Leistungen System Leistung Mensch Pferd Primärenergie pro Kopf Sonnenlicht pro m 2 Kleinstadt Großflugzeug Kraftwerk Kraftwerk, gr. Deutschland Welt
100 W 750 W 5.4 kW 1 kW 1MW 45 MW kl. 50 MW 1GW 500 GW 15 TW
Eine grobe Übersicht über verschiedene Leistungen gibt die Tab. 8.1. Hier habe ich nach Physikart heftig gerundet, um leicht zu merkende Zahlen zu erhalten. Sie können von dieser Tabelle vielfältigen Gebrauch machen. Beachten Sie zum Beispiel, dass jedes von uns 54 mal so viel Leistung benötigt wie zum Betrieb des eigenen Körpers. Müssten wir diese Leistung durch Sklaven aufbringen, so heißt das: Jedes braucht für den Lebensunterhalt 54 Energiesklaven. Allein Deutschland bräuchte also ungefähr 4.5 Mrd. solcher Sklaven. elektrische Energie: Die Einheit der elektrischen Energie können Sie Ihrer Stromrechnung entnehmen, da steht ihr Verbrauch in Kilowattstunden. Wenn Sie eine Batterie kaufen, dann steht neben dem Energieinhalt außerdem noch darauf, wieviel elektrische Ladung darin steckt und (manchmal) welche Spannung zwischen den Batteriepolen herrscht. Die Ladungsmenge wird angegeben in der Einheit Ampèrestunden, denn Ampère ist die Einheit des Stroms, d. h. der Menge an elektrischer Ladung, die pro Zeit fließt. Die Spannung wird in der Einheit Volt angegeben. Bleibt noch zu klären, wie man elektrische Energie misst. Das muss ja möglich sein, denn was sonst ist Ihr „Stromzähler“? Lassen wir mal außer acht, dass der Strom aus der Steckdose Wechselstrom ist und betrachten nur Gleichstrom (z. B. aus einer Batterie), denn dann kann man die Leistung sehr einfach aus der Spannung (U) und der Stromstärke (I) berechnen; und zwar mittels der Formel Leistung= U · I . Sie müssen im Moment nicht wirklich wissen, was Spannung und Stromstärke sind (das heben wir uns für spätere Kapitel auf). Wichtig ist nur, dass man beide Größen messen kann, und damit hat man eine Messmethode für elektrische Leistung. Im Prinzip funktioniert die Formel auch für Wechselstrom, aber das Ergebnis (Scheinleistung) genannt steht nicht vollständig zum Betrieb von Maschinen zur Verfügung. Es gibt noch eine viel kleinere Einheit elektrischer Energie, die im praktischen Alltagsleben keine Rolle spielt. Sie ist aber maßgeschneidert für die Welt der Atome und Elementarteilchen. Stellen Sie sich ein Batterie vor, deren Spannung genau 1 V beträgt. Der elektrische Strom, der zwischen den Polen dieser Batterie durch einen
8.3 Energieformen
191
„Verbraucher“ (z. B. eine Taschenlampe) fließt, trägt die Energie der Batterie zum „Verbraucher“. Der Strom besteht aus elektrisch geladenen Elementarteilchen. Diese Teilchen heißen Elektronen. Der kleinstmögliche Strom besteht also aus einem einzigen Elektron. Die Energie, die dieser kleinstmögliche Strom an einen Verbraucher abgeben kann heißt 1 Elektronenvolt (1 eV). chemische Energie: Neben Wärme steckt in Materie noch weitere Energie, in mancher Materie mehr und in mancher weniger. Heute wissen wir, dass Energie sich auch in chemischen Bindungen verstecken kann, die Atome zu Molekülen zusammenklebt. Zu Helmholtz Zeiten wußte man das zwar nicht, aber dass Erdöl und Steinkohle Energie enthalten, die man durch Verbrennung freisetzen kann, das war eine der ersten Einsichten aus dem Energiekonzept. Nahrungsmittel enthalten ebenfalls chemische Energie, die unser Körper irgendwie freisetzen und nutzen kann, um davon am Leben zu bleiben. Das nennt man Verdauung und Stoffwechsel. Um die Energie zu messen, die man durch Verbrennen aus einem Material gewinnen kann, benutzt man ein Messgerät namens Kalorimeter. Darin verbrennt man eine genau gewogene Menge Material vollständig und umgibt den Brandherd mit einer bekannten Menge Wasser. Die Erwärmung des Wassers misst man dann per Thermometer und kann direkt in Kalorien umrechnen. Das mag jetzt für Dinge wie Steinkohle, Holz oder Benzin nicht weiter überraschen, denn genau diese Wärmeenergie benutzt man ja. Viele Leute sind jedoch erstaunt zu erfahren, dass man so auch die Kalorienangaben auf den Lebensmittelpackungen ermittelt. Das dafür verwendete Gerät trägt den kriegerischen Namen Bomben-Kalorimeter, weil seine Form an eine Bombe erinnert. Man presst aus genau gewogenem Lebensmittel eine Pille, steckt sie in das Gerät und entzündet sie mit einem Zünddraht. Damit alles vollständig verbrennt, pustet man laufend Sauerstoff dazu. Die entstandene Wärme misst man wie üblich über die Erwärmung von Wasser. Die so erhaltene Energie pro Gramm nennt man den thermodynamischen oder physikalischen Brennwert. Jedes Material hat so einen Brennwert, zum Beispiel auch Steinkohlebriketts oder Heu. Das wird aber nicht die Energie sein, die unser Körper aus dem Material gewinnen kann, denn von Steinkohlebriketts und Heu können wir nicht leben. Um den sogenannten physiologischen Brennwert zu erhalten, bringt man daher eine wichtige Korrektur an. Man schätzt nämlich ab, wieviel Energie der Körper tatsächlich aufgenommen hat. Das macht man, indem man bestimmt, wieviel Energie er ungenutzt lässt. Dazu muss man sich die Ausscheidungsprodukte ansehen und versuchen, sie den Nahrungsbestandteilen zuzuordnen. Diese Aufgabe ist nicht nur unappetitlich, sondern auch angesichts der vielen chemischen Reaktionen, die während der Verdauung stattfinden, so kompliziert, dass man sich mit Schätzungen begnügt. Wenn man nur die grobe Unterteilung der Hauptnährstoffe (auch Makronährstoffe genannt) in Fette, Kohlenhydrate und Proteine betrachtet, so kann man feststellen, dass für Fette und Kohlenhydrate kaum Ausscheidungen mit Restenergie entstehen, während für Protein der physikalische Brennwert um ca. 25 % höher liegt als der physiologische. Die Aussagekraft des physiologischen Brennwerts für die Ernährung ist allerdings recht fragwürdig. Im Körper wird die Nahrung ja nicht verbrannt, sondern durch ein irre kompliziertes Netzwerk von chemischen Reaktionen verarbeitet. Die Verdauungs-
192
8 Die unerschütterliche Energieerhaltung
Reaktionen sind von Mensch zu Mensch recht verschieden, und selbst bei einem Menschen hängen sie von der Tagesform, der Aktivität und Millionen anderer Faktoren ab. Auch so Selbstverständliches wie die Temperatur der Nahrung geht in den Brennwert nicht ein. Kaltes Wasser muss zum Beispiel vom Körper erwärmt werden, d. h. es entzieht dem Körper Energie anstatt ihm welche zu liefern. Mangels einer besseren Messmethode wird der physiologische Brennwert aber in der Medizin und Ernährungslehre weiter genutzt. Für eine schnelle Übersicht über die Nahrungskalorien reichen oft drei Durchschnittswerte für die drei Makronährstoffe aus, die Sie sich einprägen sollten, wenn Sie auf Diät sind: • Kohlenhydrate: 4 kcal (= 17 kJ) pro Gramm • Proteine: 4 kcal (= 17 kJ) pro Gramm • Fett: 9 kcal (= 38 kJ) pro Gramm Beachten Sie, dass es für die Kalorien keinen großen Unterschied macht, in welcher Form Sie diese Makronährstoffe zu sich nehmen. Egal ob Zucker, Nudeln oder Brot, solange der Hauptinhalt Kohlenhydrate sind, landen Sie bei 300–400 kcal pro 100 gm. Allerdings sind meist noch andere Stoffe in der Nahrung, vor allem Wasser. Wenn Sie Eiernudeln kochen, dann haben die nur 140 kcal pro 100 gm, weil sie viel Wasser aufgenommen haben. Mehr zu diesem Thema können Sie in dem Anwendungsbeispiel „Diät oder Sport“ erfahren. Chemische Energie steckt nicht nur in Nahrung und Brennstoffen, sondern auch in Sprengstoffen. Die Sprengkraft von Explosionsmitteln bis hin zu Atombomben wird gern in einem Vergleich mit dem Sprengstoff TNT (Tri-nitro-toluol) angegeben. Zum Beispiel hatte die über Hiroshima abgeworfene Bombe Little Boy eine Sprengkraft von 13 Kilotonnen TNT. Haben nun Sprengstoffe ganz besonders viel chemische Energie ? Vergleichen wir einmal den Energieinhalt von gleichen Mengen TNT und einem beliebten Nahrungsmittel: dem Schokoriegel („Mars bringt verbrauchte Energie sofort zurück“). Ein Blick auf die Packung des Riegels zeigt, dass ein Riegel 51 gm wiegt und 448 kcal hat, das sind 1882 kJ. Ein Gramm enthält also 36.9 kJ. Den Energieinhalt von TNT muss man nachschlagen, er beträgt 4.6 kJ pro Gramm. Nanu! Der Mars-Riegel enthält pro Gramm ungefähr das achtfache an Energie des TNT. Wieso sprengt man dann nicht mit Schokoriegeln? Das liegt an der Leistung. Bei einem Sprengstoff wird chemische Energie in Wärme verwandelt, die Druckwelle der Sprengung ist nur eine Folge der Wärme, wie wir noch sehen werden. Diese Umwandlung muss aber so schnell wie möglich erfolgen, beim TNT im Bruchteilen einer Sekunde. Wenn Sie dagegen einen Schokoriegel essen, wird die Energie innerhalb von Stunden umgewandelt, und zwar nicht in Wärme, sondern in eine andere Form chemischer Energie, die der Körper je nach Bedarf weiterverwenden kann. Selbst wenn Sie den Riegel verbrennen, so dauert das viel zu lange, um eine Explosion hervorzurufen. Kernenergie: Während Moleküle durch chemische Energien zusammengehalten werden, werden die Kerne von Atomen durch sehr viel größere Energien aus Teilchen,
8.3 Energieformen
193
die Protonen und Neutronen heißen, zusammengeschweißt. Die Energien, die jedes Gramm Kernmaterie zusammenhalten sind millionenfach größer als die Energien, die 1 g Moleküle zusammenhalten. Details zur Kernenergie und ihrer Nutzung erfahren Sie in den Kap. 11 und 14. Strahlungsenergie: Licht enthält Energie. Heutzutage ist das leicht einzusehen, denn mit Sonnenlicht kann man per Photovoltaik die Stromrechnung reduzieren. Über diese Energieform erfahren Sie mehr in den Abschn. 9.5 und 11.1 Die Normale für Energie wurden in der Physik nach und nach so angepasst, dass Umrechnungen nicht mehr nötig sind, d. h. alle Energien in Joule (oder NewtonMetern oder Wattsekunden) angegeben werden können. Die historischen Normale wie Kalorien, PS etc. halten sich aber hartnäckig und machen die Umrechnungen komplizierter. Neben diesen Normalen gibt es im Handel mit Energie noch weitere, die Verwirrung stiften. Da gibt es zum Beispiel die Steinkohleeinheit (SKE), die sich an dem Brennwert von 1 kg einer (idealisierten) Steinkohle orientiert, der genau 7000 kcal beträgt (das sind ungefähr 29.3 MegaJoule oder 8.2 kWh.) Ganz analog ist die Rohöleinheit (RÖE) der Brennwert von 1 kg Erdöl, der auf 10000 kcal festgesetzt ist. Bei so vielen verschiedenen Energieeinheiten kann eine kleine Umrechnungstabelle (Tab. 8.2) oft weiterhelfen. Wieviel Energie steckt nun in ihren verschiedenen Formen in Materie? Werfen Sie einen Blick auf die Tab. 8.3, die alle Energien in KiloJoule pro Gramm umrechnet. Die Autobatterie in dieser Tabelle ist übrigens keine E-Auto Batterie (das ist die Li-Batterie) sondern eine gute alte Blei-Säure Batterie, die in jedem Verbrennerauto steckt. Die Energie des Meteoriten ist einfach seine Bewegungsenergie. Es ist völlig egal, aus welchem Material der Meteorit besteht. Wie Sie sehen, haben Schokokekse halb so viel Energie pro Gramm wie Benzin. Die Energiedichte von Batterien (selbst Li-Akkus) ist erheblich kleiner als die chemische Energie in der Nahrung oder Energie in fossilen Brennstoffen. Allerdings treten bei der Umwandlung von der in Akkus oder Batterien gespeicherten elektrischen Energie in mechanische Energie (zum Autofahren!) kaum Verluste auf, während von der Energie des Benzin nur ungefähr 1/5 als Fahrleistung auf die Strasse kommen. Vergleichen Sie einfach mal
Tab. 8.2 Kleine Umrechnungstabelle für Energieeinheiten kJ kcal kJ kcal kWh eV kg SKE kg RÖE m 3 Erdgas
1 4.1868 3600 1.602·10−22 29308 41868 31736
0.2388 1 860 3.83 · 10−23 7000 10000 7580
kWh 0.000278 0.001163 1 4.45 · 10−26 8.14 11.63 8.816
194
8 Die unerschütterliche Energieerhaltung
Tab. 8.3 So viel Energie steckt pro Gramm drin Material Energieinhalt in kJoule/Gramm Autobatterie TNT Schokokekse Benzin Steinkohle Meteorit 30 km/s Li-Ionen Batterie Uran 235
0.13 4.6 21 42 29.52 450 0. 72 82 · 106
Tab. 8.4 So viel kostet Energie in verschiedener Verpackung. Alle Preise schwanken zur Zeit sehr stark, daher kann die Tabelle nur ein Richtwert sein. Schauen Sie die aktuellen Preise bei Bedarf selbst nach. Beim Li Ionen Akku haben wir 700 Ladezyklen. Lebensdauer angenommen Material Marktpreis in e Preis pro kWh Kohle Erdgas Benzin Reis AAA Batterie AAA Li-Ionen Akku
40/Tonne 2.5/MMBtU 1.8/Liter 2/kg 0.33/Stück 22/Stück
0.05 0.08 0.2 0.6 275 31
die Verbrauchswerte: Ein Golf mit 7 l Verbrauch 11 auf 100 km benötigt 62 kWh. Die E-Version verbraucht so ungefähr 16 − 20 kWh auf 100 km, je nach Fahrweise. Nebenbei: Urteilen Sie niemals aufgrund solcher Zahlen über die Ökobilanz. Sowohl das Benzin wie auch die Batterie und die darin gespeicherte elektrische Energie benötigen zu ihrer Herstellung Ressourcen (nicht zuletzt Energie) und die muss man sorgfältig vergleichen. Die verwirrende Vielfalt der Einheiten ist natürlich auch eine Chance für Leute, die Energie verkaufen wollen. Sie erschwert nämlich den Vergleich der Preise verschiedener Energieformen. Es ist daher eine lehrreiche Übung, mal den Preis einer immer gleichen Menge an Energie in ihren verschiedenen Erscheinungsformen zu vergleichen, wie ich das in der Tab. 8.4 getan habe. Da Preise zur Zeit stark schwanken, ist das natürlich nur eine ungefährer Vergleich. Trotzdem sehen Sie, dass fossile Energieträger immer noch billig sind, allen voran die Kohle. Die merkwürdige Einheit für Erdgas ist übrigens auf dem Großmarkt üblich und nennt sich Million British thermal units (MMBtU), wobei ein 1 BtU ungefähr 1055 J sind. Die Preise für Akkus und Batterien als Energiespeicher sind zwar hoch, aber gerade bei Li-Akkus befinden sie sich bis 2021 in einem steilen Sinkflug. Für E11
beim Umrechnen von Liter in Gramm müssen Sie beachten, dass 1 l Benzin ungefähr 750 gm wiegt.
8.4 Wie man Energie transportiert
195
Auto Batterien liegen Sie zur Zeit bei etwa 135.5 e/kWh, 2010 lagen sie noch bei 600 e/kWh. Kleine AAA Akkus, die wir in der Tabelle aufgeführt haben, sind teurer. Trotzdem ist die Einsparung gegenüber AAA Batterien riesig.
8.4 Wie man Energie transportiert Da man Energie nicht erzeugen oder vernichten kann, kann man nur zwei Dinge mit ihr tun: sie von einer Form in andere umwandeln und sie transportieren. Die Arten des Energietransports sind sehr überschaubar, es gibt nur drei. Erstens kann man Energie transportieren indem man die Materie, in der sie steckt, von einem Ort zum anderen bringt. Also beispielsweise eine heiße Tasse Kaffee von der Küche ins Büro tragen. Typisch für diese Art des Transports ist, dass man eine Spedition braucht, etwas oder jemanden, das den Transport übernimmt. In der Natur sind das oft strömende Gase oder Flüssigkeiten. Wenn Sie eine heiße Flüssigkeit verschütten, dann transportiert die Flüssigkeitsströmung, die Sie anrichten, Wärmeenergie. Wenn man Benzin in einen Fluss schüttet12 , dann transportiert die Strömung die chemische Energie im Benzin flussabwärts. Diese Art des Energietransports nennt man in der Physik Konvektion (engl. convection). Zweitens kann man Materie an zwei Stellen verschieden heiß manchen. Dann fließt Wärmeenergie vom heißeren zum kälteren Körper. Dabei strömt die Energie, aber nicht die Materie. Solche Arten von Transport nennt man in der Physik Leitung (engl. conduction). Neben der Wärmeleitung zum Energietransport gibt es auch noch andere Arten der Leitung, zum Beispiel die elektrische Leitung. Dabei wird Ladung zwischen zwei Punkten transportiert, zwischen denen eine elektrische Spannung anliegt, ohne dass sich die dazwischen liegende Materie (der Draht) bewegt. Drittens kann man Energie auch durch einen völlig materiefreien Raum transportieren, und zwar durch Strahlung. Auf diese Art erreicht uns die Energie der Sonne und zu dieser Form des Transports erfahren Sie im nächsten Kapitel mehr. Damit wird die Welt ein gutes Stück überschaubarer. Man kann komplizierte physikalische Prozesse durch Buchhaltung analysieren, indem man schaut, wo Energie von einer Form in eine andere umgewandelt wird und wie sie von A nach B kommt. Es kommt aber noch besser: diese drei Arten des Transports sind nicht nur für Energie die einzigen, sondern für alle erhaltenen Größen. Auch Masse, Ladung und Impuls lassen sich so bilanzieren. Bilanzgleichungen, die den Raum in kleine Gebiete aufteilen und die Umwandlungs- und Transportprozesse der erhaltenen Größen in und zwischen diesen kleinen Gebieten in mathematische Formeln gießen, sind eine der leistungsfähigsten Methoden zum Aufstellen physikalischer Modelle.
12
Was man auf keinen Fall tun sollte.
196
8 Die unerschütterliche Energieerhaltung
8.5 Anwendungsbeispiele Mit Hilfe der drei Tabellen im Abschn. 8.3 kann man eine Menge Expertenmeinungen überprüfen. Um zu demonstrieren, wie so was gehen kann, betrachten wir hier vier Anwendungsbeispiele.
Kohle ersetzt Gas Im Jahr 2022 wurden in Deutschland 79.8 TWh (also 79.8 · 1012 Wh) Strom aus Erdgas produziert und 66.4 TWh aus Steinkohle. Können wir überschlägig abschätzen, wie viel Kohle wir zusätzlich verfeuern müssen um einen Teil des Erdgas durch Kohle zu ersetzen? Das ist einfach. Wir müssen nur wissen, wieviel Gas und wieviel Kohle man für eine kWh Strom braucht. Diese Effizienz beträgt ca. 40–50 % bei Gaskraftwerken und 30–40 % bei Kohlekraftwerke. Also braucht man für 1 kWh Strom die 2–2.5 fache Gasenergie und das 2.5–3.3 fache an Kohleenergie. Wenn man etwa 10 % der Stromproduktion durch Erdgas (sagen wir rund 8 TWh) auf Kohle umstellen will, so bedeutet das, dass man 16 − 20 TWh Erdgasenergie durch 20–26.4 TWh Kohleenergie ersetzen muss. Jetzt schauen wir auf unsere Tab. 8.3. 1 kg Steinkohle liefert etwa 8.2 kWh an Energie. Also braucht man für 20 TWh (d. h. 20 · 109 kWh) gerade (20/8.2) · 109 kg oder 2.4 · 106 Tonnen. Zweieinhalb Millionen Tonnen! Ein üblicher Güterzug (25–30 Wagen) transportiert etwa 2000 t. Man braucht also nur zum Transport der Kohle ungefähr 1000 Güterzüge.
Grüne Welle Wenn ich von meiner Wohnung zur Autobahn durch die Stadt fahre, passiere ich mehr als 20 Ampeln. An manchen muss ich stehen bleiben, an manchen habe ich eine Grünphase erwischt. Eine Steuerung der Ampeln durch die man nach einer Rotphase immer nur Grün trifft (wenn man sich an die Geschwindigkeitsbeschränkungen hält) bezeichnet man als grüne Welle. Mal abgesehen von dem Zeitgewinn, bringt so eine Welle etwas für die Energieeinsparung? Wieviel Energie verliert man eigentlich durch das Abbremsen und wieder Anfahren an einer Ampel? Oder anders gesagt: Wieviel Energie könnte man durch eine grüne Welle einsparen? Durch das Bremsen wird die kinetische Energie des Autos in Wärme umgesetzt13 . Wir können diese Energie aus unserer Formel für die Bewegungsenergie berechnen, wenn wir die Masse des Autos kennen. Nehmen wir mal einen typischen Personenwagen von 1.4 t Leergewicht. Das ist kein Protz-SUV (ein BMW XM wiegt mehr als 2.7 t). Das innerstädtische Tempo ist 50 km/h. Dann ist 13
Ja, ja, das ist old school. Bei Elektroautos gibt es die Möglichkeit, diese Energie wieder in elektrische zu verwandeln (Rekuperation). In der Praxis funktioniert das aber noch nicht so super. Außerdem sind zum Zeitpunkt des Erscheinens dieses Buches die allermeisten Autos noch Verbrenner.
8.5 Anwendungsbeispiele
197
die kinetische Energie E kin= (M/2)v 2 = 0.7 · 103 kg(50 · 50) km2 /h2 . Der Taschenrechner sagt: 135 kJ oder 135 kWsek oder 135/3600 = 0.0375 kWh. Diese Energie müssen wir beim Anfahren dem Auto wieder zufügen. Da unsere Verbrennerautos mit Benzin fahren, wollen wir mal schauen, wieviel Benzin wir brauchen, um das Auto wieder auf 50 km/h zu bringen. Dazu müssen wir den Energieinhalt von einem Liter Benzin kennen. Der ist ungefähr 8.9 kWh/l. Leider kann man diese Energie mit herkömmlichen Motoren kaum nutzen. Nur etwa 20 % des Energieinhalts im Benzin landen bei einem modernen Benzinmotor als mechanische Energie auf der Straße. Mit den restlichen 80 % heizen wir im wesentlichen die Umwelt auf. Der mechanisch verfügbare Teil der Benzinenergie ist also nur ein Fünftel, 8.9 · 0.2 = 1.78 kWh/l. Nun können wir per Dreisatz berechnen, wieviel Benzin ein Ampelstop kostet, nämlich 0.0375/1.78 l oder ungefähr 0.02 l. Fünfzig Ampelstopps verbrauchen also einen Liter Benzin. Jetzt vergleichen wir zwei Szenarios. Im ersten Szenario gibt es keine grüne Welle, und man erwischt Grün- oder Rotphasen ganz zufällig. Wenn man oft fährt, so steht man vor der Hälfte der Ampeln. Zum Berufspendeln fährt man 5 Tage in der Woche und steht also vor 5 · 10 = 50 roten Ampeln bei der Hinfahrt und genauso vielen bei der Rückfahrt, also pro Woche vor 100 roten Ampeln, was 2 l Benzin ausmacht. Bei einer perfekten grünen Welle (Szenario 2) spart man genau diese 2 l pro Woche ein. Beim jetzigen Benzinpreis sind das etwas weniger als 4 e oder so ungefähr 15 e im Monat. In meiner Heimatstadt G. (131 000 Einwohner) gibt es jeden Tag ca. 60 000 Einund Auspendler, (dazu noch 95 000 Binnenpendler, die wir erst mal nicht berücksichtigen, weil die kreuz und quer in der Stadt herumfahren und es schwer ist, für alle gleichzeitig grüne Wellen zu schalten). Die 2 l Einsparung pro Woche und pro Auto werden pro Jahr für alle Ein- und Auspendler zusammen 52 · 2 · 60000 = 6240000 l. Die Gesamtemissionen vom Treibhausgas C O2 betragen in den Stadtgrenzen meiner Heimatstadt G. etwa 875000 Tonnen pro Jahr. Ist eine grüne Welle ein merklicher Beitrag zur Reduktion? Ein Liter Benzin produziert bei der Verbrennung etwa 2.34 kg C O2 . Also spart die grüne Welle 2.34 · 6.24 · 106 = 14.6 · 106 kg oder 14600 Tonnen. Das sind 100 · (14.6/875) % Einsparung also 1.67 %. Das ist für eine einzelne Maßnahme eine respektable Größenordnung. Die Reduktionsrate aller Maßnahmen der letzten 10 Jahre betrug in G. pro Jahr 1.2 %.
Diät oder Sport Wenn Sie unbedingt mal wieder abnehmen wollen (müssen), lohnt sich ein Blick auf die Kalorien. Wir wissen ja schon, dass diese Kalorien nicht der Weisheit letzter Schluss zum Thema Gewicht sind, aber eine grobe Richtschnur können sie liefern. Wenn Sie fortlaufend weniger Energie aufnehmen als Sie verbrauchen, bleibt dem Körper nichts anderes übrig als die Reserven anzugreifen. Dazu können Sie entweder die Kalorienzufuhr reduzieren oder den Kalorienverbrauch steigern. Was ist Ihnen lieber? Um diese Frage zu beantworten, muss man einen quantitativen Ver-
198
8 Die unerschütterliche Energieerhaltung
gleich anstellen: „Wieviel weniger müsste ich essen“ gegen „Wieviel Sport müsste ich treiben“. Wir können uns auf einem Bierdeckel eine grobe Übersicht verschaffen. So eine „Nullte Näherung“ ist in der Physik ein sehr beliebtes Hilfsmittel zur quantitativen Orientierung. Dazu nehmen wir zunächst an, die Kalorien auf den Packungsangaben landen wirklich in Ihrem Körper. Das ist – wie wir wissen – nicht der Fall. Die tatsächlich aufgenommene Energie ist abhängig von allen möglichen Faktoren, aber immerhin können wir feststellen, dass aus der Nahrung nicht mehr Energie rauszuholen ist. Von dieser Energie brauchen Sie einen erheblichen Teil, um Ihre biologische Maschinerie überhaupt in Gang zu halten, selbst wenn Sie Ihre Muskeln noch gar nicht besonders beanspruchen. Aus der Leistungstabelle 8.1 können Sie entnehmen, dass Menschen (in Ruhe) 100 W Maschinen sind. Sie brauchen also in 24 h 24*100 Wattstunden oder 2.4 kWh. Das rechnen wir mal mit Hilfe unserer Tab. 8.2 in (Kilo)-Kalorien um (Taschenrechner): 2.4 kWh = 860 × 2.4 kcal = 2064 kcal. Das ist natürlich nur eine sehr grobe Schätzung. Ein wenig genauer können wir schon hinsehen. Wenn man überhaupt keine Aktivitäten hat, dann bleibt als Energieverbrauch nur der sogenannte Grundumsatz. Den kann man messen, und für den gibt es auch heuristische Formeln, die mehr oder weniger gut stimmen. Auf jeden Fall sollte der Grundumsatz mit dem Gewicht zunehmen. Eine ganz einfache, aber immer noch praxistaugliche Faustformel ist, dass für den Grundumsatz pro kg Körpergewicht und pro Stunde 1 kcal verbraucht wird. Wenn Sie also 80 kg wiegen, dann braucht Ihr Grundumsatz in einem Tag 24 · 80 = 1920 kcal. Die gleiche Faustformel ist auch als Leistung einprägsam, denn 1 kcal/h sind 4187 J/3600 sek, das sind ziemlich genau 1.16 W oder ungefähr 1 W. Jedes Kilogramm Körpergewicht braucht also laufend etwas mehr als 1W zur Selbsterhaltung. Das kann man sich merken. Wenn Sie nun mal von der Couch aufstehen, etwas essen, oder möglicherweise sogar im home office Büroarbeiten erledigen, so brauchen Sie schon ein paar mehr Kalorien. Alles, was über den Grundumsatz hinausgeht, nennt man Leistungsumsatz. Der hängt natürlich auch wieder von allen möglichen Faktoren ab, aber er ist auf jeden Fall mit dem Grundumsatz korreliert. Je mehr Energie Sie in Ruhe verbrauchen desto mehr brauchen Sie auch für eine Tätigkeit. Daher hat es sich eingebürgert, den Leistungsumsatz auf den Grundumsatz zu beziehen, das nennt man dann MET (neudeutsch: metabolic equivalent of task). Sie müssen also, um die METs zu erhalten, den Energieverbrauch bei einer Tätigkeit pro Kilogramm und pro Stunde in kcal angeben. -Und woher bekommen Sie diese Werte? Genau, wie es Kalorientabellen gibt, gibt es auch umfangreiche MET-Tabellen. Ein paar typische Werte zeigt die Tab. 8.5. Für unsere Abschätzungen reicht dieser Grad an Genauigkeit14 . Natürlich sollte es echte Physike interessieren, was eigentlich hinter diesen MET Werten steckt. Wie kann man überhaupt den Energieverbrauch eines lebenden Organismus messen? Die Messmethode heißt indirekte Kalorimetrie. Erinnern Sie sich an die Messung der Kalorien mit dem Bombenkalorimeter? So was ist direkte Kalorime14
Leider sind einige Sportarten mit so stark variablen MET Werten versehen, dass es keinen Sinn macht, sie in die Tabelle aufzunehmen. Dazu gehört vor allem Schwimmen. Stil, Technik, Körperform e.t.c können sehr stark variierende METs zaubern.
8.5 Anwendungsbeispiele
199
Tab. 8.5 Diese Tabelle ist nützlich für die nächsten guten Vorsätze. Was MET ist steht im Text Aktivität MET Sitzende Tätigkeit Langsames Gehen Leichte Hausarbeit Gehen, je nach Tempo Fensterputzen Tischtennis Jogging, je nach Tempo Radfahren, ebene Strecke Tennis Einzel
1.2–1.5 2 2–2.5 3–5 3 4.0 8–11.5 8–10 8.0
trie. Für Lebewesen leider unmöglich. Statt dessen misst man, wieviel Sauerstoff ein Organismus verbraucht. Der Sauerstoff dient nämlich im Körper genauso wie im Kohleofen demselben Zweck: der Verbrennung. Obwohl ein Organismus das ganz anders bewerkstelligt als ein Ofen, kann man aus einer Betrachtung der chemischen Eingangsstoffe (= Nahrung bestehend aus den Makronährstoffen) schließen, wieviel Sauerstoff der Körper braucht, um Ihnen die chemische Energie zu entziehen. Also misst man den Sauerstoff in der Ausatemluft, vergleicht mit dem der eingeatmeten Umgebungsluft und bekommt den Verbrauch. Beispiel: Eingeatmet: 12 l/min, Sauerstoffkonzentration der Umgebungsluft: 20 %, in der Ausatemluft 16 %. Differenz 4 %. Das entspricht einem Verbrauch von 12 · 0.04 = 0.48 l/min. Nun muss man noch wissen, welche Energiemenge beim Umsatz des verbrauchten Sauerstoffs entstehen. Das hängt vom jeweiligen Makronährstoff und also von der Nahrung ab. Für jeden Makronährstoff lässt sich das durch direkte Kalorimetrie bestimmen. Aus der weiß man, dass zur vollständigen Verbrennung von 180 g Traubenzucker 134.4 l Sauerstoff benötigt werden und dass dabei 2836 kJ chemische Energie in Wärme umgewandelt wird. Pro Liter Sauerstoff sind das 2836/134.4 = 21.09 kJ. Das bezeichnet man als kalorisches Äquivalent. Jedes Nahrungsmittel hat so ein kalorisches Äquivalent, das sich aus direkter Kalorimetrie bestimmen lässt. Für die Makronährstoffe sind das: Für Kohlenhydrate: 21.09 kJ/l, für Proteine: 19.45 kJ/l, für Fette: 18.55 kJ/l. Zur Vereinfachung benutzt man bei Messreihen häufig einen Wert der kalorischen Äquivalenz, der einem typischen Nahrungsgemisch entspricht. Zur Zeit sind das in Europa 20.2 kJ (oder 4.83 kcal) pro Liter Sauerstoff. Ok, jetzt könnten Sie in Ruhe zu Hause bleiben und Diät halten. Dazu müssen Sie dem Körper einfach weniger Energie zuführen als er verbraucht. Probieren Sie mal eine Reduktion um 500 kcal. Nehmen wir an, Sie wiegen gerade 80 kg, Ihr Grundumsatz liegt also bei 1920 kcal pro Tag, und Sie tun nichts als 12 h schlafen und 12 h am Computer Videos gucken. Dann brauchen Sie 12 h lang den Grundumsatz und 12 h lang das 1.2 fache, also insgesamt 1920/2 + 1.2 · 1920/2 = 1.25 · 1920 = 2112 kcal am Tag. Das Problem der meisten Diäten beginnt aber damit, dass Sie mit zu viel Energie starten. Wenn Sie pro Tag 2800 kcal zu sich nehmen, dann bedeutet
200
8 Die unerschütterliche Energieerhaltung
die 500- Kalorien-Reduktionsdiät eben nicht, dass Sie 500 Kalorien weniger essen müssen, denn dann wären Sie erst bei 2300 kcal, und das ist immer noch zu viel. Sie müssen runter auf 2112 − 500 = 1612 kcal. Für Viele ist das die größte Hürde. Was ist nun der Effekt? Können Sie abschätzen, wie Sie damit abnehmen? Am liebsten würden Sie natürlich Ihr überflüssiges Körperfett abbauen. Aus unserer Übersicht über die Kalorien in Makronährstoffen im Abschn. 8.3 lesen wir ab, dass 1 kg reines Fett 9000 kcal liefert. Das fettspeichernde Körpergewebe (Fettzellen) ist natürlich kein reines Fett, daher hat es weniger Kalorien. Die genaue Zahl ist mal wieder individuell verschieden, aber 7000–8000 kcal sind am häufigsten anzutreffen. Wenn alle eingesparten Kalorien durch Fettabbau ausgeglichen würden, dann ergibt sich eine hübsche einfache Regel: Bei der 500 Kalorien Reduktion nähme man pro Woche (3500 kcal gespart) ungefähr 1 Pfund ab. Leider ist das aber nicht so. Zu Beginn der Diät wird die Regel experimentell recht gut bestätigt (sogar übertroffen wie wir gleich noch sehen werden), aber dann nimmt man weniger ab. Das liegt an Anpassungsreaktionen des Körpers an die Kalorienknappheit. Er wird effizienter im Umgang mit seinen Ressourcen (Hungerstoffwechsel). Außerdem – und das ist nun wirklich blöd – wird nicht ausschließlich Fett abgebaut, sondern auch anderes Gewebe, wie zum Beispiel Muskeln. Damit das nicht passiert, müssen Sie leider auch bei der 500- Kalorien-Reduktionsdiät etwas Krafttraining betreiben, sonst sehen Sie am Ende zwar schlanker, aber nicht unbedingt attraktiver aus. Wenn wir es schon nicht vermeiden können, wenden wir uns also dem Sport zu. Aus der Tab. 8.5 können Sie berechnen, wieviel Sport Sie treiben müssen, um 500 zusätzliche Kalorien pro Tag zu verbrauchen. Im Grundumsatz verbrauchen Sie laufend 1.16 W pro Kilogramm Gewicht. Wenn Sie nun 20 min lang mit einem MET von 8 Sport treiben (Joggen, Radfahren, ...), dann verbrauchen Sie während dieser Zeit das Achtfache. Sie haben also einen Extraverbrauch vom Siebenfachen Ihres Grundumsatzes, mit anderen Worten 7 · 1.16 = 8.12 W∗20 min oder 8.12/3 = 2.7 Wh pro Kilogramm Körpergewicht. Da Sie am Anfang 80 kg wiegen, sind das ungefähr 0.22 kWh oder 190 kcal. Verdammt! Sie müssen also jeden Tag 53 min joggen oder irgendwelche anderen Sportarten mit einem MET von 8 betreiben. Außerdem müssen Sie das auch über längere Zeit durchhalten können. Vor allem aber müssen Sie auf gewisse Nebeneffekte beim Sport achtgeben, die den Erfolg schnell wieder zunichte machen können. Ganz oben steht das Bierchen nach dem Lauf (das hab ich mir verdient). Ein 0.5 l Glass Bier hat ungefähr 210 kcal. Das eingeschlossen, bringt Ihre Laufrunde 20 kcal zusätzlich! So einen richtigen Königsweg zum schnellen Abnehmen gibt es also nicht. Weder mit Sport noch mit Diät werden Sie es schaffen, Ihre Fettpolster schnell wegzubekommen. Das ist die schlechte Nachricht. Die gute Nachricht ist, dass Sie das auch nicht müssen. Abnehmen ist ein längerfristiges Projekt. Sie müssen Ihren Lebensstil ändern und Ihrem Körper Zeit für Anpassungen lassen, dann können Sie dauerhaft abnehmen. Soweit die Aussagen auf Grundlage physikalischer und chemischer Gesetze. Und was ist nun von Versprechen zu halten wie: „Jede Woche purzeln die Pfunde mit unserer Super-xy-Diät“ oder „Schon nach einem Tag das erste Kilo runter“? Kann ja gar nicht sein, oder? Doch, so einen Effekt gibt es tatsächlich. Die schnellste Methode, um
8.5 Anwendungsbeispiele
201
Gewicht zu verlieren ist nämlich nicht, irgendein Gewebe abzubauen, sondern Wasser auszuscheiden. Diesen Effekt gibt es eigentlich bei jeder Diät. Wenn Sie täglich auf die Waage steigen und Gewichtsschwankungen von bis zu einem Kilogramm feststellen, dann liegt das in den allermeisten Fällen am Wassergehalt Ihres Körpers. Eine Brachialmethode, um Wasser blitzschnell loszuwerden ist die Anregung der Nierenfunktion durch Diuretika (womit dann auch jede Menge lebenswichtiger Mineralsalze herausgeschwemmt werden). Das ist die höchste Stufe der Quacksalberei und wirkt innerhalb von Stunden. Die meisten Illustrierten-Diäten setzen auf indirekte Effekte, um Wasser los zu werden. Zum Beispiel können Sie die Kohlenhydrate aus Ihrer Nahrung streichen und Ihre Kalorienzufuhr unter den Grundumsatz senken. Dann reagiert der Körper mit sofortiger Plünderung der inneren Kohlenhydratspeicher, vor allem in den Muskeln. Dort ist Traubenzucker in Form von Glykogen (d. h. mehrere Traubenzuckermoleküle sind zu einem neuen Molekül verbunden), und das speichert auch jede Menge Wasser. Der Abbau des Glykogen führt zum Wasserverlust. Wieviel Wasser kann man denn so los werden? Der Wasseranteil eines 70 kg schweren Mannes wiegt etwa 45 kg, von denen ungefähr 2 kg in den Glykogenspeichern der Muskeln sitzen. Das Glykogen selber bringt ungefähr 500 g auf die Waage. Bei einer Reduktionsdiät (−500 kcal) leert der Körper diese Speicher innerhalb von ein paar Tagen. Also nimmt man nur aufgrund dieses Effekts in den ersten Tagen bereits ungefähr 2.5 kg ab. Je radikaler die Reduktion, desto schneller geht das, daher auch Blitzdiät. Nebenbei wird so auch ziemlich schnell Gewebe abgebaut, nur leider Muskelgewebe und keine Fettzellen. Erst wenn die Glykogen Speicher leer sind, wird das Fettgewebe angegriffen. Erst dann (!) beginnt die wirkliche Diät.
Armageddon Chicxulub Auf der Halbinsel Yucatan in Mexico gibt es Spuren eines sehr großen AsteroidenEinschlags zu bewundern, der vor ungefähr 65 Mio. Jahren stattfand, und der heutzutage sehr genau vermessen wird. Es ist eine Hypothese, für die es eine Menge Evidenz gibt, dass dieser Asteroideneinschlag das Ende der Dinosaurier herbeigeführt hat. Da wir immer wieder von kleineren und (zum Glück seltener) größeren Himmelskörpern getroffen werden, ist es eine gute Übung in Energieumrechnung, wenn man sich mal klar macht, mit welcher Zerstörung man im Falle eines Falles wohl rechnen muss. Die Energie, die ein Asteroid auf die Erde bringt, ist schlicht seine Bewegungsenergie, d. h. Mv 2 /2. Um sie zu berechnen, muss man die Masse und die Geschwindigkeit dieses Körpers kennen. Die Masse zu messen ist nicht so einfach, denn der Asteroid ist ja weg. Für eine grobe Abschätzung behilft man sich mit dem Volumen, weil man ein bisschen was über das spezifische Gewicht solcher Körper weiß (aus Bruchstücken, die man gelegentlich findet). Es ist so ungefähr das von Wasser, also 1000 kg/m3 . Der Einschlagkrater des Chicxulub Asteroiden hat ein Volumen von ungefähr (10 km)3 = 1000 km3 = 1012 m3 . Also hatte der Brocken eine Masse von ungefähr M ∼ 1015 kg. Wie schnell war er unterwegs? Um die Geschwindigkeiten von Körpern im Sonnensystem abzuschätzen, gibt es einen einfachen Trick. Wenn ein Körper sich auf einer Umlaufbahn um
202
8 Die unerschütterliche Energieerhaltung
die Sonne bewegt, und seine Umlaufzeit T und die Bahnlänge pro Umlauf L ist, dann ist seine mittlere Geschwindigkeit L/T . Für die Erde können wir eine typische Sonnensystem-Geschwindigkeit berechnen. Die Umlaufzeit ist 1 Jahr (das sind 3.16 · 107 s), und der Radius der (fast) kreisförmigen Bahn ist der Abstand SonneErde, das sind ungefähr 150 · 106 km. Um die Länge der Bahn (also den Kreisumfang) zu erhalten, müssen wir mit 2π multiplizieren. Also ist das mittlere Tempo v ≈ 2π · 150/31.6 km/s ≈ 30 km/s. Für unsere grobe Abschätzung benutzen wir mal die 30 km/s als Geschwindigkeit, mit der der Asteroid auf die Erde geknallt ist. Wieviel Bewegungsenergie hat er mitgebracht? E Chicxulub = Mv 2 /2 ∼ 1015 · 900/2 · 106 kg · m/s2 ∼ 4.5 · 1023 J Ok, aber ist das viel? Womit sollen wir es vergleichen? Da es sich ja um so eine Art Bombe handelte, könnten wir mit der Sprengkraft von Bomben vergleichen. Aus unserer Tab. 8.3 lesen wir ab, dass 1 g TNT 4.6 kJ enthält. Wir können also per Dreisatz die Chicxulub Energie leicht in die Sprengkraft von TNT umrechnen. Das ergibt 1020 g TNT oder 1014 Tonnen TNT. Die Sprengkraft der Atombombe auf Hiroshima war ungefähr vergleichbar mit 13 · 103 Tonnen TNT. Das gesamte Kernwaffenarsenal gegen Ende des Kalten Krieges (also das größte, was bisher auf der Erde herumlag) entsprach der Sprengkraft von etwa 8 · 105 Hiroshima Bomben oder ungefähr 1010 Tonnen TNT. Mit anderen Worten: Die Energie, die der Asteroid beim Aufprall (innerhalb von ungefähr 0.3 s) freisetzte, entspricht Zehntausend Kernwaffenarsenalen aller Staaten der Erde. Arme Dinosaurier.
Kapitel 9
Gott würfelt nicht: Maxwells Welt
9.1 (Un)sichtbare Fluide: Felder Die Erfolge der Newtonschen Theorie waren so groß, dass man zu glauben begann, die ganze äußere Welt bestehe aus Teilchen oder Massenelementen, zwischen denen Kräfte wirken. An die Merkwürdigkeit der Fernwirkung der Schwerkraft gewöhnte man sich und hielt sie nach einigen Jahren für eine selbstverständliche Eigenschaft der Wirklichkeit, die man nicht weiter hinterfragen sollte. Man könnte diese Auffassung als „mechanistischen Atomismus“ bezeichnen. Ob es aber die Atome als reale Teilchen wirklich gibt, darüber war man sich keineswegs einig. Einen großen Triumph dieser Weltauffassung war die Entdeckung von Charles Augustin de Coulomb (1736–1806) im Jahr 1785. Er zeigte, dass zwei elektrische Ladungen sich nach einem Kraftgesetz anziehen oder abstoßen, das genau die gleiche Abstandsabhängigkeit und Richtung hat wie die Gravitationskraft. Das nährte die Vorstellung von wenigen, universellen Kräften in der Natur. Andererseits gab es jedoch sehr komplexe Kraftgesetze. Insbesondere die alltäglich bekannten Reibungskräfte hatten sehr komplizierte quantitative Eigenschaften. Die Reibung, die beim Verschieben einer Kiste oder eines Schranks auftritt (Haftreibung) war nur mit Mühe in ein Modell Newtonscher Kräfte zu bringen. Auch heute noch arbeitet man sich in der Physik am mikroskopischen Verständnis dieser scheinbar so alltäglichen Kraft ab. Aber im Großen und Ganzen waren viele Geistesgrößen zumindest im Prinzip mit dem mechanistischen Atomismus zufrieden, vor allem in England und Frankreich. In Deutschland hingegen war das Ende des 18. bis zur Mitte des 19. Jahrhunderts die Blütezeit des sogenannten Deutschen Idealismus, der oft als Höhepunkt deutscher Philosophie überhaupt angesehen wird. Diese Philosophie hatte eine ganz andere Vorstellung von der Wirklichkeit. Sie wollte eine Vereinheitlichung der geistigen und der äußeren Realität. Der Urvater dieser philosophischen Richtung ist Immanuel Kant (1724–1804)1 . Von den herausragenden Vertretern haben Sie vielle1
Ob er Vorläufer dieser Denkrichtung ist, oder deren erster Vertreter ist mir zumindest nicht so ganz klar. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_9
203
204
9 Gott würfelt nicht: Maxwells Welt
icht irgendwann mal gehört: Johann Gottlieb Fichte (1762–1814), Friedrich Wilhelm Joseph Schelling (1775–1854), Georg Wilhelm Friedrich Hegel (1770–1831). Wenn SiedieseLeutenichtkennen,dannwetteichaber,dassIhnenzumindesteinigeVertreter der literarischen Seite dieser Philosophie aus dem Schulunterricht bekannt vorkommen, zum Beispiel Johann Wolfgang Goethe (1749–1832), Friedrich Schiller (1759– 1805), Clemens Brentano (1778–1842), Ludwig Tieck (1773–1853), E. T. A. Hoffmann (1776–1822) und vielleicht auch noch Johann Christian Friedrich Hölderlin (1770–1843).WeiblicheVertreterinnensindimmernochwenigerbekannt:Bettinavon Arnim (1785–1859), Dorothea Schlegel (1764–1839) oder Sophie Schubert (1770– 1806) zum Beispiel. Die Literaten und die Philosophen waren untereinander stark vernetzt. Soweit es die Physik angeht, so hielten sie alle nicht viel von den Newtonschen Errungenschaften; die ganze Richtung passte ihnen irgendwie nicht. Für sie war die Welt nicht ein Spiel von vielen Teilchen, sondern ein Wabern von den verschiedenartigsten Kräften, die eventuell auch Fluide sein können. Für alles Mögliche gab es eine Kraft, d. h. die Schwerkraft war nur eine von vielen. Da gab es die chemische Kraft, die Wärmekraft, die Magnetkraft, die elektrische Kraft, die Lebenskraft, die Geisteskraft, rhabdomantische, radiästhetische Kräfte und viele mehr. Falls Ihnen die letztgenannten Beispiele nicht so geläufig sind: über rhabdomantische Kräfte verfügen Personen, die mit Wünschelruten, unterirdische Quellen auffinden, radiästhetische Kräfte gehen von geheimen Störfeldern aus und werden von speziell begabten Menschen wahrgenommen, insbesondere von Geomanten, die die Störfelder unsichtbarer Liniennetze der Erde erspüren. Im Laufe der Zeit stellte sich heraus, dass manche Kräfte keine Elemente der äußeren Wirklichkeit sind, aber das musste man erst mal mit physikalischen Methoden prüfen. Aus der Zeit der Überprüfungen im 18. und 19. Jahrhundert haben einige der damals durchgefallenen Kräfte bis in die heutige Zeit in esoterischen Zirkeln überlebt. Die Ernsthaftigkeit der Prüfungen gilt auch heute noch als Beweis für deren Existenz, wenn auch in irgendeiner „feinstofflichen Welt“, zu der die Physik leider keinen Zugang hat. All diese Kräfte aber, – und das war besonders wichtig – waren nur Erscheinungsformen einer einzigen, alles bewegenden, alles durchdringenden Kraft, die nichts mit Materie zu tun hatte. Eine wichtige Vorhersage dieser Naturphilosophie war daher, dass alle Kräfte ineinander umwandelbar sind und nichts verloren geht. Diese Vorstellung erleichterte es ungemein, die Hypothese der universellen Energieerhaltung aufzustellen, die wir im vorherigen Abschnitt besprochen haben und die sich als Eckpfeiler der Physik erwiesen hat. Materialisten des 18. Jahrhunderts hielten das Alles für esoterischen Unfug, denn es fehlten solide Beobachtungen zur Unterstützung der These. Aber die Idee klingt natürlich grandios, so grandios, dass sie selbst in der Science Fiction der neueren Zeit gern kolportiert wird. Wie lautet der Gruß der Jedi Ritter in Star Wars? „May the force be with you“ 2 . Tatsächlich war den idealistischen Naturphilosophen nicht klar, was eine Kraft genau sein sollte, – außer, dass sie eben etwas bewirkte und bewegte. 2
In deutscher Übersetzung „Möge die Macht mit Dir sein“, da geht die Bedeutung von force = Kraft verloren, im Englischen ist sie aber sehr präsent, force steht für Kraft ebenso wie für Macht.
9.2 Die Physik verteilter Materie
205
Gemessen an den enormen Erfolgen der Newtonschen Physik konnten die Vertreter der idealistischen Naturphilosophie nicht viel vorweisen, – bis zu einer denkwürdigen Beobachtung eines dänischen Wissenschaftlers im Jahr 1820, auf die wir gleich zu sprechen kommen. Denn die geheimnisvollen Kräfte und mysteriösen, unsichtbaren, unstofflichen Fluide entpuppten sich als viel realer, als der materialistische Atomismus im 18. Jahrhundert ahnte.
9.2 Die Physik verteilter Materie Es war aber nun nicht so, dass Fluide obskur und ohne wissenschaftliche Grundlagen waren. Solange man sie nur sehen und anfassen konnte, waren sie schon recht gut erforscht. Wegweisende Weiterentwicklungen der Newtonschen Mechanik in diese Richtung stellten die Arbeiten von Jean-Baptiste le Rond d’Alembert (1717–1783) und das Buch des italienischen Physikers Joseph-Louis Lagrange3 (1736–1813) mit dem Titel Méchanique Analytique (Analytische Mechanik) dar, das im Jahr 1788 erschien. Die Vorlesungen über fortgeschrittene klassischen Mechanik werden auch heute noch im wesentlichen nach diesem Buch ausgerichtet. Da man keine Idee hatte, ob es die postulierten Atome nun wirklich gibt, war es eine großartige Errungenschaft, Modelle der Wirklichkeit zu haben, die sie gar nicht brauchten, sondern nur mit Massenelementen kontinuierlich verteilter Materie arbeiteten. Unserer Alltagserfahrung nach ist Materie ja schließlich kontinuierlich im Raum verteilt, und mit den damals zur Verfügung stehenden, experimentellen Methoden gab es auch keinen Grund, daran zu zweifeln. Man konnte einen Klumpen Materie beliebig oft zerteilen, ohne auf die Atome zu stoßen. Es entstanden mit der Zeit immer genauere Modelle für die Bewegung von Flüssigkeiten (Hydrodynamik) und die Verformung von festen Körpern (Kontinuumsmechanik) unter der Einwirkung von Kräften. Im 18. Jahrhundert galt die Newtonsche Theorie der Kontinua (worunter man feste Körper, Flüssigkeiten und Gase verstand) als der Gipfel der theoretischen Physik. Diese Theorien werden auch heute noch oft verwendet, denn ihr Gültigkeitsbereich ist und bleibt – insbesondere für technische Anwendungen – enorm groß. Kein Gebäude, keine Brücke, keine mechanische Maschine, keine Pipeline wird ohne diese Gesetze konstruiert. Aus dem Studium der verteilten Materie lernte man aber auch Begriffsbildungen und Techniken, die sich für das zukünftige Verständnis der unsichtbaren Fluide als enorm wichtig erweisen sollten (was man jedoch noch nicht mal ahnte). Lassen Sie uns ein paar der wichtigsten Begriffe der Kontinuumstheorien kennen lernen, die wir ganz analog in den unsichtbaren Feldern wiederfinden werden. Für Wasser sind sie alle anschaulich. Dichte und Feld Das Wasser in einem 10 l Eimer wiegt ungefähr 10 kg. Teilt man die Masse M durch das Volumen V, so ergibt sich M/V = 10 kg/10 l = 1 kg/l. Nimmt 3
Sein Geburtsname ist Giuseppe Lodovico Lagrangia. Er wurde eingebürgerter Franzose, wohl auch, um der Ausländerfeindlichkeit während der französischen Revolution zu entgehen.
206
9 Gott würfelt nicht: Maxwells Welt
man von diesem Wasser 1 l, so wiegt es 1 kg, das Verhältnis ist wieder M/V = 1 kg/l. Sie können nun immer kleinere Wassermengen nehmen, immer bleibt das Verhältnis Masse pro Volumen gleich.Dieses Verhältnis nennt man die Massendichte4 . Dichten werden in der Physik sehr gerne mit dem griechischen Buchstaben ρ bezeichnet, die Massendichte mit ρ M . Jedes materielle System hat eine Massendichte, aber nicht in allen Systemen ist die Massendichte für jedes kleine Volumen gleich. Betrachten Sie zum Beispiel das Wasser in einem See an einem frostig kalten Wintertag, an dem der See zugefroren ist. Das Eis schwimmt auf der Oberfläche, weil seine Dichte kleiner ist als die von Wasser, 1 l wiegt so ungefähr 918 g. Eis ist Wasser, aber es ist ein fester Körper. Tauchen wir in den See ein (brrrr!), so finden wir, dass die Massendichte des Wassers zunimmt, je tiefer wir tauchen. Das Wasser mit der größten Massendichte hat eine Temperatur von 4 ◦ C, die Dichte ist 999,972 Gramm pro Liter. Friert der See zu, so ist es daher unten auf dem Grund am wärmsten. Bei 20 ◦ C ist die Dichte 998,209 Gramm pro Liter. Am Siedepunkt, d. h. bei 100 ◦ C ist die Dichte immer noch 958.3 Gramm pro Liter. Durch diese Art der Änderungen der Dichte bei geänderten Temperaturen ist Wasser übrigens ein sehr außergewöhnliches Material. Für die überwältigende Mehrzahl von Materialien gilt, dass die feste Phase des Materials in der flüssigen Phase untergeht. Festes Eisen zum Beispiel, schwimmt nicht auf flüssigem Eisen, sondern sinkt ein. Aber das nur nebenbei. Betrachten wir nun wieder das Wasser in dem See, so stellen wir fest, dass jedes Temperaturprofil (egal, ob eine Abnahme von unten nach oben oder eine Änderung mit dem Abstand vom Ufer) dazu führt, dass in der Umgebung jedes Ortes im See eine andere Massendichte zu finden sein kann. Bei der Messung darf man also keine allzu großen Volumina betrachten. Im Gegenteil, man muss wieder einmal einen praktischen Grenzwert (siehe Abschn. 3.7) durchführen. Als Ergebnis der Mühen erhält man einen Wert der Massendichte für jeden Raumpunkt r. Man bezeichnet diesen Wert als ρ M (r). Die Gesamtheit aller Werte an allen Raumpunkten nennt man das (Massen)-Dichtefeld. Ein physikalisches Feld ist also nichts anderes als die kontinuierliche Verteilung einer physikalischen Größe im Raum. Diese Größe muss nicht unbedingt die Masse sein, es gibt jede Menge physikalische Eigenschaften, die so verteilt sind. Die Temperatur im See ist zum Beispiel auch so ein Feld, bezeichnet mit T (r). Ein Feld kann sich auch im Laufe der Zeit verändern, denken Sie zum Beispiel an den Temperaturverlauf innerhalb eines Tages. Dann muss man auch noch die Zeit mit berücksichtigen und man schreibt T (r, t). Mit dem Dichtefeld ρ M (r) kann man nun auch Massenelemente (die wir aus dem Abschn. 7.2 kennen) genauer definieren. Ein kleines Volumen d V (r ) am Ort r enthält nämlich die Masse dm(r) = ρ M (r)d V (r). Strömungsgeschwindigkeit Wenn das Wasser strömt, so kann man an einem bestimmten Ort eine kleine Markierung loslassen und deren Bewegung über kurze Zeit 4
Vielleicht kennen Sie die Massendichte auch unter dem Namen spezifisches Gewicht. Den benutzen wir hier nicht, und zwar (i) weil er als mittlere Massendichte eines ganzen Systems verstanden wird, und (b) weil der Begriff Dichte nicht nur für Massen Sinn macht und wir später noch andere Dichten antreffen, für die es keine andere gebräuchliche Bezeichnung gibt.
9.2 Die Physik verteilter Materie
207
Abb. 9.1 Ein Pfeilfeld von Strömungsgeschwindigkeiten in einer Ebene. Dreidimensionale Pfeilfelder sind sehr schwer zu veranschaulichen. (Als kleiner Zusatz-Gag ist noch eine optische Täuschung eingebaut. Ist das Quadrat nicht gekippt?)
verfolgen. Aus der Ortsänderung, dividiert durch das Zeitintervall erhalten wir eine Geschwindigkeit am Ort r, die wir mit v(r) bezeichnen, und die Gesamtheit dieser Geschwindigkeiten definiert wieder ein Feld. Im Gegensatz zum Dichtefeld besteht dieses Feld aus Pfeilen, die kontinuierlich über das Volumen der Flüssigkeit verteilt sind, es ist also ein „Pfeilfeld“ (dieser Begriff ist nicht gebräuchlich, meist sagt man Vektorfeld, aber siehe meine Bemerkung zum Gebrauch der Bezeichnung Vektor.). In zwei Dimensionen kann man ein solches Feld noch ganz gut auf Papier darstellen, wie die Abb. 9.1 zeigt. Für die Messung ist es wichtig, dass die kleine Markierung von der strömenden Flüssigkeit transportiert wird. Diese Art des Transports kennen wir schon, es ist die in Abschn. 8.4 beschriebene Konvektion. Stromlinie Wenn wir die kleine Markierung über längere Zeit verfolgen, dann sehen wir eine Bahnkurve, die man als Stromlinie bezeichnet. Aus vielen Markierungen, die an vielen verschiedenen Orten starten, kann man so eine sehr gute Visualisierung der Strömung gewinnen, d. h. man hat ein Bild davon, wie sich kleine Volumina der Flüssigkeit bewegen. Ein Beispiel sehen Sie in der Abb. 9.2. Stromdichte, Stromstärke Fließendes Wasser transportiert kleine Massenelemente dm(r) = ρ M (r)d V (r) mit der Strömungsgeschwindigkeit v(r). Der Impuls eines solchen Massenelements ist also gerade dmv oder ρ M vd V (alles am Ort r). Der Impuls pro Volumen ist die (na klar) Impulsdichte, j (r) = ρ M (r)v(r). Das ist mal eine Dichte, die aus Pfeilen (in Richtung der Geschwindigkeit v) besteht. Sie hat noch eine andere wichtige Bedeutung. Sie bestimmt, wieviel Wasser pro Zeit durch eine bestimmte Fläche, nennen wir sie F, fließt, die wir willkürlich festlegen können, so wie die graue Fläche auf der linken Seite der Abb. 9.3. Einige Impulsdichte-Pfeile sind eingezeichnet. In der rechten Hälfte der Abbildung betra-
208
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.2 Ein Feld von Stromlinien in einer Ebene veranschaulicht die gesamte Strömung recht gut. Wie Sie sehen, ist da links eine Quelle und da rechts eine Senke
Abb. 9.3 Links: Eine Strömung, dargestellt durch die Strömungsgeschwindigkeiten, fließt durch eine Fläche (grau). Mitte: Wenn man genau hinsieht, steht der Strömungspfeil im allgemeinen nicht senkrecht auf der Fläche. Aber nur der senkrechte Teil des Pfeils transportiert die Flüssigkeit durch die Fläche. Rechts: In einem kleinen Zeitintervall wird die Flüssigkeit, die sich im Zylinder mit der Höhe v ⊥ t befindet, durch die Fläche transportiert
chten wir mit einer Lupe ein einziges Massenelement und dessen Impuls. Die Form des Massenelements spielt schließlich (d. h. für Grenzwerte im Grenzprozess kleiner werdender Volumentelemente) keine Rolle. Sie ist hier als Zylinder mit Höhe h und Grundfläche d F eingezeichnet. In dem kleinen Flächenstück (in grau) ist eine Richtung markiert, die senkrecht darauf steht (Normalenrichtung, norm) und eine Tangentialrichtung (tan). Das Massenelement wird in Richtung v transportiert. Ist diese Richtung parallel zur Tangentialrichtung, dann wird es an der Fläche entlang, aber nicht durch die Fläche hindurch transportiert. Den Geschwindigkeitspfeil können wir in eine Summe aus einem Pfeil in Tangentialrichtung und einem Pfeil in Normalrichtung zerlegen. Nur der Normalteil von v, bzw. j , trägt zum Transport durch die Fläche bei. Diesen Teil nennen wir j ⊥ . Nun können wir überlegen, wie viel Masse pro Zeit durch das kleine Flächenstück transportiert wird (siehe rechten Teil der Abb. 9.3). Da die Form des Massenelements – wie gesagt – keine Rolle spielt, haben wir den Zylinder nun so ausgerichtet, dass
9.2 Die Physik verteilter Materie
209
seine Achse in Normalrichtung zeigt. In einem kleinen Zeitintervall t wird alle Masse, die sich in dem Zylinder mit der Höhe h = v⊥ t befindet, also ρ M d Fh durch die obere Deckfläche transportiert. Dividieren wir durch t, so erhalten wir die pro Zeit durch die Fläche transportierte Masse und die ist gerade ρ M v ⊥ d F oder j⊥ d F. Wenn wir die pro Zeit durch die gesamte Fläche transportierte Masse haben wollen (also im Grenzwert d M/dt), dann müssen wir nur über die Beiträge der kleinen Flächenstücke summieren (bzw. im Grenzwert integrieren). Diese Beziehung können wir mit unserem Einmaleins der höheren Mathematik auch so schreiben dM = j⊥ d F. dt F Das F unten am Integral soll uns daran erinnern, über welche Fläche wir eigentlich reden. Diese Notation ist in Physik und Mathematik sehr gebräuchlich. Die Massenänderung pro Zeit durch Strömung nennt man (Massen)-Stromstärke und die Impulsdichte nennt man in diesem Zusammenhang auch (Massen)-Stromdichte. Also Impulsdichte und Massen-Stromdichte sind ein- und dasselbe. Quellstärke, Quelldichte Nun betrachten wir im strömenden Wasser eine Fläche, die ein Volumen V umschließt wie in Abb. 9.4 und wir nehmen an, dass die Dichte des Wassers überall konstant ist. Dann passt genau die Masse ρ M V in das Volumen und diese Masse soll sich nicht verändern. Wir können die Beiträge des durch die Fläche strömenden Wassers aus der Summation (Integration) der Beiträge kleiner Flächenstücke erhalten. Das Ergebnis sagt uns, ob insgesamt Wasser aus dem Volumen heraus- oder hereinströmt. Wenn genauso viel hinein wie hinausströmt, dann ändert sich die Masse im Volumen nicht, genau wie es sein soll. Wenn aber mehr herausfließt als hereinkommt, so muss Wasser im Inneren des Volumens hinzugefügt werden. Mit anderen Worten: Im Inneren muss irgendwo eine Quelle sein. Falls mehr hereinströmt als herauskommt, muss entsprechend im Inneren eine Senke sein in der Wasser verschwindet. Die Stärke der Quelle (Senke) können wir an der Menge des heraus- (herein-) strömenden Wassers ablesen. Diese Größe nennen wir Quellstärke Q(V ) (Senkstärke gibt’s nicht, aber negative Quellstärke). Wenn wir der Quelle auf die Spur kommen wollen, dann können wir das Volumen in zwei Teilvolumen V1 und V2 zerteilen und die Quellstärken der beiden Teilvolumina betrachten, denn die gesamte Quellstärke ist die Summe der Quellstärken der Teilvolumina, Q(V ) = Q(V1 ) + Q(V2 ). Es gibt natürlich beim Summieren (Integrieren) über die Oberfläche von V1 noch Beiträge von der (grauen) Schnittfläche. Aber die heben sich genau weg gegen die Beiträge, die bei Teilvolumen V2 auf dieser Schnittfläche entstehen. Was aus V1 heraus (herein) fließt, fließt in V2 herein (heraus). Wir können also die Quellstärke in 2 Teile zerlegen, die aus je einem Teilvolumen kommen. Niemand hindert einen daran, die Teilvolumina wieder zu zerteilen u.s.f., bis man schließlich bei beliebig kleinen Volumenelementen angekommen ist. Anders gesagt, die gesamte Quellstärke ist eine Summe (ein Integral) über das ganze Volumen V , zerlegt in kleine Volumenelemente, also Q(V ) = V d Q(r).
210
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.4 Ein Volumen, durch dessen Oberfläche Flüssigkeit ein- und ausströmen kann. Die dunkle Fläche zerlegt das Volumen in die zwei Teilvolumen, die im Text besprochen werden
Man kann sich nun ein kleines Volumenelement vornehmen (zum Beispiel einen Würfel) und die Ströme durch die Oberflächen bilanzieren. Wir wollen das hier nicht im Detail ausbreiten, aber es sollte klar sein, dass die Bilanz die Stromdichte an benachbarten Punkten enthält. Im Grenzfall kann man die Unterschiede zwischen diesen Dichten durch Ableitungen der Stromdichte (nach kartesischen Koordinaten) ausdrücken. Also gibt es einen Ausdruck (und nur das brauchen wir) für d Q(r ) in der Form div j (r)d V (r). Dabei ist div j irgendeine Kombination von Ableitungen der Stromdichte (die man kennt), die uns aber hier nicht weiter beschäftigen soll. Die Abkürzung div kommt von Divergenz, d. h. Auseinanderlaufen. Wenn man auf ein Stromlinienbild schaut, in dem eine Quelldichte vorhanden ist, dann laufen die Stromlinien auch wirklich auseinander. Immerhin können wir jetzt diesem Ausdruck den Namen geben, der ihm gebührt, nämlich die Quelldichte. Es ist ja die Dichte der Quellstärke. Damit können wir nun die Quellstärke auf zwei Arten ausdrücken: einmal als Summe (bzw. Integral) der Quelldichte über das Volumen V einmal als Integral der Normalkomponente der Stromdichte über die Oberfläche F dieses Gebiets. Die Aussage, dass beide Ergebnisse gleich sind, ist ein für alle Feldtheorien sehr wichtiger mathematischer Satz, der auch Gaußscher Satz genannt wird. Wir haben ihn soeben nach Art der Physik erläutert. Wirbelstärke, Wirbeldichte Eine faszinierende Eigenschaften von strömendem Wasser ist die Ausbildung von Wirbeln. Am Ufer eines Flusses sehen wir die Wirbel-
9.3 Wellen
211
Abb. 9.5 Messgerät für die Wirbeldichte (Rotation) in z Richtung
strömung an der Oberfläche als einen Strudel, aber diese Strömung setzt sich natürlich in die Tiefe fort, d. h. so ein Wirbel ist ein dreidimensionales Strömungsmuster, bei der Flüssigkeit irgendwie „gedreht“ wird. Wie können wir nun feststellen, ob sich in irgendeinem Gebiet in einer Strömung Wirbel befinden? Mit anderen Worten: was ist eine operative Definition einer Wirbelströmung? Das ist gar nicht so einfach. Anders als Quellen sind Wirbel nämlich keineswegs so genau definierte Gebilde. Wir geben hier eine plausible Definition, die für alle Fluide am meisten weiterhilft. Wir halten einfach in die Strömung ein kleines Schaufelrad (oder einen kleinen Korken wie in Abb. 9.5, wenn Sie mal Heimexperimente machen möchten) dessen Abmessungen in ein kleines Volumenelement d V passen. Wenn das Rad oder der Korken rotiert, so sagen wir, dass die Flüssigkeit an diesem Ort eine Wirbeldichte besitzt, wobei die Wirbelachse die Achse des Schaufelrades ist. Damit man die komplette Wirbeldichte an einem Ort misst, müsste man also die Achse des Korkens in alle Richtungen halten. Allerdings kann man zeigen, dass es reicht, die Messung längs drei kartesischer Achsen vorzunehmen. Mit anderen Worten: die Wirbeldichte ist eine Pfeilgröße, sie hat einen Betrag und eine Richtung. Hält man die Korkenachse in Richtung der Wirbelachse, dann dreht er sich am schnellsten. Die Wirbeldichte ist wieder eine Eigenschaft des Strömungsfeldes j . Sie lässt sich durch Ableitungen von j darstellen und man nennt sie (ziemlich naheliegend) Rotation, kurz rot j (r). Auch die Rotation des Feldes j lässt sich über Ableitungen des Feldes ausdrücken.
9.3 Wellen Wenn Sie einen Stein ins Wasser werfen, so sehen Sie, dass die Störung, die der Stein verursacht, sich nach allen Seiten hin ausbreitet. Auf der Wasseroberfläche entstehen Wellen, und in diesem Zusammenhang lernen die allermeisten Menschen Wellen kennen. Mit den Augen der Physik fällt auf, dass so eine Welle Energie transportieren muss, denn sie kann Boote zum Schaukeln bringen, die entfernt von der Störung im Wasser liegen. Aber wie transportiert sie die Energie? Der Stein gibt seine
212
9 Gott würfelt nicht: Maxwells Welt
Bewegungsenergie zunächst an die Wasserteilchen ab, mit denen er in Berührung kommt. Nun sausen nicht etwa diese schnellen Wasserteilchen durch das Wasser, so wie Spritzer aus einer Pfütze. Es passiert etwas Erstaunliches, alle Wasserteilchen organisieren sich zu einem raum-zeitlichen Muster, eben der Welle. Dabei bleiben die Wasserteilchen immer in der Nähe ihrer Ruhelage. Das kann man an einer flachen Wasserwelle demonstrieren, d. h. eine Welle, bei der alle Steigungen auf dem Wellenprofil klein sind5 . Wenn man Wasserteilchen in dieser Welle einfärbt und ihre Bahn verfolgt, so sieht man, dass sie sich auf Ellipsen bewegen. Die Teilchen schwimmen also nicht mit der Welle mit, sondern bleiben in der Nähe ihrer Ruhepositionen und vollführen dort eine periodische Bewegung, eine Schwingung. Übrigens sieht man auch, dass diese Bewegung von Wasserteilchen nicht nur an der Oberfläche stattfindet, sondern sich auch in die Tiefe erstreckt, aber das nur nebenbei. Mit einer Welle kann man also Energie transportieren, ohne Materie zu transportieren. Die Materie bewegt sich hin und her, die Energie kommt beliebig weit. Um das Entstehen von Wasserwellen quantitativ zu verstehen, braucht man eine Menge Hydrodynamik, von der wir oben gesprochen haben6 . Zumindest qualitativ können wir jetzt aber einen Schluss ziehen. Offenbar vollführen die Wasserteilchen eine Schwingung, d. h. eine periodische Bewegung, die immer in der Nähe ihrer Ruhelagen bleibt. Diese Schwingungen sind aneinander gekoppelt und irgendwie muss daraus so eine geordnet aussehende Welle entstehen. Es wäre schön, wenn man dafür ein einfaches Modell hätte. Ein solches werden wir auch gleich einführen, aber zunächst wollen wir uns noch weiter mit der Beschreibung verschiedener Wellenphänomene beschäftigen. Ein Typ von Wellen in Materie ist für unsere Sinne sehr wichtig, aber wir können diese Wellen nicht sehen. Dafür können wir sie hören. Sie erreichen uns meist über die Luft. Wenn man ein Geräusch erzeugt, so ist das eine lokale Störung der Luftteilchen. Durch diese Störung werden Luftteilchen enger zusammengepresst als im Ruhezustand. Dann dehnt sich die gestörte Luft wieder aus und drückt dadurch benachbarte Luft zusammen. So breitet sich eine Welle in der Luft aus, wie in Abb. 9.6 (oben) gezeigt. Die Luftteilchen bewegen sich in diesem Fall während der Wellenausbreitung vor und zurück. Das ganze ist eine Schallwelle, die an unser Ohr dringen kann und dort in elektrische Signale umgewandelt wird, die im Gehirn dann den Eindruck eines Geräusches auslösen. Es muss nicht unbedingt Luft sein, die diese Schallwellen trägt. Flüssigkeiten wie Wasser und auch Festkörper eignen sich ebenso. Man muss eben nur die Materie zusammendrücken können. In einer mechanischen Welle wird an jedem Ort der Welle und zu jeder Zeit Materie aus ihrer Ruheposition ausgelenkt und schwingt um diese Ruhelage. Erfolgt die Auslenkung (die heißt bei Wellen auch Amplitude) parallel zu der Richtung, in der die Welle Energie transportiert (Ausbreitungsrichtung), spricht man von einer Longitudinalwelle. Schallwellen sind ein Beispiel. Ist die Auslenkung senkrecht zur Ausbreitungsrichtung, nennt man das eine Transversalwelle. So eine Welle entsteht 5
Sonst treten weitere Effekte auf. Wenn man dann noch Wellenphänomene verstehen will, die jenseits des Bereichs der flachen Wellen liegen (Brecher, Tsunamis) ist man in der heutigen, aktuellen Forschung angekommen. So weit brauchen wir hier aber nicht zu gehen.
6
9.3 Wellen
213
Abb. 9.6 Longitudinale und transversale Wellen. (Autor Debianux © CC BY-SA 3.0, via Wikimedia Commons)
zum Beispiel, wenn man ein Seil an einem Ende mit der Hand schwingen lässt. Beide Formen sind in der Abb. 9.6 dargestellt. Wellen müssen nicht unbedingt einem dieser beiden Typen angehören. Wasserwellen zum Beispiel sind eine Mischung aus longitudinal und transversal, denn die Teilchen bewegen sich auf Kreisen oder Ellipsen und daher sowohl „hin und her“ wie auch „rauf und runter“. Transversale Wellen haben eine Eigenschaft, die longitudinalen Wellen fehlt. Da die Auslenkung senkrecht auf der Ausbreitungsrichtung steht, kann sie in viele verschiedene Richtungen zeigen. Das nennt man die Polarisation der Welle. Ein Spalt in Richtung der Polarisation lässt die Welle ungehindert passieren, während ein Spalt senkrecht zur Polarisationsrichtung die Welle blockiert. Der Spalt bildet ein Polarisationsfilter. Man kann sich stets eine Welle als eine Menge lokaler Schwingungsbewegungen vorstellen, wobei jede lokale Schwingung mit ihren Nachbarn gekoppelt ist. Ein Modell, das eine gute Anschauung einer eindimensionalen Welle vermittelt, zeigt die Abb. 9.7, es ist eine Kette aus gekoppelten Pendeln. Ein eindrucksvolles Wellenphänomen mit vielen wichtigen Konsequenzen ist die Überlagerung von Wellen, in der Physik Interferenz genannt. Die Abb. 9.8 zeigt das
Abb. 9.7 Ein einfaches Modell für mechanische Wellen. Wenn man eine der Kugeln longitudinal oder (wie gezeigt) transversal auslenkt, so breitet sich eine Welle aus
214
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.8 Durch Überlagerung können sich Wellen verstärken (oben links), auslöschen (oben rechts) oder neue Wellenformen bilden (unten rechts) (von Jkrieger, gemeinfrei, via Wikimedia Commons)
Prinzip. Wenn zwei Wasserwellen (oder irgendwelche anderen Wellen) bei ihrer Ausbreitung in denselben Raumbereich kommen, so bilden sie dort eine neue Welle, bei der sich die Auslenkungen der beiden Wellen addieren7 . Beachten Sie, dass eine Auslenkung sowohl positiv sein kann (die Wasserwelle ist höher als die ebene Wasseroberfläche) als auch negativ (die Welle ist niedriger als die ebene Oberfläche). Daher können sich zwei Wellen nicht nur zu einer größeren Welle vereinigen, sie können sich auch gegenseitig auslöschen wie in Abb. 9.8. Wellen können enorm vielfältige Formen annehmen und es ist sehr schwierig (meist unmöglich) diese Wellen in einem Bild darzustellen. So eine Darstellung funktioniert nur für die allereinfachsten Wellenformen. Machen wir uns zunächst mal diese zeichnerische Schwierigkeit klar. Wenn man etwas in einem Bild darstellt, so kann man (mit Perspektive) gerade noch drei gezeichnete Dimensionen aufs Papier bringen. Nehmen wir nun mal eine simple Schallwelle. Es handelt sich um ein Muster der Dichte (in Luft oder irgendeiner anderen Materie) in 4 Dimensionen (3 Raumdimensionen +- Zeit). Also muss man 5 gezeichnete Dimensionen auftragen, nämlich 4 Raum-Zeitdimensionen und eine Dimension für die Auslenkung. Unmöglich! Als vollständige Welle kann man bestenfalls eine Welle in einer Raumdimension auf ein Stück Papier malen, denn dazu braucht man 3 gezeichnete Dimensionen. Dann hat man zwar die ganze Information auf einen Blick, aber so richtig glücklich wird man auch damit nicht, denn eigentlich möchte man die Welle als Video sehen, weil wir es gewohnt sind, raum-zeitliche Muster so aufzunehmen. Kompliziertere Wellenmuster kann man immer nur teilweise malen. Zum Beispiel kann man das Dichtemuster einer Schallwelle in 2 Raumdimensionen zu einer festen Zeit zeichnen. Oder die 7
Dass sie sich wirklich genau addieren stimmt für Wasserwellen nur, wenn sie flach sind. Erstaunlicherweise gilt es aber für wichtige, nicht-mechanische Wellen, nämlich Licht und die quantenmechanischen Materiewellen.
9.3 Wellen
215
Abb. 9.9 Darstellung von Wellen nur durch die Wellenkämme ist recht übersichtlich, um die Wellenform zu veranschaulichen. Links: eine Kreiswelle, rechts: eine ebene Welle
Zeitabhängigkeit der Auslenkung an einem festen Ort, die braucht nur 2 gezeichnete Dimensionen. Und um auch nur einen einzigen Schnappschuss (zu fester Zeit) für eine Welle in 3 Raumdimensionen zu zeichnen, muss man schon zu Tricks greifen, denn man braucht ja eigentlich 4 gezeichnete Dimensionen zur Darstellung. Die 4. Dimension Auslenkung kann man durch eine Farbe oder eine Graustufe ausdrücken wie in Abb. 9.6. Oder man zeichnet einfach nur die Wellenkämme, auch das gibt eine gute (Teil-) Information zum Verständnis der Wellenform, wie Sie in Abb. 9.9 sehen. An so einem vereinfachten Bild sieht man natürlich noch nicht die Details der Wellenform zwischen zwei Wellenkämmen. Zum Glück sind einfache Wellenformen auch die wichtigsten zum Verständnis der Wellenphänomene und für Anwendungen. Eine besonders simple Form ist die ebene Welle. Die Wellenkämme (in 3 Dimensionen) sind Ebenen. In 2 Dimensionen, also zum Beispiel bei einer Wasserwelle an der Oberfläche sind es Geraden wie in Abb. 9.9. Die Wellenkämme haben alle den gleichen Abstand zum nächsten Wellenkamm, diesen Abstand nennt man Wellenlänge. Nach einer Wellenlänge wiederholt sich das Wellenmuster, d. h. das Muster ist periodisch in einer Raumrichtung und diese Richtung ist auch die Ausbreitungsrichtung der Energie. Eine Wasserwelle mit so einem Muster lässt sich einfach in einer Wellenwanne erzeugen, das ist ein flaches, rechteckiges Gefäß, das oben offen ist und einen Glasboden besitzt. Es wir mit Wasser befüllt. Wenn man Licht von oben durch das Wasser und den Glasboden fallen lässt, bekommt man wunderbare Bilder der Wellenmuster. Eine ebene Welle erzeugt man in der Wellenwanne, indem man einen Stab, der die ganze Breite der Wanne abdeckt, ins Wasser tunkt. Nimmt man statt des Stabes eine Nadelspitze, so wir das Wasser nur an einer Stelle aus der Ruhelage gebracht und man erhält Kreiswellen, d. h. die Wellenkämme sind Kreise (siehe Abb. 9.9). In 3 Dimensionen gibt es durch lokale Anregungen (zum Beispiel eine sehr kleine Schallquelle) Kugelwellen, d. h. die Wellenkämme sind Kugelflächen. Einen größeren Zoo von Formen der Wellenkämme braucht man nur sehr selten. Die Richtung senkrecht zum Wellenkamm gibt die Ausbreitungsrichtung der Welle an, sie wird mit kˆ bezeichnet. Nun ist die nächste Frage, wie das Muster zwischen zwei Wellenkämmen aussieht. Auch hier kann man sich auf einen einzigen, sehr einfachen Typ beschränken, nämlich die harmonische Welle, bei der die Wellenform eine der Winkelfunktionen Sinus oder Cosinus ist (siehe Glossar).
216
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.10 Die Überlagerung von drei einfach harmonischen Wellen mit unterschiedlichen Amplituden lässt eine komplizierte Wellenform (unten rechts) entstehen
Aus dieser einfachen Form können beliebig komplizierte entstehen, wenn man sie überlagert (Das nennt man Fouriersynthese). Ein Beispiel zeigt die Abb. 9.10. Umgekehrt kann man auch jede beliebig komplizierte Wellenform als Summe einfach harmonischer Wellen darstellen (Das nennt man Fourieranalyse). Wellen müssen sich aber nicht unbedingt immer weiter ausbreiten. Man kann sie auch beobachten, wenn man eine Saite (oder ein Gummiband) an den zwei Enden fest einspannt und dann die Saite auslenkt. Da die Enden fest gehalten werden, ist die Auslenkung dort immer Null. Die Wellenformen, die auf diese Saite passen, können daher nicht beliebig sein. Es passen nur harmonische Wellen, bei denen eine Halbwelle (halbe Wellenlänge) an einer Seite beginnt und an der anderen endet (s. Abb. 9.11). Die möglichen Wellenlängen λ hängen daher von der Länge L der Saite ab. Es muss L = λ/2, λ, 3λ/2, · · · sein. Die längste Wellenlänge bezeichnet man auch als Grundschwingung und die anderen als Obertöne (diese Bezeichnungen stammen von Saiteninstrumenten der Musik, werden aber auch für alle anderen Wellen gebraucht). Stehende Wellen gibt es bei Wasserwellen, in der Akustik, aber auch in der Optik, wobei die Enden eines Hohlraums durch Spiegel verschlossen werden. Eine stehende Welle kann man quantitativ beschreiben, indem man von einem Schnappschuss zur Zeit t = 0 startet. Für eine einfache harmonische Welle ist dieser Schnappschuss dann zum Beispiel ein Sinus.
9.4 Elektro-Magnetische Felder
217
Abb. 9.11 Stehende Wellen in einem Kasten müssen hineinpassen, wenn die Enden festgehalten werden. (Autor Badseed on a raster by Brews ohare, © CC BY − S A3.0 via Wikimedia Commons)
sin(2π x/λ) Wenn die Koordinate x um eine Wellenlänge λ verschoben wird, dann ändert sich das Argument der Sinusfunktion um 2π und man ist wieder bei derselben Auslenkung angekommen (siehe Glossar). Beachten Sie, dass bei x = 0 der Sinus verschwindet, ebenso aber auch bei x = L, wenn man eine der erlaubten Wellenlängen einsetzt, zum Beispiel λ = 2L. Die Enden der hier beschriebene Welle sind also festgeklemmt, so dass die Auslenkung dort verschwindet. Die ganze Bewegung der Welle ist nun eine Schwingung der Amplituden, wobei bei einer stehenden Welle alle Amplituden den gleichen, einfach harmonischen Zeitverlauf haben. Das kann so aussehen: cos(2π t/T ) sin(2π x/λ). Hier ist T die Schwingungsdauer (man könnte statt dessen auch die Frequenz f = 1/T benutzen) und den Cosinus haben wir gewählt, weil der beim Argument Null (Anfangszeit) gerade 1 ist und so den Schnappschuss reproduziert.
9.4 Elektro-Magnetische Felder Außer der Trägheit und der Schwere besitzt Materie noch andere Eigenschaften, die allerdings nicht dauernd sichtbar sind. Die wichtigste für unseren Alltag ist die elektrische Ladung. Schon die alten Griechen (mal wieder, diesmal Thales von Milet (550 v. Chr.)) beschrieben, dass das Material Bernstein merkwürdige Kräfte auf andere Materialien ausübt, nachdem man es an einem Tierfell gerieben hat. Es kann dann zum Beispiel Haare, Federn und andere leichte Gegenstände anziehen. Diesen Effekt können Sie selbst häufig beim Kämmen erleben, wenn Ihnen die Haare zu Berge stehen. Dieser reibungselektrische Effekt funktioniert also auch mit einem Kamm aus Kunststoff, und tatsächlich mit vielen anderen Materialien. Bernstein heißt übrigens auf Altgriechisch Elektron, wovon sich der Name Elektrizität ableit-
218
9 Gott würfelt nicht: Maxwells Welt
et. Diese Kräfte wurden lange wenig beachtet. Die Reibungselektrizität gilt vielen auch heute noch als eine Spielerei. Erlauben Sie mir daher eine kleine Abschweifung in neueste Entwicklungen, um Ihnen zu zeigen, was sich damit anfangen lässt. Abschweifung: Strom aus dem Burger Wenn man sagt, dass durch Reiben eines Kammes an der Frisur „elektrische Ladung erzeugt“ wird, so muss das eigentlich heißen, es wird Ladung getrennt. Ladung tritt in zwei Versionen auf, genannt positive und negative Ladungen. Die negative Ladung in unseren Materialien wird ausschließlich von Elektronen getragen, die sind klein und leicht beweglich. Die positiven Ladungen sitzen im schweren Atomkern und sind bei festen Körpern ziemlich unbeweglich. Beim eifrigen Reiben wechseln einige Elektronen den Körper. Das Reiben ist nicht etwa nötig, um Energie zum Wechsel zur Verfügung zu stellen (wie man immer noch manchmal hört), sondern um die beiden Materialien in ganz engen Kontakt zu bringen. Wenn man geeignete Oberflächen hat, die sich eng aneinander schmiegen, dann reicht es, die beiden Materialien aneinander zu drücken und wieder zu trennen (das nennt man triboelektrischer Effekt). Jedes Material hat eine gewisse Neigung (Affinität) Elektronen aufzunehmen oder abzugeben (die man nur mit Hilfe der Festkörperphysik verstehen kann). Wenn man also zwei Materialien mit verschiedener triboelektrischer Polarität (d. h. das eine möchte gern Elektronen abgeben und das andere möchte Elektronen aufnehmen) zusammendrückt und dann wieder trennt, dann hat man mechanische Arbeit in elektrische Energie verwandelt. Man kann die beiden Materialien mit einem Draht verbinden, und durch den fließt zum Ladungsausgleich Strom. Auf kleiner Skala funktioniert das tatsächlich schon, diese Geräte heißen TENG (triboelektrische Nano-Generatoren). Ein bemerkenswertes Design wurde 2020 von einer chinesischen Arbeitsgruppe vorgestellt. Es enthält weder Plastik noch Metalle! Es ist eigentlich nur, – ein Sandwich. So steht es im Abstract der Arbeit: Die Grundbestandteile des TENG sind Weizenbrot und Gemüseblätter zur Herstellung eines TENG mit Sandwichstruktur (S-TENG). (...) Mehrere Anwendungsexperimente haben bestätigt, dass das STENG in der Lage ist, handelsübliche LEDs anzusteuern und eine Alarmanlage auszulösen. (Jingyi Jiao et al. Sandwich as a triboelectric nanogenerator, Nano Energy, Volume 79, January 2021, 105411)
Lachen Sie nicht: so etwas kann die ideale, nachhaltige Stromversorgung für die Elektronik der Zukunft werden. Wenn Sie sich jetzt fragen, woher die mechanische Energie kommen soll, um das Sandwich zusammenzudrücken, dann erinnern Sie sich an mechanische Automatik-Armbanduhren. Die sammeln Ihre Handbewegungen in einer Feder, um damit die Uhr anzutreiben. Derselbe Mechanismus funktioniert auch mit TENGs. Statt also mit ekligen Lithiumbatterien könnte Ihr Smartphone demnächst auch mit Butterbroten mit Salatblättern betrieben werden. Ende der Abschweifung Die Griechen (und auch die alten Chinesen) kannten noch eine andere besondere Eigenschaft von einem ganz speziellen Material, dem Magneteisenstein. Kleine
9.4 Elektro-Magnetische Felder
219
Nadeln dieses Materials, die man frei drehbar lagert, orientieren sich in Nord-Süd Richtung. Klar, dass diese Eigenschaft sofort Anwendungen in der Navigation auf See gefunden hat. Abgesehen von dieser Anwendung dümpelte aber die Erforschung elektrischer und magnetischer Phänomene lange vor sich hin, und nahm erst zu Beginn des 17. Jahrhundert Fahrt auf, von da an allerdings in ziemlichem Tempo. Es ging los mit dem Leibarzt von Königin Elisabeth I. von England, William Gilbert (1544–1603). Er untersuchte elektrische und magnetische Phänomene systematisch, und vertrat als Erster die Idee, dass die Erde ein großer Magnet ist, und die Kompassnadel zu den Polen dieses Magneten weist. Außerdem machte er elektrische Kräfte mit Hilfe einer metallischen Nadel sichtbar, ganz analog zur Kompassnadel. Er nannte das Versorium. Der königliche Obergärtner von Ludwig XIV. Charles du Fay entdeckte, dass es zwei Arten von Elektrizität (elektrischer Ladung) gibt, die sich gegenseitig neutralisieren, wenn sie zusammenkommen. Die Bezeichnungen „positive“ und „negative“ Elektrizität stammt von Benjamin Franklin (1706–1790), der aufgrund seiner Experimente den Erhaltungssatz der Gesamtladung vorschlug (unabhängig von ihm kam der gleiche Vorschlag von William Watson (1716–1787))8 . Er bemerkte auch, dass die Blitze eines Gewitters elektrische Entladungen sind, die daher rühren, dass in Gewitterwolken elektrische Ladung angereichert wird. Eine bedeutende praktische Anwendung dieser Erkenntnis war seine Erfindung des Blitzableiters, der auf der Beobachtung beruhte, dass Entladungen von Spitzen ausgingen und zu Spitzen hingezogen wurden. Elektrische Entladungen waren bekannt, seit man elektrische Ladungen speichern und sammeln konnte, das war etwa seit 1745 möglich. Die Anordnung war als Leidener oder Kleistsche Flasche bekannt und entspricht dem, was wir heute Kondensator nennen. 1780 konstruierte Alessandro Volta (1745–1827) die erste Batterie, die für etliche Jahre einzige Stromquelle. Einen ersten Höhepunkt der Wissenschaft der Elektrizität stellte die Entdeckung eines universellen Kraftgesetzes zwischen elektrischen Ladungen dar. Charles Coulomb (1736–1806) gelang die Messung der Abstandsabhängigkeit und Richtung der Kraft zwischen zwei Ladungen, und das Ergebnis wurde zu einem Triumph des mechanistischen Programms: es stellte sich heraus, dass die elektrische Kraft dieselbe Abhängigkeit vom Abstand der (geladenen) Körper hat wie das Newtonsche Gesetz der Schwerkraft. Für zwei geladene, kleine Teilchen mit den Ladungen Q 1 und Q 2 können wir es ganz analog zum Newtonschen Gravitationsgesetz hinschreiben als Q1 Q2 rˆ 1→2 = Q 1 E. F 1→2 = C R2 Die Coulomb-Konstante C entspricht der Gravitationskonstanten und die Massen werden durch die Ladungen ersetzt. Wie in dem Abschn. 7.2 für die Schwerkraft kann man auch dieses Gesetz wieder lesen als die Kraft auf eine Ladung Q 1 , hervorgerufen durch eine elektrische Feldstärke E. Wenn man eine Ladung Q gegen ein elektrisches Feldes verschiebt, dann leistet man – wie bei jeder Verschiebung gegen eine Kraft – Arbeit. Die Lageenergie W der verschobenen Ladung ist proportional zu Q. Daher 8
Franklin und Watson nahmen nur eine Ladungsart an, die sich durch Bewegung in bestimmten Regionen anreichern konnte. Wegen der Ladungserhaltung fehlte sie dann in anderen Regionen.
220
9 Gott würfelt nicht: Maxwells Welt
schreibt man sie in der Form W = QV , die Größe V bezeichnet man als elektrische Spannung. Die Einheit dieser Größe ist das Volt, mit der physikalischen Dimension Energie pro Ladung. Coulombs Entdeckung gab der Idee von wenigen, universellen Kräften erst mal gewaltig Auftrieb. Allerdings gibt es einen wichtigen Unterschied zwischen der Schwerkraft und der Coulomb-Kraft: Massen sind immer positiv, aber Ladungen können beide Vorzeichen haben. Nur Ladungen mit verschiedenen Vorzeichen ziehen sich an, solche mit gleichen Vorzeichen stoßen sich ab. Abstoßung gibt es bei der Schwerkraft nicht. Bis zu diesem Zeitpunkt waren elektrische und magnetische Phänomene zwei völlig verschiedene Dinge. So wenig, wie die Schwere die elektrischen Kräfte beeinflusst, so wenig schienen sich elektrische und magnetische Kräfte zu beeinflussen. Andererseits wurde aber viel mit der Wirkung von Elektrizität und Magnetismus auf Lebendiges experimentiert. Den magnetischen Kräften wurden geheimnisvolle, medizinische Eigenschaften zugeschrieben, insbesondere propagiert vom Arzt Anton Mesmer (1734–1815), der – ganz im Sinne der idealistischen Naturphilosophie – einen alles Lebendige durchdringenden animalischen Magnetismus postulierte und magnetische Kuren durchführte. Diese magische Therapie wird auch in Mozarts Oper Cosi fan tutte (uraufgeführt 1790) angewandt, um einen Doppelselbstmord mit Gift zu kurieren. Die Magnettherapie ist aber auch ein weiteres, schönes Beispiel für den Unterschied zwischen einer Pseudo-Wissenschaft und einer Naturwissenschaft. Die Methode, Depressionen durch gezielten Einsatz magnetischer Felder im Gehirn zu therapieren, ist nämlich unter dem Namen rTMS (repetitive transkranielle Magnetstimulation) aktueller Gegenstand sehr erfolgreicher medizinischer Forschung. Die Wirkung von Elektrizität auf Muskeln entdeckte der italienische Arzt Luigi Galvani (1737–1798) in berühmt gewordenen Experimenten mit Froschschenkeln. Zunächst fiel ihm auf, dass tote Frösche, die er zufällig in der Nähe einer „Elektrisiermaschine“ (die Reibungselektrizität erzeugte) sezierte, zu zucken begannen, wenn er sie mit der Klinge berührte. Aufgrund dieser Entdeckung stellte er weitere Beobachtungen an und fand, dass Froschschenkel auch ohne Elektrisiermaschine zuckten, wenn er sie mit zwei verschiedenen Metallen berührte. Daraus zog er den falschen Schluss, dass es eine animalische Elektrizität gab. Alessandro Volta erkannte, dass die Elektrizität durch die Berührung der zwei Metalle in einem feuchten Medium zustande kam und die Froschschenkel nur auf diese Elektrizität reagierten. Er lies die Froschschenkel weg und konstruierte die erste Batterie, die sogenannte Voltasche Säule, die über lange Zeit die einzige Stromquelle für Experimente bleiben sollte. Die große Wende in der Bedeutung der unsichtbaren Fluide (heute Felder genannt) in Elektrizität und Magnetismus kam mit einer Entdeckung des dänischen Physikers Hans Christian Ørstedt (1777–1851). Er war ein begeisterter Vertreter der idealistischen Naturphilosophie, insbesondere der Idee von der Umwandelbarkeit aller Kräfte. Zumindest eine solche Umwandlung schien ihm offensichtlich: Wenn man einen starken Strom durch einen dünnen metallischen Draht schickt, so wird der Draht warm. Die „elektrische Kraft“ wurde also zum Teil in „Wärmekraft“ umgewandelt (Ørstedt sprach von einem „elektrischen Konflikt“, dem Kampf der Ladungen im Leiter, der zur Umwandlung führt). Vielleicht wird dabei auch ein wenig
9.4 Elektro-Magnetische Felder
221
in magnetische Kraft umgewandelt? Ohne die idealistische Philosophie im Hintergrund hätte man das wohl nicht ausprobiert. Ørstedt brachte eine Magnetnadel in die Nähe eines stromdurchflossenen Leiters. Die Nadel zitterte ein bisschen. Aber er brauchte eine ganze Reihe systematischer Experimente, bis er die merkwürdige Geometrie des entstandenen Magnetfelds so ungefähr begriff und zuverlässig reproduzieren konnte. Dann schrieb er die Veröffentlichung Versuche über die Wirkung des electrischen Conflicts auf die Magnetnadel, (in: Annalen der Physik und der physikalischen Chemie. 6. Bd. S. 295–304. Leipzig 1820)9 . Die Arbeit beginnt so: Die ersten Versuche über den Gegenstand, den ich aufzuklären unternehme, sind in den Vorlesungen angestellt worden, welche ich in dem verflossenen Winter über Electricität, Galvanismus und Magnetismus gehalten habe.
Diese Versuche zeigten das erwähnte Zittern der Magnetnadel, aber daraus wurde er nicht schlau, denn er glaubte, die magnetische Kraft müsse genauso wie die Wärme in alle Richtungen gleich abgegeben werden. Die Magnetnadel bestätigte das nicht. Der Zusammenhang zwischen Strömen und Kräften, die auf Magnetnadeln ausgeübt werden, ist nämlich wirklich eklig komplex, wie wir noch sehen werden. Am Ende seiner Bemühungen hatte er aber zweifelsfrei gezeigt, dass ein elektrischer Strom magnetische Kräfte erzeugen kann. Kurz darauf setzte ein im Experimentieren wie in der Theorie äußerst begabter Physiker die Arbeiten fort: André-Marie Ampère (1775–1836). Er verbesserte Ørstedts Versuchsanordnung und konnte zeigen, dass sich die Magnetnadel immer senkrecht zum stromdurchflossenen Leiter stellt. Er betrachtete außerdem zwei stromdurchflossene Drähte, die beide magnetische Kräfte aufeinander ausüben sollten, und stellte in den Jahren 1820–1822 sehr präzise und ziemlich komplizierte Gesetze für die Newtonschen (!) Fernwirkungskräfte zwischen den beiden Drähten auf. Schließlich stellte er die Hypothese auf, dass alle magnetischen Kräfte durch elektrische Ströme hervorgerufen werden. Er stellte sich vor, dass im Inneren eines Stücks magnetischer Materie kleine Ströme im Kreis fließen. Da es nun klar war, dass elektrischer Strom Magnetismus erzeugen konnte, so stellte sich auch die Frage nach der Umkehrung: War es möglich, Magnetismus in elektrischen Strom zu verwandeln? Der Engländer Michael Faraday (1791–1867) vermerkte das bereits 1822 in seinen Labornotizen. Faraday war in vieler Hinsicht eine sehr bemerkenswerte Persönlichkeit. Er wurde als Sohn eines Schmieds und einer Bauerntochter geboren und schloss 1812 eine Lehre als Buchbinder ab. Seine Ausgangsposition für eine wissenschaftliche Karriere war damit ausgesprochen mies. Er konnte keine Universitätsstudien vorweisen, schon gar nicht an einer Eliteuni wie Cambridge oder Oxford. Er verzichtete darauf, Buchbindermeister zu werden und bewarb sich als Laborgehilfe des berühmten Chemikers Humphrey Davy (1778–1829), bei dem er sich äußerst geschickt anstellte, und mit dem er 1813–1815 kreuz und quer durch Europa reiste. Auf dieser Reise ging es um wissenschaftlichen Austausch und neue wissenschaftliche Experimente, die Faraday zusammen mit Davy durchführte10 . Die einzige Referenz, die Faraday 9
Ørstedt schrieb zunächst auf Latein. 1820 erschienen aber auch schon Übersetzungen in verschiedene Sprachen, diese hier ist die deutsche Version der Originalarbeit. 10 u. a. die Entdeckung eines neuen chemischen Elements namens Jod.
222
9 Gott würfelt nicht: Maxwells Welt
für seinen Job vorzuweisen hatte, waren ausgearbeitete Aufzeichnungen von Davys Vorlesungen, die Faraday besucht hatte. Sein naturwissenschaftliches Wissen erwarb er im Selbststudium und durch öffentliche Vorträge. In der Folgezeit aber entwickelte er sich zu einem der bedeutendsten Naturwissenschaftler des 19. Jahrhunderts. Er machte weitreichende Entdeckungen auf vielen Gebieten: Er analysierte neue Verbindungen in der organischen Chemie und deren Eigenschaften wie z. B. die Narkosewirkung von „Äther“, er entdeckte das Benzol, er fand die Grundgesetze der Elektrolyse, auf denen Batterien und die Erzeugung von Wasserstoff aus Wasser beruhen, er fand, dass Phasenübergänge zwischen festen, flüssigen und gasförmigen Phasen ein universelles Phänomen sind, das bei allen Substanzen auftritt, er entdeckte Wirkungen von magnetischen Feldern auf Licht, das sich in Materie ausbreitet. Diese Liste ließe sich noch lang fortsetzen. Faraday war ein ganz anderer Typ von Naturwissenschaftler als Newton. Er konzentrierte sich auf das Experiment. Er war mit Sicherheit einer der besten Experimentalphysiker, die je gelebt haben. Allerdings hatte er eine ausgesprochene Abneigung gegen die damals vorherrschende mathematische Theorie der Newtonschen Mechanik der Fluide. Er hatte sich auch in seinem Selbststudium nie ernsthaft damit beschäftigen wollen. Er machte lieber Beobachtungen, systematisierte sie, und bildete sich immer neue Arbeitshypothesen, die ihn zu weiteren Experimenten führen sollten. Sein ganzes Naturverständnis war auf Experimente aufgebaut, aber es war durchaus präzise und führte ihn zu einer Mathematisierung der Gesetze in seinen eigenen Begriffen. Die waren gerade bei seinen elektromagnetischen Experimenten oftmals geometrisch, ausgedrückt durch Figuren. Dieser Zugang traf den Kern des Problems. Bevor ich weiter auf seine Entdeckungen und Einsichten in elektrische und magnetische Phänomene zu sprechen komme, will ich unbedingt noch erwähnen, dass Faraday auch ein Vorbild eines kommunikativen Wissenschaftlers war. Heutzutage ist die Tätigkeit, fachfremden Leuten Forschungsergebnisse zu erzählen unter dem neudeutschen Begriff „public outreach“ (Öffentlichkeitsarbeit) sehr populär. Es gibt „Samstagsunis“, „Kinderunis“, „Universitäten des dritten Lebensalters“, „Science blogs“, „Science slams“, und natürlich auch Sachbücher wie dieses hier. Faraday war aber im 19. Jahrhundert schon weiter. Seine öffentlichen Vorträge waren Meisterleistungen der Vermittlung von Wissenschaft. Sobald es Faraday zum Labordirektor an der Royal Institution of Great Britain11 geschafft hatte (ab 1825), hielt er regelmäßige, einstündige Vorlesungen für Laien am Freitagabend über neueste Ergebnisse aus den Naturwissenschaften und der Technik, die er in einfachen Worten erklären konnte. Er sorgte außerdem dafür, dass diese Vorträge in Zeitschriften veröffentlicht und damit weiter verbreitet wurden. Ab 1825 hielt er für ein junges Publikum Weihnachtsvorlesungen ab (jede Vorlesungsreihe etwa 6 h lang), die so exzellent waren, dass Mitschriften zu erfolgreichen populärwissenschaftlichen Büchern wurden, die
11
Diese Institution wurde 1799 innerhalb der Royal Society gegründet, und besteht bis heute. Sie war und ist eine einzigartige Verbindung aus hochklassiger wissenschaftlicher Forschung (14 Nobelpreisträger waren Mitglieder) und der Verbreitung wissenschaftlicher Erkenntnisse an ein diverses Publikum.
9.4 Elektro-Magnetische Felder
223
auch heute noch verlegt werden12 . Er begründete damit eine bis in die heutige Zeit fortdauernde Tradition der Royal Institution. Faraday hatte eben nie vergessen, dass er ohne solche Vorträge für Laien wohl selbst nie den Weg in die Wissenschaft gefunden hätte. Zurück zu Faradays Forschungen über den Elektromagnetismus. Noch im September 1821 konstruierte er eine sehr sinnvolle Anwendung der Entdeckungen von Ørstedt und Ampère. Er nutzte die magnetischen Kräfte von einem stromdurchflossenen Draht, den er zu einer Schleife gebogen hatte und zwischen Polen eines Magneten drehbar befestigte, um die Drahtschleife in Rotation zu versetzen. Das Prinzip des Elektromotors war erfunden. Seine Versuche, aus Magnetismus elektrischen Strom zu erzeugen, schlugen jedoch zunächst fehl. Andere Forschungsarbeiten nahmen ihn in Anspruch, und erst 1831 wandte er sich wieder dem Elektromagnetismus zu. Diesmal konstruierte er einen Versuchsaufbau, der den Durchbruch brachte13 . Er fand schließlich heraus, dass in einer Drahtschleife ein Strom floss, wenn man einen Magneten durch diese Drahtschleife bewegte. Es war die Bewegung, d. h. die zeitliche Änderung des Magnetfelds, die zum Strom führte, und nicht, wie er bisher angenommen hatte, das Magnetfeld selbst. Das von Faraday entdeckte Phänomen nennt man Induktion. Mit Induktion kann man mechanische Arbeit in elektrischen Strom umwandeln. Man muss im Prinzip einfach mit einer Kurbel eine Drahtschleife in einem Magnetfeld bewegen, denn es ist egal (wie Faraday auch zeigte), ob man den Magneten bewegt oder den Draht. Das technische Gerät heißt Generator. Nach diesem Prinzip wird noch heute der meiste Strom erzeugt, der aus Ihrer Steckdose kommt. Zwischenbemerkung: Faraday war ohne Zweifel ein Meister der Erforschung grundlegender Naturgesetze, aber er hatte auch ein gutes Gespür für die Anwendbarkeit naturwissenschaftlicher Forschung. In der Politik war und ist diese Fähigkeit nicht sehr verbreitet. Um das zu illustrieren, wird gern ein von Faraday überlieferter Ausspruch verwendet, den er nach Aussage eines Freundes gegenüber dem damaligen Schatzkanzler William Edward Gladstone (1809–1898)14 getan haben soll. Und so wird es in dem Buch Democracy and Liberty überliefert, dass der englische Historiker und Publizist W.E.H. Lecky 1899 veröffentlichte: Es gab in der Tat weite Bereiche des Wissens, mit denen er (Gladstone) nichts anfangen konnte. Das gesamte große Feld der modernen wissenschaftlichen Entdeckungen schien außerhalb seiner Reichweite zu liegen. Ein enger Freund von Faraday beschrieb einmal, wie Gladstone, als Faraday versuchte, diesem und einigen anderen eine wichtige neue Entdeckung in der Wissenschaft zu erklären, als einzigen Kommentar von Gladstone hörte : „Aber was nützt das denn?“ „Nun, Sir“, antwortete Faraday, „es ist sehr wahrscheinlich, dass Sie bald in der Lage sein werden, es zu besteuern!“ 12 Zum Beispiel: The chemical history of a candle, Projekt Gutenberg oder auch Die verschiedenen Kräfte der Materie und ihre Beziehungen zueinander.: Sechs Vorlesungen für die Jugend, von Michael Faraday; Gerik Chirlek (Herausgeber), H. Schröder (Übersetzer). 13 Der erste Versuchsaufbau, der ihm etwas von dem gewünschten Effekt zeigte ist heute unter dem Namen Transformator bekannt. 14 Gladstone war viermal Premierminister, aber von 1852 bis 1855 war er Schatzkanzler (Chancellor of the Exchequer), das entspricht in etwa dem Finanz- und Wirtschaftsminister.
224
9 Gott würfelt nicht: Maxwells Welt
Urteilen Sie nicht vorschnell und zu hart über Personen der Politik, die Entscheidungen zu treffen haben. Stellen Sie sich vor, jemand zeigte Ihnen, wie sich eine kleine Drahtschleife mühsam ein paar mal im Kreis dreht, und erzählte Ihnen dazu etwas Kompliziertes. Würden Sie das technologische Potential erkennen? Nach vielen Experimenten zu elektrischen und magnetischen Erscheinungen, die auch die Wirkung von Magnetfeldern auf Licht einschlossen, erlaubte sich Faraday in der Arbeit Über den physikalischen Charakter der magnetischen Kraftlinien15 auch einmal eine theoretische, naturphilosophische Spekulation. Er glaubte, dass es außerhalb der gewöhnlichen Materie elektrische und magnetische „Kraftlinien“ gibt, die eben nicht nur ein Rechenhilfsmittel sind, sondern die in der äußeren Wirklichkeit existieren. Kraftlinien als reine Rechengrößen gab es schon. Dieses Erklärungsmuster führte in der Folge zu einem völlig neuen Weltbild. Faradays „Kraftlinien“ kann man sich vorstellen wie Strömungslinien in einer Flüssigkeit. Allerdings ist das Pfeilfeld, das damit dargestellt wird, keine Strömungsgeschwindigkeit, jedenfalls keine in gewöhnlicher Materie. Die Idee eines elektrischen Fluids innerhalb der Materie gab es bereits, aber Faraday meinte eben, dass auch im Raum, den wir als leer empfinden, elektrische und magnetische Fluide existieren, die diese „Kraftlinien“ tragen. Er dachte durchaus noch materialistisch, d. h. er glaubte an ein ganz besonderes, elektromagnetisches Material, das den ganzen Raum zwischen Körpern ausfüllt, und das die Kräfte vermittelt. Das Revolutionäre seiner Ideen bestand darin, dass er die Idee einer Newtonschen Fernwirkung aufgab (an der Coulomb und Ampère noch nicht zweifelten) und durch ein Nahwirkungsprinzip ersetzte. Die Wirkungen zur Übertragung von elektrischen und magnetischen Kräften sollten lokal, d. h. in kleinen Schritten in Raum und Zeit erfolgen, analog zur Übertragung von Kräften im Wasser. Stört man ruhiges Wasser an einer Stelle (z. B. durch das Anwerfen des Antriebs einer Schiffsschraube), so wird die Störung nach einer Weile Auswirkungen an entfernten Orten im Wasser haben (sichtbar zum Beispiel im Schaukeln von Booten). Die Übertragung der Wirkung erfolgt dabei so, dass man ihre Ausbreitung als kleine Schritte in Raum und Zeit (zum Beispiel an Wasserwellen) verfolgen kann. Faraday hatte sehr präzise, geometrische Gesetze über das Verhalten der Kraftlinien aus tausenden von Einzelexperimenten gewonnen, aber seine Vorstellungen fanden kaum Resonanz, denn er formulierte sie nicht in Form der damals (und auch heute noch) von der Majorität der Physike am liebsten benutzten Mathematik der Differentialgleichungen (der analytischen Methode, wie man seit Newton sagte). Das große Problem stellte damals das Verständnis der magnetischen Kraftwirkungen dar, denn die waren verwirrend komplex und ganz anders als die einfache Zentralkraft des Newtonschen und des Coulombschen Gesetzes. Da war zunächst mal die Sache mit der magnetischen Ladung. Wenn man einen einfachen Stabmagneten betrachtet, so hat der einen Nord- und einen Südpol, genau wie jede Magnetnadel im Kompass. Man könnte also denken, dass es zwei Arten von magnetischer Ladung gibt (Nord und Süd), analog zu den zwei Arten der elektrischen Ladung (positiv und 15
On the physical character of the lines of magnetic force. In: The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science. 4. Serie, Bd. 3, Taylor & Francis, London 1852, S. 401–428.
9.4 Elektro-Magnetische Felder
225
negativ). Teilt man den Magneten in der Mitte zwischen dem Nord- und dem Südende durch, so erhält man zwei Magneten, die beide wieder einen Nord- und einen Südpol haben. Setzt man diese Teilungen fort, so findet man immer das Gleiche: Magnete mit Nord- und Südpol. Um ein analoges elektrisches System zu bauen, müsste man eine Kette von Ladungen bauen, auf der sich gleich große positive und negative Ladungen abwechseln. Jedes (+–)-Glied dieser Kette bezeichnet man als (elektrischen) Dipol. Ein Magnet müsste also aus magnetischen Dipolen aufgebaut sein und diese Dipole müssen unteilbar sein. Das ist tatsächlich so! Die magnetischen Eigenschaften von magnetischen Materialien stecken in den Atomen und den Elementarteilchen, aus denen sie zusammengesetzt sind. Davon ahnten Physiker wie Ampère allerdings noch nichts. Ihre neue Entdeckung war, dass elektrische Ströme magnetische Kraftwirkungen haben können, und daher schlug Ampère vor, alle magnetischen Kräften ließen sich auf elektrische Ströme zurückführen, d. h. in magnetischen Materialien würden Ströme fließen. Die Hypothese war zwar kühn, aber nach moderner Auffassung über Atome gar nicht so falsch. Trotzdem bleibt die Frage, ob es nicht vielleicht doch magnetische Ladungen gibt, bis auf den heutigen Tag unbeantwortet. Man sucht nach wie vor nach ihnen und Theorien der Elementarteilchen schließen ihre Existenz auch nicht aus. Sie werden in diesem Kontext „magnetische Monopole“ genannt. Nun zu Faradays „magnetische Kraftlinien“ und ihrem Zusammenhang mit Newtonschen Kräften. Die Linien lassen sich ganz einfach sichtbar machen, selbst mit Hausmitteln. Nehmen Sie einen Stabmagneten, decken ihn mit einem Bogen Papier ab und streuen Sie Eisenfeilspäne auf das Papier. Jetzt vorsichtig rütteln und Sie erhalten die Abb. 9.12. Jeder Eisenfeilspan ist eine kleine Magnetnadel, und sie sehen, dass sich ein Haufen Magnetnadeln sehr hübsch zu Linienmustern anordnet. Dort, wo sich die Linien häufen, ist auch die Kraftwirkung auf andere Magnete besonders stark. Diese „Kraftlinien“ deuten wir als die Feldlinien eines magnetischen Feldes16 , das wir mit B(r) bezeichnen. Die Stärke dieses Feldes, also die Länge des B-Pfeils, definieren wir operativ über die Kraftwirkung. Wenn man die Stärke des Stroms, der ein Magnetfeld erzeugt, verdoppelt, so verdoppelt sich auch die Kraftwirkung auf einen anderen Magneten, d. h. die Magnetfeldstärke kann über die Stromstärke quantifiziert werden. Kann das B-Feld eine Kraft auf eine elektrische Ladung ausüben? Beim elektrischen Feld war das ganz einfach, die Kraftlinien liefen entlang den Feldlinien. Ich erspare Ihnen jetzt die mühsame Arbeit, das Gesetz der magnetischen Kraftwirkung auf ein geladenes Teilchen aus Experimenten herauszulesen, und zeige Ihnen eine moderne Fassung des Gesetzes, wie sie von dem niederländischen Physiker Hendrik Antoon Lorentz (1853–1928) formuliert wurde. Die folgenden fünf Eigenschaften der Kraft ergaben sich aus Experimenten: • Sie ist proportional zur Ladung des Teilchens • Sie ist proportional zum Tempo, mit dem sich das Teilchen bewegt 16
Achtung: Das, was ich hier als magnetisches Feld bezeichne, heißt in vielen, insbesondere älteren, technischen oder experimentell orientierten Texten noch magnetische Flussdichte oder auch magnetische Induktion. Die Feinheiten der Bezeichnungen sind noch Relikte aus der Zeit, als auch der materiefreie Raum mit irgendeiner Substanz gefüllt sein musste.
226
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.12 Die Faradayschen Kraftlinien eines Magneten werden mit Eisenfeilspänen sichtbar
• Sie steht senkrecht auf dem Geschwindigkeitspfeil • Sie steht senkrecht auf den magnetischen Feldlinien • Sie ist proportional zur Stärke des Magnetfeldes am Ort des Teilchens All diese Eigenschaften fasst man kurz so zusammen F = qv × B(r). Alle Proportionalitäten können Sie leicht ablesen, und das Symbol × kürzt die komplizierten Richtungsbeziehungen ab: v × B(r) steht senkrecht auf v und B und zwar so, wie die Rechte-Hand Regel (siehe Abb. 9.13) es sagt. Nun hat man mit dem Coulomb Gesetz und dem Lorentzschen Kraftgesetz zwar die Newtonschen Kraftwirkungen durch Felder dargestellt, aber es bleibt die Frage, wie die elektrischen und magnetischen Felder untereinander, mit Ladungen und mit Strömen zusammenhängen. Faraday konnte diese Frage sehr genau beantworten, nur eben mithilfe von Grafiken und nicht mit der analytischen Methode.
Abb. 9.13 Die Rechte Hand Regel für das Kreuzprodukt legt die Richtung des Ergebnisses fest (von Ladyt, gemeinfrei, via Wikimedia Commons)
9.5 Maxwell Gleichungen
227
9.5 Maxwell Gleichungen Das schaffte schließlich der schottische17 Physiker James Clerk Maxwell (1831– 1879). Er starb mit nur 48 Jahren an Magenkrebs, aber in der kurzen Zeit, die ihm blieb, schaffte er es, die für das nächste Jahrhundert einflussreichsten Theorien der Physik zu formulieren, und das gleich auf mehreren Gebieten, wie wir noch sehen werden. Er nahm die Ideen von Faraday auf, und er verfügte über ein enormes mathematisches Talent. Die Staffettenübergabe in der Forschung von Faraday zu Maxwell klappte wirklich mit exaktem Timing. 1855, als Maxwell seine Arbeiten zu diesem Thema aufnahm, war Faraday 64 Jahre alt und beendete den 3. und letzten Band seiner Experimente zur Elektrodynamik. Faradays Kraftlinienbild faszinierte Maxwell und er begann, dieses Bild in hydrodynamische Analogien umzusetzen. Es spricht für die Präzision des Faradayschen Begriffssystems, dass Maxwell es 1864 schaffte, daraus Differentialgleichungen aufzustellen, mit dem er alle bekannten elektrischen und magnetischen Phänomene erklären konnte, ohne ein einziges, weiteres Experiment durchführen zu müssen. Er konnte sogar allein durch Überlegung zeigen, dass in dem Ampèreschen Gesetz über die von Strömen erzeugten Magnetfelder noch ein Term fehlte, den man als Verschiebungsstrom bezeichnet. Nach Ampère sollten alle Magnetfelder nur durch Ströme erzeugt werden, aber Maxwell zeigte, dass das die Ladungserhaltung verletzen würde. Es fehlte ein Mechanismus, der ein Magnetfeld aus einem zeitlich veränderlichen elektrischen Feld erzeugt. Dieser Term sollte sich als sehr wichtig erweisen. Aus Maxwells Gleichungen ergaben sich geradezu revolutionäre neue Voraussagen, die später alle experimentell bestätigt wurde. Ich stelle Ihnen die Maxwell Gleichungen zunächst nur in Worten vor, und erst dann in mathematisch präziser Schreibweise. Dabei benutze ich genau dieselben Begriffe wie wir sie in Abschn. 9.1 für strömendes Wasser kennengelernt haben. Denn so fasste Maxwell sie auch auf: als Gleichungen für ein unsichtbares Fluid. Ich zeige Ihnen aber nicht Maxwells historische Fassung der Gleichungen. Die sähen unnötig kompliziert aus. Erstens kannte Maxwell die wundervoll vereinfachende Pfeilschreibweise noch nicht (die verdanken wir dem Mathematiker, Physiker und Sprachwissenschaftler (!) Hermann Grassmann (1809–1877) und dem US-amerikanischen Physiker, Chemiker und Mathematiker Josiah Willard Gibbs (1839–1903), dem wir noch in anderem Zusammenhang begegnen werden). Der englische Physiker Oliver Heaviside (1850–1925) schrieb 1884 die Maxwell Gleichungen erstmals in der übersichtlichen Pfeilnotation, die aber danach immer noch zwanzig bis dreißig Jahre brauchte, um sich durchzusetzen. Zweitens musste Maxwell die Wechselwirkung der elektrischen und magnetischen Felder mit Materie beschreiben, also auch die Rückwirkung der Felder auf die Materie. Über den Aufbau der Materie wusste man zu dieser Zeit noch nicht sehr viel. Das machte es knifflig, aber Maxwell löste diese Aufgabe genial. Es gelang ihm, das Unwissen sehr geschickt in wenigen Materialparametern zu verstecken. Diese Parameter konnte man aus Experimenten bestimmen. Inzwischen kann man sie mit 17
Nach dem Brexit und vor eventuellen Referenden sollte man Wert darauf legen, dass er Schotte war und nicht Engländer.
228
9 Gott würfelt nicht: Maxwells Welt
Hilfe der Quantenmechanik und der statistischen Physik auch berechnen. Grundlage dafür ist die Einsicht, dass Materie (aus Sicht der Elektrodynamik) nur aus Ladungen und leerem Raum aufgebaut ist. Daher braucht man auch nur die Felder im Vakuum, elektrische Ladungen und Ströme. Die Materialparameter sind entbehrlich18 Der deutsche Physiker Heinrich Hertz (1857–1894) war der erste, der klar erkannte, dass man besser zwischen den Gleichungen für die Felder im Vakuum und den Materialeigenschaften trennen sollte. Seine Version der Maxwell Gleichungen kann man in natürlicher Sprache ungefähr so ausdrücken: • Gaußsches Gesetz: Die Quellen des elektrischen Feldes sind elektrische Ladungen • Es gibt keine Quellen des Magnetfelds • Ampères Gesetz mit Faradays Ergänzung: Elektrische Ströme und zeitlich veränderliche elektrische Felder erzeugen magnetische Wirbelfelder • Faradays Induktionsgesetz: Zeitlich veränderliche Magnetfelder erzeugen elektrische Wirbelfelder In diese Aussagen geht die Materie nur an zwei Stellen ein, nämlich in Form der elektrischen Ladungen und der elektrischen Ströme. Die muss man als bekannt voraussetzen. So wie Newtons Gesetze die Bewegung der trägen und schweren Materie in drei Gesetzen zusammenfassen konnte, so fassen die vier Maxwell-Gleichungen die Bewegungen der elektrischen und magnetischen Felder zusammen. Alle technischen Geräte, die mit Elektrizität und Magnetismus zu tun haben, beruhen auf dem Verständnis dieser Gleichungen: Ihr Smartphone ebenso wie Ihr Küchenherd, Ihr Staubsauger oder Ihr neues E-Auto. Nun können wir die schon recht genauen sprachlichen Aussagen mithilfe der mathematischen Bezeichnungen für Quell- und Wirbeldichte noch präzisieren. Mit unseren Vorkenntnissen über die Wasserströmungen aus dem vorigen Abschnitt gelingt das ganz gut. Hier sind die 4 Gleichungen in mathematischer Kurzform: div E = ρ Q divB = 0 1˙ rot E = − B c 1 ˙ E + jQ rot B = c Versuchen wir, sie sprachlich etwas zu ergänzen: • Gaußsches Gesetz: Die elektrische Ladungsdichte ρ Q ist die Quelldichte des elektrischen Feldes (div E = ρ Q ). Der Fluss des Feldes durch eine geschlossene Oberfläche eines Volumens ist also die Ladung im Inneren. • Das magnetische Feld hat keine Quellen div B = 0. Der Fluss durch die Oberfläche jedes Volumens verschwindet. 18
Aber auch heute noch enorm praktisch, daher ist auch die ältere Version noch im täglichen wissenschaftlichen Gebrauch.
9.5 Maxwell Gleichungen
229
• Faradays Induktionsgesetz: Die zeitliche Änderung des Magnetfeldes ist die ˙ = −rot E. Hier taucht eine NaturkonWirbeldichte des elektrischen Feldes B/c stante auf, der wir den Namen c gegeben haben. Die Dimensionsanalyse ergibt, dass diese Konstante eine Geschwindigkeit sein muss. Das unscheinbare MinusVorzeichen sorgt dafür, dass elektromagnetische Induktion nicht die Energieerhaltung verletzt. Das kann man so verstehen: Wenn das Magnetfeld durch einen Strom in einem Leiter erzeugt wird, so muss man diesen Strom antreiben (mit einer Spannungsquelle). Das (zeitlich veränderliche) B-Feld erzeugt nun ein elektrisches Feld. Wenn dieses Feld den Antrieb des elektrischen Stroms vergrößern würde, so würde das B-Feld größer, dann würde das E-Feld größer u.s.w. Als Ergebnis könnte man aus einem beliebig winzigen Strom am Anfang beliebig große elektrische Energie gewinnen. Das verletzt klar die Energieerhaltung. Also muss man das Vorzeichen so wählen, dass das nicht passiert. • Ampères Gesetz: Die Wirbeldichte des Magnetfeldes hat zwei Anteile: (A) die elektrische Stromdichte, (B) die zeitliche Änderung des elektrischen Feldes ˙ + j Q . Den Anteil (B) nennt man in diesem Zusammenhang auch rot B = E/c Verschiebungsstromdichte. Dieser Teil wird gleich sehr wichtig. Maxwells Gleichungen bilden ein System aus DGln in Raum und Zeit. Darin stecken alle (!!!) elektrischen und magnetischen Phänomene auf denen wir unsere moderne Zivilisation aufgebaut haben. Keine LED, kein Computer, kein Smartphone, keine Photovoltaik, kein E-Auto ohne diesen Schritt des vertieften Verständnisses elektromagnetischer Phänomene. Über die Lösung dieser Gleichungen lernt man im Verlaufe eines Studiums der Physik oder Elektrotechnik eine ganze Menge. Hier wollen wir uns auf Lösungen dieser Gleichungen konzentrieren, die unser Bild von der äußeren Welt radikal verändert haben. Man findet nämlich, dass auch bei Abwesenheit von Materie (also ohne Ladungsdichten und Stromdichten) Lösungen dieser Gleichungen existieren, für die die magnetischen und elektrischen Felder nicht verschwinden. Zumindest qualitativ können wir den Mechanismus, der zu diesen Lösungen führt verstehen. Wenn wir ein zeitabhängiges Magnetfeld in der Nähe eines Ortes haben, so erzeugt es über Faradays Induktionsgesetz ein (ebenfalls zeitabhängiges) elektrisches Feld. So ein Feld erzeugt nun aufgrund der Maxwellschen Ergänzung im Ampèreschen Gesetz (Verschiebungsstromdichte) ein (ebenfalls zeitabhängiges) Magnetfeld. Da aber r ot aus Ableitungen im Raum besteht, erzeugt es dieses Feld nicht genau am selben Ort, sondern in der Nähe des Ausgangsortes. Jetzt bewirkt dieses Magnetfeld wieder ein elektrisches Feld und so weiter. Mit jedem Schritt entfernen sich die erzeugten Felder ein wenig weiter vom Ausgangsort, mit anderen Worten: wir erhalten eine Ausbreitung von Feldern im Vakuum. Maxwell konnte aus seinen Gleichungen ausrechnen, dass diese Ausbreitung Energie transportiert, und zwar mit der Geschwindigkeit c. Er fand einen Wert für c aus elektrischen und magnetischen Laborexperimenten, der im Rahmen der damaligen Messgenauigkeit mit dem Wert der Lichtgeschwindigkeit übereinstimmte. Also, so spekulierte er, könnte es sein, dass Licht eine elektromagnetische Welle ist. Wenn das so wäre, dann gab die Maxwell Theorie einen einfachen Zusammenhang zwischen der Wellenlänge λ, der Frequenz f und der Geschwindigkeit c
230
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.14 So sieht sie aus, die Lösung von Maxwells Gleichungen im materiefreien Raum. (Von user And1mu © CC BY-SA 4.0, via wikimedia commons))
einer ebenen, harmonischen Welle, nämlich λ · f = c. Die Form dieser Wellen, wie sie sich als Lösungen der Maxwell Gleichungen ergeben, zeigt die Abb. 9.14. Wie Sie sehen, stehen das elektrische und das magnetische Feld überall senkrecht aufeinander und außerdem beide senkrecht auf der Ausbreitungsrichtung.
9.6 Was ist Licht? Aber existiert diese Ausbreitung überhaupt? Es könnte ja immer noch sein, dass es sich um ein mathematisches Kunstprodukt handelt, das gar keine Entsprechung in der äußeren Welt hat. Aus den Maxwellgleichungen ergibt sich, dass elektrische Ladungen elektromagnetische Wellen aussenden, wenn sie sich beschleunigt bewegen. Eine periodisch mit einer festen Frequenz auf und ab schwingende oder mit konstantem Tempo im Kreis laufende Ladung schickt einfach harmonische Wellen los, und so werden sie noch heute produziert: in den Antennen eines Senders schwingen elektrische Ladungen periodisch hin und her. Dem deutschen Physiker Heinrich Hertz (1857–1894) gelang 1886 zum ersten Mal die Erzeugung, Übertragung und der Empfang einer solchen elektromagnetischen Welle. Damit war die Existenz gesichert. Auch die Werte der gemessenen und berechneten Lichtgeschwindigkeit wurden immer genauer und stimmten hervorragend mit Maxwells Vorhersagen überein. Die elektromagnetische Lichttheorie erklärte alle möglichen Experimente präzise. Die Akzeptanz der Theorie wurde er-
9.6 Was ist Licht?
231
heblich vereinfacht durch die Tatsache, dass Licht schon seit langem für ein Wellenphänomen gehalten wurde. Seit wann? Werfen wir einen Blick zurück, und beginnen mal wieder beim Physikgenie Newton. Newton hielt Licht für kleine Teilchen und er versuchte, optische Phänomene auf die Bewegung dieser Teilchen zurückzuführen. Bei einigen optischen Phänomenen gelingt das auch völlig zwanglos. Weil die Teilchen von der Lichtquelle herausgeschleudert werden und dann kräftefrei fliegen, breitet sich Licht nach Newtons eigenen Gesetzen geradlinig in Form von Lichtstrahlen aus. Lichtstrahlen sind zwar ein sehr altes Konzept, aber es ist gar nicht so einfach, einen Lichtstrahl mal zu sehen, denn Lichtquellen wie eine Kerze oder eine Glühbirne senden Licht nach allen Seiten aus. Die Lichtstrahlen laufen dann alle auseinander. Wenn man weit entfernt von der Lichtquelle eine schmale Öffnung (Blende) aufstellt, so sieht man hinter der Blende ein Lichtbündel, das nur wenig auseinanderläuft. In der Natur kann man solche Lichtbündel selten beobachten, zum Beispiel bei bestimmten Wolkenbildungen und auch mal bei Auf- oder Untergang der Sonne zwischen den Blättern im Wald. Erst mit der Entwicklung und Verbreitung des Lasers ist die Lichtstrahlvorstellung wieder Allgemeingut geworden. Alle Phänomene, die man mithilfe von Lichtstrahlen verstehen kann, nennt man heute geometrische Optik. Dazu gehören insbesondere die Reflexion an einem Spiegel und die Brechung, d. h. die Veränderung der Richtung eines Lichtstrahls bei Eintritt in ein Material (siehe Abb. 5.1). Wenn Lichtteilchen eines Strahls in ein Material eintreten, so erfahren sie Kräfte, die die Ablenkung bewirken. Auch scharfe Schatten von Gegenständen versteht man mühelos. Aber die Teilchenhypothese kann nicht die ganze Wahrheit sein, das wussten clevere Leute schon im 17. Jahrhundert. Der italienische Priester und Physiker Francesco Maria Grimaldi (1618–1663) beobachtete, dass das Licht nach dem Durchgang durch einen sehr schmalen Spalt nicht einfach ein scharfes Strahlenbündel ist, das durch den Spalt herausgeschnitten wird, sondern auch im Schattenbereich des geometrischen Bildes des Spaltes noch Licht zu finden ist. Dieses Phänomen nennt man Beugung oder Diffraktion. Wie kommt das Licht dahin? Grimaldi erklärte es als einer der ersten durch die Annahme, dass Licht eine Welle sei. Das Phänomen ist nämlich bei Wasserwellen sehr einfach zu beobachten. Auch andere Phänomene versteht man mit den Lichtteilchen nur schwer. Newton selbst hatte sich die Farben an dünnen Schichten sehr genau angeschaut, wie man sie an Seifenblasen und Ölfilmen beobachten kann. Für eine Erklärung musste er den Lichtteilchen schon merkwürdige Zusatzeigenschaften geben, die eigentlich eher zu Wellen als zu Teilchen passten. Solche Phänomene lassen sich viel zwangloser durch die Wellentheorie des Lichts erklären, und die hatte ebenfalls zahlreiche namhafte Anhänger, – nicht zuletzt Christian Huygens (1629–1695) und auch Robert Hooke, der sich deshalb mit Newton über dessen Buch Opticks zerstritten hatte. Die Wellentheorie verstand Licht als ein Phänomen, das analog zu Wasserwellen oder Schallwellen ist. Huygens erweiterte die Wellentheorie mithilfe eines genialen Prinzips zu einem leistungsfähigen Hilfsmittel zur Erklärung optischer Phänomene. Sein Prinzip lautet in etwa so: Wenn man einen Punkt einer Wellenfront betrachtet, so schwingen dort die Auslenkungen. Diese Schwingung könnte man sich aber auch als von außen aufgeprägte Störung
232
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.15 Das Huygensche Prinzip bei der Arbeit. Durch Überlagerung der Elementarwellen entstehen Wellen auch im Schattenbereich. (Von Arne Nordmann (norro, CC BY-SA 3.0, via Wikimedia Commons))
vorstellen. Denken Sie zum Beispiel an eine periodisch eingetauchte Nadelspitze in Wasser, die das Wasser an einem Punkt in Schwingung versetzt. Mit anderen Worten: Jeder Punkt einer Wellenfront wirkt wie eine Störung, die wieder eine Welle verursacht (die man auch als Elementarwelle bezeichnet). Das ist Huygens Prinzip, in der erweiterten Version von Augustin Jean Fresnel (1788–1827). Jeder Punkt einer Wasserwelle an der Oberfläche ist daher Ausgangspunkt einer Kreiswelle. Ebenso ist jeder Punkt einer Lichtwelle im Raum Ausgangspunkt einer Kugelwelle. Aber warum sieht man dann nicht lauter Kreis- b.z.w. Kugelwellen? Die Antwort heißt: wegen der Interferenz. Man muss all die Wellenmuster der Elementarwellen überlagern. Schauen Sie auf die Abb. 9.15. Dort sind die Kreiswellen eingezeichnet, die von einigen Punkten einer ebenen Welle starten. Ihre Überlagerung ergibt ungefähr wieder eine ebene Welle. Wenn man nun der Welle Hindernisse in den Weg legt (zum Beispiel Wände mit Spalten), so kann man mit dem Huygenschen Prinzip die entstehenden Beugungsmuster voraussagen. Ein berühmtes Beispiel, das viel zur Akzeptanz der Vorstellung von Lichtwellen beigetragen hat, ist das Doppelspaltexperiment mit Licht. Es wurde vom englischen Physiker, Augenarzt und Schriftgelehrtem Thomas Young (Professor für Naturphilosophie) an der Royal Institution (1773–1829) durchgeführt und ist in Abb. 9.16 dargestellt. Dieses Experiment blieb ohne Wellenhypothese unverständlich, mit Wellenhypothese aber war es quantitativ zu verstehen. Daher war der abduktive Schluss zur Wellennatur des Lichts unausweichlich. Aber was für ein Typ von Welle war das Licht nun? War Licht longitudinal wie eine Schallwelle, oder transversal, oder weder das eine noch das andere? Diese Frage konnten Fresnel und François Arago (1786–1853) durch weitere Experimente klären. Licht ist eine transversale Welle, denn man kann sie durch Polarisationsfilter blockieren (siehe Abschn. 9.3).
9.6 Was ist Licht?
233
Abb. 9.16 Das Youngsche Doppelspaltexperiment. Zwei benachbarte Spalte werden mit einer ebenen Lichtwelle bestrahlt. Das Huygensche Prinzip sagt voraus, dass es Richtungen gibt, in denen man viel Licht findet (Pfeilrichtungen, Maximum) und Richtungen, in denen die Überlagerung zu einer Abschwächung (Minimum) führt. Dieses Beugungsmuster lässt sich auf einem Schirm hinter den Spalten einfach beobachten
Die Wellennatur des Lichts war also allgemein akzeptiert, als Maxwell aus seiner Theorie Wellen des elektromagnetischen Feldes ableiten konnte, die alle Eigenschaften der Lichtwellen hatten. Damit war klar: Licht ist nichts anderes als eine elektromagnetische Welle. Aber ist auch jede elektromagnetische Welle Licht? Die einfach harmonischen Lösungen der Maxwellgleichungen sind, wie wir wissen durch eine Frequenz oder (äquivalent) durch eine Wellenlänge gekennzeichnet. Wenn man nun die Frequenz (bzw. die Wellenlänge) der Maxwellschen Wellen verändert, so findet man für einen gewissen Frequenzbereich das, was wir mit unseren Augen als Licht sehen. Aber das ist nur ein kleiner Ausschnitt aus dem Spektrum elektromagnetischer Wellen. Die Abb. 9.17 zeigt eine Übersicht über die vielen Größenordnungen an Frequenzen, denen wir im Alltag begegnen. Wie Sie sehen, ist nur der kleinste Teil davon Licht. Allerdings erreicht uns von der Sonne gerade dieser Frequenzbereich mit der größten eingestrahlten Leistung. Die Evolution hat dann dafür gesorgt, dass wir Sinnesorgane für diesen Frequenzbereich haben.
234
9 Gott würfelt nicht: Maxwells Welt
Abb. 9.17 Das Spektrum elektromagnetischer Wellen und ihre Bedeutung für unseren Alltag
Damit wäre eigentlich die physikalischen Natur des Lichts geklärt, – dachte man. Bis zu den Arbeiten von Max Planck und von Albert Einstein, die aus der Analyse von einigen wenigen Effekten eine Hypothese aufstellten, die das schöne Bild von den Wellen wieder ins Wanken brachte. Mehr dazu im Kap. 11.
9.7 Goethe gegen Newton Aber was sind Farben? Die seit Aristoteles vorherrschende Meinung war, dass Licht an sich weiß (möglicherweise sogar farblos) ist und erst durch Wechselwirkung mit Materie Farbe erhält, und dass diese Farben Mischungen von Weiß und Schwarz (oder Dunkelheit) sind. Newton zeigte 1672 durch eine Serie von Experimenten, dass dieses Vorurteil falsch ist. Das weiße Licht enthält bereits alle Bestandteile, die Farben ausmachen. Es kann in diese farbigen Teile zerlegt werden und durch Zusammenfügen dieser Komponenten entsteht auch wieder weißes Licht. Das Instrument, mit dem er experimentierte, war ein Prisma aus Glas (Abb. 9.18).
Abb. 9.18 Mit so einem Prisma zerlegte Newton weißes Licht. Das auseinanderlaufende Lichtbündel nach rechts unten enthält alle Regenbogenfarben. (Von Dispersive Prism Illustration by Spigget.jpg: Spiggetderivative work: Cepheiden, © CC BY-SA 3.0, via Wikimedia Commons)
9.7 Goethe gegen Newton
235
Das funktioniert durch Brechung. Wichtig ist, dass der Brechungswinkel beim Übergang von Luft in Glas abhängig von der Frequenz der elektromagnetischen Welle ist (das nennt man Dispersion). Newton wusste nichts von elektromagnetischen Wellen, er war auf die Beobachtung der Phänomene angewiesen. Wenn man zwei parallele Flächen als Grenzen hat (Fensterscheibe), dann merkt man von der Dispersion nichts, denn die beiden Brechungswinkel heben sich genau auf (s. Abb. 5.1). Wenn man aber die beiden Flächen gegeneinander neigt, so kann man ein austretendes Lichtbündel erhalten, in dem die verschiedene Farben auseinanderlaufen. Den Grundaufbau seiner Experimente beschreibt Newton so: Nachdem ich mein Zimmer verdunkelt und ein Loch in meinen Fensterladen gemacht hatte, um eine Menge Sonnenlicht einzulassen, brachte ich hinter der Öffnung mein Prisma an, damit jenes an die gegenüberliegende Wand gebrochen wurde. Es war anfangs recht vergnüglich, die lebhaften und kräftigen Farben anzuschauen. Aber als ich sie dann genauer betrachtete, war ich überrascht, dass sie eine längliche Form hatten, während ich nach entsprechenden Gesetzen der Brechung erwartete, dass sie rund wären.
Als erstes Ergebnis hatte Newton aus weißem Licht alle Regenbogenfarben gewonnen. Bevor wir jetzt mit Newtons Experimenten weitermachen, möchte ich Ihnen den Naturwissenschaftler vorstellen, der Newtons Erklärungen zur Natur der Farben ablehnte und versuchte, sie durch eine eigene Farbtheorie zu ersetzen. Sein Name ist Ihnen sicher bekannt, es ist Johann Wolfgang Goethe. Aber ist das nicht ein weltberühmter Dichter? Goethe fühlte sich immer als Naturwissenschaftler, und besonders bei der Farbenlehre glaubte er sich seiner Zeit voraus. Bis zu seinem Tod arbeitete Goethe ungefähr 40 Jahre lang an der Farbenlehre, sein umfangreiches Buch Zur Farbenlehre erschien 1810, und selbst seine letzte Veröffentlichung im Alter von 83 Jahren beschäftigte sich noch mit den Farben des Regenbogens. Sein enger Vertrauter Johann Peter Eckermann zitiert ihn in den Gespräche(n) mit Goethe in den letzten Jahren seines Lebens so: Auf alles, was ich als Poet geleistet habe, bilde ich mir gar nichts ein... Dass ich aber in der schwierigen Wissenschaft der Farbenlehre der einzige bin, der das Rechte weiß, darauf tue ich mir etwas zugute, und ich habe ein Bewusstsein der Superiorität.
Goethe war ein aufmerksamer Beobachter von Naturphänomenen und wollte auch die Newtonschen Experimente nachvollziehen. Allerdings hatte er wenig Zeit für solche Sachen, sein Terminkalender war voll. Als er die vom Hofrat Büttner ausgeliehenen, aber noch nicht benutzten Prismen wieder zurückgeben sollte, warf er noch schnell einen Blick hindurch. Den beschrieb er in dem 1. Teil seiner Farbenlehre. Eben befand ich mich in einem völlig geweißten Zimmer; ich erwartete, als ich das Prisma vor die Augen nahm, eingedenk der Newtonischen Theorie, die ganze weiße Wand nach verschiedenen Stufen gefärbt, das von da ins Auge zurückkehrende Licht in so viel farbige Lichter zersplittert zu sehen. Aber wie verwundert war ich, als die durchs Prisma angeschaute weiße Wand nach wie vor weiß blieb, dass nur da, wo ein Dunkles dran stieß, sich eine mehr oder weniger entschiedene Farbe zeigte, dass zuletzt die Fensterstäbe am allerlebhaftesten farbig erschienen, indessen am lichtgrauen Himmel draußen keine Spur von Färbung zu sehen war. Es bedurfte keiner langen Überlegung, so erkannte ich, dass eine Grenze notwendig sei,
236
9 Gott würfelt nicht: Maxwells Welt
um Farben hervorzubringen, und ich sprach wie durch einen Instinkt sogleich vor mich laut aus, dass die Newtonische Lehre falsch sei
Nun begann er, ausführlich zu experimentieren. Kehren wir zurück zu Newton. Bevor wir erklären, warum die Goethesche Beobachtung völlig mit der Newtonschen Auffassung von Farben erklärbar ist, müssen wir zwei weitere wichtige Experimente von Newton betrachten, die er mit dem ausfallenden Licht anstellte. Als Erstes blendete er alle Farben bis auf eine aus und lies dieses Licht wieder durch ein Prisma fallen. Jetzt gab es keine weitere Aufspaltung der Farbe, die Farbe passierte das Prisma unverändert. Also war sie elementarer als das weiße Licht. Als letzten dieser Versuche stellte er eine Sammellinse in den bunten Ausgangsstrahl, der das gesamte Licht auf einen kleinen Fleck an der Wand des dunklen Zimmers konzentrierte. Dieser Fleck war weiß! Man konnte also durch Vereinigung aller Farben, die das Prisma erzeugt hatte, wieder weißes Licht zurückgewinnen. Also – schloss Newton – besteht das Licht aus verschiedenen Farben, die zusammen wieder weiß ergeben. Jetzt können wir auch verstehen, warum es wichtig ist, ein schmales Lichtbündel durch das Prisma zu schicken und nicht das Licht einer großen weißen Fläche. Von der weißen Wand fällt das Licht aus allen Richtungen auf die Grenzfläche des Prismas. An der Austrittsfläche finden sich daher zu jeder Farbe jeder Richtung auch alle anderen Farben in der gleichen Richtung, und die vereinen sich wieder zu weißem Licht. Es läge nun nahe, dass Newton sich das Licht als Mischung von verschiedenfarbigen Teilchen vorstellte, dass er also Farbe als eine Eigenschaft der äußeren Wirklichkeit auffasste. Aber so naiv war er nicht. Im Gegenteil, es war ihm bewusst, dass die verschiedenen Lichtsorten nicht selbst farbig sind, sondern in uns nur das Empfinden einer Farbe erregen. In seinem Buch sagt er Denn die Strahlen sind, um es richtig auszudrücken, nicht farbig. In ihnen gibt es nichts anderes als eine bestimmte Kraft und Neigung, eine Empfindung dieser oder jener Farbe hervorzurufen.
Er unterscheidet also deutlich und klar zwischen der physikalischen Farbe (wie wir jetzt wissen, der Frequenz des Lichts) und der Farbwahrnehmung. Goethe hatte völlig andere Ansichten zum Vereinigen von Farben und auch die sind nicht verkehrt. Versuchen Sie mal, durch Mischen von verschieden Wasseroder Ölfarben die Farbe Weiß zu erhalten. Geht nicht! Auch wenn Sie alle Regenbogenfarben mischen, erhalten Sie bestenfalls irgendein schmutziges Grau. Diese Art der Mischung erschien Goethe natürlich. Man nennt sie subtraktive Farbmischung während Newtons Methode additive Farbmischung genannt wird. Woher kommen diese Namen und worin besteht der Unterschied zwischen diesen beiden Farbmischungen? Schauen Sie sich dazu die Abb. 9.19 an. Ein Material (z. B. das Pigment der Ölfarbe) erhält seine Farbe nicht dadurch, dass es Licht aussendet. Im Gegenteil, es schluckt (absorbiert) einen Teil des Lichts, und zwar manche Frequenzen mehr, manche weniger. Damit verändert es das einfallende Sonnenspektrum. Es subtrahiert also einen Teil des Spektrums. Wenn man zwei Pigmente vermischt,
9.7 Goethe gegen Newton
237
Abb. 9.19 Linkes Bild: Das entspricht Goethes Vorstellung von Farbmischungen. Jedes Farbpigment nimmt einen Teil aus dem Spektrum (durchgezogene Linie) heraus (subtraktive Farbmischung, gestrichelte Linien). Rechtes Bild: So sah das Newton: Verschiedene Teile des Spektrums werden zusammengefügt (additive Farbmischung)
dann werden die Anteile von beiden Materialien subtrahiert (daher subtraktive Mischung). Bei Licht, das aus dem Prisma austritt, sind die verschiedenen Frequenzen getrennt und entsprechen verschiedenen Farben. Man kann nun von diesem Licht verschiedene Anteile ausblenden, und erhält einfarbiges Licht mit einem Spektrum. Wenn man zwei Farben aussondert und dann (per Sammellinse) wieder zusammenführt, so addieren sich die Spektren (daher additive Farbmischung). Die Farbe, die wir wahrnehmen, steckt also in der Verteilung von Lichtfrequenzen (oder Wellenlängen) (die Spektralverteilung), die unser Auge erreicht. Aber welche Farbe ist das? Dazu müssen wir die Farbwahrnehmung in unseren Augen etwas genauer verstehen. Das Licht aus der Außenwelt fällt durch eine Linse auf die Netzhaut, und dort befinden sich 2 ganz verschiedene System von lichtempfindlichen Zellen (Rezeptoren). Fällt Licht auf solche Zellen, dann geben sie ein elektrisches Signal über den Sehnerv an das Gehirn weiter. Im ersten System gibt es nur einen Zelltyp (genannt Stäbchen). Diese Zellen sind zwar sehr lichtempfindlich, geben aber nur ein Signal über die Lichtmenge weiter, nicht über die Spektralverteilung. Mit Stäbchen kann man also nur schwarzweiß sehen, dafür aber noch in der Dämmerung (Nachts sind alle Katzen grau). Im zweiten System gibt es drei verschiedene Rezeptoren (Zapfen), die unterschiedlich auf verschiedene Lichtfrequenzen ansprechen. Die Empfindlichkeit ist in Abb. 9.20 dargestellt. Sie sind also besonders empfindlich für blaues, rotes oder grünes Licht. Wenn Sie nun das Spektrum des einfallenden Lichts über diese Empfindlichkeitskurven legen, dann können Sie das Nervensignal ablesen, das ein bestimmtes Spektrum hervorruft. Dieses Signal ist die physikalische Antwort auf die Eingangsfrage: Was ist Farbe. Und Sie erkennen auch sofort: Es gibt unendlich viele Farben. Übrigens: Lassen Sie sich nicht bluffen von der Aussage, dass man alle Farben aus rot, grün und blau zusammenmischen kann. Solche Farbcodierungen (zum Beispiel auf Ihrem Computer) sind nichts anderes als der Versuch, in dem „Farbraum“ mit unendlich vielen Farben eine Art von Koordinaten einzuführen.
238
9 Gott würfelt nicht: Maxwells Welt 420
498
534 564
100
50
S
R
M
L
0 400 lila
600
500 blau
cyan
gelb
700 rot
Abb. 9.20 Empfindlichkeit der verschiedenen Typen von Sehzellen von links nach rechts: Zapfen blau, Stäbchen, Zapfen grün, Zapfen rot. (Cone-response.svg: w:User:DrBob and w:User:Zeimusuderivative work: Sgbeer, © CC BY-SA 3.0 via Wikimedia Commons)
Kapitel 10
Gott würfelt nicht: Einsteins Welt
10.1 Der Äther Die Physik war bis zum Beginn des 20. Jahrhunderts davon überzeugt, dass das elektromagnetische Feld von einer Substanz getragen wird, genau wie Wasserwellen vom Wasser. Das war im materialistischen Weltbild unverzichtbar. Ohne Wasser keine Wasserwellen, ohne Äther keine elektromagnetischen Wellen und damit auch kein Licht. Da die Maxwellsche Theorie nur eine Lichtgeschwindigkeit vorhersagte, hielt man es für selbstverständlich, dass diese Gleichungen auch nur in einem Bezugssystem gelten konnten. Das Naheliegendste war, dass dieses System im Äther ruht. Der Begriff „Äther“ (übersetzt: blauer Himmel) stammt übrigens1 von den alten Griechen. In der Aristotelischen Physik ist das Universum mit einem weiteren, 5. Element2 angefüllt, der Quintessenz, auch Äther genannt. Er sorgte nach Ansicht des Aristoteles dafür, dass die Himmelskörper sich auf ordentlichen Kreisbahnen bewegen. Der Äther tauchte gleich zu Beginn der wissenschaftlichen Revolutionen des 17. Jahrhunderts wieder auf. Für Descartes war räumliche Ausdehnung und Materie ein und dasselbe, d. h. das ganze Universum muss ein großer Klumpen Materie sein. Damals wurde heiß darüber diskutiert, ob so etwas wie ein leerer Raum möglich sei, denn man hatte gerade gelernt, die Luft aus einem Raum herauszupumpen. Was drinblieb war nach Auffassung der gelehrten Welt eben der Äther. Dass Licht eine Wellenanregung des Äthers ist, war die Kernhypothese von Huygens Wellentheorie. Er war der Erste, der eine Funktion des Äthers nennen konnte, die auch bei uns auf der Erde experimentell untersucht werden kann. Mit der elektromagnetischen Theorie bekam der Äther neue Aufgaben zugewiesen, er sollte das elektrische und magnetische Feld tragen. Maxwell bastelte eifrig an Eigenschaften dieser merkwürdigen Substanz, die elektromagnetische Felder und damit auch das Licht beinhalten konnte. Zwei wichtige Probleme drängte sich dabei auf: erstens, wenn der Äther den ganzen Raum erfüllt, wie bewegt sich dann die Materie durch den Äther 1 2
schon wieder mal, seufz. neben den irdischen Elementen Feuer, Wasser, Luft und Erde.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_10
239
240
10 Gott würfelt nicht: Einsteins Welt
und zweitens, in welchem Bezugssystem relativ zum Äther gelten eigentlich die Maxwell-Gleichungen? Da in ihnen keine Relativgeschwindigkeit vorkommt, war die allgemeine Ansicht, dass sie in dem Inertialsystem gelten, das relativ zum Äther ruht. Einige – unter dem Einfluss von Descartes – dachten, dass Materie selbst nur eine Art Anregungszustand des Äthers ist. Es wurde eine Weile lang über Wirbel im Äther spekuliert, aber das führte nicht weiter, schließlich hatte schon Newton in seiner Principia alle frühen Wirbelvorstellungen widerlegt. Es blieben letztlich zwei Möglichkeiten: entweder die Materie spürt keinerlei Reibung mit dem Äther oder die Reibung ist so stark, dass ein Stück Materie wie zum Beispiel unsere Erde den Äther mitführt. Das bekannte physikalische Phänomen der optischen Aberration schien die erste Möglichkeit zu favorisieren. Das Phänomen tritt bei astronomischen Beobachtungen auf. Um es zu verstehen, ist eine Analogie mit Alltagsphänomenen sehr nützlich. Wenn es an einem windstillen Tag regnet, so fallen die Regentropfen senkrecht vom Himmel. Aus der Wolke könnten sie noch schräg fallen, aber die horizontale Komponente der Geschwindigkeit wird schnell durch Reibungskraft zwischen Tropfen und Luft verschwinden. Wenn Sie sich nun durch den Regen bewegen, so klatschen Ihnen die Tropfen ins Gesicht, d. h. in Ihrem bewegten Bezugssystem fallen sie mit einem Neigungswinkel vom Himmel, dem Aberrationswinkel. Ersetzen Sie mal die Regentropfen durch Lichtteilchen von einem Stern, der genau senkrecht über Ihnen steht, wenn Sie sich nicht bewegen. Dann fällt das Licht senkrecht ein, sie beobachten den Stern im Zenit. Wenn sich aber die Erde relativ zum Stern bewegt, so sehen Sie die „Lichtteilchen“ ebenfalls mit einem (sehr kleinen) Neigungswinkel, ganz analog zu den Regentropfen. Wenn Sie die Achse dieses Neigungswinkels ins Himmelszelt verlängern, so scheint es, als sei der Ort des Sterns gar nicht genau im Zenit. 3 . Zurück zu den Regentropfen. Stellen Sie sich jetzt vor, Sie sitzen in einem fahrenden Auto, aber aus irgendeinem Grund bewegt sich eine dicke Luftschicht mit dem fahrenden Auto mit. Die Regentropfen erreichen die Oberkante dieser Schicht (vom fahrenden Auto aus gesehen) schräg. Aber dann wird die horizontale Geschwindigkeitskomponente relativ zum Auto wieder durch Reibung gebremst. Als Resultat sehen Sie nun die Regentropfen im bewegten Auto senkrecht herabfallen, die Aberration ist verschwunden. Dasselbe sollte mit Lichtteilchen passieren, wenn der Äther mit der Erde mitgeführt wird. Das ist aber im Widerspruch zu den Beobachtungen. Natürlich setzt diese Überlegung voraus, dass Licht sich im Raum wie ein Teilchenstrahl ausbreitet. Aber Licht ist doch eine elektromagnetische Welle. Was wird nun aus den Wellenfronten, die die Lichtstrahlen ja erst definieren. Eigentlich sollten sie doch durch die Bewegung der Erde nicht verändert werden. Es begann eine jahrzehntelange und sehr verwickelte Diskussion mit immer neuen Experimenten, die versuchten, die Relativbewegung zwischen Erde und Äther zu messen. Die Ergebnisse waren sämtlich negativ, und das gesamte Äther-Bild blieb inkonsistent. Der letzte große Versuch, die Dinge wieder in Ordnung zu bringen, war die Äthertheorie 3
Dieser Effekt wird sich im Laufe eines Jahres etwas ändern und dann periodisch wiederholen. Mit anderen Worten: der beobachtete Ort des Sterns am Himmelszelt beschreibt im Laufe eines Jahres eine geschlossene Bahn (im Allgemeinen ist das eine Ellipse). So wird der Effekt auch beobachtet, die beobachtete Winkeländerung übers Jahr beträgt 41 Winkelsekunden.
10.2 Albert Einstein und seine „großen Kritiker“
241
von Hendrik Antoon Lorentz und Henri Poincaré. Lorentz bemerkte, dass man den Äther eigentlich nur zu einem Zweck brauchte: Er musste das Bezugssystem sein, in dem die Maxwellschen Gleichungen gelten. Der Äther war unbeweglich und wurde auch nicht von irgend einem Körper mitgeführt. Damit war er sozusagen die Substantiation des Newtonschen absoluten Raums. Wenn man sich relativ zum Äther bewegte, so mussten eigentlich Abweichungen von den Voraussagen der Maxwell Theorie auftreten. Betrachten Sie z. B. eine im Äther ruhende Ladung. Sie erzeugt nur ein elektrisches Feld. Wenn man sich aber relativ zum Äther bewegt, dann ist die Bewegung der Ladung in diesem System ein elektrischer Strom, und der muss auch ein Magnetfeld erzeugen. Aber warum geht dann in die Maxwellgleichungen nicht die Relativbewegung zwischen Erde und Äther ein? Lorentz versuchte seit 1892 ein konsistentes Äther-Modell zu konstruieren. Um die Relativbewegung unsichtbar zu machen, führte er 1894 eine kühne Hypothese ein: Wenn sich ein Körper durch den Äther bewegte, so mussten sich seine Ausdehnungen und das Ticken von mitgeführten Uhren so verändern, dass es unmöglich war, seine Bewegung relativ zum Äther zu beobachten. Er überlegte sich die notwendigen Änderungen von Längen und Zeiten, die heute Lorentz-Transformationen heißen, indem er postulierte, dass ein relativ zum Äther bewegter Beobachter in den durch Längen- und Zeitänderungen deformierten elektromagnetischen Feldern dieselben Beobachtungen machen muss wie sie von den Maxwell Gleichungen für einen im Äther ruhenden Beobachter vorausgesagt werden. Die Theorie aus dieser Hypothese baute er 1904 noch mal aus. Sie merken schon: man musste nach vielen fruchtlosen Versuchen ziemlich verzweifelt sein, um auf so abwegig klingende Erklärungen zu verfallen. Poincaré arbeitete 1905 und 1906 die Vorstellungen von Lorentz erheblich weiter aus und rückte dabei schon sehr nah an die Ergebnisse heran, die Albert Einstein mit einem völlig anderen Ansatz erzielte. Insbesondere die Arbeit4 von 1906 enthielt viele Bestandteile von Einsteins spezieller Relativitätstheorie, einschließlich einer 4-dimensionalen Raum-Zeit. Aber Poincaré und Lorentz wollten den Äther ja retten und nicht abschaffen! Daher erkannten sie nicht, dass einige wenige von ihren Annahmen schon ohne Äther eine vollständige Erklärung aller Beobachtungen lieferten.
10.2 Albert Einstein und seine „großen Kritiker“ Diese Erkenntnis war dem Schweizer Physiker Albert Einstein (1879–1955) vorbehalten5 . 4
auch bekannt als „Palermo Arbeit“, weil sie in der Zeitschrift Rendiconti del Circolo Matematico di Palermo erschien. 5 Wenn Sie sich wundern sollten, warum ich jetzt nichts über Einsteins Werdegang erzähle: Dieses Thema ist einfach zu oft behandelt worden. Sie können sich eins von tausenden von Büchern darüber aussuchen, um diese Lücke zu füllen. Ich beschränke mich auf ein paar Seitenbemerkungen, zum Beispiel, dass man Einstein einen schweizerisch-deutsch-US-amerikanisch-österreichisch-
242
10 Gott würfelt nicht: Einsteins Welt
Im Jahr 1905 erschien seine Arbeit Zur Elektrodynamik bewegter Körper, die dem Äther endgültig den Garaus gemacht hat. Das geschah nicht, indem er einen Widerspruch mit irgendwelchen Beobachtungen konstruierte, sondern schlicht, weil er den Äther überflüssig machte. Einstein brauchte nur zwei Prinzipien, die beide schon einen gewissen Gültigkeitsbereich hatten: das Prinzip der Relativität (das wir schon aus Kap. 6 kennen) und die Konstanz der Lichtgeschwindigkeit im Vakuum in allen Inertialsystemen (!), um daraus eine revolutionär neue Vorstellung von Zeit und Raum abzuleiten (und zwar deduktiv!), die die Probleme der Vereinbarkeit von Elektrodynamik und Mechanik lösten. Dabei dehnte er den Gültigkeitsbereich der Prinzipien erheblich aus: Sie sollten nämlich sowohl für elektrodynamische als auch für alle mechanischen Phänomene gelten. Die Eigenschaften von Raum und Zeit, die dabei entstanden, sind aber völlig andere als bei Newton. Das Prinzip der Relativität war schon seit Galilei bekannt, und wurde zumindest für mechanische Phänomene akzeptiert, aber dass die Lichtgeschwindigkeit im Vakuum konstant ist, war (und ist) nur schwer zu schlucken. Denn die Konstanz bedeutet insbesondere, dass die gemessene Lichtgeschwindigkeit sich nicht ändert, wenn (a) die Lichtquelle sich relativ zu meinem Messgerät bewegt (b) mein Messgerät sich relativ zur Lichtquelle bewegt (c) der Äther (an den ja immer noch alle glaubten) sich relativ zum Messgerät oder zur Quelle bewegt. Das erschien unglaubwürdig und Einsteins Theorie wurde auch aus diesem Grund von Vielen (insbesondere den selbst ernannten Experten) abgelehnt. So schrieb zum Beispiel der Frankfurter Bibliothekar Dr.jur. Walther Rauschenberger: Die Grundsinnlosigkeit der speziellen RTH.(Relativitätstheorie) ist die Annahme, daß ein und derselbe Lichtstrahl gegenüber beliebig bewegten Körpern die gleiche Geschwindigkeit besitzen soll!!! Dies ist absolut unmöglich es ist ein völlig irrsinniger Gedanke
Das Zitat stammt aus der Schrift Hundert Autoren gegen Einstein, 1931, R. Voigtlanders Verlag, Leipzig, die im Mainstream der Antisemitismuskampagne in Deutschland entstand. Die speziellen Kampagnen gegen Einstein waren zum Teil, aber nicht nur antisemitisch geprägt. Es ging so richtig los, nachdem Einstein im Jahr 1919 durch die experimentelle Bestätigung einer Voraussage seiner Allgemeinen Relativitätstheorie durch Arthur Eddington weltberühmt wurde. Der Relativitätsrummel begann, angetrieben durch die Weltpresse. Der Hochstapler, Betrüger, Agitator und Antisemit Paul Weyland (1888–1972) organisierte 1920 eine Anti-Einstein Vorlesungsreihe in Berlin, von der 2 Veranstaltungen auch wirklich stattfanden. Die spezielle Relativitätstheorie verwendet zu ihrer theoretischen Konstruktion zwei Zutaten, die Albert Einstein als Meisterkoch richtig mischt: operative Definitionen und Gedankenexperimente, das sind Experimente, die zur Zeit der Entstehung der Theorie noch nicht realisiert werden können. Wir wollen ein paar von Einsteins Schritten (schön langsam) nachverfolgen.
ungarischen Physiker nennen kann, denn er besaß 54 Jahre lang die schweizer Staatsbürgerschaft, 36 Jahre eine deutsche, 15 Jahre die der USA und 2 Jahre die österreichisch-ungarische.
10.3 Raum-Zeit-Diagramme
243
10.3 Raum-Zeit-Diagramme Zum Verständnis der SRT sind Raum-Zeit Diagramme ein nützliches Hilfsmittel. Die kennen wir bereits aus dem Abschn. 3.7. Ohne ein neues Konzept einzuführen, verändern wir nur ein wenig die Sprechweisen, und schon klingt alles viel toller. Wir sind es im allgemeinen Sprachgebrauch gewohnt, Ereignisse (neudeutsch: Events) durch Angabe eines Ortes (neudeutsch: die Location) und einer Zeit (neudeutsch je nach Event: Start, Date, etc.) zu beschreiben. Genauso machen wir es in der Physik. Die Location r beschreiben wir durch Angabe der Koordinaten eines Ortes, die Zeit t durch die Zeigerstellung auf einer Uhr, die bei r ruht. Uhren sind in der Physik übrigens immer lokalisierte Gebilde, d. h. die Ticks der Uhr finden an einem Raumpunkt statt. Auf der Erdoberfläche reichen zwei Koordinaten; wenn Events irgendwo im Universum stattfinden, brauchen wir drei Koordinaten, z. B. drei kartesische, und können so ein Event durch vier Zahlen (x, y, z, t) festlegen. Damit alle diese Zahlen die gleiche physikalische Dimension bekommen, benutzt man in der Physik häufig statt t die Zeitkoordinate ct. Ein einfaches Raum-Zeit Diagramm stellt nur eine Koordinate (meist x) und die Zeit dar und sieht aus wie die Abb. 10.1. In diesem Diagramm finden wir eine Bahn, die das Event am Ursprung (0-Event) und das Event P miteinander verbindet. Im Kontext der SRT nennt man solche Bahnen Weltlinien. Beachten Sie, dass die Steigung von Weltlinien gerade das Momentantempo dividiert durch c ist (schauen Sie noch mal in den Abschn. 3.7). Außerdem sind zwei bedeutungsvolle Hilfslinien eingezeichnet, nämlich die Geraden x = ±ct, das sind die Bahnen, die ein Objekt beschreiben, das sich mit Lichtgeschwindigkeit vorwärts oder rückwärts in x-Richtung bewegt. Da die Lichtgeschwindigkeit sich als größte Geschwindigkeit herausstellt, mit der kausale Wirkungen von einem Event zu einem anderen übertragen werden können, so gibt es – anders als in der Newtonschen Raum-Zeit – Bereiche, die vom Ursprung kausal getrennt sind, d. h. kein Ereignis in diesen Bereichen kann aus der Vergangenheit das 0-Events beeinflusst haben, und
Abb. 10.1 Ein Raum-Zeit Diagramm, eigentlich nichts anderes als Abb. 3.6, aber zugeschnitten auf die Spezielle Relativitätstheorie
244
10 Gott würfelt nicht: Einsteins Welt
andererseits kann das 0-Event keines der Ereignisse in diesem Bereich in Zukunft beeinflussen. Das ist ein vollkommen neues Konzept und man sollte nicht so schnell darüber hinweglesen.
10.4 Die Lichtuhr: Zeit-Dilatation Wir betrachten nun eine primitive Uhr von zwei verschiedenen Inertialsystemen aus: IS1 ist ein mit Tempo v fahrender Zug in -x-Richtung6 , und IS2 ist der Bahnsteig, an dem er vorbeifährt (s. Abb. 10.2). Im Zug wird ein Lichtpuls zwischen zwei Spiegeln in senkrechter Richtung hin und her reflektiert, wie im linken Teil der Abb. 10.2. Jedesmal, wenn der Puls am unteren Spiegel ankommt, interpretieren wir das als „Tick“ einer Uhr. Vom Bahnsteig aus betrachtet sieht der Prozess aus wie im rechten Teil der Abb. 10.2. Der Weg zwischen zwei Ticks ist länger geworden, aber das Tempo des Lichts im IS2 ist nach wie vor c. Daher muss (!) die Zeit zwischen zwei Ticks größer werden. Die bewegte Uhr geht langsamer! Aufeinanderfolgende Ticks der Uhr markieren die Grenzen eines Zeitintervalls t. Wir müssen nun unterscheiden, ob dieses Zeitintervall in IS1 gemessen wird (t1 ) oder in IS2 (t2 ), denn in IS1 ist es länger als in IS2. Beachten Sie: In dem IS, in dem die Uhr langsamer geht, sind Zeitinvalle länger (1 t größer als 2 t). Die Zeit vergeht am schnellsten in dem System, in dem die Uhr ruht. Diese Zeit heißt Eigenzeit.
10.5 Bewegte Körper sind kürzer: Lorentz-Kontraktion Nun betrachten wir einen Maßstab, der auf dem Bahnsteig (IS2) ruht und dort die Länge L hat. Im Zug (IS1) befindet sich unsere Uhr, die sich nun entlang dieses Maßstabs mit Geschwindigkeit v nach links bewegt. Wie lange braucht die Uhr, um sich am Maßstab entlangzubewegen? Sie erreicht erst das rechte Ende (ein Ereignis, das wir mit r bezeichnen) und dann das linke Ende (das nennen wir Ereignis ). Wie viel Zeit vergeht zwischen den Ereignissen und r ? Im Ruhesystem des Maßstabs (IS2) bewegt sich die Uhr, daher geht sie langsamer als im Zug (IS1) und das gemessene Zeitintervall ist daher länger als im Ruhesystem der Uhr. Auf dem Bahnsteig (IS2) kann man das Zeitintervall leicht berechnen (mit einer Uhr, die dort ruht). Es ist die Zeit, die man benötigt, um eine Strecke der Länge L mit Geschwindigkeit v zurückzulegen, also L/v. Die Zeitspanne im Ruhesystem der Uhr im Zug, ist aber kürzer. Also hat man im Zug weniger Zeit zur Verfügung, um von r nach zu kommen als auf dem Bahnsteig. Aber wo bleibt da die Relativität? Im Zug sieht man den Maßstab mit Tempo v bewegt und man misst die Vorbeifahrt mit einer Uhr, die im Beobachtersystem 6
Natürlich mit perfekt glatten Schienen, also eher nicht im Netz der Deutschen Bahn.
10.5 Bewegte Körper sind kürzer: Lorentz-Kontraktion
245
Abb. 10.2 Die Lichtuhr, mit der man die Zeitdehnung der SRT bestimmen kann
ruht. Auf dem Bahnsteig sieht man den Zug an den Markierungen des Stabes mit Tempo v vorbeifahren und man misst mit einer Uhr, die im Beobachtersystem ruht. Also sollte die Vorbeifahrt in beiden Fällen so lange dauern, wie man benötigt, um eine Strecke der Länge L mit Tempo v zurückzulegen. Das ist aber aufgrund der Zeitdehnung nicht möglich, denn wir haben festgestellt, dass die Zeit im Ruhesystem des Maßstabs langsamer geht. Für die Uhr im Zug ist also weniger Zeit vergangen als L/v. Fazit: Wenn die Uhr zum Vorbeifahren weniger Zeit zur Verfügung hat, muss die Strecke kürzer geworden sein. Die Länge des Maßstabs – von IS1 aus betrachtet – ist kleiner als L, damit der Maßstab es schafft, an der Uhr in der zur Verfügung stehenden (kürzeren) Zeit an ihr vorbeifliegen! Er muss um genau denselben Faktor schrumpfen, um den die Uhr in IS2 langsamer geht als in IS1. Bewegte Maßstäbe sind also in Bewegungsrichtung verkürzt. Dieser Effekt heißt Lorentzkontraktion (oder Längenkontraktion). Wenn also ein Maßstab (oder irgendein Objekt) der Länge L r uh in einem IS ruht, dann ist er kürzer (L bew ), wenn er aus einem relativ zu ihm bewegten IS heraus beobachtet wird. Beachten Sie aber, dass es keinen derartigen Effekt quer zur Bewegungsrichtung gibt. Die Lichtuhr ist ein Beispiel dafür: Der Abstand zwischen den Spiegeln ist in beiden Inertialsystemen der gleiche. Auch hierfür gibt es ein einfaches Gedankenexperiment, dass wir hier aber nicht ausbreiten.
246
10 Gott würfelt nicht: Einsteins Welt
10.6 Zeitdilatation, Längenkontraktion, Lorentz Transformation Es erfordert nur wenig Elementarmathematik, um den Faktor der Zeitdehnung zu bestimmen. Schauen Sie dazu auf das unten links in der Abb. 10.2 dargestellte Dreieck, in der die Strecken von einem Spiegel zum anderen in IS1 und IS2 dargestellt sind. Jetzt braucht man nur den Lehrsatz des Pythagoras über rechtwinklige Dreiecke, der lautet hier c2 tbew = c2 (tr uh )2 + v 2 (tbew )2 . Diese Beziehung kann man nach tbew umstellen: tr uh . tbew = 1 − v 2 /c2 Ob Sie es nun glauben oder nicht: Sie haben soeben die Mathematik der speziellen Relativitätstheorie bewältigt. Mehr ist da nicht. Der Faktor der Zeitdehnung wird auch in der Längenkontraktion (und noch an vielen anderen Stellen der Physik) wieder auftauchen, daher bekommt er einen eigenen Namen: γ (v) = 1 − v 2 /c2 . Beachten Sie, dass dieser Faktor nur sehr wenig von 1 abweicht, wenn v/c klein ist. Daher sieht man relativistische Effekte bei Alltagsgeschwindigkeiten nicht. Für eine Relativgeschwindigkeit von 100 km/h ist v/c = 100/(3 ∗ 105 ∗ 3.6 ∗ 103 ) (die Stunde hat 3600 s), also ist v/c ≈ 10−7 und der γ -Faktor weicht um 10−14 von 1 ab. Verdammt wenig! Die Längenkontraktion muss nach unseren Überlegungen des letzten Abschnitts die Zeitdehnung kompensieren. Daher ist L bew = γ (v)L r uh . Mithilfe der Zeitdilatation und der Längenkontraktion können wir Koordinaten von Punktereignissen von einem IS in ein anderes IS umrechnen. Diese Umrechnung ist unter dem Namen Lorentz Transformation bekannt. Auch diese Herleitung ist keine anspruchsvolle Mathematik, aber wir wollen sie uns hier schenken. Die Formeln für die Umrechnung zwischen IS1 und IS2, die sich relativ zueinander mit Geschwindigkeit v entlang der x-Achse bewegen, will ich Ihnen aber noch aufschreiben: x2 = γ x1 − (v/c)ct1 ct2 = γ ct1 − (v/c)x2 Die y und die z Koordinaten bleiben unverändert. Beachten Sie, dass diese Umrechnungen Raum- und Zeitkoordinaten vermischen. Wenn man in diesen Formeln den Grenzprozess c gegen Unendlich ausführt, dann erhält man die Umrechnungsformeln, die schon Galilei und Newton gefunden hatten. Sie wussten ja auch noch nichts von einer endlichen Lichtgeschwindigkeit und deren Konsequenzen. Insbesondere ist die Zeit in beiden Systemen die gleiche, d. h. eine absolute, für alle IS geltende Zeit lässt sich dann einführen.
10.7 Die Minkowski-Raumzeit
247
10.7 Die Minkowski-Raumzeit In der SRT sind Längen und Zeiten offenbar merkwürdig miteinander verknüpft, ganz anders als in Newtons Theorien. Diese, durch die Konstanz der Lichtgeschwindigkeit bewirkten Beziehungen als eine Geometrie in einem Raum aus Punktereignissen zu verstehen, ist die Leistung des russisch-deutschen Mathematikers und Physikers Herrmann Minkowski (1864–1909). Was soll eigentlich „Geometrie“ heißen? Geometrische Gebilde in der uns gewohnten Welt mit euklidischer Geometrie sind dadurch ausgezeichnet, dass sie unabhängig von einer Beschreibung durch Koordinaten und Pfeile existieren. Die wichtigste, koordinatenunabhängige Größe ist der Abstand zwischen Punkten. In einem euklidischen Raum (Zeichenebene) ist es leicht, den Abstand zwischen 2 Punkten zu berechnen, wenn man die kartesischen Koordinaten kennt. Von (x1 , y1 ) 2 = (x1 − x2 )2 + nach (x2 , y2 ) ist das Quadrat des Abstands leicht zu berechnen d12 2 (y1 − y2 ) . Es hängt nur von den Differenzen der Koordinaten, x = x1 − x2 und y = y1 − y2 ab. In 3 Dimensionen muss man die Formel noch um das Quadrat von z = z 1 − z 2 erweitern. Beachten Sie, dass dieser Abstand eine Größe ist, die ganz unabhängig von Koordinatensystemen existiert. Sie können ein Lineal nehmen und die Streckenlänge messen. Das Koordinatensystem ist nur eine Hilfskonstruktion, um eine Formel zur Berechnung des Abstands zu erhalten. Wählen wir eine anderes (zum Beispiel gedrehtes) Koordinatensystem, dann ändern sich i. a. auch die Differenzen der Koordinaten, aber d 2 bleibt gleich. Nun schauen wir uns Punktereignisse an, und versuchen, auch zwischen ihnen einen Abstand zu definieren. Um die Überlegung übersichtlich zu halten, betrachten wir eine einzige Raumkoordinate und die Zeit. Ein Punktereignis ist dann durch (x, t) festgelegt. Wir könnten einfach in der Zeichenebene eine x- und eine t-Achse wie in einem kartesischen Koordinatensystem hinmalen und Punktereignisse dort eintragen. Zwischen zwei solchen Ereignissen haben wir dann Koordinatendifferenzen (x, t). In der SRT haben wir die Freiheit, die Ereignisse von einem beliebigen IS aus zu betrachten. Wenn wir einen Wechsel von einem IS zu einem anderen IS durchführen, dann soll ein Abstand zwischen den Ereignissen unverändert bleiben. Gerade diese Eigenschaft macht ihn zu einem Abstand. Wir wissen, wie sich die Ereigniskoordinaten beim Wechsel des IS verändern (Lorentz Transformation). Damit können wir leicht nachrechnen, dass es eine Größe gibt, die tatsächlich unverändert bleibt, nämlich s 2 = c2 t 2 − x 2 . Das ist Minkowskis Entdeckung. Die Unveränderlichkeit macht die Größe zu einem Objekt, das unabhängig von Bezugssystemen existiert. Allerdings ist der Name „Abstand“ nicht ganz zutreffend, denn die Größe s 2 kann negativ werden (siehe Abb. 10.1). Im kausal mit dem Ursprung verbundenen Teil ist s 2 positiv, aber im kausal getrennten Bereich negativ. Der Abstand würde also die Wurzel aus einer neg-
248
10 Gott würfelt nicht: Einsteins Welt
ativen Zahl7 . Unsere Intuition über Abstände passt überhaupt nicht auf diese Größe. Daher nennen ihn Viele auch nur Pseudo-Abstand.
10.8 Die berühmteste Formel der Physik: E = M c2 Die am meisten abgedruckte Formel, die Albert Einstein jemals hingeschrieben hat, ist der Zusammenhang zwischen Energieinhalt E und Masse M eines Körpers. Wenn wir uns schon die Mühe gemacht haben, die Grundzüge der SRT zu verstehen, so würden wir natürlich als Nächstes gern wissen, wie sich diese Formel aus der SRT ergibt. Dafür reichen aber die geometrischen Betrachtungen über Raum und Zeit nicht aus. Man muss sich anschauen, wie sich physikalische Erhaltungsgrößen, insbesondere der Impuls und die Energie bei Wechsel des Inertialsystems transformieren. Dabei darf man die uns bekannten Ausdrücke P = Mv und E kin = Mv 2 /2 natürlich nicht benutzen, man muss relativistische Verallgemeinerungen dieser Größen bestimmen, und das geht nur per abduktivem Schluss. Aus der Analyse von Teilchenstößen in zwei zueinander bewegten IS kann man akzeptable Ausdrücke für Impuls und Energie konstruieren. Die Verallgemeinerung des Impulses von Newton zur SRT ist sehr einfach: P = γ (v)Mv Da ist er wieder, der γ -Faktor. Wenn man die Geschwindigkeit v immer weiter vergrößert, dann geht der Faktor für v → c nach Unendlich. Man schreibt diese Formel gern auch als P = M(v)v. Dann sieht sie aus wie der Newtonsche Ausdruck, allerdings mit einer geschwindigkeitsabhängigen Masse M(v) = γ (v)M, die mit zunehmendem Tempo immer größer wird. Die Masse bei v = 0 nennt man Ruhemasse. Die Bewegungsenergie eines Teilchens lässt sich ebenfalls aus Stoßprozessen finden. Sie hat die Form E 2 − p 2 c2 = M 2 c4 . Für kleine Geschwindigkeiten v kann man berechnen, dass E ≈ Mv 2 /2 + Mc2 ist. Der letzte Term hängt nicht von der Geschwindigkeit des Teilchens ab und es ist eine Energie, die Teilchen offenbar auch bei Geschwindigkeit Null haben. Diese Ausdrücke hat Einstein für Punktteilchen konstruiert und sie sind mittlerweile unzählige Male überprüft. An der Formel sieht man sofort, dass für p = 0 E = Mc2 ist, aber das ist nicht das Geniale an Einsteins Formel. Das Geniale ist, dass diese Ruhemasse mit jeder anderen Energieform ausgetauscht werden kann. Wenn man also den Energieinhalt eines Systems vergrößert (verkleinert), dann wird es schwerer (leichter). Genau genommen nimmt seine Trägheit zu oder ab. Daher sollte man Einsteins Formel besser in der Form E = Mc2 schreiben, d. h. mit Änderungen der Energie und der Masse. Um die Universalität der Energieform Masse zu 7
So etwas nennt man imaginäre Zahl. Wir führen diese Zahlen im Abschn. 11.6 ein.
10.9 Nochmal die Schwerkraft: Allgemeine Relativitätstheorie
249
demonstrieren, hat Einstein mehr als ein Dutzend spezielle Situationen analysiert. Mit Einsteins Formel werden Prozesse in der äußeren Welt verständlich, die ohne sie einfach unmöglich erscheinen. Besonders wichtige Beispiele sind: • Es ist möglich, aus elektromagnetischer Strahlung massive Teilchen zu erzeugen. • Es ist möglich massive Teilchen (Elektron und Positron) in elektromagnetische Strahlung zu verwandeln • Bei Verringerung der Energie durch Bindungen in Atomkernen verkleinert sich die Ruhemasse (Massendefekt) • Wenn man einem System Energie entzieht (zufügt) wird es leichter (schwerer). Ein beeindruckendes Beispiel dafür können Sie im Abschn. 16.1 kennenlernen. Eines allerdings ist nicht möglich: Mithilfe dieser Formel eine Atombombe zu bauen. Diese Idee hat sich hartnäckig gehalten. Zwar genügen die Prozesse der Kernreaktionen in so einer Bombe der Einsteinschen Gleichung, aber mit derselben Berechtigung könnte man sagen, Newton hätte das Aussterben der Dinosaurier mitverursacht, denn der Chicxulub Asteroid folgte genau den Newtonschen Gesetzen.
10.9 Nochmal die Schwerkraft: Allgemeine Relativitätstheorie Die Ähnlichkeit der Namen „Spezielle Relativitätstheorie“ (SRT) und „Allgemeine Relativitätstheorie“ (ART) führt oft zur Annahme, die zweite sei einfach eine kompliziertere und allgemeinere Form der ersten. Das trifft aber kaum zu. Die ART ist eher eine Verallgemeinerung des Newtonschen Gravitationsgesetzes. Sie ist die gegenwärtig präziseste Theorie der Schwerkraft, die wir haben. Gleichzeitig ist sie aber auch die Theorie, die die Geometrie unserer Raum-Zeit mit der Energieverteilung im Universum verknüpft. Es ist das Markenzeichen dieser Theorie, dass diese beiden Dinge – Schwerkraft und Geometrie – eng miteinander verwandt sind. Albert Einstein entwickelte die ART über einen Zeitraum von etwa 10 Jahren (von 1907 bis 1917), teilweise mit etwas Nachhilfe in Mathematik von seinem Studienkollegen, dem Schweizer Mathematiker Marcel Grossmann (1878–1936). Die Popularität der Theorie außerhalb der Physik kommt einerseits von ihren spektakulären Voraussagen, die mittlerweile bestätigt sind: die Ablenkung von Licht im Schwerefeld, die Expansion des Universums, die Dehnung der Zeit in Schwerkraftfeldern, schwarze Löcher, Gravitationswellen. All diese exotischen Dinge wurden mit großer Präzision mit quantitativen Vorhersagen der ART verglichen und alle Beobachtungen und Experimente bestätigen sie. Der andere Reiz der Theorie für Personen außerhalb der Physik besteht in der ihr nachgesagten Unverständlichkeit und Kompliziertheit. Sie ist aber nicht komplizierter als andere Theorien der Physik. Die Legende über ihre Unverständlichkeit kommt wohl daher, dass sie in einer mathematischen Sprache formuliert ist, die in der Physik nicht so weit verbreitet ist: die Differentialgeometrie.
250
10 Gott würfelt nicht: Einsteins Welt
Die physikalischen Grundlagen der ART sind Ihnen aber mittlerweile alle bekannt, und wir brauchen sie nur zusammenzustellen, und um einen Geistesblitz von Einstein zu ergänzen: Feldtheorie: Die ART ist eine Feldtheorie der Schwerkraft nach dem Vorbild der Maxwellschen Feldtheorie des Elektromagnetismus. Die perfekte Analogie zwischen dem Coulombgesetz für Ladungen und dem Newtonschem Gravitationsgesetz für Massen ist ein Wink mit dem Zaunpfahl. Das Coulombgesetz verletzt das Relativitätsprinzip, während die Maxwellgleichungen es respektieren. Die Maxwellgleichungen enthalten das Coulombgesetz aber als Spezialfall für unbewegte Ladungen, die alle aus ihrem (gemeinsamen) Ruhesystem beobachtet werden. Das Newtonsche Gravitationsgesetz verletzt das Relativitätsprinzip aus den gleichen Gründen. Also sollte es eine relativistisch akzeptable Feldtheorie der Schwerkraft geben, die Newtons Gesetz als Grenzfall für ruhende Objekte beinhaltet. Äquivalenz von schwerer und träger Masse: Eine der wichtigsten Grundlagen der ART beruht auf der in Abschn. 3.1 diskutierten Gleichheit von Schwere und Trägheit. Das älteste Experiment dazu ist sehr bekannt, hat aber mit großer Wahrscheinlichkeit niemals stattgefunden. Galileo Galilei soll (nach Angaben seines Biographen) verschieden schwere Kugeln vom Turm zu Pisa geworfen haben, um festzustellen, ob sie gleich schnell fallen. Aber um das feststellen zu können, muss man die Zeitdauer sehr genau messen können. Dass Galilei ein Experiment dieser Art durchführen konnte, scheint sehr unwahrscheinlich. Er hatte eine genial einfache Idee, um den Fall verschieden schwerer Körper zu untersuchen: Er verlangsamte den Fall, indem er Kugeln eine schiefe Ebene hinabrollen ließ. Auf diese Experimente stützte er seine Hypothese, dass alle Körper im Schwerefeld der Erde gleich schnell fallen. Das war das genaue Gegenteil der damals vorherrschenden Meinung, die auf Aristoteles zurückgeht, und nach der schwere Körper schneller fallen als leichte (Bleikugel fällt schneller als Feder). Galilei hatte recht. Die Experimente zu Fallgesetzen wurden immer weiter verfeinert und immer besser bestätigt. Dieses Gesetz ist nichts anderes als die Hypothese (Theorie) der Gleichheit von schwerer und träger Masse und die ist eine tragende Säule der ART. Einsteins Geistesblitz: Die Äquivalenz von schwerer und träger Masse hat eine Konsequenz, die nur für Genies erstaunlich ist, die anderen Leute gehen darüber hinweg. In einem Raumschiff, das die Erde umrundet8 herrscht Schwerelosigkeit. Das kommt nicht etwa daher (wie man gelegentlich hört), dass das Raumschiff so weit weg von der Erde ist. Die Schwerkraft der Erde in 400 km Höhe ist noch ganz beträchtlich. Es kommt daher, dass die Zentrifugalbeschleunigung (die entsteht durch Trägheit) die Erdanziehungskraft (die entsteht durch Schwere) genau kompensiert. Denn nur deshalb bleibt das Raumschiff ja in seiner Bahn. Im Inneren des Raumschiffs fliegen kräftefreie Körper geradlinig und gleichförmig. Mit anderen Worten: das Raumschiff ist ein Inertialsystem obwohl es sich beschleunigt bewegt. Alle Ef8
Zu Einsteins Zeiten waren es noch frei fallende Fahrstühle.
10.10 Gekrümmte Räume
251
fekte der Schwerkraft lassen sich (in diesem Fall) durch eine Beschleunigung kompensieren. Also könnte man auch sagen, dass die Schwerkraft der Erde eine neue Definition eines Inertialsystems bewirkt. Wenn ein Schwerefeld vorhanden ist, dann muss ein IS in diesem Feld frei fallen, d. h. sich so beschleunigt bewegen, dass die Schwerkrafteffekte verschwinden. In der Newtonschen Mechanik sind der absolute Raum und die absolute Zeit zu nichts Anderem da, als Inertialsysteme festzulegen. Erinnern Sie sich an Newtons Eimerexperiment. Andererseits legen Schwerkräfte Inertialsysteme neu fest. Mit anderen Worten: Schwerefelder haben denselben Effekt wie der Newtonsche absolute Raum. Die Raum-Zeit und die Schwerkraft bestimmen Inertialsysteme. ... und jetzt kommt Einsteins genialer Schluss: Also sind es die gleichen Objekte. Dieser kühne Schluss hat Ähnlichkeit mit Newtons Schluss auf eine universelle Gravitation. Die Beschleunigung eines Körpers in einer Umlaufbahn um die Erde ist dieselbe wie die Beschleunigung, mit der der Apfel zu Boden fällt. Also muss der Grund für eine Umlaufbahn und für den Fall zur Erde derselbe sein. Lokale Inertialsysteme Die Schwerkraft verändert sich im Raum, mit zunehmendem Abstand von der Erde nimmt sie ab. Also kann die Kompensation zwischen Zentrifugalbeschleunigung und Schwerkraft auch nur für genau einen Radius gelten. In einem sehr großen Raumschiff würde man merken, dass die Schwerkraft nicht überall perfekt kompensiert wird. Das ganze Konzept eines Inertialsystems kann also im Universum, in dem es überall Schwerefelder gibt, immer nur lokal gelten. Wenn das aber so ist, dann kann es keine globale Raum-Zeit vom Typ einer Newtonschen (oder Minkowskischen) Raum-Zeit geben. Mit anderen Worten: durch die Schwerkräfte wird der Raum-Zeit eine geometrische Struktur aufgeprägt. Aber welche?
10.10 Gekrümmte Räume Wenn man versucht, die lokalen IS zu einem großen Ganzen zusammenzusetzen, dann landet man bei einer gekrümmten Raumzeit. Die Unanschaulichkeit solcher Gebilde, die immer wieder hervorgehoben wird, hat zwei Gründe: Erstens sind die lokalen IS Minkowski-Räume, und die sind – wie wir schon wissen – unanschaulich. Nichts Neues. Zweitens wird behauptet, man könne sich gekrümmte, drei-dimensionale (oder gar vier-dimensionale) Räume überhaupt nicht vorstellen. Ich möchte Sie davon überzeugen, dass es mehr die Minkowski Geometrie ist, die unsere Raum-Zeit so unanschaulich macht, während man sich gekrümmte Räume mit ein bisschen Übung vorstellen kann. Was ist überhaupt so eine Krümmung? Wenn Sie eine Linie betrachten, dann gibt es keine Probleme eine gekrümmte von einer geraden Linie zu unterscheiden. Man kann die Eigenschaft „gekrümmt“ auf verschiedene Arten ausdrücken. Zum Beispiel kann man sagen, dass die Tangentenrichtung (Pfeil) sich ändert, wenn man die Kurve entlangläuft. Aber alle Kurven haben eine (nicht weiter verwunderliche) Eigenschaft. Wenn man sie sich als einen Bindfaden vorstellt, dann kann man an
252
10 Gott würfelt nicht: Einsteins Welt
Abb. 10.3 Ein Dreieck auf einer Kugel. Die Basislinie kann – wie eingezeichnet – ein langes oder ein kurzes Stück des Äquators sein. Zwei rechte Winkel an der Basis verraten die Krümmung der Fläche
den Enden ziehen, muss eventuell ein paar Knoten lösen, und erhält schließlich eine gerade Linie. Bei Flächen ist das anders. Diese Einsicht verdanken wir Carl Friedrich Gauss. Er verstand, dass es zwei ganz verschiedene Arten von Krümmung gibt. Nehmen Sie ein Blatt Papier als Realisierung einer nicht gekrümmten euklidischen Fläche, der Ebene. Zeichnen Sie ein paar Dreiecke darauf. Jetzt rollen Sie das Papier auf, sodass eine zylindrische Rolle entsteht. Weder die Seitenlängen noch die Winkel der Dreiecke haben sich beim Aufrollen verändert. Aber das Papier erscheint Ihnen natürlich gekrümmt. Wenn Sie jedoch nur die geometrischen Informationen benutzen, die Sie auf der Fläche selber sammeln können (Dreiecksbeziehungen), dann hat sich kein geometrisches Gesetz verändert. Für zweidimensionale Wesen, die keine Sinne für die dritte Dimension haben, ist es unmöglich, die Krümmung festzustellen. Sie wird nur sichtbar, weil wir die Fläche im dreidimensionalen Raum eingebettet haben. So eine Art der Krümmung, die man nur „von außen“ sehen kann, nennt man extrinsisch. Aber so sind nicht alle Flächen. Betrachten Sie zum Beispiel die Oberfläche einer Kugel. Ein Blick auf das Dreieck aus einem Stück Äquator und 2 Längenkreisen in Abb. 10.3 zeigt, dass seine Winkelsumme größer als 1800 ist, denn die zwei Basiswinkel sind jeweils rechte Winkel (900 ). So eine Winkelsumme kann in einer Ebene nicht auftauchen, dort ist sie immer 1800 . Also kann die intrinsische Geometrie dieser Fläche nicht euklidisch sein. Zweidimensionale Wesen können aber per Winkelmessung diese Krümmung feststellen. Solche Flächen heißen daher intrinsisch gekrümmt. Wir können die Kugeloberfläche natürlich im drei-dimensionalen Raum einbetten, aber wir können sie uns auch auf einer ebenen (zweidimensionalen) Landkarte veranschaulichen. Daran ist nichts Geheimnisvolles, das sind wir gewohnt. Wenn wir also eine Nord- und eine Südhalbkugelkarte haben, dann wissen wir, dass wir sie am Äquator „zusammennähen“ müssen, um die Kugel zu erhalten. Die geometrischen Objekte auf der Kugel (Ländergrenzen) sind auf der Karte zwar verzerrt, aber mit
10.10 Gekrümmte Räume
253
Abb. 10.4 Karten für die Kugeloberfläche (oben) und die 3-Kugel S 3 (unten). So sah Dante Alighieri das Universum
ein bisschen Übung können wir das in Gedanken ausgleichen (Russland ist nicht so groß, wie es scheint). Können wir so auch gekrümmte, höherdimensionale Räume darstellen? Im Prinzip ja. Lassen Sie uns ein einfaches Beispiel betrachten, die Verallgemeinerung einer Kugeloberfläche. Eine Kugeloberfläche ist ein sehr symmetrischer Raum. Solange keine Markierungen darauf sind, können Sie keinen Punkt vom anderen unterscheiden und an jedem Punkt können Sie keine Richtung von einer anderen unterscheiden. Außerdem hat sie keinen Rand, sie ist also unbeschränkt, aber ihre Fläche ist endlich. Eine 3-Kugel (S 3 ) ist ein gekrümmter 3-dimensionaler Raum mit genau denselben Eigenschaften. Insbesondere hat er keine Ränder und ein endliches, 3-dimensionales Volumen. Wenn man eine 2-dimensionale Kugeloberfläche (eine 2-Kugel) auf 2dimensionalen Karten darstellen kann, deren Ränder Kreise sind, sollte man eine 3Kugel durch „3-dimensionale Karten“ darstellen können, deren Ränder Kugeln sind. Das Zusammenkleben der Ränder ist zwar schwer vorstellbar, aber mit den Karten kann man sich ganz gut zurechtfinden. Eine 3-Kugel ist also im 3-dimensionalen Raum darstellbar als 2 Vollkugeln, wobei die Oberflächen der Vollkugeln Punkt für Punkt identisch sind. Eine solche Darstellung gab der deutsche Mathematiker Bernhard Riemann (1826–1866). Wenn Sie jetzt denken: „Wie soll ich mir das vorstellen?“, dann möchte ich Ihnen zum Ansporn sagen, dass diese Konstruktion die Vorstellungskraft eines bekannten mittelalterlichen Literaten keineswegs überforderte. Es gibt eine sehr präzise Darstellung eines S 3 -Weltmodells in der „Göttlichen Komödie“ von Dante Aleghieri (1265–1321) (s.Abb. 10.4). Das Modell enthält 2 Kugeln: Eine Kugel hat die Erde im Mittelpunkt und sie besteht aus den Schalen, auf denen die Planeten kreisen. Die äußerste dieser Schalen ist die Sphäre der Fixsterne. Das entspricht genau dem damals benutzten Ptolemäischen Weltbild. Die andere Kugel hat Gott im Mittelpunkt und sie besteht aus den Sphären der Engel. Die äußerste Sphäre ist wieder die der Fixsterne, dort treffen sich also unsere äußere Welt und die göttliche Welt. (Genaueres dazu
254
10 Gott würfelt nicht: Einsteins Welt
Abb. 10.5 Eine Krücke zur Darstellung gekrümmter Raum-Zeit (2-dimensional, eine Dimension Zeit eine Raum) mit lokalen IS
finden Sie in dem Artikel von Mark Peterson Dante and the 3-sphere im American Journal of Physics, Bd. 47(12), 1979, Seiten 1031–1035). Da wir als dreidimensionale Wesen in einer vierdimensionalen Raum-Zeit herum krauchen (das ist so, als lebten zweidimensionale Wesen in einer 3-Kugel!), können wir uns die Krümmung des 3-dimensionalen Raums (gerade noch) mit Karten veranschaulichen. Aber bei einem vier-dimensionalen, gekrümmten Raum helfen nur noch Analogien. Diese Analogien wären für Räume, auf denen ein ordentlicher Abstand definiert ist, aber gar nicht schlecht. Dumm ist nur, dass auf der vierdimensionalen Raum-Zeit kein solcher Abstand vorhanden ist, sondern nur dieser Minkowskische Pseudoabstand. Diese Kombination aus zu großer Dimension (4) und zu wenig anschaulicher geometrischer Struktur (Minkowski) macht jeden Versuch, eine gekrümmte Raumzeit angemessen auf Papier darzustellen, zumindest mal extrem schwierig, wenn nicht unmöglich. Daher behilft man sich mit Bildern wie der Abb. 10.5. Die Raumzeit bildet eine Menge von Punktereignissen. Wenn man in der Umgebung eines solchen Punktes ist, dann kann man ein lokales IS finden, dass wie ein Minkowski Raum aussieht (daher die Darstellung der Koordinatensystem in der Abbildung). Die gekrümmte Raumzeit ist hier natürlich 2-dimensional.
10.11 Die Einsteinschen Gleichungen Einstein schaffte es (nach mehreren Anläufen) aus dem physikalischen Input eine konsistente mathematische Theorie der Schwerkraft und der Bewegung von Teilchen in Schwerefeldern zu basteln. Die Gleichungen sehen zwar beeindruckend aus, aber ihr wesentlicher Gehalt ist verständlich. Es gibt zwei Gleichungen: die eine sagt, wie Materie (und Strahlung) die Raumzeit krümmt und die zweite, wie sich Teilchen
10.11 Die Einsteinschen Gleichungen
255
(und Strahlung) in einer gekrümmten Raumzeit bewegen. Schauen wir sie der Reihe nach an. Einsteinsche Feldgleichung: Die erste Gleichung bestimmt, wie die Energie von Massen und elektromagnetischer Strahlung zur Krümmung der Raumzeit beiträgt. Dazu muss man sich zunächst klarmachen, dass man die intrinsische Krümmung auf beliebig kleinen Skalen spüren (und mathematisch definieren) kann. Auch an ganz kleinen Kugeldreiecken kann man die Verletzung der Winkelsumme ablesen. Eine alternative Möglichkeit besteht darin, Kreise um einen Punkt zu ziehen und den Radius R und die Fläche zu messen. Die Verletzung der euklidischen Geometrie äußert sich dann darin, dass die Kreisfläche eben nicht π R 2 ist. Das gilt für beliebig kleine Kreise. Es gibt also eine lokale Krümmung und die kann man durch ein Feld beschreiben. Dieses Feld ist recht kompliziert, denn es besteht aus Objekten, zu deren Darstellung ein Pfeil nicht ausreicht (Riemann-Krümmungstensor). Die Einsteinsche Feldgleichung enthält eine Variante des Riemann Tensors (den sogenannten Ricci Tensor) (das von Einstein benutzte lokale Krümmungsmaß am Raumzeitpunkt P bezeichnen wir einfach mal mit R(P)). Dann sieht die Feldgleichung so aus: R(P) = 8π G · T (P) Die Größe T (P) ist die Stromdichte von Energie und Impuls, die in der SRT zu einem Objekt vereint sind, dem sogenannten Energie-Impuls Tensor. Er hat einen Anteil von den Teilchen mit Ruhemassen und einen Anteil von elektromagnetischer Strahlung (diesen Teil hat schon Maxwell ausgerechnet). Bemerkenswert ist die Konstante G, die Stärke der Kopplung zwischen Energie und Raumkrümmung festlegt. Diese Naturkonstante ist uns schon im Newtonschen Gravitationsgesetz begegnet, und sie ist immer noch die alte. Bewegungsgleichungen: Ohne Schwerkraft (und ohne sonstige Kräfte) bewegt sich ein Teilchen (oder ein Lichtstrahl) geradlinig und mit konstantem Tempo. Die Schwerkraft wird in der ART gar nicht als Kraft beschrieben, sondern als Raumkrümmung. Wie bewegt sich also ein Teilchen, auf das keine Kräfte wirken, in einer gekrümmten Raumzeit? Gibt es ein Analogon von Geraden in einem gekrümmten Raum? Jawohl, nämlich die kürzesten Verbindungen zwischen zwei Punkten. Diese Definition liefert für einen euklidischen Raum automatisch eine Gerade, für einen gekrümmten Raum heißen die entsprechenden Kurven Geodäten. Die kann man sich auf krummen Flächen sehr einfach veranschaulichen. Nehmen Sie eine schöne krumme Fläche. Besonders geeignet sind die Oberflächen von Gemüsen wie Auberginen, Zucchini oder Kürbissen. Nun befestigen Sie an einem Punkt ein Gummiband und strecken es leicht bis zu einem anderen Punkt auf der Oberfläche. Da es Kraft kostet, das Gummi zu verlängern, arrangiert es sich zur kürzesten Kurve zwischen den beiden Punkten. Markieren Sie nun die Kurve des Gummibands auf der Oberfläche und schneiden einen schmalen Streifen Gemüseschale längs dieser Kurve aus. Wenn Sie diesen Streifen auf den Tisch legen, ergibt er eine Gerade! Probieren Sie es mit anderen Streifen von Gemüseschalen, die kringeln sich auf dem Tisch krumm.
256
10 Gott würfelt nicht: Einsteins Welt
Einsteins Bewegungsgleichung für Teilchen ist einfach: Sie besagt, dass die Weltlinien von Teilchen in der gekrümmten Raumzeit Geodäten sind. Genau diese Kurven sind lokal (in den lokalen Minkowski-Räumen) im freien Fall. Damit ergibt sich ein gekoppeltes System: Die Bewegung von Teilchen wird durch die Raumzeit-Krümmung bestimmt, und die Raumzeitkrümmung bestimmt die Bewegung. Das ist Einsteins ART. Nun kann man nach Lösungen dieser Gleichungen suchen, und die sind schwieriger zu finden als in der Mawellschen Theorie. Eine der ersten Lösungen wurde von Karl Schwarzschild (1873–1916) während seines Kriegsdienstes in Russland konstruiert. Sie beschreibt das Schwerefeld für eine statische, kugelsymmetrische Masse (man denke an einen Stern oder einen Planeten) in einem ansonsten leeren Raum. Im Grenzfall eher kleiner Massen fand man Newtons Theorie wieder. Es stellte sich aber auch heraus, dass ab einer gewissen Masse das Schwerefeld kein materielles Teilchen und keine Strahlung aus einem gewissen Bereich um die Masse entkommen lässt. Das nennt man schwarzes Loch. So ganz konnte die Schwarzschild Lösung die Fragen nach der Realität solcher Löcher noch nicht beantworten, denn sie benutzt eine Beschreibung mit Koordinaten, die genau dort, wo es spannend wird (am sogenannten Ereignishorizont, der den Bereich begrenzt, aus dem man nicht heraus kommt) zusammenbricht. Verbesserte Koordinaten wurden von dem US-amerikanischen Physiker Martin Kruskal (1925–2006) Mitte der 1950er Jahre eingeführt. Es gibt aber auch Wellenlösungen (Gravitationswellen), wie bei Maxwells elektromagnetischen Wellen, die sich im Raum ausbreiten. Allerdings sind kugelsymmetrische Massenverteilungen keine Sender für solche Wellen, selbst wenn sie zeitabhängig sind (z. B. ein kollabierender Stern). Das haben wir schon in Abschn. 7.3 erwähnt. Daher untersuchte man Lösungen für allgemeinere Fälle (z. B. rotierende Massen oder Massen mit elektrischer Ladung). Schließlich suchte man auch nach Lösungen, die als Modell für die Raumzeit unseres Universums dienen können. Ein Standardszenario eines expandierenden Universums mit Urknall wird durch die Lösung der Physiker Alexander Friedmann (1888–1925, Sowjetunion), Georges Eduard Lemaître ( 1894–1966, Belgien), Howard Percy Robertson (1903–1961, US) und Arthur Geoffrey Walker (1909–2001, UK) beschrieben. Albert Einstein stellte sich das Universum eher statisch und ewig vor, aber das gaben seine Gleichungen zunächst nicht her. Darum erweiterte er sie und führte in die oben beschriebene Feldgleichung einen Zusatzterm ein, der wie Materie wirkte, auch wenn gar keine Materie vorhanden war. Dieser sogenannt kosmologische Term wird heute wieder im Zusammenhang mit Dunkler Energie, die zwar im Schwerefeld Spuren hinterlässt, aber ansonsten unsichtbar ist, wieder ausführlich und wohlwollend diskutiert (obwohl der von Einstein vorgesehene Zweck keine Rolle spielt. Selbst Einstein rückte später vom statischen Weltmodell wieder ab.)
Kapitel 11
Gott würfelt unverständlich: Quantenphysik
Mit den klassischen Gesetzen von Newton, Maxwell und Einstein, die wir bisher kennengelernt haben, war die Physik zu Beginn des 20. Jahrhunderts ziemlich zufrieden. Die Erkenntnisse hatten die wissenschaftliche Grundlage der industriellen Revolution gebildet und sie erlaubten gleichzeitig ein sehr viel genaueres Verständnis von Strukturen und Prozessen in weit entfernten Teilen des Universums. Nur ein paar kleinere Dinge waren noch liegen geblieben. Beispielsweise verstand man das Spektrum der elektromagnetischen Strahlung, die ein heißer Körper aussendet, nicht so richtig. Aber was waren schon solche Kleinigkeiten gegenüber den riesigen Erfolgen? In wenigen Jahren sollte aus diesen Kleinigkeiten aber eine wissenschaftliche Revolution entstehen, deren Konsequenzen wir bis heute nicht völlig abschätzen können: Es entstand die Quantenmechanik. Diese Revolution vollzog sich aber ganz anders als die Newtonsche, die die klassische Mechanik in wenigen, großen Würfen erschuf. Newtons Principia enthielt praktisch schon Alles, was diese Revolution ausmachte. Die Quantenmechanik entstand dagegen auf eine Art, die ein hervorragendes Beispiel des in Abschn. 4.4 beschriebenen komplexen Puzzles darstellt. Ein paar Steinchen dieses Puzzles wollen wir uns ansehen . Wie das bei Puzzles oft der Fall ist, ging es am Anfang langsam und nicht ohne Korrekturen voran. Am Ende überstürzten sich dann die Ereignisse.
11.1 Die Wiederauferstehung der Lichtteilchen Für die Strahlung heißer Körper gab es einen Erklärungsansatz, der zunächst harmlos und verträglich mit der klassischen Physik von Newton, Einstein und Maxwell erschien. Der deutsche Physiker Max Planck (1858–1947) konnte 1900 das elektromagnetische Spektrum eines Ofens quantitativ erklären, indem er eine Zusatzannahme machte: Elektromagnetische Schwingungen können nur in Energiepaketen von der Materie abgegeben und aufgenommen werden. Die Energie E eines Pakets © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_11
257
258
11 Gott würfelt unverständlich: Quantenphysik
sollte proportional zur Frequenz der Schwingung sein, d. h. E = h f . Die Proportionalitätskonstante machte eine steile Karriere, trägt heute den Namen Plancksches Wirkungsquantum, und in der Physik ist für sie der Buchstabe h reserviert. Eine andere noch nicht erklärte Kleinigkeit war der schon seit 1839 bekannte Effekt, dass Metalle durch Bestrahlung mit Licht elektrische Ladung abgeben können. Der deutsche Physiker Phillip Lenard (1862–1907) untersuchte 1899 diesen Effekt genauer, wobei er die Metalle in ein Vakuum brachte, sodass die Luft keine Rolle spielen konnte. Er fand ein etwas seltsames Ergebnis: Die stets negativen Ladungen saßen scheinbar alle auf einer einzigen Sorte von Teilchen, und die Intensität des Lichts beeinflusste zwar die Zahl der herausgeschleuderten Teilchen, aber nicht deren Bewegungsenergie. Wenn die Frequenz des Lichts zu niedrig war, wurden erst gar keine Teilchen freigesetzt, egal, wie intensiv man bestrahlte. Eine quantitative Erklärung dieses sogenannten photoelektrischen Effekts lieferte Albert Einstein 1905, und für diese Arbeit (nicht etwa für die Relativitätstheorien) erhielt er 1922 – rückwirkend für 1921 – den Nobelpreis1 . Er führte den Effekt ebenfalls auf Energiepakete des Lichts (Photonen) zurück, und erklärte Lenards Messungen quantitativ mit genau demselben Zusammenhang zwischen Energie und Frequenz, wie ihn Planck bei der Erklärung der Ofenstrahlung benutzt hatte. Aber Einstein postulierte, dass die Photonen eine Eigenschaft des Lichts und nicht eine Eigenschaft von Öfen oder Metalloberflächen sind. Blöd war nur, dass das Bild von solchen Photonen nicht so richtig mit der Wellennatur des Lichts zusammenpasste. Es erinnerte stark an die Newtonschen Lichtteilchen, die man eigentlich schon begraben hatte. Weitere Entdeckungen und Entwicklungen verhalfen dem Lichtteilchen endgültig zur Wiederauferstehung. Arthur Holly Compton (1892–1962) beobachtete 1922 sehr hochfrequente elektromagnetische Strahlung, die eine Metallfolie durchquert hatte. Er bemerkte, dass die austretende Strahlung Energie verloren hatte. Dem deutschen Physiker Walter Bothe (1897–1957) gelang es 1923, sowohl die Eigenschaften des streuenden Elektrons als auch des gestreuten Photons gleichzeitig zu messen (Er erfand dabei die besonders in der Elementarteilchenphysik sehr wichtige Koinzidenzmethode) und der Schotte Charles Thomson Rees Wilson (1869–1959) konnte 1923 die Flugbahn des Elektrons in der von ihm entwickelten Nebelkammer sichtbar machen. Das Ergebnis dieser Arbeiten war erstaunlich. Die Photonen können mit Elektronen zusammenstoßen, und beim Stoßprozess werden die Gesamtenergie und der Gesamtimpuls aus Photon und Elektron exakt erhalten, genau wie bei der Streuung zweier Bälle in der Newtonschen Mechanik! Das Photon überträgt also einem ruhenden Elektron einen Teil seiner Energie und seines Impulses und es fliegt davon. Damit das auch quantitativ stimmt, muss der Impuls des Photons von der Wellenlänge abhängen, und zwar muss p = h/λ 1
Einstein wurde seit 1910 ungefähr 60 mal für den Preis vorgeschlagen, aber theoretische Physik wurde lange nicht für nobelpreistauglich erachtet. In Nobels Testament heißt es: „ein Teil an denjenigen, der auf dem Gebiet der Physik die bedeutendste Entdeckung oder Erfindung gemacht hat“. Theorie ist ja streng genommen keine Entdeckung und keine Erfindung, obwohl sich die Ansicht dazu mittlerweile geändert hat.
11.2 Spektren und Atome
259
sein. Wieder ist h das Plancksche Wirkungsquantum. Obwohl man nun sehr starke Argumente für die Existenz von Photonen hatte, blieb natürlich das Problem, wieso wir dann bei den meisten optischen Experimenten Licht als Welle beobachten. Bevor diese Frage beantwortet werden konnte, musste man mehr über die Mechanik sehr kleiner Teilchen verstehen.
11.2 Spektren und Atome Die nächsten aufregenden Entwicklungen in der Physik beruhten zwar auf optischen Beobachtungen, führten aber nun in das Innere der Atome. Damit ging es schon früh los. Der englische Arzt, Physiker und Chemiker William Hyde Wollaston (1766– 1828) entdeckte 1802 im Spektrum der Sonne scharfe, dunkle Linien. 14 Jahre später und ganz unabhängig entdeckte auch der deutsche Autodidakt Joseph Fraunhofer (1787–1826) diese Linien. Herr Fraunhofer war von Beruf Spiegelschleifer, besaß aber ein enormes Genie in der Verknüpfung von optischer Forschung und optischen Anwendungen2 . Er vermaß die Frequenzen dieser Linien genau und nach ihm sind sie auch benannt: Fraunhofer Linien. Allerdings blieb das zunächst eine unerklärte Beobachtung. Eine Erklärung fanden der Physiker Gustav Robert Kirchhoff (1824–1887) und der Chemiker Robert Wilhelm Bunsen (1811–1899). Sie entdeckten, dass ein einzelnes chemisches Element Licht in Form eines Spektrums aus scharfen Linien, d. h. bei genau definierten Wellenlängen, aussendet (und dass es Licht genau dieser Wellenlängen auch wieder absorbieren kann). Um das zu erkennen, kann man das ausgesandte Licht durch ein Prisma schicken, genau wie Isaac Newton es mit dem Sonnenlicht getan hatte. Jedes chemische Element hat dabei sein eigenes Linienmuster, sozusagen ein Spektral-Fingerabdruck, sodass man anhand dieser Muster analysieren kann, welche Elemente sich in einer Substanz befinden. Diese extrem leistungsfähige Methode (genannt Spektralanalyse) entwickelten sie in ihrer 7-jährigen Zusammenarbeit so weit, dass sie damit sogar neue Elemente entdecken konnten, nämlich die Metalle Cäsium und Rubidium, die sie im Bad Dürkheimer Mineralwasser fanden. Damit die Elemente Licht aussenden, muss man sie erhitzen. Bunsen entwickelte dazu einen Gasbrenner weiter, den schon Isaac Newton benutzte und der heute aus keinem chemischen Labor wegzudenken ist, den Bunsenbrenner. Wichtig für die weitere Geschichte ist aber vor allem, dass die Linien im Spektrum ausgesandten Lichts der Elemente Wasserstoff und Helium genau auf die dunklen Fraunhofer Linien passen. Diese wundervolle Einsicht gestattete es, die Zusammensetzung weit entfernter Sterne zu bestimmen. Spektroskopische Methoden werden heutzutage in zig Varianten in fast allen Gebieten der Naturwissenschaften und der Technik benutzt, nicht nur mit elektromagnetischer Strahlung, sondern mit jed er Art von Signal, für das man eine Spektralzerlegung durchführen kann, d. h. für 2
Daher ist nach ihm auch die Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V., die größte Gesellschaft für Forschung und Entwicklung mit Industriebezug in Europa benannt.
260
11 Gott würfelt unverständlich: Quantenphysik
das es ein Instrument gibt, das wie ein Prisma wirkt. Das Linienspektrum von Elementen beschränkt sich aber nicht auf den sichtbaren Teil der elektromagnetischen Strahlen. Die unsichtbaren, ultravioletten und infraroten Strahlen im Sonnenlicht wurden schon um 1800 entdeckt. Im Jahr 1895 entdeckte dann Wilhelm Conrad Röntgen (1845–1923) die heute nach ihm benannten Strahlen, die biologisches Gewebe durchdringen und Knochen abbilden konnten. Das fand sofort medizinische Anwendungen, die Natur dieser Strahlen blieb aber zunächst mysteriös. Max von Laue (1879–1960) gelang es 1912, mit diesen Strahlen Wellenoptik zu betreiben und zu demonstrieren, dass es sich tatsächlich auch um (sehr kurzwellige) elektromagnetische Strahlung handelt. Heute ist klar, dass sich in diesem Bereich Spektrallinien der Elemente befinden, die man als Röntgenquellen benutzen kann, z. B. im Röntgenapparat Ihrer Arztpraxis. Bei der genauen Betrachtung der Frequenzen der Spektrallinien fand man merkwürdige, unerklärliche kombinatorische Gesetze. Zum Beispiel fand der schwedische Physiker Johannes Rydberg (1854–1919), dass die Spektrallinien des Wasserstoffs sich in Folgen gruppieren lassen, deren Wellenlängen dem Gesetz genügen: −2 1/λ = R(n −2 1 − n 2 ), wobei man für n 1 die Zahlen 1, 2, . . . , n 2 und für n 2 1, 2, 3, . . . einzusetzen hat. Die Konstante R heißt heute Rydberg-Konstante. Die Rydbergsche Formel erlaubte auch die Vorhersage von Spektrallinien, die man noch gar nicht beobachtet hatte, weil sie nicht im sichtbaren Bereich der Frequenzen liegen. Eine ganze Weile lang verstand kein Mensch, woher diese merkwürdigen Gesetze stammen. Sie kommen irgendwie aus dem Inneren der Atome, und wie es da zuging, wusste man noch nicht.
11.3 Das Elektron und der Plum Pudding 1897 fand der englische Physiker Joseph John Thomson (1856–1940) heraus, dass die elektrische Ladung, die eine Metalloberfläche in einer Vakuumröhre verlässt, wenn man eine elektrische Spannung anlegt (die sogenannte Kathodenstrahlung), auf kleinen, negativ geladenen Teilchen sitzt. Diese Teilchen sind immer gleich, ganz egal, welches Material man benutzt. Es gelang ihm, ihre Masse zu bestimmen, indem er sie durch ein Magnetfeld schickte, sodass die Lorentz-Kraft (siehe Abschn. 9.4) ihre Bahn ablenkte. Atome waren das nicht, denn sie hatten ja eine elektrische Ladung. Er hatte die Existenz eines subatomaren Teilchens entdeckt, das bereits 1874 vom irischen Physiker George Johnstone Stoney (1856–1911) vorgeschlagen und benannt wurde: das Elektron, das „Atom der Elektrizität“. Dass dieses Teilchen auch im Inneren von Atomen vorkommen musste, fand der niederländische Physiker Pieter Zeeman (1865–1943) in den Jahren 1896/97 heraus, indem er die Änderung der Spektren von Elementen in einem Magnetfeld vermaß. Bereits Hendrik Lorentz hatte aus der Maxwellschen Theorie vorhergesagt, dass eine Aufspaltung einer Spektrallinie in 3 Linien auftreten sollte, falls das Licht durch Schwingung eines Atoms entsteht und das Atom von der Lorentz-Kraft beeinflusst wird. Zeeman fand diese Aufspaltung, nur war sie viele tausendmal größer als aus der
11.3 Das Elektron und der Plum Pudding
261
Lorentzschen Rechnung zu erwarten war. Eine einfache, quantitative Erklärung ergab sich, wenn man annahm, dass nicht das ganze Atom schwingt (das ja auch elektrisch neutral ist), sondern nur das viel leichtere, gerade entdeckte Elektron. Schließlich gelang es dem US-amerikanischen Physiker Robert Andrews Millikan (1863–1959) in den Jahren 1909–1910, die Ladung eines einzelnen Elektrons (Elementarladung) zu bestimmen. Thomson hatte aber nicht nur das Elektron entdeckt, er lieferte 1904 auch gleich ein Modell für den Aufbau der Atome mit, das für kurze Zeit sehr populär war. Nach seiner Vorstellung steckten die leichten Elektronen in einer positiv geladenen Substanz, die das ganze Atom ausfüllte wie Rosinen in einem Kuchenteig (daher wird es auch „plum pudding model“ genannt). Das Ende dieses Modells, und eine völlig andere Vorstellung vom Inneren eines Atoms kam mit den Experimenten, die der neuseeländische Physiker Ernest Rutherford (1871–1937), sein deutscher Assistent Johannes Wilhelm Geiger (1882–1945) und der neuseeländische Student Ernest Marsden (1889–1970) zwischen 1908 und 1913 in Manchester durchführten. Sie schickten elektrisch positiv geladene, sehr massive Teilchen, die Rutherford entdeckt hatte, (sogenannte α Teilchen, von denen Sie mehr im Abschn. 14.1 erfahren) auf eine Metallfolie. Dabei fanden Sie, dass neben vielen Teilchen, die die Folie durchdrangen und nur wenig abgelenkt wurden, einige fast rückwärts gestreut wurden, gerade so, als wären sie auf ein sehr massives Objekt gestoßen. Dieses Objekt musste sich im Inneren der Atome befinden. Rutherford rechnete aus, wie groß der Bruchteil der rückgestreuten Teilchen sein müsste, wenn sich ein schweres positiv geladenes Teilchen im Inneren der Atome befand. Das Ergebnis stimmte quantitativ mit dem Experiment überein und führte Rutherford zu einem neuen Modell über den Aufbau von Atomen. Das Rutherfordsche Modell bestand aus dem schweren, aber sehr kleinen Atomkern und den leichten Elektronen. Der Kern sorgt dafür, dass das Atom elektrisch neutral ist, daher muss er positive Elementarladungen enthalten. Die Ausdehnung eines Kerns ist sehr viel kleiner als die der Elektronen im Atom. Die typische Längenskala eines Atoms liegt bei ca 10−10 m, die eines Kerns bei 10−15 m. Diese Ladungen sitzen auf Teilchen, die Protonen genannt werden. Da die Coulombsche, elektrostatische Kraft zwischen Elektron und Proton genauso aussieht wie die Newtonsche Gravitationskraft, lag es nahe, eine Art Kepler Modell für ein Atom zu postulieren. Das sollte eigentlich besonders gut klappen für das Element Wasserstoff mit nur einem Elektron. Leider aber verträgt sich ein solches Modell überhaupt nicht mit der Elektrodynamik. Denn eine Ladung in einer Umlaufbahn ist beschleunigt und, wie wir ja bereits wissen (siehe Abschn. 9.5), strahlen beschleunigte Ladungen Energie über elektromagnetische Wellen ab. Das Elektron würde also seine Bewegungsenergie verlieren und sich folglich in den Kern hinein spiralen. Eine Rechnung zeigt, dass das sehr schnell gehen muss. Atome dürften also überhaupt nicht stabil sein! Stattdessen beobachtet man stabile Atome, die Licht nur auf bestimmten Frequenzen aussenden und schlucken, den Spektrallinien. Wie passt das zusammen?
262
11 Gott würfelt unverständlich: Quantenphysik
11.4 Bohrsche Atommechanik und Materiewellen Der dänische Physiker Niels Bohr (1885–1962) wagte 1913 eine kühne Hypothese. Er hielt an dem Kepler-Modell fest, aber er erweiterte es um eine entscheidende Aussage: Einem Elektron stehen nur einige wenige stabile Bahnen zur Verfügung (die stationären Zustände), auf denen es keine elektromagnetische Strahlung erzeugt. Diese Zustände müssten also beliebig lange leben, wenn man sie mal hergestellt hat. Störungen aus der Umgebung sorgen nun dafür, dass das Elektron nach einer kleinen Weile auf eine Bahn niedrigerer Energie springt und die überschüssige Energie als Strahlung abgibt. Bohr führte eine Bedingung ein, die die stationären Zustände festlegt: Das Produkt aus dem Impuls des Elektrons und der Länge des Kreises um den Kern für eine solche Bahn muss ein Vielfaches des Planckschen Wirkungsquantums h sein, also p2πr = nh oder pr = nh/2π . Dabei kann n die Werte 1, 2, 3, · · · annehmen. Der Faktor h/2π kommt in der Quantenmechanik so oft vor, dass man in der Physik ein eigenes Symbol dafür reserviert hat, das (hquer). Man nannte diese Regel Bohrsche Quantisierungsbedingung, aber kein Mensch hatte eine Ahnung, woher die kommen sollte. War eben so, Punkt. Ist das Elektron bei der kleinsten möglichen Energie n = 1 (dem Grundzustand) angelangt, so bleibt es für immer dort, falls man es nicht wieder anregt. Das kann passieren, wenn es ein Lichtteilchen schluckt und dabei in eine energiereichere Bahn übergeht. Dieses Bohrsche Atommodell konnte eine ganze Menge an experimentellen Resultaten erklären, obwohl es ja in offensichtlichem Widerspruch zur Elektrodynamik steht, die es andererseits benutzt. Eine ganz wichtige Bestätigung der Existenz von ausgezeichneten, stabilen Energien im Inneren eines Atoms ergab sich aus einem Experiment, das der deutsch-USamerikanische Physiker James Franck (1882–1964) und der deutsche Physiker Gustav Ludwig Hertz (1885–1975) (der Neffe des uns schon bekannten Heinrich Hertz) 1914 durchführten. Dieses Experiment zeigte zum ersten Mal, dass Atome nicht nur mit Licht Energie in diskreten Paketen austauschen, sondern auch mit Teilchen und zwar mit Elektronen, die sie durch ein Gas aus Quecksilberatomen schickten und deren Energieverlust nach dem Durchlaufen des Gases sie bestimmten. Es fanden sich genau die gleichen diskreten Energieänderungen, die man auch mit Licht erreichen kann. Also war wohl was dran an den stabilen Energieniveaus im Atom. Bloß: warum konnte man die mit der vorhanden Physik nicht verstehen? Es folgten viele Verfeinerungen des Bohrschen Modells, um die experimentell beobachteten Spektren besser zu verstehen. Insbesondere war es der deutsche Physiker Arnold Johannes Wilhelm Sommerfeld (1868–1951), der die feinere Struktur der Spektrallinien des Wasserstoffs3 erklären konnte, indem er das Bohrsche Atommodell erweiterte, und ganz im Sinne eines Kepler Modells auch elliptische Bahnen zuließ. Am weiteren Ausbau der Bohrschen Theorie auf kompliziertere Atome wurde eifrig gebastelt, aber hier stieß das Bohrsche Modell an Grenzen. Man brauchte etwas völlig Neues. Im Jahr 1924 reichte der französische Physiker Louis-Victor Pierre Raymond de Broglie (1892–1987) seine Doktorarbeit ein, in der er eine unerhörte Hypothese 3
Um diese Feinstruktur zu beobachten, braucht man sehr genaue Frequenz- bzw. Wellenlängenmessungen, sonst sieht man nur Gruppen solcher feinen, dicht benachbarten Linien als eine.
11.5 Tschüss, Anschauung!
263
aufstellte. Ebenso wie Licht nach der Einsteinschen Theorie des Photoeffekts auch Charakterzüge eines Teilchens annehmen kann, so sollte nach seiner Vorstellung jedes Materieteilchen auch Charakterzüge von Wellen haben. de Broglie glaubte felsenfest an die Einsteinsche Beziehung E = mc2 und die Plancksche Beziehung E = h f. Sein erster Schluss aus diesen beiden Gleichungen ging völlig daneben. Er glaubte, dass Lichtteilchen eine Masse haben, die man aus diesen Beziehungen leicht ablesen kann: m = h f /c2 . Seine nächste Schlussfolgerung traf aber mitten ins Schwarze. Man kann jeder Masse eine Welle mit Frequenz f zuordnen, d. h. Materie verhält sich wie eine Welle. Absurd? Erinnern Sie sich, wie lange es dauerte, bis die Newtonsche Lichtteilchentheorie durch die Wellentheorie abgelöst wurde. Wenn die Wellenlänge nur klein genug ist, ist es sehr schwierig, typische Welleneigenschaften wie Beugung oder Interferenz zu sehen. Allerdings gab es nicht den kleinsten experimentellen Hinweis auf eine Wellennatur von Materieteilchen, als de Broglie seine Doktorarbeit einreichte. de Broglie konnte aber eine wundervoll einfache Erklärung für die diskreten Bohrschen Bahnen geben. Ein Atom ist so klein, dass man die Wellennatur der Elektronen deutlich spürt. Eine stabile Bahn um den Kern kann aber nur existieren, wenn der Bahnumfang ein Vielfaches der Wellenlänge ist. Mit anderen Worten: die deBroglie Welle muss eine stehende Welle sein (s. Abschn. 9.3). Der Prüfungsausschuss aus illustren Physikern war sich sehr unsicher, wie man diese Thesen beurteilen sollte und schickte die Arbeit an Albert Einstein, der sie auch noch an Max Planck weitergab. Die Arbeit wurde schließlich akzeptiert. Zum Glück, denn schon 1927 fand man die experimentelle Bestätigung der Materiewellen. Den US-Physikern Clinton Davisson (1881–1951) und Lester Germer (1896–191) und (unabhängig davon) dem englischen Physiker George Paget Thomson (1892–1975) gelang es, ein Beugungsmuster von Elektronen zu produzieren. Der Trick zum einfachen Auffinden von Beugung besteht darin, Spalte zu finden, deren Öffnung in die Größenordnung der Wellenlänge kommt. Solche Spalte kann man zwar nicht herstellen, aber die Natur stellt sie in Kristallgittern bereit. So wurde das Beugungsmuster durch Bestrahlen von kristallinen Metallfilmen mit Elektronen gefunden.
11.5 Tschüss, Anschauung! Die weitere Entwicklung der Quantentheorie vollzog sich nun enorm rasch und brach vollständig mit vertrauten anschaulichen Vorstellungen über die Eigenschaften von Dingen in der äußeren Wirklichkeit. Eine Entwicklungslinie hatte zunächst gar nichts mit Materiewellen zu tun. Der junge Sommerfeldschüler Werner Heisenberg (1901– 1976) wurde gleich nach seiner Promotion 1924 wissenschaftlicher Assistent von Max Born (1882–1970) in Göttingen. Im Winter 1924/25 arbeitete er mit Niels Bohr in Kopenhagen, und im Frühsommer 1925 litt er an fürchterlichem Heuschnupfen.
264
11 Gott würfelt unverständlich: Quantenphysik
Daher zog er sich nach Helgoland zurück. Dort hatte er einen quantenphysikalischen Heureka! Moment, und als er wieder in Göttingen war, schrieb er die Arbeit „Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen“, die von Max Born im Juli zur Veröffentlichung eingereicht wurde. Die Arbeit schuf einen Zugang zur Quantenphysik, der es zumindest im Prinzip erlaubte, alle möglichen Systeme (und nicht nur das Wasserstoffatom) zu analysieren und die stationären Zustände zu finden. Allerdings sind Heisenbergs Argumente selbst heute noch schwer zu verstehen. Er wollte die Quantenphysik von allen nichtbeobachtbaren Größen reinigen, und zu denen zählten auch der Ort und die Geschwindigkeit eines Elektrons. Beobachtbar war hingegen die Ausstrahlung. Heisenberg wollte eine Theorie nur aus beobachtbaren Größen. Aber das Ergebnis waren ein paar sehr abstrakte Rechenvorschriften. Max Born erkannte „nach acht Tagen intensiven Denkens und Probierens“, dass Heisenberg die üblichen Größen der Mechanik, nämlich Koordinaten und Impulse durch mathematische Objekte ersetzt hatte, die Matrizen heißen. Die kannte Heisenberg gar nicht, Max Born aber wohl. Wie konnte Heisenberg auf so abwegig erscheinende Ideen kommen? Wir wissen ja schon, dass Elektronen im Atom in stationären Zuständen existieren. Diese Zustände kann man abzählen, sagen wir mit einer Zahl n = 1, 2, 3, · · · . Größen, die in der klassischen Mechanik direkt beobachtbar sind, etwa der Ort X eines Elektrons, sind es in der Atommechanik nicht mehr. Die Beobachtungsgrößen sind die Ausstrahlungen des Atoms, die mit Übergängen zwischen zwei stationären Zuständen (sagen wir zwischen dem n-ten und dem m-ten) verbunden sind. Daher „sieht“ man von den üblichen Größen der klassischen Mechanik, wie dem Ort X nur eine „Übergangsinformation“ X (n, m). Die Gesamtheit aller dieser Informationen ersetzt die klassische Größe. Man kann diese Information zu einem Zahlenschema anordnen, ungefähr so ⎞ ⎛ X (11) X (12) · · · X (1, n) · · · ⎜ X (21) X (22) · · · X (2, n) · · · ⎟ ⎟ ⎜ ⎜ .. .. ⎟ .. ⎟. ⎜ . . . ⎟ ⎜ ⎜ X (m1) X (m2) · · · X (m, n) · · · ⎟ ⎠ ⎝ .. .. .. .. . . . . Solche Schemata heißen Matrizen. Ein Markenzeichen solcher Matrizen ist es, dass man sie zwar hintereinander ausführen (multiplizieren) kann, dass das Ergebnis aber von der Reihenfolge der Faktoren abhängt. Born übersetzte Heisenbergs Regeln in die Matrixsprache und fand schließlich, dass der Kern der Heisenbergschen Arbeit sich in der folgenden Beziehung zwischen Ortskoordinate (Matrix) (z. B. x) ˆ und dem entsprechenden Impuls (Matrix) ( p) ˆ 4 zusammenfassen lässt: pˆ xˆ − xˆ pˆ = 4
h . 2πi
Der Hut über den Größen bedeutet, dass diese Größen Matrizen sind.
11.5 Tschüss, Anschauung!
265
Das müssen Sie jetzt nicht verstehen, damals verstand das niemand und auch heute versteht man nicht vollständig, was uns diese Heisenbergsche Vertauschungsrelation so alles über die Wirklichkeit sagen will. Eine Schlussfolgerung wurde so berühmt, dass sie zu einem Quanten-Meme wurde: die Unschärferelation. Wenn man am selben Quantenzustand Messungen vom Ort und Impuls eines Teilchens vornimmt, so erhält man zwei Histogramme (siehe Abschn. 3.1). Die Streuungen in diesen Histogrammen haben nichts mit Messfehlern zu tun (die kämen hinzu), sie sind unvermeidliche Konsequenzen der Quantenmechanik. Für diese Streubreiten ergibt sich eine interessante Schlussfolgerung. Ihr Produkt muss immer größer sein als das Plancksche Wirkungsquantum h. Mit anderen Worten: Gelingt es, den Ort sehr genau zu messen, so ist die Messung des Impules sehr unscharf (und umgekehrt). Eine solche Unschärferelation gibt es für viele Paare von physikalischen Eigenschaften, aber nicht für alle. Eigenschaften, deren Histogramme nicht verknüpft sind, die man also im Prinzip beide gleichzeitig beliebig genau messen kann, nennt man in der Quantenmechanik kompatibel, die anderen inkompatibel. In zwei weiteren Arbeiten versuchten Heisenberg , Born und der 1924 bei Born promovierte Pascual Jordan (1902–1980), die Regeln der nun so genannten Matrizenmechanik möglichst präzise zu formulieren. Die letzte der drei Arbeiten wurde am 16. November 1925 zur Veröffentlichung eingereicht. Parallel dazu, aber unabhängig, arbeitete der junge britische Physiker Paul Adrien Maurice Dirac (1902–1984) in Cambridge an seiner Doktorarbeit. Er war von der Idee der Matrizenmechanik sehr angetan, und es gelang ihm eine elegante Formulierung, die zumindest formal so aussah wie die klassische Mechanik Newtons, bei der Orte und Impulse durch Matrizen ersetzt werden. Diese Arbeit reichte er am 7. November 1925 zur Veröffentlichung ein. Anfang des Jahres 1926 hatte der österreichische Sommerfeldschüler Wolfgang Pauli (1900–1958) bereits die komplette Berechnung des Wasserstoff-Spektrums fertig. Mit der Matrizenmechanik ist das eine ziemlich komplizierte Aufgabe und eine glänzende Bestätigung von Paulis Genie, aber auch vom Wert der neuen Theorie. Pauli hatte bereits 1925 einen anderen, ungeheuer wichtigen Beitrag zum Verständnis von Atomen und dem Aufbau von Materie veröffentlicht, der mit der schon erwähnten Aufspaltung von Spektrallinien im Magnetfeld zu tun hatte. Die Theorie von Lorentz sagte voraus, dass eine Spektrallinie im Magnetfeld in eine ungerade Zahl von Linien aufspalten kann, also in 3, 5, 7 · · · . Nun fand man aber im Experiment viele Beispiele mit einer Aufspaltung in 2 Linien. Um das zu erklären, postulierte Pauli, dass das Elektron nicht nur um den Kern kreist, sondern noch irgendeinen anderen Freiheitsgrad besitzen muss, der nur zwei diskrete Energieniveaus hat, die ohne Magnetfeld übereinstimmen. Als er mit dieser Hypothese die Spektren analysierte, fiel ihm eine neue Regel auf: Es waren niemals zwei Elektronen im selben stationären Zustand und im selben Energieniveau des neuen Freiheitsgrades zu finden. Dieses Paulische Ausschließungs- Prinzip sollte sich als enorm wichtig für die Stabilität all der uns umgebenden Materie herausstellen. Die beiden jungen Physiker Samuel Goudsmit (1902–1978) und George Uhlenbeck (1900–1988) postulierten 1925 im niederländischen Leiden, dass der zusätzliche Freiheitsgrad ein magnetisches Moment des Elektrons sei, das nur 2 beobachtbare Werte annehmen
266
11 Gott würfelt unverständlich: Quantenphysik
kann. Da das Elektron eine elektrische Ladung trägt, sollte das magnetische Moment durch eine Drehbewegung des Elektrons entstehen, deren Drehimpuls Spin genannt wird. Das stieß zunächst auf Ablehnung. Man wusste schon, dass der Drehimpuls in Schritten von quantisiert ist und man konnte mit Lorentz ausrechnen, wie groß das zugehörige magnetische Moment war. Damit nur zwei Werte möglich sind, müssten diese Werte ±/2 sein. Aber nichts passte zusammen. Erstens musste das Elektron eigentlich eine absurd große Kugel sein, um das beobachtete magnetische Moment durch Drehung zu erhalten, selbst wenn die Rotation mit Lichtgeschwindigkeit erfolgen würde. Zweitens war das magnetische Moment aus der Lorentzschen Rechnung um einen Faktor 2 zu klein gegenüber dem aus den Aufspaltungen ermittelten Wert. Es dauerte eine Weile, bis immer neue Experimente keine Zweifel an dem Eigendrehimpuls mehr ließen, den man aber erst mal mit klassischen Konzepten überhaupt nicht verstand. In Zürich arbeitete zu dieser Zeit der österreichische Physiker Erwin Schrödinger (1887–1961) ebenfalls an einer neuen Mechanik für Atome und subatomare Teilchen. Sein Zugang war ganz einleuchtend: Er wollte eine Wellengleichung für die de Broglieschen Materiewellen finden. Während der Weihnachtsferien in Arosa rechnete er lieber herum als Ski zu fahren. Er schrieb am 27. Dezember 1925 an seinen Kollegen Wilhelm Wien: Im Augenblick plagt mich eine neue Atomtheorie. Wenn ich nur mehr Mathematik könnte! Ich bin bei dieser Sache sehr optimistisch und hoffe, wenn ich es nur rechnerisch bewältigen kann, wird es sehr schön.
Es wurde sehr schön, es wurde ein großer Wurf! In einer Serie von 4 Veröffentlichungen entwickelte Schrödinger 1926 eine Wellentheorie der Atommechanik, die statt seltsamer Matrizen nur das Feld der de Broglieschen Materiewellen benutzte. Schrödinger ging davon aus, dass die de Brogliesche Materiewelle eines Teilchens der Zustand (s. Abschn. 3.1) dieses Teilchens ist. Sie enthält also alles, was uns die Natur über dieses Teilchen zu sagen hat, inklusive ihrer Zeitentwicklung. Die Form der Wellengleichung konstruierte er durch einen abduktiven Schluss. Er fragte nach der einfachsten Gleichung, die eine deBroglie Welle für ein völlig freies Teilchen als Lösung hat. Diese Welle muss – das war schon deBroglie klar – eine einfache harmonische Welle sein, deren Frequenz durch die Plancksche Bedingung E = h f und deren Wellenlänge durch die Comptonsche Bedingung p = h/λ (siehe Abschn. 11.1) gegeben sind. Außerdem muss für ein Teilchen mit Masse m die Bewegungsenergie und der Impuls über die Beziehung E = (m/2)v 2 = p 2 /2m verknüpft sein (denn p = mv). Damit erriet er die nach ihm benannte Gleichung5 Damit konnte er Spektren ebenso berechnen wie die zeitliche Entwicklung von Quantensystemen. Obendrein zeigte er in einer 5. Veröffentlichung die vollständige Gleichwertigkeit seiner Wellenmechanik mit der Matrizenmechanik von Heisenberg, 5
Was immer Sie auch irgendwo lesen, es gibt keine Ableitung der Schrödingergleichung. Man kann es nicht oft genug betonen: Physikalische Grundgesetze sind dadurch ausgezeichnet, dass man sie nicht deduktiv ableiten kann. Wenn man physikalische Grundgesetze aus anderen physikalischen Gesetzen ableiten kann, dann sind es eben keine Grundgesetze.
11.5 Tschüss, Anschauung!
267
Born und Jordan. Das war auf den ersten Blick sehr erstaunlich, denn die Matrizenmechanik war eine Theorie, die nur diskrete Größen kennt, während die Schrödingersche Beschreibung eine Kontinuumstheorie ist. Der Grund für diese sehr verschieden aussehenden, aber gleichwertigen Formulierungen der Atommechanik liegt darin, dass die Matrizenmechanik sich zunächst um die beobachtbaren Größen im Inneren der Atome kümmert, während die Wellenmechanik die Zeitentwicklung der de Broglieschen Materiewellen untersucht, die den Zustand eines Teilchens festlegen. Der Zustand ist also ein Feld, und das klang für Viele sehr vertraut, denn es klang wie in der Maxwellschen Elektrodynamik. Deshalb wurde die Wellenmechanik auch schnell populärer als die Matrizenmechanik. Obwohl Schrödinger mit dieser Wellenfunktion viele Dinge berechnete, war ihm nie so richtig klar, was denn nun diese Wellenfunktion in der äußeren Realität sein soll. Schrödingers Bezeichnung für diese Funktion ist so etwas wie das Markenzeichen für Mysterien der Quantenmechanik geworden, eine Art Logo. Er nannte sie ψ(r, t), heute ehrfürchtig als Psi-Funktion bezeichnet6 . Hatte er nun so etwas wie die Maxwellsche Theorie für Atommechanik gefunden, mit Feldstärken für Materiefelder? Schrödinger blieb vage, schrieb etwas von Ausschmierung eines Teilchens im Raum, was immer das sein sollte. Es stand jedenfalls fest, dass im Rahmen von Schrödingers Theorie die ψ-Funktion alle Information enthielt, die man von der äußeren Wirklichkeit über ein System bekommen kann. Eine Eigenschaft seiner ψ-Funktion ist von so herausragender Bedeutung für die Revolution, die die Quantentheorie in unseren Vorstellungen über die Wirklichkeit ausgelöst hat, dass wir sie hier besonders betonen. Zunächst klingt sie verständlich, denn wir kennen sie schon aus der Wellentheorie des Abschn. 9.3. Man kann zwei Wellen überlagern. Das gilt auch für de Broglie-Schrödinger Wellen. Das ist nicht einfach ein Rechentrick oder so: es ist operativ. Man kann es in der äußeren Wirklichkeit machen. Die Überlagerungsfähigkeit der Wellenfunktion wird tatsächlich in abertausenden von Experimenten immer wieder getestet. Und sie wurde nie falsifiziert. Was ist aber so erstaunlich daran? Nun, wenn das stimmt, dann muss man mit Teilchen Experimente machen können wie mit Licht. Zum Beispiel sollte man durch Spalte Interferenzmuster erzeugen können. Eigentlich postulierte das doch schon de Broglie, und die Wellenphänomene durch Überlagerung wurden ja auch 1927 experimentell gefunden (s. o.). Aber kann man die beobachten? Dazu muss man wissen, wie genau die ψ Funktion mit Beobachtungen zusammenhängt. In der Mitte des Jahres 1926 gab Max Born eine sehr präzise, aber auch sehr überraschende Antwort. Er hatte versucht, die Ergebnisse von Stoßvorgängen zwischen subatomaren Teilchen mithilfe der Quantenmechanik zu berechnen. Das gelang ihm nur mit der Wellenmechanik7 , allerdings auch dann nur, wenn er die Wellenfunktion in einer ganz besonderen Art und Weise interpretierte, die er in seiner Arbeit Zur Quantenmechanik der Stoßvorgänge so zusammenfasste: 6
Dazu hat bestimmt auch der Begriff Psi-Phänomene für parapsychologische Fähigkeiten beigetragen, der seit 1942 verwendet wird. Die esoterische Literatur beruft sich auch gern auf die Quantentheorie, weil da ja auch Alles mit Allem zusammenhängt, so irgendwie…. 7 Was seine Ko-Autoren Heisenberg und Jordan gar nicht gut fanden.
268
11 Gott würfelt unverständlich: Quantenphysik
Die Schrödingersche Quantenmechanik gibt also auf die Frage nach dem Effekt eines Zusammenstoßes eine ganz bestimmte Antwort; aber es handelt sich um keine Kausalbeziehung. Man bekommt keine Antwort auf die Frage, „wie ist der Zustand nach dem Zusammenstoße“, sondern nur auf die Frage „wie wahrscheinlich ist ein vorgegebener Effekt des Zusammenstoßes…“ Hier erhebt sich die ganze Problematik des Determinismus. Vom Standpunkt unserer Quantenmechanik gibt es keine Größe, die im Einzelfall den Effekt eines Stoßes kausal festlegt; aber auch in der Erfahrung haben wir bisher keinen Anhaltspunkt dafür, daß es innere Eigenschaften der Atome gibt, die einen bestimmten Stoßerfolg bedingen. Sollen wir hoffen, später solche Eigenschaften (etwa Phasen der inneren Atombewegungen) zu entdecken und im Einzelfalle zu bestimmen ? Oder sollen wir glauben, daß die Übereinstimmung von Theorie und Erfahrung in der Unfähigkeit, Bedingungen für den kausalen Ablauf anzugeben, eine prästabilierte Harmonie ist, die auf der Nichtexistenz solcher Bedingungen beruht? Ich selber neige dazu, die Determiniertheit in der atomaren Welt aufzugeben. Aber das ist eine philosophische Frage, für die physikalische Argumente nicht allein maßgebend sind
Einerseits soll also die Wellenfunktion eines Systems nach Meinung von Max Born alles beinhalten, was man über das System wissen kann, andererseits reicht dieses Wissen nur aus, um eine Statistik von Beobachtungen zu machen, aber nicht mehr für eine präzise Voraussage. Die äußere Wirklichkeit ist also keine „deterministische Maschine“. Eine präzise mathematische Formulierung der Bornschen Interpretation zeige ich Ihnen gleich im nächsten Abschnitt. Sie ist der Kern der Quantenmechanik. Die Quantenmechanik als Werkzeug für die Beschreibung atomarer und subatomarer Teilchen war nun komplett. Den Schlussstein bildeten Arbeiten am Ende des Jahres 1926 von Dirac und von Jordan, die den Formalismus, mit dem man von nun an physikalische Eigenschaften (d. h. die Statistik jeder beobachtbaren Größe) zu berechnen hatte, vervollständigten und elegant darstellten. Jetzt begannen hitzige Diskussionen darüber, was all diese abstrakten Rechenregeln bedeuten sollen. Sind die komplizierten Vorschriften aus einer anschaulichen, aber noch kleineren Welt entstanden, zu der wir noch keinen Zugang haben, oder ist in der atomaren und subatomaren Welt das Ende der Anschaulichkeit erreicht?
11.6 Der Kern der Quantenmechanik Was für eine Art Welle ist diese Materiewelle? Sie ist ein Feld aus Pfeilgrößen ψ. Das kennen wir schon aus der Elektrodynamik. Die Pfeile der Quantenmechanik leben allerdings in einem zweidimensionalen Raum. Dieser Raum ist nicht etwa eine Ebene im Ortsraum, seine Elemente sind auch keine Feldstärkepfeile. Es ist etwas völlig Neues, für das es in unserer Anschauung keine Entsprechung gibt. Bis heute rätselt man daran herum. Das Einzige, was man darüber weiß, ist die Bedeutung dieser Pfeile für die Vorhersage von Messergebnissen. Bevor wir die genau formulieren können, müssen wir etwas mehr über die Mathematik dieser Pfeile wissen. Ihre Besonderheit ist, dass sie eigentlich nur Zahlen darstellen, allerdings komplexe Zahlen, die Sie vielleicht noch nicht kennen. Dann lesen Sie den folgenden Einschub.
11.6 Der Kern der Quantenmechanik
269
Komplexe Zahlen Pfeile in diesem Zahlenraum heißen komplexe Zahlen, der zweidimensionale Raum heißt Gaußsche Zahlenebene. Komplexe Zahlen haben eine lange Geschichte in der Arithmetik. Die begann mit der Einsicht, dass es unmöglich ist, eine reelle Zahl zu finden, deren Quadrat negativ ist. Es fiel aber auf, dass man so tun konnte, als ob es solche Zahlen gäbe. Eigentlich brauchte man nur eine einzige neue Größe einzuführen. Man nannte sie i und sie sollte die Eigenschaft i 2 = −1 haben. Man kann i mit einer reellen Zahl y multiplizieren und erhält eine ganze Zahlengerade. Zum Beispiel hat die Zahl z = 2i die Eigenschaft z 2 = −4. Da diese Zahlen aber nach Meinung der damaligen Zeit gar nicht existieren, nannte René Descartes sie imaginär, und diese Bezeichnung hat sich gehalten, obwohl heute niemand mehr an ihrer Existenz zweifelt. Erstaunlicherweise konnte man mit diesen Zahlen ganz wie gewohnt rechnen. Zum Beispiel konnte man zu einer imaginären Zahl eine reelle addieren, beispielsweise z = 1 + 2i. Die Menge all dieser Zahlen der Form z = x + i y nannte man komplex. Diese Bezeichnung geht auf Gauß zurück. x nennt man den Realteil und y den Imaginärteil der komplexen Zahl z. Man kann komplexe Zahlen addieren, aber auch multiplizieren, und zwar einfach durch Ausmultiplizieren der Klammern in (x + i y)(u + iv) = xu − yv + i yu + i xv. Was man addieren und multiplizieren kann, das kann man auch subtrahieren und dividieren. Ende des 18. Jahrhunderts wurde klar, dass man die komplexen Zahlen als Punkte in einer Zahlenebene auffassen kann, die von zwei senkrecht aufeinander stehenden Achsen aufgespannt wird: der reellen Zahlengeraden und der imaginären Zahlengeraden. Jede komplexe Zahl war ein Punkt der Ebene, den man durch einen Pfeil darstellen konnte. Die kartesischen Koordinaten des Punktes waren gerade Real- und Imaginärteil der komplexen Zahl und die Addition komplexer Zahlen war nichts anderes als die Pfeilsumme in der Ebene.
Eine wichtige Einsicht über die quantenmechanischen Zustände erhält man, wenn man sich an die stationären Atomzustände erinnert. Das sollen ja Wellenfunktionen sein. Wenn nun ein Elektron sich einmal in einem stationären Zustand befindet, dann bleibt es immer darin. Operativ bedeutet das, dass jede Messung, die danach fragt, ob das Elektron in einem anderen stationären Zustand ist8 , die Antwort Nein ergibt. Die Wahrscheinlichkeit, ein Elektron im stationären Zustand ψ1 in irgendeinem anderen stationären Zustand ψ2 zu finden ist also 0. Der Einfachheit halber beschränken wir die Diskussion im Folgenden mal auf diese beiden stationären Zustände, d. h. das Elektron ist mit Sicherheit in keinem anderen stationären Zustand. An der Beobachtung scheint zunächst nichts besonders merkwürdig, denn schließlich ist das in unserer gewöhnlichen Umwelt auch so. Wenn ein Ball auf Feld 1 liegt, dann ist die Wahrscheinlichkeit, ihn auf Feld 2 zu finden gleich Null. 8
Diese Messungen muss es geben. Das ist eine praktische Frage, und es klappt tatsächlich.
270
11 Gott würfelt unverständlich: Quantenphysik
Nun kommt das quantenmechanische Mysterium. Man kann de Brogliesche Wellen überlagern, d. h. man kann Zustände herstellen, deren Wellenfunktion aψ1 + bψ2 ist. Dabei sind a und b komplexe Zahlen, also zweidimensionale Pfeile. Die Bedeutung solcher Zustände wird erst klar, wenn man nach den Ergebnissen von Messungen fragt. Das Mysterium der Quantenmechanik Wenn man ein Elektron im Zustand aψ1 + bψ2 präpariert hat und misst, ob es sich im stationären Zustand ψ1 befindet, so erhält man bei einer Messreihe statt einer eindeutigen Antwort eine Messwertstatistik von Ja und Nein Antworten. Nach der Messung befindet sich das Teilchen im Zustand ψ1 , d. h. eine Messung beobachtet nicht nur, sie verändert auch den Zustand und stellt einen neuen her. Die Wahrscheinlichkeit (relative Häufigkeit im Histogramm) P1 , das Elektron im Zustand ψ1 zu finden ist proportional zum Quadrat der Länge des a-Pfeils, also P1 = C|a|2 . Analog ist die Wahrscheinlichkeit P2 = C|b|2 . Da P1 + P2 = 1 ist, muss C = 1/(|a|2 + |b|2 ) sein und folglich ist P1 =
|a|2 , |a|2 + |b|2
P2 =
|b|2 |a|2 + |b|2
Das nennt man Bornsche Wahrscheinlichkeitsinterpretation.
Irgendwo hier steckt der Kern der Quantenmechanik, den man noch nicht so gut verstanden hat, wie man gern möchte. Wenn Sie fragen, woher diese seltsame Regel stammt: darauf gibt es keine logische Antwort. Sie ist Teil der Theorie und sie ist ein Grundgesetz. Sie wurde aber so oft experimentell überprüft, dass niemand mehr an ihr zweifelt. Beachten Sie, dass das Histogramm der Messergebnisse diesmal nicht von unkontrollierten äußeren Einflüssen stammt, sondern vom Zustand selbst. Die Rechenregel zur Vorhersage des Histogramms ist völlig präzise. Daher hat sich die Physik lange Zeit damit abgefunden, dass es da nichts zu verstehen gibt. Man kann die Ergebnisse von Messungen berechnen und basta. Die äußere Welt hat eben ein Element des Zufalls eingebaut, das können wir nur zur Kenntnis nehmen. Die ganzen Rechenvorschriften der Quantenmechanik muss man überhaupt nicht als Elemente der Realität auffassen. Nur Messungen und ihre Ergebnisse sind Teile der äußeren Welt, während die Theorie und ihre Objekte (zum Beispiel die Wellenfunktion) nur Modelle sind, die wir gemacht haben, um uns in der vollkommen unanschaulichen Mikrowelt zurechtzufinden. Dieser Standpunkt stammt von den Eltern der Quantenmechanik und ist als Kopenhagener Deutung bekannt. Der US-amerikanische Physiker David Mermin (*1935) hat es so auf den Punkt gebracht: Wenn ich gezwungen wäre, in einem Satz zusammenzufassen, was die Kopenhagener Deutung für mich bedeutet, würde er lauten: „Halt die Klappe und rechne!“
11.7 Atome und Strahlung: Die Quantenelektrodynamik
271
11.7 Atome und Strahlung: Die Quantenelektrodynamik Aber die Physik wartete nicht, bis sie verstanden hatte, was die Quantenmechanik bedeutet. Dann wären wir heute immer noch nicht viel weiter. Zunächst machte sie sich daran, weitere Teile des Puzzles zu komplettieren. Wie steht es mit der Quantenmechanik des Lichts? Schließlich standen die Photonen ja am Anfang der QuantenBastelei. Die Ausweitung der Regeln der Atommechanik auf das Licht erwies sich als viel schwieriger (und zugleich viel ergiebiger) als zunächst gedacht. Man musste mehrere Probleme überwinden. Erstens waren alle Rechnungen der Atommechanik mit der neuen Quantenmechanik in der Newtonschen Raum-Zeit und nicht in der speziellen Relativitätstheorie durchgeführt worden. Die Schrödingergleichung ist für große Relativgeschwindigkeiten nicht anwendbar, schon gar nicht für Photonen, die sich mit Lichtgeschwindigkeit bewegen. Da es sich um eine Wellengleichung handelte, war dieser Mangel rasch zu beheben, schließlich kannte man ja schon die Wellengleichungen der Maxwelltheorie. Das wusste auch Schrödinger und hatte als einen ersten Versuch für eine Wellengleichung die SRT kompatible Form in Betracht gezogen. Die lieferte aber völlig inakzeptable Voraussagen für das Wasserstoffspektrum, daher ließ er sie für eine Weile wieder fallen. Außerdem ließ sich der Spin des Elektrons nicht einbauen. Daher schlug Paul Dirac eine andere, relativistisch korrekte Modifikation der Wellengleichung vor, die den Elektronenspin enthielt, und mit der man das Wasserstoffspektrum fantastisch genau berechnen konnte. Zudem löste diese Gleichung ein Ärgernis der bisherigen Quantenmechanik in Bezug auf den Spin und den Magnetismus. Eine drehende Ladung hat gemäß der Maxwelltheorie ein magnetisches Moment. Schon die alte Ampèresche Vorstellung vom Magnetismus durch Kreisströme baute auf diesem Ergebnis. Wenn man aber den Elektronenspin als rotierende Ladung des Elektrons interpretierte, so ergab sich ein magnetisches Moment, dass nur halb so groß war wie das gemessene. Es fehlte ein Faktor zwei, und das in Rechnungen, die Genauigkeiten im Promillebereich haben sollten. Die Diracsche Gleichung ergab nun überraschenderweise, dass dieser Faktor zwei durch die SRT erzwungen wurde. Das war natürlich ein wunderschönes Resultat, denn es zeigte, wie Puzzlesteine zusammenpassen. Allerdings gab es auch bedenkliche Ergebnisse. Vor allem sollte es für ein freies Teilchen Zustände geben, bei denen das Elektron negative Energien besitzt. Ein freies Elektron könnte also fortwährend strahlen und dabei die Energiezustände immer weiter hinabsteigen. Das wird aber niemals beobachtet, und es hätte auch zur Folge, dass die Materie völlig instabil wäre. Jede kleine Störung eines Atoms würde zum Kollaps führen! Dirac hatte eine tolle Idee, die auf dem Paulischen Ausschließungsprinzip (siehe Abschn. 11.5) beruhte. Wenn alle Zustände mit negativen Energien schon von Natur aus mit Teilchen belegt sind (das wurde der Fermi-See genannt, nach dem italienischen Physiker Enrico Fermi (1901–1954) ), die wir nicht direkt sehen können, dann sorgt das Pauli-Prinzip dafür, dass kein weiteres Elektron in diesen Bereich vordringen kann. Andererseits müsste es möglich sein, durch Energieeinstrahlung ein Elektron aus dem Bereich negativer Energien in den Bereich positiver Energien anzuheben, und im Fermisee bliebe ein Loch zurück. Dieses Loch
272
11 Gott würfelt unverständlich: Quantenphysik
könnte man beobachten, es sähe aus wie ein positiv geladenes Teilchen. Ein solches Teilchen, das sogenannte Positron wurde von Carl David Anderson (1905–1991) im Jahr 1932 in der kosmischen Strahlung entdeckt. Die weitere Entwicklung der Theorie zeigte dann leider, dass der Fermisee wohl doch noch nicht die richtige Idee war. Schließlich müsste es eine enorme Menge von Elektronen in den Tiefen dieses Sees geben, die eine riesige elektrische Ladung und eine riesige Masse ins Universum bringen, im Widerspruch zu allen Beobachtungen. Dafür gaben später Richard Feynman und der Schweizer Ernst Stueckelberg (1905–1084) eine andere, aber nicht weniger phantastische Interpretation des Positrons als Anti-Teilchen, als Elektron, das in der Zeit rückwärts läuft. Der Prozess der Paarerzeugung, d. h. der Entstehung von einem Elektron-Positron Paar aus einem Photon mit genügend viel Energie wurde 1933 von Irène9 (1897– 1956) und Frédéric Joliot-Curie (1900–1958) gefunden. Das sind natürlich einerseits sehr schöne Bestätigungen der grundlegenden Hypothesen. Andererseits zeigen sie ein ebenso grundlegendes Problem, das alle Atomtheorien – auch die relativistischen – haben: es sind Theorien für ein einziges Teilchen, aber in Wirklichkeit kann sich die Anzahl der Teilchen ändern. Bei der Paarerzeugung entstehen aus einem einzigen Teilchen zwei. Auch der entgegengesetzte Prozess, die Paarvernichtung, wird beobachtet. Ja, und schließlich: Photonen werden bei allen möglichen Prozessen erzeugt und vernichtet. Mit einer Theorie für ein einziges Teilchen war es also nicht getan. Als ersten Schritt gelang es Paul Dirac 1927, die Kopplung zwischen einem nichtrelativistischen Atom und einer Quantenversion des Maxwellschen Strahlungsfeldes zu beschreiben und damit die sogenannte spontane Emission zu erklären. Dieser Prozess ist die Ursache für das meiste Licht in unserer Umgebung, konnte aber mit der Atommechanik allein nicht erklärt werden. Ein Atom hat nach der Atommechanik stationäre Zustände, und in der Quantenmechanik lebt jeder dieser Zustände unendlich lange. Damit ein angeregter Zustand zerfällt und dabei Licht aussendet, muss er gestört werden. Woher soll so eine Störung kommen? Dirac zeigte, dass eine Kopplung zwischen dem Atom und dem Strahlungsfeld ausreicht. Die Idee zur Quantisierung des Lichtfeldes beruht auf einer einfachen Analogie. Formuliert man nämlich die Maxwellgleichungen in Form der spektralzerlegten elektrischen und magnetischen Felder, so sehen sie genauso aus wie die Newtonschen Bewegungsgleichungen für (unendlich viele) ungekoppelte Federn, an denen jeweils eine Masse hängt. Nun wendet man einfach die Heisenbergschen oder Schrödingerschen Regeln für die Atommechanik auf Federn an, – und fertig ist die erste Quantentheorie eines Feldes. Das wirklich Verblüffende daran ist, dass der Atomzustand auch dann zerfällt, wenn das Strahlungsfeld kein einziges Photon enthält. Das ist der Zustand mit der kleinstmöglichen Energie des Strahlungsfeldes (sein Grundzustand, den nennt man bei Feldern auch Vakuumzustand), und klassisch ist es ein Nichts, d. h. ein System, in dem alle Maxwell-Felder verschwinden. In der Quantenmechanik hat so ein Grundzustand aber noch ein gewisses Eigenleben! Obwohl die quantenmechanischen 9
Die ältere Tochter von Marie und Pierre Curie.
11.7 Atome und Strahlung: Die Quantenelektrodynamik
273
Wahrscheinlichkeiten so beschaffen sind, dass die Mittelwerte aller Maxwellfelder verschwinden, gilt das für Fluktuationen dieser Felder nicht! Die Fluktuationen im Grundzustand reichen also zum Zerfall angeregter Atomzustände, und genau das nennt man spontane Emission. Für die Berechnungen benutzte Dirac eine Näherungsmethode, die man in der Physik sehr häufig verwendet: die Störungsrechnung. Ausgangspunkt sind Modelle für zwei Systeme (hier das Atom und das Strahlungsfeld), die man mathematisch exakt lösen kann, wenn sie nicht gekoppelt sind. Dann führt man eine Kopplung zwischen diesen Systemen ein. Die Stärke der Kopplung charakterisiert man durch eine Zahl, sagen wir g. Alle beobachtbaren Ergebnisse hängen also von g ab. Greifen wir ein Ergebnis heraus, das uns interessiert, nennen wir es einmal M(g). Jetzt kommt der entscheidende Punkt. Wir nehmen an, dass die Abhängigkeit von g für kleine g glatt ist. Dann können wir die Abhängigkeit von g sehr gut als linear nähern, d. h. M(g) ≈ M (g = 0)g. Aber für g = 0 können wir ja alles mathematisch ausrechnen, also insbesondere auch die Größe M (g = 0). Das ist nur unser kleines Einmaleins der höheren Mathematik, aber damit können wir beobachtbare Größen für das gekoppelte System berechnen! Das quantitative Verständnis der spontanen Emission war ein großer Erfolg. Allerdings wiesen Kollegen von Dirac, speziell Paul Ehrenfest (1880–1933), sofort darauf hin, dass die Störungstheorie sich nicht ausbauen lässt. Wollte man genauer werden und auch noch die quadratische Abhängigkeit von der Kopplung berechnen, dann treten unweigerlich Terme auf, die divergieren, d. h. die unendlich groß sind. Der Ursprung und die Bedeutung dieser divergenten Terme blieben unklar. Vielleicht musste man zunächst dafür sorgen, dass die ganze Theorie der SRT genügte? Das schafften Jordan, Pauli und Heisenberg in drei Arbeiten. Ein wichtiger Punkt war dabei, dass man auch die Teilchen durch eine Feldtheorie beschreiben musste, genau wie die Photonen. Die Teilchen treten dann als Anregungen dieses Feldes auf, und es können beliebig viele Teilchen werden. Jordan hatte diese Auffassung mit der griffigen Idee begründet, man müsse auch das de Brogliesche Materiewellenfeld noch mal quantisieren, genau wie es mit dem Maxwellfeld geschehen war. Er nannte das zweite Quantisierung, und dieser Begriff hat sich bis heute gehalten. Die Theorie hieß jetzt auch offiziell Quantenelektrodynamik und war mathematisch äußerst anspruchsvoll10 . Leider war das Problem der divergenten Terme nicht verschwunden. Diese beiden Tatsachen brachten viele Physike dazu, sich von der Quantenfeldtheorie wieder abzuwenden, und einfachere Zugänge zu suchen. Die Unbeirrbaren schauten sich aber die unendlichen Terme genauer an und versuchten, ihren Ursprung irgendwie physikalisch zu verstehen. Dabei ergab sich ein einfaches Muster. Die beiden ungekoppelten Teilsysteme, nämlich das Strahlungsfeld und das Materiefeld enthielten Parameter wie zum Beispiel die elektrische Teilchenladung und die Teilchenmasse. Aber diese Parameter wurden durch die Kopplung verändert, das ergab die Rechnung. Also konnten sie nicht die Masse und Ladung des physikalischen Teilchens sein, denn die Aufteilung in die Teilsyste10
So sagt man das in der Physik. In der Mathematik würde man sagen, dass es ein komplizierter Haufen schlecht definierter Heuristiken war.
274
11 Gott würfelt unverständlich: Quantenphysik
me passiert ja nur in unserer Geisteswelt. In der äußeren Wirklichkeit kann man die Kopplung zwischen einem geladenen Teilchen und dem Maxwellfeld nicht einfach abschalten, d. h. die Parameter, mit denen man die Theorie beginnt, sind gar nicht beobachtbar! Aber die Korrekturen, die man zu diesen Größen in der Störungstheorie berechnet, sind teilweise unendlich. Wenn man sich davon nicht abschrecken lässt und in einem zweiten Schritt beobachtbare Größen durch die korrigierten Parameter ausdrückt, dann gibt es wie durch Zauberei keine Unendlichkeiten in diesen Größen mehr. Der Urgrund aller (!) unendlichen Korrekturen steckt also in den Korrekturen von wenigen Parametern. Das zu beweisen, war ein ziemliches Stück Arbeit. Der Preis, den man zu zahlen hat ist, dass man die korrigierten Größen nicht wirklich berechnen kann, sondern durch Vergleiche mit dem Experiment bestimmen muss. Diesen Umgang mit den unendlichen Größen in der Quantenelektrodynamik nannte man Renormierung, weil die künstlichen Parameter in den entkoppelten Teilsystemen (die nennt man nackte Größen) beim Einschalten der Kopplung neu bestimmt werden müssen. Aber es blieb natürlich sehr störend, dass die nackten Größen unendlich gewählt werden mussten. Das Verfahren der Renormierung wurde im Wesentlichen von drei Physikern unabhängig voneinander gleichzeitig entwickelt: Julian Schwinger (1918–1994), Richard Feynman (1918–1988) und Shin’ichir¯o Tomonaga (1906–1979). Alle drei bedienten sich dabei sehr verschiedener Sprachen. Im April 1948 stellten Schwinger und Feynman ihre Methoden auf einer Konferenz vor. Als Erster sprach Schwinger und er hielt einen langen, ausgefeilten und sehr anstrengenden Vortrag, der (zu Recht) den Eindruck erweckte, er habe die Probleme der Quantenelektrodynamik gelöst. Dann folgte Feynman, und er präsentierte eine sehr unkonventionelle Methode, denen die Zuhörerschaft nicht mehr folgen konnte (sie waren alle auch schon etwas müde von Schwingers Vortrag), und die sie ein bisschen an Comic Art erinnerte. Feynman hatte irgendwelche Bildchen, denen er irgendwie mathematische Ausdrücke zuordnete mit denen man – wie er behauptete – dasselbe ausrechnen konnte wie mit Schwingers Methoden. Sein Vortrag fiel durch. Es gab aber einen mathematisch besonders begabten Wissenschaftler, Freeman Dyson (1923–2020), der von Feynmans intuitiven Ideen begeistert war, und dem es gelang, die Äquivalenz dieser Methoden mit denen von Schwinger und Tomonaga zu zeigen. Jetzt glaubten schließlich alle, dass Feynmans Methode auch stets richtige Ergebnisse liefert, und sie setzte sich überall durch, weil sie auch für mathematisch nicht so versierte Physike wundervolle Einsichten bot, die das Nachdenken über subatomare Prozesse enorm erleichterten. Als Beispiel für die suggestive Kraft von Feynmans Bildertechnik betrachten wir mal die Wechselwirkung zwischen zwei geladenen Teilchen vom Standpunkt der Quantenfeldtheorie aus (s. Abb. 11.1). Die grundlegende Wechselwirkung ist die zwischen dem Teilchen und dem elektromagnetischen Feld, genauer gesagt, den Photonen. In einer Quantenfeldtheorie sind Wechselwirkungen zwischen Teilchen immer lokal, d. h. sie finden an oder in der unmittelbaren Nähe eines Punktes der Raum-Zeit statt. Wechselwirkungen über eine (kleine oder große) Entfernung kommen durch eine Kombination von 2 Ereignissen zustande. So kann ein Teilchen (Elektron) ein Photon erzeugen, indem es von seiner Energie und seinem Impuls abgibt. Das Photon
11.8 Neue Kräfte
275
Abb. 11.1 Ein Feynman Diagramm. Die durchgezogenen Linien beschreiben Elektronen, die gestrichelte Linie ein Photon. Energie und Impuls sind an den Linien notiert. Ein Elektron bewegt sich von links unten zu einem Wechselwirkungspunkt (Vertex), wo es ein Photon aussendet und mit geänderter Energie und Impuls weiterfliegt. Bei der Wechselwirkung sind Energie und Impuls erhalten. Das Photon fliegt davon und trifft auf das Elektron von rechts unten, von dem es absorbiert wird. Dadurch wechselwirken die beiden Elektronen miteinander. Mit Regeln, die von Feynman konstruiert wurden, kann man die Wahrscheinlichkeit für einen Prozess, der durch ein Diagramm beschrieben wird , genau berechnen
kann von einem anderen Teilchen absorbiert werden, das dadurch Energie und Impuls erhält. Dieser Mechanismus einer Wechselwirkung zwischen Teilchen durch den Austausch von anderen Teilchen ist ein universelles Prinzip aller Quantenfeldtheorien. Komischerweise sind für Elektron und Photon auch Energien und Impulse erlaubt, die (bis auf die Erhaltungssätze an Wechselwirkungspunkten) gar nicht zusammenpassen. Zum Beispiel muss für ein reales Photon in der Abb. 11.1 u = ck sein, für ein Feynmandiagramm-Photon aber nicht. Das ist Feynmans höheres Jägerlatein.
11.8 Neue Kräfte Und dann gab es noch ein zweites, sehr wichtiges physikalisches Merkmal der Unendlichkeiten. Sie entstehen aus Effekten, bei denen sich Teilchen sehr nahe kommen. Das wiederum war auch zu erwarten, denn die elektrischen Kräfte (Coulomb Gesetz) divergieren ja bei Annäherung. Das schien eine gute Ausrede zu liefern, um die Problemlösung auf spätere Zeiten zu verschieben, denn auf sehr kleinen Längenskalen könnten andere Naturkräfte ins Spiel kommen. Über Naturkräfte, die Atomkerne zusammenhalten, wurde schon lange spekuliert. Wenn nämlich ein Atomkern aus mehreren Protonen besteht, dann stoßen die sich ja ab. Diese Abstoßung ist sehr stark, denn die Protonen kommen sich sehr nahe. So ein Atomkern hat ja einen typischen Durchmesser von 10 · 10−15 m (s. Abschn. 11.3). Es muss also eine sehr starke zusammenhaltende Kraft geben, die verhindert, dass der Kern auseinander fliegt. Das bezeichnete man als starke Wechselwirkung, hatte aber keine Ahnung, woher die kommen sollte. Im Jahr 1932 hatte der Engländer James Chadwick (1891–1974) entdeckt, dass eine in Atomkernen versteckte Teilchensorte ohne Ladung, das Neutron, aus dem
276
11 Gott würfelt unverständlich: Quantenphysik
Atomkern befreit werden konnte. Das gelang ihm durch Beschuss von Atomkernen mit anderen Atomkernen. So ein freies Neutron ist allerdings nicht stabil. Es lebt ungefähr 10 min, dann zerfällt es spontan in ein Proton, indem es ein Elektron aussendet. Das nennt man β-Zerfall. Auch dieser Zerfall ließ sich nicht mit der Quantenelektrodynamik beschreiben. Zerfälle, bei denen ein Atomkern ein Elektron aussendet, waren bereits von Henri Becquerel (1852–1908) beim Experimentieren mit Uransalzen entdeckt worden. Becquerel wies 1900 nach, dass Teilchen, die bei solchen radioaktiven Zerfällen frei werden, magnetisch abgelenkt werden können und negativ geladen sind. Beim genaueren Beobachten stellte sich heraus, dass bei dem Zerfall die Erhaltungssätze verletzt waren. Sollte man jetzt etwa auch an diesen Grundfesten sägen? Bohr war dafür. Er vertrat die Ansicht, dass Energieerhaltung vielleicht nur in einem statistischen Sinn gilt, als Mittelwert über viele Beobachtungen. Pauli war dagegen. Er postulierte, dass neben dem Elektron und dem Proton beim Zerfall noch ein weiteres Teilchen entsteht, das für die Einhaltung der Erhaltungssätze sorgt. Aus einer nicht ganz ernst gemeinten Bemerkung in einer Unterhaltung zwischen den beiden Italienern Enrico Fermi und Edoardo Amaldi (1908–1989) entstand der Name für dieses kleine, elektrisch neutrale Teilchen: das Neutrino11 , also die Mini-Version eines Neutrons. Enrico Fermi arbeitete 1934 mit den Methoden der Quantenfeldtheorie eine quantitative Theorie der β-Zerfälle aus und schickte sie an die sehr bekannte, wissenschaftliche Zeitschrift Nature. Diese Theorie brachte viele der neuesten Konzepte zusammen und Fermi nannte sie ehrlicherweise „vorläufige Theorie“. Die Veröffentlichung wurde abgelehnt, „weil sie Spekulationen enthielt, die zu weit von der Realität entfernt waren, um für den Leser von Interesse zu sein“, so die Begründung. Später hat die Zeitschrift eingestanden, dass das wohl einer der größten Fehler in ihrer Geschichte war. Die experimentellen Befunde waren bald völlig eindeutig: Es musste neben der Schwerkraft und der elektromagnetischen Kraft noch mindestens eine weitere Kraft geben, deren Reichweite auf das Innere von Atomkernen und subatomaren Teilchen beschränkt war. Es gab auch sofort Spekulationen darüber, dass diese Kraft die Atomkerne zusammenhielte, aber das stieß schnell auf Widersprüche in der experimentellen Wirklichkeit. Diese Kraft wurde später „schwache Kernkraft“ oder „schwache Wechselwirkung“ getauft. Die erste direkte Beobachtung des Neutrino gelang erst 1956 an einem Kernreaktor. Die Frage nach der Kraft, die die Kerne zusammenhält, blieb weiter offen. Dem Japaner Hideki Yukawa (1907–1981) gelang ein wichtiger Schritt zum Verständnis: Er veröffentlichte 1935 eine Theorie der starken Kernkräfte. Dabei stellte er fest, dass die Reichweite einer jeden Wechselwirkung, die über Teilchenaustausch erfolgt, durch die Masse der Austauschteilchen bestimmt ist. Je größer die Masse, desto kleiner die Reichweite. Da die Dimensionen eines Atomkerns ja bekannt waren, konnte er die Masse der erforderlichen Teilchen abschätzen zu ungefähr 200 Elektronenmassen. Er postulierte die Existenz solcher Teilchen, die er Mesonen nannte. Ein so schweres Teilchen wurde 1937 in der Höhenstrahlung gefunden, aber es stellte sich als eine schwere Version des Elektrons heraus, das sogenannte Myon. Damit hatte nun wirklich niemand gerechnet und es passte überhaupt nicht in die damaligen 11
Genau heißt dieses Teilchen nach den heutigen Bezeichnungen Elektron-Antineutrino.
11.8 Neue Kräfte
277
Vorstellungen von Elementarteilchen. Der US-amerikanische Physiker Isidor Rabi (1898–1988) bemerkte bei der Vorstellung des neuen Teilchens: „Wer hat das denn bestellt?“. Ein erstes wirkliches Meson (das sogenannte π Meson) konnte der Engländer Cecil Powell 1947 in der kosmischen Höhenstrahlung finden. Es war zwar instabil, aber das wollte ja nichts heißen, denn auch das freie Neutron zerfiel, während es in Kernen beliebig lange stabil blieb. Die Vorstellung, dass Wechselwirkungen zwischen Teilchen durch den Austausch anderer Teilchen zustande kommen, wandte Sheldon Lee Glashow (*1932), ein Doktorand von Julian Schwinger, 1960 auf die schwache Wechselwirkung an. Die Austauschteilchen mussten (nach Yukawas Erkenntnis) ziemlich schwer sein, da die Wechselwirkung nur bei Kernprozessen zu spüren war und folglich eine sehr kurze Reichweite haben musste. Unabhängig stellte auch der pakistanische Physiker Abdus Salam (1926–1996) eine solche Theorie im Jahr 1964 auf. Die Theorie war sehr hübsch, hatte aber zwei entscheidende Nachteile: sie konnte nicht erklären, warum die Austauschteilchen Masse haben sollten und – was noch schlimmer war – sobald diese Teilchen Masse hatten, traten in der Störungsrechnung (nur so konnte man etwas Messbares ausrechnen) Unendlichkeiten auf, die sich durch die Tricks der Renormierung nicht zähmen ließen. Man sagte, die Theorie sei nicht-renormierbar und für Viele klang das so wie: Die Theorie ist erledigt. Außerdem sagte die Theorie bestimmte Wechselwirkungsprozesse vorher, die noch niemand beobachtet hatte. Im Jahr 1964 schlugen drei Forschergruppen unabhängig voneinander eine Idee vor, wie Teilchen in einer Quantenfeldtheorie durch die Existenz anderer Teilchen, mit denen sie wechselwirken, eine Masse bekommen können. Diese masseerzeugenden Teilchen heißen nach dem englischen Physiker Peter Higgs (*1929), der seinen Vorschlag allein veröffentlichte. Unabhängig voneinander schlugen auch die belgischen Physiker François Englert (1932) und Robert Brout (1928–2011) und eine in London arbeitende Gruppe, bestehend aus dem britischen Physiker Thomas Kibble (1932–2016) und den US-Amerikanern Carl R. Hagen (* 1937) und Gerald Guralnik (1936–2014) denselben Mechanismus vor. Diese Idee wurde anfangs sehr skeptisch betrachtet. Aber der US-amerikanische Physiker Stephen Weinberg (1933–2021) und Abdus Salam bauten diesen Mechanismus in die Theorie der schwachen Wechselwirkung ein, um damit die Massen der Austauschteilchen zu erklären. Berechnen kann man die Massen damit zwar nicht, aber der entscheidende Vorteil ist, dass man erst mal mit einer Theorie ohne Massen starten kann, und eine solche Theorie ist renormierbar. Fragt sich nur, ob diese schöne Eigenschaft den Higgs-Mechanismus überlebt. Das zu zeigen gelang den niederländischen Physikern Gerard ’t Hooft (* 1946) und Martinus Veltman (1931–2021) im Jahr 1972. Im Jahr 1973 wurden dann auch die von der Theorie vorhergesagten, aber bis dahin nie beobachteten Wechselwirkungsprozesse (sogenannte „neutrale Ströme“) im Experiment gefunden. Die massiven Austauschteilchen wurden erst in den 1980er Jahren beobachtet, aber da war die Theorie schon so gut getestet, dass niemand mehr zweifelte. Ein wichtiges Ergebnis der Theorie schlägt eine Brücke zwischen kleinsten und größten Skalen der Physik. Der Higgs Mechanismus beginnt mit einer Quantenfeldtheorie, die eine sehr symmetrische Welt beschreibt. Ändert man dann einen
278
11 Gott würfelt unverständlich: Quantenphysik
Parameter, den man als Durchschnittstemperatur des Universums bezeichnen könnte, so wird die Welt weniger symmetrisch, wenn diese Temperatur sinkt. Nur in dieser Welt, sagt der Higgs-Mechanismus, gibt es Massen. Da Symmetrien entweder vorhanden sind oder nicht, muss dieser Übergang plötzlich – bei einer bestimmten Temperatur – auftreten. Man nennt das spontane Symmetriebrechung. Wichtig ist dabei, dass die Naturgesetze nach wie vor symmetrisch sind, dass aber die Welt, die aufgrund dieser Gesetze entstanden ist, nicht mehr alle Symmetrien hat. Die erforderliche, hohe Temperatur für eine symmetrische Welt könnte es tatsächlich mal gegeben haben. Das kosmologische Standardmodell für große Skalen berechnet eine solche Temperatur für 0.01 Nanosekunden nach dem Urknall. So eine Symmetriebrechung durch Abkühlung kann man auf kleinerer Skala auch in der eigenen Wohnung produzieren. Nehmen Sie einen der starken Neodymmagneten, die man überall kaufen kann, um Einkaufszettel an Kühlschranktüren zu pappen. Der Magnet hat einen Nord- und einen Südpol, d. h. er zeichnet eine Richtung aus (von Nordpol zu Südpol). Jetzt wollen wir diesen Magneten ruinieren. Dazu erhitzen wir ihn vorsichtig. Oberhalb von ungefähr 800 Celsius verschwindet der größte Teil seiner magnetischen Kraft ziemlich plötzlich. Die letzten Reste der Magnetkraft sind bei 3100 Celsius verschwunden. Es bleibt ein Stück Metall ohne ausgezeichnete Orientierung. Die Gegenrichtung der Symmetriebrechung – Verschwinden der Symmetriebrechung durch Erhitzen – klappt also. Wenn man das Metall dann wieder abkühlt, bekommt man aber nicht so ohne Weiteres einen Magneten zurück. Beim Abkühlen bilden sich kleine Magnetpartikel mit Nord- und Südpol, allerdings überall im Metall und überall mit anderen Orientierungen. Diese kleinen Gebiete nennt man magnetische Domänen. Wenn man beim Abkühlen einen Magneten zurückhaben möchte, so muss man etwas nachhelfen und ihn in einem Magnetfeld abkühlen. Na ja, könnten Sie jetzt sagen, woher soll denn bitte im Universum dieses Zusatzfeld gekommen sein? Eine Spekulation der Physik ist, dass es so ein Feld tatsächlich nicht gab und das Universum daher in verschiedene Domänen zerfällt, die durch Domänenwände voneinander getrennt sind. Dann wäre zwar in jeder Domäne die Symmetrie gebrochen, aber in jeder Domäne anders. Es könnte natürlich auch ganz anders gewesen sein und die Domänenwände könnten sich im Laufe der Zeit immer mehr verschoben haben, sodass eine riesige Domäne und vielleicht noch ein paar ganz kleine übrig geblieben sind. Ist zwar alles Spekulation, zeigt aber, dass man sich auch in Kosmologie und der Elementarteilchenphysik von Küchenexperimenten inspirieren lassen kann, um Hypothesen zu produzieren. Die Theorie von Glashow, Salam und Weinberg (GSW) (erweitert mit dem Higgs Teilchen) hielt eine weitere, sehr schöne Einsicht über die Natur der Wechselwirkungen bereit. Die Theorie enthielt nämlich nach der spontanen Symmetriebrechung neben den schweren Austauschteilchen noch ein besonders leichtes, ein masseloses Austauschteilchen. Masselose Austauschteilchen vermitteln offenbar sehr langreichweitige Wechselwirkungen (denn leichter geht’s ja nicht). Die Kraft, die durch den Austausch solcher Teilchen zustande kommt, muss wie 1/r 2 (r Teilchenabstand) abfallen, das lässt sich beweisen. Das masselose Teilchen entpuppte sich als Photon, denn es wurde zwischen elektrisch geladenen Teilchen ausgetauscht und erzeugte die Maxwellschen Wechselwirkungen. Die Theorie vereinheitlichte damit schwache
11.9 Quark
279
und elektromagnetische Kräfte in einer einzigen elektro-schwachen Wechselwirkung. Ein Teil der Theorie war die schon bekannte Quantenelektrodynamik. Das war ein Triumph. Es war ein ähnlicher Schritt, wie er Maxwell mit den elektrischen und magnetischen Kräften gelungen war, – die Vereinheitlichung von zwei fundamentalen Naturkräften in einer Theorie.
11.9 Quark Mit verbesserten experimentellen Methoden wuchs der Zoo der beobachteten, subatomaren Teilchen an, und so langsam stand man vor ähnlichen Problemen, wie man sie zu Beginn der Quantenrevolution mit den Spektren hatte. Seit der erste Beschleuniger (Berkeley Synchro-Zyklotron 1948) arbeitete, konnte man neue Teilchen nicht nur in der Höhenstrahlung finden, sondern auch im Labor herstellen. Man hatte nun eine Menge von „Spektren“, diesmal war es ein Spektrum von Teilchen mit diversen Eigenschaften wie Masse, Lebenszeit, Spin und möglicherweise weiteren, physikalisch noch nicht beobachteten Eigenschaften. Als grobe Klassifikation unterschied man zunächst Teilchen, die mit der mysteriösen starken Kraft zu tun haben (Hadronen) und den Rest (Leptonen 12 ). Die Hadronen unterteilte man noch ins Mittelgewicht (Mesonen) und Schwergewicht (Baryonen, zu denen insbesondere Proton und Neutron gehören). Aus vielen experimentellen Daten versuchte man ein Muster herauszulesen, das auf neue Eigenschaften schließen ließ, aus denen sich eine Art von Systematik all dieser Teilchen ergeben konnte. Ein wichtiger Wegweiser waren dabei Prozesse, die nicht stattfanden, obwohl man sie erwartete. Dann konnte man vermuten, dass vielleicht ein Erhaltungssatz einer neuen Größe dahintersteckte, der den Prozess verbot. So gab es zum Beispiel Teilchen, die durch sehr schnelle Prozesse erzeugt wurden, dann aber verhältnismäßig lange lebten. Man deutete das als eine Entstehung über starke Kräfte und einen Zerfall über schwache Kräfte. Irgendetwas Seltsames verhinderte den Zerfall über starke Kräfte, und dementsprechend nannte man diese Eigenschaft Strangeness. Mithilfe von Beschleunigerexperimenten fand man ab Mitte der 1950er Jahre, dass auch das Proton eine innere Struktur besitzt. Die Beschleuniger wurden immer größer und 1969 fanden die US-amerikanischen Physiker Jerome Friedman (*1930), Henry Kendall (1926–1999) und der Kanadier Richard Taylor (1929–2018), dass Elektronen, die mit besonders hoher Energie auf Protonen geschossen werden, merkwürdige Streuergebnisse produzierten. Es war ein wenig wie eine Neuauflage des Geiger-Marsden-Rutherford Experiments, denn die Streuung sah so aus, als wenn im Inneren eines Protons punktförmige Ladungen sitzen. Diese Gebilde passten wundervoll zu einem Vorschlag der Systematisierung von Hadronen, den der USAmerikaner Murray Gell-Mann (1929–2019) und unabhängig von ihm der Physiker und Neurobiologe George Zweig (∗ 1937) machten. Gell-Mann postulierte, dass Me12
So heißt auch heute noch die kleinste Währungseinheit der griechischen Währung, also 1 Eurocent ist ein Lepton. Diese Bezeichnung für kleinste Münzen stammt aus dem antiken Griechenland.
280
11 Gott würfelt unverständlich: Quantenphysik
sonen aus zwei und Baryonen aus drei kleineren Bausteinen bestehen, die er Quarks nannte. Die merkwürdige Zahl 3 war das Ergebnis der Analyse der Elementarteilchenspektren. Das Ordnungsprinzip, das er (und auch andere) postulierten, war eine Symmetrie. Zugegeben, keine anschauliche Symmetrie, aber eine, die deutliche Spuren im Zoo der Elementarteilchen hinterlässt. Die Quarks unterschieden sich in einer nie gesehenen Eigenschaft, die den Namen Geschmacksrichtung (flavour) erhielt. Gell-Mann postulierte drei Geschmacksrichtungen, die er Up, Down und Strange nannte. Den merkwürdigen Namen Quark hatte er übrigens nicht zu Ehren eines deutschen Frischkäses benutzt, sondern aus dem Roman Finnegan’s Wake des irischen Schriftstellers James Joyce (1882–1941) abgeschaut. Dort gibt es eine (wie alles in diesem Roman schwer entzifferbare) Version der Geschichte von Tristan und Isolde (etwas für Wagner Fans), und die enthält ein Schmähgedicht auf den König Marke von Cornwall, das mit den Zeilen beginnt: Three quarks for Muster Mark! Sure he hasn’t got much of a bark And sure any he has it’s all beside the mark.
Die (nicht eindeutige) Übersetzung überlasse ich Ihnen. Nehmen Sie Expertenwissen (menschliches, nicht KI) über Finnegan’s Wake zu Hilfe. Auf jeden Fall gibt es in dem Gedicht etliche Seevögel, die krächzen, und in englischen Wörterbüchern des 19. Jahrhunderts findet sich für das Krächzen von Vögeln das Verb to quark13 . Gell-Mann hatte sich irgendwie in die Lautfolge „kwork“ verguckt und fand zu seinem Entzücken, dass es dafür eine hoch-literarische Vorlage gab. Zurück zur Physik. Die Quarks mussten elektrische Ladungen tragen, denn das Proton war ja geladen. Wenn man nun den ganzen Teilchenzoo durchging, so ergab sich, dass sie drittelzahlige Ladungen haben müssen, also ±2/3 und ±1/3 der Ladung e des Elektrons. Und es musste auch Anti-Quarks geben, denn es gab mittlerweile auch unter den Hadronen jede Menge Anti-Teilchen. Quarks hatte man bei aller Suche nie in der Freiheit, d. h. außerhalb von Hadronen, gesehen, weder in Beschleunigern noch in der Höhenstrahlung. Sie mussten also so stark gebunden sein, dass es einfach nicht klappte, sie auseinanderzureißen. Ein Proton war zum Beispiel nach der GellMannschen Klassifikation zusammengesetzt aus zwei up-Quarks (Ladung -2/3 e) und einem down-Quark (Ladung 1/3 e). Es stellte sich aber bald heraus, dass sein Klassifikationsschema unvollständig war. Mit der Zeit kamen 3 weitere Geschmacksrichtungen hinzu. Außerdem fand man noch eine weitere, schwerere Ausgabe des Elektrons, dass sogenannte τ (Tau) Lepton. Elektron, Myon und Tauon kommen mit einem speziell auf sie zugeschnittenen Neutrino. So ergaben sich 3 Generation von Leptonen (s. Abb. 11.2). Die zusätzlichen Geschmacksrichtungen der Quarks heißen Charm, Bottom und Top und sie lassen sich ebenfalls in 3 Generationen von Quarks anordnen. Da man aber Quarks nie direkt sehen kann, war die Ergänzung stets indirekt, d. h. aufgrund gefundener Muster im Teilchenzoo. 13
Übersetzungs KI DeepL übersetzt quark mit Quark, dem beliebten Frischkäse.
11.10 Leim und Farbe
281
Wie Sie sehen, machte sich beim Einführen neuer physikalischer Eigenschaften eine gewisse Hemmungslosigkeit breit. Bedenken Sie, dass all die neuen Eigenschaften so fundamental sein sollen wie zum Beispiel die elektrische Ladung. Ginge diese Neuerfindung von Eigenschaften nun ungebremst weiter, so hätte es bald Kritik an dieser Vorgehensweise gegeben. Aber es ergab sich am Ende des Jahrhunderts ein erstaunlich abgeschlossenes Bild. Während Quarks mit Charm und das Bottom Quark schon in den 1970er Jahren gefunden wurden, und die 3 Quark Generationen bereits theoretisch akzeptiert wurden, musste man noch bis 1995 auf die Entdeckung des Top-Quarks warten. Das lag an der unerwartet großen Masse dieses Teilchens. Aber jetzt sah der Zoo recht ordentlich aus, wie Sie in der. Abb. 11.2 sehen können: Es gab 3 Generationen von Leptonen und 3 Generationen von Quarks. Jetzt versuchte man es mit Experimenten, die auf weitere Generationen reagieren würden. Das waren zum Beispiel Lebensdauern eines Teilchens (Z 0 genannt), das in Teilchen der 4. Generation zerfallen könnte, wenn es die denn gäbe Man fand (bis heute) nichts. Also ist man heute bei 12 elementaren Teilchen angekommen (6 Leptonen und 6 Quarks), die dem sogenannten Standardmodell der Elementarteilchen zugrunde liegen.
11.10 Leim und Farbe Natürlich war es bei der Einführung der neuen Eigenschaften und Teilchen mit ein bisschen Raten nicht getan. Symmetrien waren eine große Hilfe, legten aber noch nicht alles fest. Dazu kam, dass man die postulierten Quarks nie zu sehen bekam, obwohl alle Teilchenreaktionen mit den Quarks erklärt werden konnten. Ein großes Problem des Quark-Modells war außerdem das Pauli Prinzip. Quarks sind Teilchen, die diesem Prinzip gehorchen (solche Teilchen nennt man Fermionen). Ein Proton besteht aus drei Quarks, nämlich 2 up-Quarks und einem down-Quark. Die 2 up-Quarks müssten im gleichen Quantenzustand sein, damit sich die Eigenschaften eines Protons ergeben. Aber das ist nach dem Pauli Prinzip unmöglich14 . Also lag die Vermutung nahe, dass es noch mehr Eigenschaften von Quarks gibt, und die beiden up-Quarks sich in diesen Eigenschaften unterschieden. Eine weitere, sehr erstaunliche Beobachtung war, dass sich die starke Wechselwirkung als immer schwächer herausstellte, wenn man sie auf immer kleineren Abständen betrachtet. Das war vollkommen anders als bei der elektromagnetischen Wechselwirkung. Bei zwei gleichen elektrische Ladungen wächst die Abstoßungskraft mit der Annäherung immer weiter an. Andererseits wird sie bei großem Abstand immer schwächer. Das sieht man schon am Coulombschen Kraftgesetz. Die starke Wechselwirkung dagegen wird bei Annäherung zweier Quarks immer schwächer (das nennt man asymptotische Freiheit), aber sie wächst mit zunehmendem Abstand! Dieses Anwachsen bindet zwei Quarks wie durch eine Feder aneinander (bei der nimmt die Kraft auch zu, je weiter man die Enden auseinanderzieht). Wenn man 14
Das Pauli Prinzip konnte man aus so gut abgesicherten Eigenschaften aller Quantenfelder beweisen (mathematisch), dass es keine Gründe gab, daran zu zweifeln.
282
11 Gott würfelt unverständlich: Quantenphysik
Abb. 11.2 Der Teilcheninhalt des heutigen Standardmodells der Elementarteilchen, (Autor Cush, gemeinfrei, via Wikimedia Commons)
eine solche „Quark-Feder“ überdehnt, kann sie brechen. Allerdings sind die Quarks dann nicht etwa frei. An der Bruchstelle entstehen neue Quarks und man hat zwei kürzere, nicht überdehnte Federn. Diese merkwürdige Kraft muss – wie immer in einer Quantenfeldtheorie – durch Teilchenaustausch zustande kommen. Alle diese Probleme konnten gleichzeitig gelöst werden durch die Einführung einer neuen Eigenschaft, genannt Farbe (color). Diese Eigenschaft kommt in drei Varianten vor, die rot, grün und blau heißen. Außerdem gibt es für Anti-Teilchen auch Anti-Farben. Natürlich hat diese Farbe überhaupt nichts mit der Farbe zu tun, die unsere Augen wahrnehmen. Genau wie die Quarks kann man auch die Farben nicht im Labor sehen. Nur „farbneutrale“ Kombinationen von Quarks sind beobachtbar. Farbneutrale Kombinationen entstehen aus einer Farbe und ihrer Anti-Farbe (das ergibt Mesonen), oder aus „rot-grün-blau“ Kombinationen aus drei Quarks. Die Quantenfeldtheorie mit Farbe heißt Quantenchromodynamik (QCD). Auch die Wechselwirkungen der QCD brauchen Austauschteilchen. Die heißen Gluonen und haben die seltsame Eigenschaft, dass sie nicht nur eine Wechselwirkung zwischen Quarks vermitteln, sondern auch untereinander. Das macht die Theorie ziemlich vertrackt, es ist so, als wäre unser Licht elektrisch geladen.
11.11 Dr. Bertlmanns Socken und die spukhafte Fernwirkung
283
Die QCD (für die starke Wechselwirkung) und die Quantenfeldtheorie für die elektro-schwache Wechselwirkung von Glashow, Salam und Weinberg bilden zusammen das sogenannte Standardmodell der Elementarteilchenphysik. Es ist unsere bisher detaillierteste quantitative Beschreibung von Materie und Strahlung.
11.11 Dr. Bertlmanns Socken und die spukhafte Fernwirkung All die fantastischen Erfolge der Quantenmechanik waren nur durch die Anwendung der „Halt die Klappe und rechne!“ Interpretation gelungen. Aber immer noch nagte die Frage nach der Bedeutung dieses ganzen quantenmechanischen Formalismus am Selbstbewusstsein der Physike. Manche meinten, man solle das Problem einfach der Philosophie überlassen, denn es sei überhaupt kein physikalisches. Aber so etwa ab den 1980er Jahren wendete sich die Physik wieder mit ihren eigenen Methoden dem Problem zu. Ausgangspunkt waren experimentelle Realisierungen eines Gedankenexperiments, das Albert Einstein, Boris Podolsky (1896–1966) und Nathan Rosen (1909–1995) in der ersten, hitzigen Diskussion um die Bedeutung der Quantenmechanik 1935 veröffentlicht hatten. Dabei glaubten Sie, aus „völlig selbstverständlichen“ Annahmen über die äußere Welt und einer Anwendung des quantenmechanischen Formalismus ein Paradoxon (bekannt als EPR-Paradoxon) konstruieren zu können, das die Unvollständigkeit der Quantenmechanik zeigt. Aber es sollte sich herausstellen, dass in der äußeren Welt nichts selbstverständlich ist. Der nordirische Physiker John Stuart Bell (1928–1990) versuchte seinem Publikum in einem Vortrag mit dem Titel Dr. Bertlmanns Socken und die Natur der Wirklichkeit im Jahr 1980 die Eigenartigkeit der quantenmechanischen Natur der Wirklichkeit klarzumachen, indem er zunächst über eine modische Extravaganz seines Kollegen Dr. Reinhold Bertlmann (∗ 1945) sprach: Dr. Bertlmann trug immer verschiedenfarbige Socken. Welche Farben er an einem Tag auswählte, war unvorhersehbar, aber wenn man eine Farbe an einem Fuß beobachtete, so wußte man mit Sicherheit etwas über die Farbe am anderen Fuß: sie war verschieden. Nichts daran ist merkwürdig. Wir wollen jetzt die Sockengeschichte etwas dramatisieren, indem wir ein verschiedenfarbiges Paar – sagen wir rot (r) und grün (g) – trennen und eines davon in einen Koffer packen. Der Koffer wird nun sehr weit weg gebracht, – sagen wir mal zum Sirius. Der andere Socken bleibt auf der Erde und wird von einem Notar in einen versiegelten Umschlag gegeben. Nach Ankunft des Koffers am Sirius wird der Umschlag geöffnet und wir sehen einen grünen Socken. Im selben Augenblick wissen wir, dass sich in einem Koffer am Sirius ein roter Socken befindet. Haben wir etwa die Lichtgeschwindigkeit überlistet? Ist die Information mit unendlicher Geschwindigkeit zu uns gelangt? Schmarren! Es muss keine Information übertragen werden, denn diese Information wurde vorher schon abgesprochen. So weit ist alles selbstverständlich.
284
11 Gott würfelt unverständlich: Quantenphysik
Das EPR-Paradoxon ist das quantenmechanische Analogon zu Dr. Bertlmanns Socken. Es beruht auf der Überlagerungsfähigkeit der Quantenzustände für zwei Objekte, die „Quantensocken“. Sie können in den Quantenzuständen rot (r) und grün (g) existieren. Diese Zustände entsprechen stationären Atomzuständen, d. h. die Wahrscheinlichkeit einen r-Socken im Zustand g zu finden (ebenso wie einen gSocken in r) ist Null. Solche Quantensocken mit nur zwei möglichen Farben heißen in der Quanten-Informatik QBits in Analogie zum klassischen Bit, das zwei Werte annehmen kann. Zwei Quantensocken können nun in 4 Zuständen existieren, die sich gegenseitig ausschließen, nämlich (rr), (rg), (gr), (gg). Die Wahrscheinlichkeit eines von diesen Paaren in einem der anderen drei Zustände zu finden, ist Null. Nun präparieren wir einen Zustand durch Überlagerung, nämlich rg + gr . Beachten Sie, dass in diesem Zustand die Socken zwar verschiedenfarbig sind, aber dass jede einzelne Socke keine Farbe hat. Wenn wir die Farbe von Socke 1 in einer Messreihe messen, dann erhalten wir nach der Bornschen Wahrscheinlichkeitsinterpretation in der Hälfte der Fälle die Antwort grün und in der Hälfte die Antwort rot. Man kennt aber bei jeder Messung mit Sicherheit die Farbe des anderen Sockens. Die muss man nicht mehr messen, denn wenn das Ergebnis für den 1. Socken rot ist, dann haben wir mit Sicherheit den Zustand (rg) vorliegen, der andere Socken ist grün. So verlangen es die Spielregeln der Quantenmechanik. Einen solchen 2-Socken-Zustand nennt man verschränkt. Wieder trennen wir das Sockenpaar und bringen einen Socken zum Sirius. Das ist ein wichtiger Schritt, der auch durchführbar sein muss. Das muss man experimentell testen. Hat man gemacht, es klappt15 . Jetzt haben wir zwei Socken, die – wenn die Quantenmechanik stimmt – keine definierte Farbe haben. Wir messen nun auf der Erde und beobachten einen grünen Socken. Im selben Augenblick wissen wir, dass in dem Koffer am Sirius ein roter Socken ist. Aber: Wie kann der Socken am Sirius wissen, dass er rot zu werden hat? Wie ist das Messergebnis von der Erde zum Sirius gelangt? Diesen Effekt bezeichnete Albert Einstein als „spukhafte Fernwirkung“. Das schreit geradezu nach einem Experiment. Das erste derartige Experiment gelang der französischen Gruppe von Physikern Alain Aspect, Philippe Grangier und Gérard Roger 1982. Viele andere folgten, die Experimente wurden kritisiert und dadurch immer ausgefeilter. Das Ergebnis blieb aber immer das Gleiche: Die Vorhersage der Quantenmechanik stimmt. Da stellten sich allerdings bei vielen Physiken die Nackenhaare auf: Ist es etwa möglich, mit diesem Effekt überlichtschnell zu kommunizieren? Die Antwort auf diese Frage erfordert eine gründliche Analyse der Möglichkeiten, die zwei Personen an den beiden Orten haben, um mithilfe des verschränkten Zustands Informationen auszutauschen. Wenn Person A auf der Erde grün misst, dann muss Person B am Sirius ja rot sehen. Allerdings sieht Person A grün nur mit der Wahrscheinlichkeit 1/2. Das tut auch Person B, und daraus kann sie gar nichts schließen, d. h. es wurde keine Information übertragen. Aber es wurden viele Möglichkeiten vorgeschlagen, wie man die spukhafte Fernwirkung ausnutzen könnte. Könnte nicht Person A mit B (vor Beginn der Reise) vereinbaren: Wenn ich keine Messung vornehme, dann bedeutet das Ja, wenn ich aber messe, dann bedeutet das 15
Nicht ganz bis zum Sirius, aber immerhin die 143 km von La Palma nach Teneriffa.
11.11 Dr. Bertlmanns Socken und die spukhafte Fernwirkung
285
Nein? Wenn nun B sich einen Vorrat von identischen Zuständen kopieren könnte, dann könnte es eine Messreihe vornehmen. Wenn dabei immer dieselbe Farbe erscheint, hat A offenbar die Messung durchgeführt. Warum sollte es nicht möglich sein, Quantenzustände zu kopieren? Die Idee, dass man so überlichtschnell kommunizieren kann, hatte der US-amerikanische Physiker Nick Herbert (*1939) Anfang der 1980er Jahre. Damals war die Verknüpfung von Quantenphysik mit Esoterik groß in Mode, und auch Nick Herbert gehörte zu dieser Szene. Aber seine Idee war nicht abwegig. Viele Physike machten sich ernsthafte Gedanken darüber, und als Antwort präsentierten sie ein Theorem, nach dem aus den Spielregeln der Quantenmechanik folgt, dass ein Kopieren von quantenmechanischen Zuständen unmöglich ist (das no-cloning theorem). Aber das ist ja nur eine Möglichkeit der Kommunikation. Könnte man nicht irgendwie anders...? Es folgte eine Welle von no-go Theoremen, die schließlich jede jemals vorgeschlagene Möglichkeit ausschloss (no-communication theorems). Aus diesen Theoremen lernte man, dass viele Dinge, die wir in unserer Alltagswelt für offensichtlich halten, in der Quantenwelt nicht funktionieren. Vielleicht wissen die Socken aber doch schon vor Reiseantritt, wie sie sich in jedem erdenklichen Fall verhalten sollen. Wenn bei der Herstellung der Socken nur grün-rot Paare produziert werden, die einzeln in undurchsichtigen Verpackungen stecken und dann mit einem klassischen Münzwurf bestimmt wird, wer welchen Socken erhält, – dann ergibt sich das Ergebnis der Quantensocken ganz zwanglos. Vielleicht reichen klassische Korrelationen ja aus und wir brauchen diese ganzen Quantenmysterien gar nicht? Die Idee, dass in einer noch mikroskopischeren Welt als der Quantenwelt etwas ganz Deterministisches vorgeht, das nur auf der uns zugänglichen Kleinheitsskala so merkwürdig aussieht, – diese Idee wurde lange erwogen. Verschiedene Vorschläge solcher Theorien mit verborgenen Parametern geisterten durch die Literatur. Man hatte sich fast schon geeinigt, dass man das durch Experimente in der Quantenwelt gar nicht herausfinden könnte, als John Stewart Bell einen Vorschlag für ein Experiment veröffentlichte, das die Frage entscheiden könnte. Beginnen wir mit klassischen Socken. Für Bells Experiment brauchen wir Socken mit drei Eigenschaften, die man untersuchen kann, sagen wir die Farbe (rot oder grün), die Länge (kurz oder lang) und das Material (Wolle oder Baumwolle). Wir haben ein Messgerät mit 3 Einstellungen gebaut. Bei „F“ misst es die Farbe, bei „L“ die Länge und bei „M“ das Material. Das Ergebnis der Messung wird über ein Display mit zwei Symbolen (+, −) angezeigt, die die jeweiligen Messergebnisse codieren. So steht zum Beispiel + für rot, wenn wir Farbe messen, für „kurz“, wenn die Länge messen und für „Wolle“, wenn wir das Material messen. Die Sockenfertigung produziert nun korrekte Paare von Socken, d. h. solche mit gleichen Eigenschaften16 von denen wir wieder einen auf die Reise schicken. Dann messen wir an jedem der beiden Sockenorte mit unserer Maschine. Diesmal können A und B entscheiden, welche der drei Eigenschaften gemessen werden sollen. Dadurch ergeben sich 9 mögliche 16
Das ist einen Tick einfacher für die Vorstellung. Tatsächlich könnte es auch eine andere Maschine geben, die Paare produziert, die sich in allen drei Eigenschaften unterscheiden. Dann kann man dieselben Überlegungen anstellen. Probieren Sie es aus.
286
11 Gott würfelt unverständlich: Quantenphysik
Tab. 11.1 Zusammenfassung des Experiments A B
+ + − (FML)
+−− (FML)
++ +− ++ +− −+ −+
+− +− −+ −− −+ −−
F F M M L L
M L F L F M
Paarungen, nämlich (FF, MM, LL) (beide Messungen gleich) und (FM, FL, MF, ML, LF, LM ) (beide Messungen verschieden). Wir merken uns die Messergebnisse, die wir am Ende des Experiments auswerten. Wenn die Sockenproduktion Modelle liefert, die bei allen Eigenschaften dasselbe Messergebnis liefern (Charge 1, das sind rote, kurze Wollsocken oder grüne, lange Baumwollsocken), dann beobachten A und B in 100 % der Fälle übereinstimmende (+−)-Messergebnisse, was niemanden wundert. Wie viel Übereinstimmung in den + und − erhält man, wenn A und B verschiedene Eigenschaften messen? Wenn alle Eigenschaften übereinstimmen (+ + + oder − − −), dann werden auch in diesen Fällen 100 % der Messergebnisse übereinstimmen. Für zwei andere Möglichkeiten haben wir in Ergebnisse in der Tab. 11.1 abgezählt: Wie Sie sehen, stimmen jeweils 2 von 6 Ergebnissen überein. Sie sollten nachprüfen, dass das für alle möglichen Paare (die nicht in allen drei Eigenschaften übereinstimmen) der Fall ist. Also ergibt die Auswertung: Entweder stimmen alle Messergebnisse überein (Charge 1), oder 1/3 der Messergebnisse stimmen überein. Soweit die klassischen Socken. Die Ergebnisse sind in keiner Weise überraschend. Jede aufgeweckte Kitagruppe könnte die Abzählungen vornehmen. Bell bemerkte nun, dass man ein völlig analoges Experiment mit Quantenteilchen durchführen kann. Wenn man dabei aber drei Eigenschaften nimmt, die nicht kompatibel sind (siehe Abschn. 11.5), so erhält man ein merkwürdiges Ergebnis: Die von der Quantenmechanik vorhergesagte Übereinstimmung der Messergebnisse ist deutlich kleiner! Ein typisches System (Elektronenspin) ergibt statt 1/3 nur 1/4. Das sollte man doch wirklich mal nachmessen, und das ist auch ab den 1970er Jahren geschehen. Jedes Mal ergab das Experiment das quantenmechanische Resultat und jedes Mal wurde das Experiment kritisiert. Aber die Kritik führte zu stetigen Verbesserungen, sodass die kritischen Stimmen heute praktisch verstummt sind. Also muss man noch mal darüber nachdenken, was wir gebraucht haben, um zu dem klassischen Ergebnis zu kommen, denn irgendetwas an den Voraussetzungen, die wir da gemacht haben, kann ja nicht stimmen. Eigentlich sind es nur vier sehr selbstverständliche Dinge: Erstens: Es gibt Naturgesetze, nach denen Ereignisse mit Wahrscheinlichkeiten geschehen, die durch das Universum bestimmt sind. Unsere Messwertstatistik ist also nicht durch astrale Dämonen beeinflusst.
11.11 Dr. Bertlmanns Socken und die spukhafte Fernwirkung
287
Zweitens: Dinge haben Eigenschaften, die ganz unabhängig davon existieren, ob wir sie messen oder nicht17 . Drittens: Die Lokalität, d. h. kausale Einflüsse breiten sich lokal aus. Die Einstellungen, die A und B vornehmen, beeinflussen sich weder gegenseitig noch den Sockenzustand, und Viertens: Nur die Art der Teilchen (Socken) und die Einstellung des Detektors beeinflussen das Ergebnis des Experiments, was man von einem ordentlichen Experiment erwarten kann. Die äußere Wirklichkeit weigert sich allerdings, diese vier Voraussetzungen zu liefern. Seit den ersten Tests des Bellschen Experiments basteln nun Theorie und Experiment weiter daran herum, zu klären, welche unserer Selbstverständlichkeiten über die äußere Welt nicht zutreffen. Die aktuellen Forschungsergebnisse sind spannend, aber die Sache ist keineswegs geklärt.
17
Die Kopenhagener Interpretation der Quantenmechanik sagt dazu eindeutig nein. Eigenschaften werden durch Messungen erzeugt. Nils Bohr war also der Ansicht, dass der Mond nicht da ist, wenn niemand hinschaut.
Kapitel 12
Gott würfelt verständlich: Statistische Physik
Mit dem Standardmodell der Elementarteilchen sind wir an der gegenwärtigen Grenze zum Kleinsten angelangt. Mehr Reduktionismus hat die Physik zurzeit nicht zu bieten. Aber ist das nicht eine tolle Leistung? Wenn man an dieser Front der Forschung arbeitet, so fällt es leicht, sich vorzustellen, man wüßte, was die Welt im Innersten zusammenhält. Jetzt nur noch alles aus diesen Bausteinen wieder zusammensetzen, und man hat die ganze äußere Wirklichkeit verstanden. Na ja! Wir haben bereits in Abschn. 3.1 darüber geredet, dass es so einfach leider nicht geht. Also machen wir uns jetzt auf in Komplexe.
12.1 Kondensierte Materie Ansammlungen von sehr vielen Atomen und Molekülen bezeichnet man in der Physik als kondensierte Materie. Manchmal schließt man dabei Gase aus, aber wir wollen das hier nicht tun. In welcher Form wir kondensierte Materie antreffen, das hängt von der Umgebung, vor allem von Druck und Temperatur ab. Unsere Alltagsumgebung empfinden wir als normal, d. h. es ist wärmer als am Südpol oder im Weltall, aber nicht so heiß wie auf der Sonne. Unseren Luftdruck lesen wir von einem Barometer ab, und er ist tiefer als der Wasserdruck am Grund des Ozeans aber höher als auf dem Mount Everest. Unter solchen „normalen“ Bedingungen sind manche Ansammlungen von Molekülen Gase. Unsere Luft zum Beispiel besteht größtenteils aus N2 und O2 Molekülen. Andere Moleküle bilden Flüssigkeiten, allen voran Wasser, die häufigste Flüssigkeit auf der Erde. Atome oder Moleküle können auch feste Körper bilden, zum Beispiel Eisenatome (Fe), die den größten Teil Ihrer Küchenmesser ausmachen. Festkörper müssen nicht unbedingt eisenhart sein, es gibt interessante, kohlenstoffhaltige Moleküle, die eher weichere Festkörper bilden, nämlich unser Körpergewebe. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_12
289
290
12 Gott würfelt verständlich: Statistische Physik
Wie viele Atome oder Moleküle braucht man, um kondensierte Materie vor sich zu haben? Lassen Sie uns mal überlegen, wie viele Atome oder Moleküle sich in einer makroskopischen Menge von Materie befinden, also zum Beispiel in einem Liter Wasser oder einem Kubikmeter Luft. Wir wissen über den Aufbau der Materie im Prinzip Bescheid, Atome bestehen aus einem Kern aus Protonen und Neutronen und aus Materiewellen von Elektronen. Aber wir haben noch nie Zahlen für die physikalischen Eigenschaften der Bausteine angeschaut. Wichtige Zahlen, um die Mikro- mit der Makrowelt zu verbinden, sind die Massen von Elektron, Proton und Neutron. Hier zunächst die Messwerte für Proton und Neutron: Protonmasse m P = 1.67262192369 · 10−27 kg Neutronmasse m N = 1.67492749804 · 10−27 kg. Das Elektron ist viel leichter, ungefähr 1836 Elektronenmassen (m e ) ergeben gerade eine Protonmasse. Wenn man also Gewichte von Atomen miteinander vergleichen will und nicht furchtbar penibel ist, kann man erst mal die Elektronen außer Acht lassen und Proton- und Neutronmasse als gleich betrachten. Dann ist das Gewicht eines Wasserstoffatoms gerade m P . Wenn man das Gewicht eines anderen Elements braucht, muss man nur m P mit der Massenzahl (= Anzahl der Protonen und Neutronen) des Atomkerns multiplizieren. Eine Atomsorte (ein chemisches Element) ist eigentlich durch die Anzahl seiner Elektronen bestimmt (nur die bewirken die chemischen Eigenschaften), diese Zahl ist auch die Zahl seiner Protonen. Aber es gibt von jeder Atomsorte Varianten mit verschiedenen Zahlen von Neutronen. Diese Varianten nennt man Isotope (mehr darüber in Abschn. 14.1). Kohlenstoff hat zum Beispiel ein Isotop 12 C mit Massenzahl 12, es wiegt also 12 mal so viel wie ein Wasserstoffatom 1 H . Man sagt: Das Atomgewicht des Kohlenstoff-Isotops ist 121 . Jetzt brauchen wir nur zu wissen, wie viele Atome in einem 1 g Wasserstoff enthalten sind. Diese Zahl ist die wichtigste Brücke zwischen Mikro- und Makrowelt. Sie heißt Avogadro Konstante N A (benannt nach dem italienischen Physiker Amedeo Avogadro (1776–1856)) und ihr Wert ist N A ≈ 6.02 · 1023 . Da Kohlenstoff 12 mal so schwer ist wie Wasserstoff, sind in 12 g Kohlenstoff ebenso viele Atome enthalten wie in 1 g Wasserstoff, nämlich N A . Mehr noch: Wenn wir die chemische Summenformel eines Moleküls kennen, so können wir auch dessen Gewicht in Vielfache von m P angeben. Ein Wassermolekül, H2 O, wiegt so viel wie zwei m P und ein Sauerstoffatom. Das häufigste Isotop ist 16 O, also wiegt ein Wassermolekül so viel wie 18 Wasserstoffatome. Man sagt, das Molekulargewicht 1
Wenn man das Atomgewicht ganz genau definieren will, muss man die Unterschiede zwischen m P und m N und die Elektronen berücksichtigen. Darüber hinaus sind im Atomkern gebundene Nukleonen leichter als freie (wegen des Massendefekts, siehe Abschn. 10.8). Man hat sich darauf geeinigt, statt des Gewicht eines Wasserstoffatoms lieber 1/12 des Gewichts eines 12 C Atoms als Einheit zu benutzen. Für unsere Zwecke ist das aber Wurscht.
12.1 Kondensierte Materie
291
ist 18. Also enthalten 18 g Wasser N A Moleküle. Allgemein bezeichnet man die Stoffmenge aus N A Teilchen (Atome oder Moleküle) als 1 Mol. Ein Mol wiegt also so viel in Gramm wie sein Atom- oder Molekulargewicht. Jetzt kann man per Dreisatz die Anzahl von Teilchen einer beliebigen Substanz in einem bestimmten Gewicht leicht berechnen. Zum Beispiel wiegt 1 l Wasser 1000 g, das sind 1000/18 ≈ 55.56 Mol und folglich besteht es aus 55.56 · N A Wassermolekülen. Die Anzahl von Mol (also 55.56) nennt man die Stoffmenge. Die drei Erscheinungsformen – gas, flüssig, fest – bilden die grundlegenden Aggregatzustände der Materie. Wenn man die Temperatur ändert, dann kann man manchmal Wechsel der Aggregatzustände beobachten: flüssiges Wasser friert bei 0 ◦ C zu festem Eis und verdampft bei 100 ◦ C zu Wasserdampf. Beachten Sie, dass der Begriff Wasserdampf oft missverstanden wird. Es handelt sich nicht um das, was aus einem brodelnden Kochtopf weiß in die Höhe steigt. Das sind kleine Wassertröpfchen, die sich beim Abkühlen des Wasserdampfs wieder bilden. Mit Dampf ist das farb- und geruchlose Gas gemeint, zu dem Wasser bei Temperaturen über 100◦ wird. Es ist eine interessante Frage, ob denn alle Substanzen auch alle drei Aggregatzustände annehmen können, wenn man die Umgebungsbedingungen nur genügend stark verändert. Diese Frage wurde von Michael Faraday sorgfältig untersucht. Er fand zwar für jede chemische Substanz Umgebungen, in denen sie jeweils fest, flüssig oder gasförmig war. Die Umwandlung war aber nicht immer möglich. Wenn man eine Flüssigkeit, zum Beispiel Wasser, verdampft und dann den Druck in der Umgebung erhöht, so wird es wieder flüssig. Gase verflüssigen sich also, wenn man den Druck erhöht. Allerdings klappt das nur bis zu einer maximalen Temperatur, der kritischen Temperatur Tc . Für höhere Temperaturen kann man drücken, so viel man will, das Gas wird nie mehr flüssig. Für Wasser beträgt Tc ≈ 374 ◦ C. Die Umwandlungen zwischen den Aggregatzuständen finden nicht allmählich, sondern bei genau definierten Drücken und Temperaturen statt. Man kann daher die Grenzen der Aggregatzustände in einem Diagramm darstellen, dessen Achsen Druck und Temperatur bilden. So etwas nennt man ein Phasendiagramm. Der Begriff der Phase umfasst mehr als den Aggregatzustand, denn Materie aus vielen Atomen oder Molekülen kann noch andere, makroskopisch gut unterscheidbare Eigenschaften annehmen. Wir haben insbesondere in Abschn. 11.8 ja schon erwähnt, dass man einem Magneten durch Erhitzen die magnetischen Eigenschaften nehmen kann. Dabei hat sich chemisch nichts verändert, es sind nur die kleinen Elementarmagnete, die bei normalen Temperaturen alle mehr oder weniger ordentlich in eine Richtung zeigen, die aber diese Ordnung bei hohen Temperaturen verlieren. Ein Material wie Eisen kann daher in einem magnetisch geordneten Zustand (genannt ferromagnetisch) und einem ungeordneten Zustand (paramagnetisch) vorliegen. Es gibt sehr viele Ordnungszustände der kondensierten Materie, die ohne äußere Beeinflussung in einer Umgebung mit festem Druck und Temperatur stabil sind. Zum Beispiel ordnen sich Atome bei der Bildung fester Phasen in regelmäßige Gitter. Aber es gibt viele solcher Gitter und eine Atom- oder Molekülsorte kann verschiedene Gitterordnungen besitzen. Eis zum Beispiel kann in ungefähr 20 verschiedenen Gitterstrukturen auftreten, je nach Druck und Temperatur. Ein anderes, technisch wichtiges Beispiel ist die sogenannte Supraleitung. Es ist ein Ordnungszustand der quantenmechanischen
292
12 Gott würfelt verständlich: Statistische Physik
Wellenfunktionen. Supraleitende Ordnung hat zwei makroskopische Konsequenzen. Zum einen verschwindet der elektrische Widerstand völlig (das ist natürlich für technische Anwendungen eine sehr interessante Eigenschaft) und zum zweiten verdrängt ein Supraleiter Magnetfelder aus seinem Inneren. Es gibt auch Phasen, die zwar flüssig sind, aber richtungsabhängige Eigenschaften haben wie Kristalle (Flüssigkristalle). Dies ist nur eine kleine Auswahl aus einer riesigen Menge von Ordnungszuständen. Diese Menge wird aber noch viel größer, wenn man Ordnungszustände hinzunimmt, für deren Aufrechterhaltung man dauernd Energie aufwenden muss (sogenannte dissipative Strukturen). Für die respektlose Physik sind auch Sie selbst, liebe Lese, solche Ordnungsstrukturen. Sie müssen dauernd Energie aufnehmen (in Form von Nahrung) und umwandeln, um Ihre komplexe Struktur zu erhalten. Es ist klar, dass die Physik ein sehr großes Interesse daran hat, solche Strukturen genau zu verstehen. Und wie immer, beginnt sie mit möglichst einfachen Strukturen, um die grundlegenden Prinzipien zu verstehen und fügt dann Schritt für Schritt mehr Komplexität hinzu. Wir wollen also zunächst die Physik im Gleichgewicht besser verstehen.
12.2 Thermodynamik: Das Komplexe unterkomplex Eine sehr effiziente Methode zur Beschreibung von kondensierter Materie vergisst ihren komplexen Aufbau fast völlig und beschäftigt sich nur mit den Beziehungen zwischen den interessanten Eigenschaften der Materie. Vom praktischen Standpunkt aus betrachtet, sind die interessanten Eigenschaften von einem Kasten voller Luftmoleküle oder einem Glas Wasser ziemlich überschaubar. Es gibt eine Temperatur, ein Volumen, einen Druck. Außerdem ist Wasser flüssig und Luft gasförmig. Wenn man makroskopische Bedingungen verändert, also etwa die Temperatur erhöht, dann gibt es präzise, deterministische Gesetze (genannt Zustandsgleichungen) , die vorhersagen, wie sich die anderen Parameter ändern. Diese Gesetze waren lange vor ihrer mikroskopischen Erklärung bekannt, zumindest für Gase. Nach Vorarbeiten im 18. Jahrhundert formulierte der französische Physiker Émile Clapeyron (1739–1864) in einer Arbeit im Jahr 1834 ein solches Gesetz für verdünnte Gase wie Luft. Es sieht so aus: pV = n Rm T, d. h. es verknüpft den Druck p, das Volumen V , die Temperatur T und die Stoffmenge n, die als Anzahl der Mol des Gases angegeben wird. Die Konstante Rm heißt molare Gaskonstante und hat einen universellen (d. h. für alle verdünnten Gase gleich großen) Wert nämlich ungefähr 8.3 J pro Mol und pro Grad Celsius. Wenn man also in einem Behälter mit festem Volumen V die Temperatur T erhöht, dann steigt der Druck p im Behälter. Hält man die Temperatur konstant und erhöht den Druck, so muss das Volumen kleiner werden. Wie man sieht, gibt es eine ausgezeichnete Temperatur
12.2 Thermodynamik: Das Komplexe unterkomplex
293
T = 0, bei der das Gas überhaupt keinen Druck mehr hat. Diese Temperatur nennt man den absoluten Nullpunkt. Man kann nun in einem Experiment versuchen, diese Temperatur zu erreichen, indem man das Gas immer weiter abkühlt. Das klappt zwar nicht, denn die Luft wird bei tiefen Temperaturen zu einer Flüssigkeit, aber aus dem Diagramm, in dem man den Druck gegen die Temperatur aufträgt, kann man extrapolieren, dass der absolute Nullpunkt so etwa bei −273 ◦ C liegt (genauer −273.15◦ ). Die Temperaturskala, die bei dieser Temperatur startet und deren Einheit der Temperaturänderung weiterhin 1 ◦ C ist, nennt man Kelvin, also ist 1◦ K gleich 1 ◦ C, aber TKelvin = TCelsius + 273.15. Alle thermodynamischen Rechnungen werden stets in dieser Skala der absoluten Temperatur durchgeführt. Für Kelvin benutzt man die Abkürzung K (für Celsius C). Also sind zum Beispiel 25 C= (25+273.15) K = 298.15 K. In der Physik rechnet man oft mit einer „Zimmertemperatur“ von 300 K. Natürlich ist der Gültigkeitsbereich des einfachen Gasgesetzes eingeschränkt. Die Abweichungen vom Verhalten idealer Gase werden besonders drastisch, wenn das Gas seinen Aggregatzustand verändert, also etwa flüssig wird. Man fragte sich daher, ob es möglich ist, eine Theorie aufzubauen, die nur interessante Eigenschaften miteinander verknüpft und deren Gültigkeitsbereich größer ist. Sie sollte am besten für alle Phasen kondensierter Materie anwendbar sein und auch Phasenumwandlungen beschreiben können. Diese Theorie heißt heute Thermodynamik. Das Besondere an ihr ist, dass sie keine Details über den Aufbau der Materie benutzt (die waren im 19. Jahrhundert auch noch gar nicht bekannt). Das ist ihre Schwäche und ihre Stärke. Es ist eine Schwäche, weil man Eigenschaften der Materie ohne Kenntnisse über ihren Aufbau nicht berechnen kann. Die Aussagen der Theorie sind tatsächlich nichts anderes als Bilanzen (und eine gewisse Anordnung von Zuständen, über die wir gleich noch mehr hören werden). Es ist aber eben auch eine Stärke, weil solche Aussagen die Revolutionen im Verständnis über den Aufbau der Materie überlebt haben. Daher ist die Thermodynamik auch heute noch nützlich. Sie wurde vom deutschen Physiker Rudolf Clausius (1822–1888) auf zwei Grundsätze zurückgeführt, die heute 1. und 2. Hauptsatz heißen. Der 1. Hauptsatz ist nichts anderes als die Energieerhaltung. Clausius erkannte aber, dass man dabei auch Wärme unter die Energieformen rechnen muss, die bei der Bilanzierung zu berücksichtigen sind. Der 2. Hauptsatz ist die eigentliche Neuerung, die die Thermodynamik mit sich brachte. Er entstand zunächst aus Forschungen, die sich aus der technischen Praxis ergaben, nämlich aus der sorgfältigen Untersuchung der wichtigsten Technologie der Industrialisierung, der Dampfmaschine. Dampfmaschinen benutzte man zum Antrieb aller anderen mechanischen Maschinen. Daher wollte man unbedingt wissen, wie viel nutzbare Energie (Arbeit) sich aus so einer Wärmekraftmaschine gewinnen lässt. Die physikalische Theorie dieser Maschinen begann mit der Arbeit, die Sadi Carnot (1796–1832) im Jahr 1824 unter dem Titel Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen veröffentlichte (s. Abschn. 8.2). Die in französischer Sprache abgefasste Arbeit wurde nach wohlwollender Aufnahme erst mal wieder vergessen. Es war Clapeyron, der sie wieder aufgriff und Clausius erwähnte 1850 die Arbeit als eine der wichtigsten
294
12 Gott würfelt verständlich: Statistische Physik
auf ihrem Gebiet, obwohl er das Original selbst nicht kannte. Was war nun so Bahnbrechendes in den Arbeiten von Carnot und Clausius? Um eine Dampfmaschine zu betreiben, muss man nicht nur eine Wärmequelle haben, man braucht auch eine kühlere Umgebung. Sowohl die Wärmequelle als auch die Umgebung enthalten so viel Energie, dass die Änderungen durch die Dampfmaschine nicht ins Gewicht fallen. Die Wärme, die zwischen Wärmequelle und Umgebung strömt, kann man allerdings unterwegs nicht zu 100 % in Arbeit umwandeln, es bleibt immer ein wenig Wärme, die als Abwärme im kälteren Bereich verschwindet. Ist nun diese Abwärme physikalisch notwendig, oder kann man sie durch verbesserte Technik beliebig klein machen? Das war die praktische Frage. Und wenn es unvermeidliche Abwärme gibt, kann man die irgendwie quantifizieren? Es bedurfte trickreicher Überlegungen, um ohne die Kenntnisse über Atome und deren Bewegung zu verstehen, dass es keine Maschine geben kann, die periodisch arbeitet und in jedem Zyklus nichts anderes tut, als ein Wärmereservoir2 abzukühlen und die entzogene Energie in Arbeit umzuwandeln (eine Maschine, die das tun würde, nennt man auch Perpetuum mobile 2. Art 3 .). Die Unmöglichkeit eines Perpetuum mobiles 2. Art ist eine Formulierung des 2. Hauptsatzes. Sie klingt allerdings noch ziemlich ungenau und etwas nach Maschinenbau. Carnot gelang es, eine Grenze für den Anteil an Wärmenergie anzugeben, die man aus einer periodischen Wärmekraftmaschine in Arbeit verwandeln kann (diesen Anteil nennt man thermischen Wirkungsgrad). Die Maschine besitzt ein heißes Wärmereservoir mit Temperatur T1 4 und ein kaltes mit Temperatur T2 . Am Ende eines Zyklus ist die Maschine im selben Zustand wie am Anfang und es kann von vorn losgehen. Der maximal mögliche thermische Wirkungsgrad oder Carnot Wirkungsgrad ist Arbeit T1 − T2 =η= W¨armemenge aus dem Reservoir T1 Die Temperaturen müssen (!) in Grad Kelvin (nicht Celsius) angegeben werden. Obwohl wir dieses Resultat hier nicht begründen, lohnt es sich zu merken, denn man kann es für viele Anwendungen aus der Tasche ziehen. Anwendung: Kraftwerk und Wärmepumpe Analysieren wir mal ein gutes altes Kraftwerk. Ein Kohlekraftwerk erzeugt aus Wärme Dampf, der dann eine Turbine antreibt, die einen Generator antreibt, der unseren Strom erzeugt. Der Umwandlungsprozess von thermischer Energie in Arbeit findet in der Turbine statt. Daher brauchen wir die Dampftemperatur beim Eintritt in die Turbine (ungefähr 500 ◦ C, sagen wir der Einfachheit halber 800 K) und die 2
Ein Wärmereservoir hat eine feste Temperatur. Es enthält so viel Energie, die es in Form von Wärme mit der Maschine austauschen kann, dass man die Änderungen im Reservoir vernachlässigen darf. An der heißen Seite wird immer genug nachgeheizt und an der kalten Seite die Wärme vollständig und schnell abgeführt. 3 Ein Perpetuum mobile 1. Art ist eine Maschine, die Energie aus dem Nichts produziert. 4 Lehrer Bömmel: „Dat eine Loch, dat es de Feuerung.“
12.2 Thermodynamik: Das Komplexe unterkomplex
295
Umgebungstemperatur (ungefähr 300 K), um den Carnot Wirkungsgrad zu berechnen: η = 1 − 300/800 = 0.625, also können nie mehr als 62.5 % der Energie im Dampf in Arbeit umgewandelt werden. Es ist unvermeidlich, dass 38.5 % verloren gehen. Diesen Idealwirkungsgrad erreicht man aber nicht. Moderne Steinkohlekraftwerke haben technische Wirkungsgrade von bis zu 45 %. Bei einer typischen Effizienz von 35 % braucht man zur Erzeugung von 1 kWh elektrischer Energie 2.86 kWh an fossiler Energie. Gaskraftwerke funktionieren anders. Das Gas produziert beim Verbrennen Druck und Strömungen, und die treiben Schaufeln an (Gasturbine). Das verbrannte Gas ist aber auch beim Ausströmen aus der Turbine noch sehr heiß. Diese Wärme nutzt man in sogenannten Gas-Dampf Kombikraftwerken (GuD), um Dampf zu erzeugen (wie beim Kohlekraftwerk), der dann wiederum Dampfturbinen antreibt. Damit können technische Wirkungsgrade von 60 % erreicht werden, dann braucht man für 1 kWh elektrische Energie nur 1.67 kWh Energie im Gas. Würde man diese fossile Energie zu Hause verbrennen, um Wasser heiß zu machen, dann gibt es keine nennenswerten Verluste. Das spricht für Gasheizungen oder Kohleöfen statt elektrischer Heizungen. Eine andere Technologie zur Warmwasserbereitung ist die Wärmepumpe. Sie kehrt das Funktionsprinzip einer Wärmekraftmaschine um, d. h. sie leistet Arbeit, um Wärme von einem kälteren in ein wärmeres Reservoir zu pumpen. Das funktioniert schon seit Langem tadellos in Kühlschränken und Klimaanlagen. Wenn es draußen 30◦ ist, dann pumpt die Klimaanlage aus dem warmen Wohnzimmer solange Wärmeenergie nach draußen, bis die gewünschten 22◦ erreicht sind. Der Wirkungsgrad ist nun in den Augen des Nutzers der auf den Kopf gestellte Carnot Wirkungsgrad, nämlich die zwischen den Reservoirs transportierte Wärme geteilt durch die dafür benötigte Arbeit. Diesen (maximalen) Wirkungsgrad nennt man auch COP (coefficient of performance). Er ist also maximal COP =
T1 W¨armemenge aus dem Reservoir = Arbeit T1 − T2
Dieser COP ist immer größer als 1, d. h. für 1 kWh, die man als elektrische Energie hineingibt, erhält man das COP-fache an Wärmeenergie. Wenn also eine solche Wärmepumpe 10 Grad (T2 = 283.15 K) kaltes Grundwasser als Wärmereservoir nutzt, um warmes Wasser von 50 Grad (T1 = 323.15 K) zu produzieren, dann ist der COP T1 /40 ≈ 8. Wie Sie sehen, nimmt der COP immer mehr zu, wenn sich die Temperaturen T1 und T2 annähern. Man sollte also nach einem möglichst warmen Reservoir suchen. Von solchen COP-Werten können Wärmepumpen gegenwärtig allerdings nur träumen. Die technische Effizient, d. h. das, was man im Jahresdurchschnitt einer installierten Pumpe tatsächlich bekommt (die sogenannte Jahresarbeitszahl JAZ), liegt gegenwärtig bei 2–5. Pro kWh elektrischer Energie erhält man also 2–5 kWh Wärmeenergie. Das klingt immer noch nach einem guten Geschäft, denn die zusätzlichen 100 %–400 % Energie bekommt man aus dem Wärmereservoir um-
296
12 Gott würfelt verständlich: Statistische Physik
sonst. Man muss es aber mit der effizienteren Nutzung der fossilen Brennstoffe zu Hause vergleichen. Das wollen wir jetzt mal tun. 1.67 kWh (GuD) bis 2.86 kWh (Kohle) liefern 1 kWh Strom, die mit einer Wärmepumpe in 2–5 kWh Wärme umgesetzt werden. Wenn man die fossilen Brennstoffe zu Hause verbrennt, hat man 1.67 b. z. w. 2.86 kWh Wärme. Bei GuD Strom spart die Wärmepumpe also den Bruchteil (2 − 1.67)/1.67 ≈ 0.2 bis (5 − 1.67)/1.67 ≈ 2 d. h. 20 %–200 % der fossilen Energie. Bei Kohlestrom kann man aber mit der Wärmepumpe im schlechten Fall sogar Energie verlieren, und zwar dann, wenn man für die 2.86 kWh nur 2 kWh Wärme erhält (also bei JAZ = 2). Bei einer guten Wärmepumpe gewinnt man (5 − 2.86)/2.86 ≈ 0.75, d. h. ca. 75 %. Wärmepumpen mit Kohlekraftwerken zu betreiben, ist also eher keine gute Idee. Gaskraftwerke sind schon erheblich besser. Beide Kraftwerke produzieren natürlich haufenweise CO2 (wie auch die Verbrennung zu Hause). Daher wäre eine CO2 neutrale Energieproduktion die optimale Primärenergiequelle für Wärmepumpen. Könnte man nun alle Gebäude in Deutschland einfach neu bauen, wäre die Wärmepumpe eine sehr gute Heizungstechnologie. Da das nicht geht, hat der Transformationsprozess von Gasheizungen und Öfen hin zu Wärmepumpen einen entscheidenden Haken. Heizungen mit fossiler Energie haben eine hohe Wassertemperatur, denn das ist gut zum Heizen (und beugt gefährlichen krankheitserregenden Bakterien (Legionellen) vor). Wärmepumpen wollen aber für eine gute JAZ einen möglichst geringen Temperaturunterschied, gegen den sie anpumpen müssen. Das erfordert Anpassungen. Zum Beispiel könnte man die Heizkörpertechnologie verändern, und statt kompakter Radiatoren große Flächen- oder Fußbodenheizungen installieren. Oder man kann die erforderliche Heizleistung reduzieren, indem man zusätzliche Wärmedämmungen einbaut, die per „Treibhauseffekt“ die Innentemperatur auch bei geringerer Heizleistung konstant halten. Das geht alles im Prinzip, die Investitionssummen für die Umrüstungen sind allerdings noch nicht absehbar. Auch die Wärmepumpentechnologie selbst ist sicher noch längst nicht ausgereizt, sodass man sich schon etwas Zeit für den ganzen Umbau lassen sollte.
12.3 Die Entropie im Gleichgewicht Die technischen Analysen sind sicher beeindruckend, aber lernen wir daraus auch etwas für die grundlegende Physik? Ist das nicht einfach nur Maschinenbau? In den Analysen, die Carnot zum maximalen Wirkungsgrad von Dampfmaschinen brachten, steckt tatsächlich eine sehr fundamentale Einsicht über die äußere Wirklichkeit. Sie ist so fundamental, dass wir ihr dauernd begegnen. Es gibt in der äußeren Welt unzählige Prozesse, die niemals in umgekehrter Reihenfolge der Ereignisse auftreten. Eine Tasse mit heißem Kaffee, die im Raum steht, kühlt sich ab, bis sie die Raumtemperatur erreicht. Die Energie wird von der Tasse in den Raum transportiert. Aber niemals können wir beobachten, dass eine auf Raumtemperatur abgekühlte Tasse Kaffee warm wird, indem sie Energie aus dem Raum zieht. Die thermische Energie strömt immer nur von heißeren zu kälteren Regionen, nie umgekehrt. Beachten
12.3 Die Entropie im Gleichgewicht
297
Sie, dass die Energieerhaltung einen Energiestrom von kalt nach heiß nicht verbietet. Welches physikalische Gesetz ist es dann? Ein anderes Beispiel: nehmen Sie ein Glas, schieben Sie es über den Rand des Tisches, sodass es zu Boden fällt und zerbricht. Niemals beobachten Sie, dass die Scherben auf dem Fußboden sich spontan zu einem Glas versammeln, das auf einen Tisch hüpft und dort stehen bleibt. Prozesse, die immer nur in einer Richtung beobachtet werden, nennt man irreversibel. Wir haben uns an die Existenz solcher Prozesse gewöhnt, sie erscheinen uns nicht mehr erstaunlich. Um so verblüffender ist es da, dass alle Naturgesetze, die mikroskopische Prozesse beschreiben (Newtonsche Mechanik, Maxwellgleichungen, Schrödingergleichung) zu jedem möglichen Prozess einen genau umgekehrt ablaufenden als Lösung anbieten. Die Existenz irreversibler Prozesse erfordert also offenbar noch ein weiteres Gesetz, das der Zeitentwicklung eine Richtung aufprägt, die die anderen Gesetze nicht eingebaut haben. An diesem Gesetz arbeitet sich die Physik bis heute ab ohne eine eindeutige Antwort darauf geben zu können. Die Komplexität der Materie und die mikroskopischen Gesetze spielen dabei sicher eine ausschlaggebende Rolle. Daher kann man nicht hoffen, mit einer so einfachen Theorie wie der Thermodynamik dieses Gesetz zu finden. Erstaunlicherweise kann man aber trotzdem mit ihr eine Menge über das Gesetz lernen. Die Thermodynamik beschäftigt sich nur mit einer speziellen Sorte von Zuständen kondensierter Materie, den thermodynamischen Gleichgewichtszuständen. Diese Zustände stellt man mithilfe von Geduld her. Man nimmt ein System und wartet, bis sich in diesem System keine interessante makroskopische Eigenschaft mehr zeitlich verändert. „Makroskopisch“ ist eine Eigenschaft immer dann, wenn man sie beobachten kann, ohne vom Aufbau der Materie aus Atomen und Molekülen etwas zu merken. Druck, Temperatur, Volumen und Energie eines Glases mit Wasser sind solche Beispiele. Wenn man das Glas schüttelt, dann gibt es darin zunächst noch zeitabhängige Eigenschaften, etwa hydrodynamische Strömungen, aber die klingen nach einer Weile ab. Wenn absolute Ruhe eingekehrt ist, befindet sich das System im Gleichgewicht. Wenn dann das Wasserglas in einem Raum steht, der auch einen Gleichgewichtszustand erreicht hat, so befindet sich das Wasser mit dem Raum im thermodynamischen Gleichgewicht. Es klingt zunächst ziemlich langweilig, sich nur mit Zuständen zu beschäftigen, in denen makroskopisch gar nichts passiert. Spannend wird es erst, wenn man Übergänge zwischen solchen Zuständen betrachtet. Das ist das Hauptgeschäft der Thermodynamik. Dabei befasst sie sich aber nicht mit der Zeitentwicklung des Systems. Um ihre Möglichkeiten zu beschreiben, nehmen wir ein Glas Wasser im Gleichgewichtszustand A und eine beliebig komplizierte Maschine (mit Hammerwerken, Schleudern, Walzen, Heizgeräten, was immer Sie mögen), die insgesamt angetrieben wird durch ein Gewicht (so wie eine Pendeluhr). Das Gewicht sinkt im Schwerefeld der Erde herunter und treibt die Mechanik an. Jetzt stecken Sie alles in einen Kasten, merken sich den Anfangszustand der Maschine und des Gewichts, schließen den Kasten und lassen die Maschine laufen. Am Ende des Tages öffnen Sie den Kasten wieder. Da beobachten Sie, dass das Wasser sich in einem anderen Gleichgewichtszustand B befindet, während die Maschine wieder im Ausgangszustand steht. Aber das Gewicht hat seine Position verändert. Wegen der Energieerhaltung ist klar, dass das Wasser Energie aufgenommen hat, wenn das
298
12 Gott würfelt verständlich: Statistische Physik
Gewicht gesunken ist (oder abgegeben, wenn es gestiegen ist). So einen Prozess nennt man in der Thermodynamik adiabatisch. Beachten Sie, dass die Maschine völlig beliebig ist und das Gewicht auch durch irgendeinen anderen Energielieferanten ersetzt werden könnte. Nun kann man diese Experimente mit allen möglichen Anfangszuständen A1 , A2 , A3 , · · · durchführen und sich fragen: Welche Endzustände kann ich mit adiabatischen Prozessen erreichen? Auf diese Frage gibt die Thermodynamik eine erstaunliche Antwort. Ohne je Bezug auf den Aufbau der Materie aus Atomen zu nehmen, ohne je Größen wie Temperatur oder Wärme definieren zu müssen5 , kann sie folgendes sagen: Entropie Es gibt eine Funktion (eine, nicht mehrere!) , genannt Entropie, die jedem Gleichgewichtszustand eine Zahl S(A) zuordnet. Diese Funktion regelt die adiabatische Erreichbarkeit von Zuständen so: • Wenn S(B) kleiner ist als S(A), dann kann man B nicht von A aus über einen adiabatischen Prozess erreichen. • Das geht nur wenn S(B) größer oder gleich S(A) ist. Wenn S(A) = S(B) ist, dann kann man sowohl von A nach B als auch von B nach A mit einem adiabatischen Prozess gelangen. Solche Prozesse, die man in beiden Richtungen ablaufen lassen kann, nennt man reversibel, die anderen irreversibel. Irreversible Prozesse führen also immer zu Gleichgewichtszuständen mit größerer Entropie als der Startwert. • Die Funktion ist additiv, d. h. wenn man zwei Systeme (ein Glas Wasser im Zustand A und einen Container mit Luft im Zustand C) als ein zusammengesetztes betrachtet, dann ist die S(A, C) = S(A) + S(C).
Das Erstaunliche an den Aussagen ist vor allem ein Gesetz: Bei irreversiblen Prozessen nimmt die Entropie zu. Dies ist eine Formulierung des 2. Hauptsatzes. Kann man nun mit der Entropie noch mehr anfangen als nur abzulesen, welche Gleichgewichtszustände untereinander adiabatisch erreichbar sind? Und ob! Eine der interessanten Eigenschaften ist die Energie E. Wenn wir die Energie um einen kleinen Betrag ändern, ohne eine andere der interessanten Eigenschaften (die alle zusammen den Gleichgewichtszustand A beschreiben) zu ändern, so erreichen wir einen neuen Gleichgewichtszustand. Dann können wir uns die zugehörige Entropieänderung anschauen, nämlich S(E + E) − S(E) (alle anderen, festgehaltenen Eigenschaften haben wir gar nicht erst mitnotiert). Jetzt ziehen wir wieder unser kleines Einmaleins der höheren Mathematik aus der Tasche (siehe Abschn. 3.7), das uns sagt: S(E + E) = S(E) + (d S/d E)E + f (E). Den kleinen Fehler können wir im 5
Auch viele Physike finden das überraschend. Für alle Experte, die Zweifel an dieser Aussage haben: eine sehr gründliche Antwort findet sich in E.H. Lieb and J. Yngvason, Physics Reports 310, 1 (1999).
12.3 Die Entropie im Gleichgewicht
299
Grenzprozess schließlich vergessen. Das Ergebnis lässt sich auf eine für Anwendungen sehr interessante Art lesen, wenn wir es etwas umstellen, nämlich so: E =
1 S. d S/d E
Was sagt das aus? Wenn sich in einem Prozess die Entropie ändert, führt das zu einer Energieänderung. Eine Energieänderung, ohne dass sich eine andere makroskopische Eigenschaft verändert, das entspricht genau unserer Vorstellung von Wärme. Entropieänderung ist also im wesentlichen Wärmeübertrag, und das gibt der abstrakten Entropie eine ganz praktische Bedeutung. Was ist nun die Bedeutung des Faktors 1/(d S/d E) ? Dazu betrachten wir zwei Systeme (1 und 2), die Energie austauschen können (wieder, ohne dass andere makroskopische Größen verändert werden). Die Gesamtentropie ist S(E 1 , E 2 ) = S(E 1 ) + S(E 2 ). Die Gesamtenergie E = E 1 + E 2 soll konstant gehalten werden, d. h. wenn die Energie von System 1 sich um E 1 ändert, dann muss die Energieänderung in 2 gerade E 2 = −E 1 sein. Wenn Energie von System 1 nach 2 fließt, dann ist E 1 negativ und E 2 positiv. Wie groß ist Änderung der Gesamtentropie? Kein Problem, das ist S(E 1 + E 1 ) + S(E 2 − E 1 ) − S(E 1 ) − S(E 2 ), und für kleine Änderungen ist S = (d S/d E)1 E 1 − (d S/d E)2 E 1 . Dieser Prozess wird aber nur ablaufen, solange S positiv ist, d. h. solange (für E 1 negativ!) (d S/d E)1 kleiner ist als (d S/d E)2 . Der Prozess stoppt in einem Gleichgewicht, in dem beide Ableitungen gleich groß sind. Kommt uns das bekannt vor? Jawohl, der Wärmeübertrag geht vom heißeren zum kälteren Körper und im Gleichgewicht sind beide Temperaturen auch gleich groß. Also ist für einen heißeren Körper (d S/d E) kleiner. Daher können wir eine thermodynamische Temperatur als T = 1/(d S/d E) definieren. Die wesentlichen Eigenschaften einer Temperatur hat sie ja, aber man muss sich noch Gedanken darüber machen, ob und wie man diese Temperatur mit einem handelsüblichen Thermometer misst. Glauben Sie mir doch mal, dass die Physik das sorgfältig erkundet hat. Beachten Sie, dass wir in diesem Abschnitt immer von einem Energieaustausch ohne Änderung von anderen interessanten Eigenschaften gesprochen haben (d.i. Wärme), der in einem kleinen Schritt wieder zu einem Gleichgewicht führt. Zu diesen Eigenschaften zählen vom Standpunkt des Maschinenbaus natürlich vor allem solche, die sich als Arbeit nutzen lassen. Wenn wir die mit betrachten und mal F nennen, dann sagt uns der Energieerhaltungssatz, dass E = F + T S sein muss, oder F = E − T S Mit anderen Worten: Von einer Energieänderung E lässt sich nur der Teil F „nutzbringend“ verwenden (die freie Energie), der andere Teil ist „Abwärme“. Wenn wir uns in kleinen Schritten von Gleichgewichtszustand zu Gleichgewichtszustand
300
12 Gott würfelt verständlich: Statistische Physik
bewegen, dann können wir daraus auch größere Zustandsänderungen erhalten (nämlich per DGL Methode). Allerdings muss wirklich jeder Zustand ein Gleichgewicht sein. So ein Prozess ist automatisch reversibel. Bei realen Prozessen haben wir zwar den Anfangszustand und den Endzustand als Gleichgewichte, aber dazwischen laufen irreversible Prozesse ab. Die bringen zusätzliche Entropie mit, sodass S größer wird und die nutzbringende Energie F kleiner.
12.4 Bigger als Big Data Soweit die nützliche Thermodynamik. Aber schließlich haben wir ja diese ganze Physik vom Aufbau der Materie nicht zuletzt deshalb entwickelt, weil wir verstehen möchten, wie die mikroskopischen Teile unsere makroskopische Welt gestalten. Kann man denn nicht mit all unserem Wissen und unseren Computern die mikroskopischen Grundgesetze hernehmen und daraus die Makrowelt berechnen? Das ist der hartgesotten reduktionistische Ansatz. Fred ist so ein hartgesottener Reduktionist. Er sagt: „Kondensierte Materie ist für mich kein Problem. Ich kenne die Wechselwirkungen zwischen allen Atomen6 . Dann nehme ich einfach die Newtonschen Bewegungsgleichungen und integriere sie. Mit einem ordentlichen Supercomputer sollte das kein Problem sein. Dann nehme ich die berechneten Daten und werte sie aus. Fertig! So macht man das heute, man nennt das Big Data. Und wenn die klassische Mechanik nicht reichen sollte, dann benutze ich eben die Schrödingergleichung.“ Bereits im Abschn. 3.1 haben wir naturphilosophisch begründet, warum so ein Zugang nicht funktioniert. Zur Erinnerung: die kondensierte Materie wird von der äußeren Welt nicht mit Etiketten der Form „Das könnte Sie interessieren“ geliefert. Bei der Datenauswertung müssen wir uns daher erst mal Eigenschaften ausdenken, die für uns interessant sind. Leider ist unsere Fantasie da begrenzt. Wenn wir einer Eigenschaft der äußeren Welt noch nie in irgendeiner Form begegnet sind, dann können wir sie uns auch nicht vorstellen. Aber auch, wenn wir „nur“ bekannte Eigenschaften untersuchen wollen, führt der Reduktionismus in eine Sackgasse. Das wollen wir jetzt zeigen. „Ok, Fred. Schauen wir uns mal die Größe einer solchen Rechenaufgabe an. Damit es nicht zu kompliziert wird, nehmen wir einfach ein Glas Wasser, sagen wir 1/4 l.“ Wir wissen schon, dass 1 Mol eines Stoffes gerade N A ≈ 6 · 1023 Teilchen enthält (Avogadrozahl) und 1 Mol ist das Atom- b. z. w. Molekulargewicht in Gramm. Das Molekulargewicht von Wasser (H2 O) ist 18, d. h. 18 g Wasser enthalten gerade die Avogadrozahl an Teilchen. Ein Viertel Liter Wasser wiegen 250 g, also müssen die N Wassermoleküle gerade N · m P = 0.25 kg sein. Mit dem Taschenrechner erhalten wir die Anzahl der Moleküle, nämlich N ≈ 0.8 · 1025 . Schätzen wir als Nächstes mal den Speicherbedarf ab, der erforderlich ist, um sich einen einzigen mikroskopischen Zustand der Wassermoleküle (einen Schnapp6
Nehmen wir zu seinen Gunsten mal an, dass das so wäre, obwohl auch das ein Problem darstellt.
12.4 Bigger als Big Data
301
schuss) zu merken. Wir lassen alle komplizierten Schwingungen und Rotationen des Wassermoleküls weg, die machen den Bedarf noch größer, und schauen erst mal nur auf die Translationsbewegung. Wir brauchen als Startwerte für die Newtonschen Bewegungsgleichungen für jedes Molekül die Position (3 kartesische Koordinaten) und die Geschwindigkeit (3 kartesische Komponenten), also insgesamt 6N Zahlen. Jede Computerzahl wird in Bits dargestellt und eine typische, moderate Größe einer solchen Zahl sind 64 Bits (oder 8 Bytes). Für jedes Teilchen brauchen wir also 48 Bytes. Das gibt insgesamt 48N ≈ 48 · 0.8 · 1025 ≈ 4 · 1026 Bytes. Vergleichen wir das mal mit handelsüblichen Speichergrößen. Ihr Laptop hat vielleicht 256 Gigabytes, ihr Laufwerk 2 Terabytes, d. h. 2 · 1012 Bytes. Das reicht schon mal nicht. Es gibt aber größere Computer. Fangen wir deshalb gleich beim größten Speicher an: alle gespeicherten Daten der Welt schätzt man so auf 33000 Exabytes, das sind also 3.3 · 1022 Bytes. Das lassen wir uns jetzt ganz langsam auf der Zunge zergehen: Um einen einzigen Schnappschuss der Bewegungsdaten von 1/4 l Wasser zu speichern, braucht man ungefähr das Zehntausendfache des Datenvolumens aller auf der Erde gespeicherten Daten. Und wir haben noch nicht mal angefangen zu rechnen. Wir wollen Fred ja nicht überfordern, daher wünschen wir uns nur eine Vorausberechnung des mikroskopischen Zustands über 1 s. Wie viele Rechenoperationen muss der Computer dafür durchführen? Wir haben schon gelernt, dass man den Zeitschritt bei der Lösung der Newtonschen Bewegungsgleichungen nicht zu groß machen darf, sonst wird die Lösung Quatsch. Für Kräfte zwischen Molekülen kann man am Computer herumexperimentieren und findet einen Zeitschritt von 10−14 s, den man nicht wesentlich überschreiten darf. Wir müssen die Lösung über 1014 Schritte bestimmen. Pro Schritt und pro Teilchen braucht man natürlich mehr als eine Rechenoperation (+, −, ·, /). Die genaue Zahl kann man aus unserem Rechenschema zur Lösung der Newtonschen Gleichungen entnehmen, aber für unsere Abschätzung benutzen wir einfach mal 10 Operationen pro Zahl. Es sind zwar mehr, aber darauf kommt es nicht an, wie Sie gleich sehen werden. Wir brauchen insgesamt (4/48) · 1026 · 1014 Zahlen mit je 10 Operationen berechnen, also 1040 Rechenoperationen. Wie lange braucht ein Computer für so viele Operationen? Schauen Sie auf Ihren Laptop. Die CPU hat eine Taktfrequenz von 3 GHz und sie hat 2 Kerne, sodass maximal 6 · 109 Operationen pro Sekunde möglich sind (von denen wir hier beschönigend annehmen, dass das alles Rechenoperationen sind.) Damit kommen Sie offenbar nicht zurande. Mit 1010 Operationen pro Sekunde müssen Sie 1030 s auf das Ergebnis warten. Nur zur Orientierung: das Weltalter seit dem Urknall ist ungefähr 1017 s. Nehmen wir also einen ordentlichen Supercomputer, wie Fred das wollte. Der Fugaku Supercomputer ist zur Zeit einer der größten. Er leistet ungefähr 415 PetaFlops (Flops: floating point operations per second, also Rechenoperationen pro Sekunde). Das sind also 415 · 1015 Operationen und auch das bringt uns dem Ziel nicht viel näher. Wir müssen immer noch ungefähr 1023 s oder 1 Mio. Weltalter warten, bevor wir das Ergebnis für die Zeitentwicklung von einem Viertelliter Wasser über eine Sekunde erhalten. Diese Zahlen können auch hartgesottene Reduktioniste ins Grübeln bringen. „Aber“, sagt Fred nun, „Was heute noch nicht klappt, das klappt ja vielleicht in Zukunft. Die Computer werden ja immer leistungsfähiger“ Wir wollen uns jetzt
302
12 Gott würfelt verständlich: Statistische Physik
gar nicht anschauen, ob das Argument mit der unbegrenzten Leistungsfähigkeit von Computern trägt. Stattdessen wollen wir dem armen Fred klarmachen, dass die bisherigen schlechten Nachrichten noch gar nichts sind gegen das, was noch kommt. Alle Atome und Moleküle besitzen nämlich eine Wechselwirkung, die zu chaotischer Zeitentwicklung führt. Wenn sie sich nahe kommen, dann verhalten sie sich ungefähr so wie Billardbälle (oder harte Kugeln, wie man in der Physik sagt). Die abstoßende Wechselwirkung bei großer Annäherung ist eine Folge des Paulischen Ausschließungsprinzips. Der Stoß zweier Billardbälle verstärkt kleine Unsicherheiten oder Störungen der Bahnen. Der einfache Mechanismus ist in Abb. 12.1 dargestellt. Für Atome ist der Radius rc ≈ 10−10 m (diese Längeneinheit heißt auch 1. Ångström). Um Ihnen zu demonstrieren, dass wirklich winzigste Störungen zum dramatisch schnellen Verlust der Information über die Bahn führen, betrachten wir mal eine Fliege (Gewicht 1/8 g), die plötzlich in einer Entfernung von d = 1m an einem Behälter voller Edelgasatomen auftaucht. Dadurch wirkt eine zusätzliche Schwerkraft, die Anziehungskraft der Fliege, auf alle Gasatome. Insbesondere spüren zwei Atome (auf Kollisionskurs) eine etwas verschiedene Kraft, weil sie zur Fliege etwas verschiedene Abstände haben. Die Differenz der Abstände ist (ungefähr) ihr Abstand voneinander, den wir mal L nennen. Spürt das eine Atom die Kraft .|F1 | = Gm A m F /r 2 , so spürt das andere |F2 | = Gm A m F /(r + L)2 . Dadurch wird ihre Relativbewegung ein winziges bisschen verändert. Die beiden Atome bewegen sich mit einer typischen thermischen Geschwindigkeit von v ∼ 103 m/s und ihr typischer Abstand bei normaler Dichte ist ∼ 10−7 m. Wenn sie ohne Störung unter einem Winkel α zusammenstoßen, so ist der Stoßwinkel mit Störung α + α. Diesen Winkelunterschied kann man berechnen (aus der Newtonschen Bewegungsgleichung, was wir hier unterschlagen) und erhält α =
Gm F L ∼ 0.5 · 10−33 . d 3 v2
Bei einem Stoß wird dieser winzige Unterschied aber vergrößert (siehe Abb. 12.1), und zwar um einen Faktor L/rc . Der Verstärkungsfaktor ist also 1000. Auch wenn der ursprüngliche Unterschied winzig war, nach wenigen Stößen ist der Winkelunterschied so groß, dass Teilchen, die ohne Störung zusammenstoßen würden, das mit Störung nicht mehr tun (und umgekehrt). Der maximal mögliche Unterschied im Winkel ist 2π (im Bogenmass, siehe Mathe-Glossar). Nach k Stößen ist der Unterschied α(k) = (1000)k α. Wie groß muss k sein, damit α(k) gerade 2π wird? Das ist ein Fall für den Taschenrechner. Wenn Sie mit Logarithmen rechnen können7 , so sehen Sie schnell, dass 3k = log 4π + 33 sein muss, oder k = 12.7, d. h. nach spätestens 13 Stößen ist die Störung durch die Fliege so groß geworden, dass Sie die Bahnen der Atome nicht wieder erkennen. Wie lang dauert das? Die Zeit zwischen zwei Stößen ist ungefähr L/v ∼ 10−7 /103 ∼ 10−10 s. Nach einer unvorstellbar
7
Alle anderen müssen mit dem Taschenrechner fummeln.
12.5 Statistische Physik des Gleichgewichts
303
Abb. 12.1 Dieser unscheinbare Verstärkungseffekt von einer Unsicherheit α vor dem Stoß nach α(1) nach dem Stoß führt zum Chaos. Er hängt von L/rc ab, das in der Abbildung viel kleiner ist als 1000, daher erscheint er nicht so groß. Die ausgehenden Richtungen ergeben sich durch die Regel des Billiardstoßes: Einfallswinkel=Ausfallswinkel
kurzen Zeit von ungefähr einer Nanosekunde hat die Fliege das System komplett durcheinander gebracht. Das Ergebnis verrät uns Zweierlei: (1) wir werden es nie schaffen, ein System so gut zu isolieren, dass wir die äußeren Störungen, selbst die von der Schwerkraft von Fliegen, vernachlässigen können. (2) wir werden es nie schaffen, genau genug zu rechnen, um Vorhersagen zu machen. Selbst Fehler in der 100. Stelle nach dem Komma führen nach 1/10 ms zu völlig anderen Teilchenbahnen. „Also, sorry Fred. Wir müssen uns wohl doch vom Reduktionismus verabschieden, wenn wir die Eigenschaften kondensierter Materie verstehen wollen“. Was für die theoretische Vorhersage gilt, gilt aber aus den gleichen Gründen ebenso für praktische Messungen. Sie können den Mikrozustand einer makroskopischen Menge kondensierter Materie nicht messen. Einerseits scheitern Sie an der Datenmenge (Sie müssen ja mindestens die Messung irgendwo speichern, und schon das überfordert alle Technologie der Welt). Andererseits sorgt die chaotische Dynamik dafür, dass man selbst den Zustand einer mikroskopischen Menge von Atomen oder Molekülen (3,4,...) nicht genau genug messen kann, um daraus Vorhersagen über makroskopische Zeiten machen zu können.
12.5 Statistische Physik des Gleichgewichts Wir haben bereits in Abschn. 4.7 und 4.12 gesehen, dass der physikalische, kausale Determinismus für die meisten komplizierten Voraussagen auch dann abgeschwächt werden muss, wenn wir die deterministischen Grundgesetze kennen. Was bleibt, sind Wahrscheinlichkeitsaussagen. Das Gebiet der Physik, das sich mit solchen Aussagen in komplexen, aus vielen Teilen zusammengesetzten Systemen beschäftigt, nennt sich Statistische Physik. Die ist ein schönes Beispiel für den erfolgreichen Gebrauch subjektiver Wahrscheinlichkeit in der Physik. Wie wir im vorigen Abschnitt gesehen haben, entsteht die Notwendigkeit einer Wahrscheinlichkeitsbeschreibung aus einem Mangel an Information. Das System hat zwar einen mikroskopischen Zustand (nämlich die Orte und Impulse aller Teilchen für den Fall eines klassischen Systems),
304
12 Gott würfelt verständlich: Statistische Physik
aber wir kennen ihn nicht. Es fragt sich nun, welche persönlichen Glaubensgrade wir zur Beschreibung des Systems wählen sollen? Zur Beantwortung dieser Frage berufen wir uns auf Reverend Bayes (vgl. Abschn. 4.11). Wir können mit jedem (rationalen) System von Wahrscheinlichkeiten beginnen, das mit der bekannten Information verträglich ist. Bekannt sind makroskopische Größen, zum Beispiel das Volumen, die Masse und der Druck. Um Einflüsse irgendwelcher Umgebungen zunächst auszuschließen, betrachten wir nur völlig abgeschlossene Systeme8 Wenn man so ein System eine Weile lang sich selbst überlässt, dann erreicht es einen Zustand, in dem sich keine der makroskopischen Größen mehr verändert, also ein Gleichgewicht (im Sinn der Thermodynamik). Nun wählen wir zum Start gleiche Wahrscheinlichkeiten für alle mikroskopischen Zustände, die mit den Werten der makroskopischen Größen verträglich sind. Für ein einfaches Gas zum Beispiel sind diese Größen das Volumen V des Gasbehälters, die Masse b. z. w. die Anzahl der Gasmoleküle N und die innere Energie E. Das Vorgehen ist dasselbe, dass Sie auch beim Würfelspiel benutzen würden. Ohne Zusatzinformationen nimmt man an, der Würfel ist fair. Mit dieser ersten Hypothese starten Sie das Spiel. Die Grundannahme der statistischen Physik ist also: Start-Hypothese In abgeschlossenen Systemen im makroskopischen Gleichgewicht sieht es für uns so aus, als ob die äußere Welt Mikrozustände fair auswürfelt.
Beachten Sie, dass die Natur für klassische Teilchen eigentlich gar nicht würfelt. Es gibt einen Mikrozustand und der entwickelt sich deterministisch durch die Newtonschen Gleichungen. Unsere fehlende Information und die chaotische Dynamik wirken sich aber so aus, als würde fair gewürfelt, zumindest ist das die StartHypothese. Mithilfe dieser Wahrscheinlichkeiten kann man nun Histogramme messbarer Größen berechnen und sie mit dem Experiment vergleichen. Dann machen wir – falls erforderlich – Updates nach dem Bayeschen Theorem. Die sind erforderlich, wenn unsere Vorhersagen vom Experiment nicht bestätigt werden. Aber jetzt kommt die Überraschung: Wir haben noch nie ein Update gebraucht. Ist das nicht toll! Warum das so ist, weiß bis heute niemand so ganz genau9 , aber das ist für die Theorie auch nicht so wichtig. Erst mal funktioniert sie10 . Wir haben ja immer wieder betont, dass man ein System in der Wirklichkeit nie völlig isolieren kann. Daher könnte die Grundhypothese zwar stimmen, aber für 8
Das ist, nach allem, was wir wissen, eine Idealisierung, denn man kann den Energieaustausch zwischen einem System und dem Rest des Universums nie völlig unterdrücken, wie wir im vorigen Abschnitt gesehen haben. Daher weicht man die energetische Abgeschlossenheit manchmal etwas auf und lässt einen winzigen Energieaustausch zu (die Schwerkraft der Fliege). 9 Obwohl sich viele Leute darum bemühen. 10 Bei grundlegenden Naturgesetzen ist das häufig so. Warum die Schrödingergleichung so aussieht, wie sie aussieht, weiß auch niemand so ganz genau.
12.5 Statistische Physik des Gleichgewichts
305
die meisten Anwendungen nutzlos sein. Denn für viele praktische Zwecke ist der Austausch von erhaltenen Größen zwischen System und Umwelt nicht klein. Man kann zwar die Masse (Anzahl) von Kaffee-Molekülen in einem fest verschlossenen Gefäß sehr gut konstant halten, aber trotzdem tauscht das Gefäß mit der Umgebung Energie (Wärme) aus. Das Gefäß ist also gegenüber der Umgebung offen. Der Kaffee kühlt innerhalb von Stunden auf Umgebungstemperatur ab. Dann befinden sich beide Systeme – Umgebung und Kaffee – im Gleichgewicht, aber der Kaffee kann nach wie vor Energie mit der Umgebung austauschen. Die UmgebungsEnergie ist im Verhältnis zur Kaffee-Energie riesengroß, sodass sie durch Austausch mit dem Kaffee kaum merklich verändert wird. Die Physik idealisiert solche Vorräte einer Größe gern, indem sie annimmt, der Vorrat sei unbegrenzt. Dann nennt man so was ein Reservoir, im hier betrachteten Fall ein Energiereservoir. Das kennen wir schon aus dem Abschn. 12.2. Es ist verblüffend (aber wahr), dass es gelingt, für ein System, das Wärmeenergie mit einem Energiereservoir austauschen kann, die Wahrscheinlichkeit für eine bestimmte Energie des Kaffees E rein deduktiv (!) zu berechnen, wenn man nur annimmt, dass Reservoir und Kaffee zusammen ein abgeschlossenes System bilden, in dem die Natur die Mikrozustände fair auswürfelt. Das Ergebnis ist die sogenannte Boltzmannsche Wahrscheinlichkeitsverteilung. Sie hat eine interessante Form, es ist nämlich eine Exponentialfunktion, die wir in Abschn. 7.5 kennen gelernt haben. Die Boltzmann Verteilung P=
1 −E/k B T e Z
Die Temperatur T , die hier auftaucht, ist durch die Eigenschaften des Reservoirs bestimmt, weil das System mit dem Reservoir im Gleichgewicht ist (siehe Abschn. 12.3). Wenn Sie eine Tasse mit Kaffee in Ihrem Wohnzimmer haben, dann ist T die Temperatur, die Sie auf einem Thermometer im Wohnzimmer ablesen. k B ist die sogenannte Boltzmannkonstante, die die Temperaturskala (Kelvin) in Energien umrechnet. Ihr Wert ist 1, 38 · 10−23 J/K . Die Konstante Z sorgt schließlich dafür, dass die Summe über alle Wahrscheinlichkeiten gerade 1 ergibt. Die Boltzmannschen Wahrscheinlichkeiten sind deshalb so nützlich, weil die Energie eines Systems durch den Mikrozustand X festgelegt wird und diese Abhängigkeit zwischen Mikrozustand und Energie für viele physikalische Systeme bekannt ist. Für ein System aus Atomen, die man als klassische Teilchen behandelt11 , besteht X aus allen Orten (kurz zusammengefasst als r) und allen Geschwindigkeit11
Sie mögen sich wundern, warum man überhaupt Atome als klassische Teilchen behandeln darf, wo extra für sie doch die Quantenmechanik erfunden wurde. Aber das betraf nur den inneren Aufbau. Solange man an der Bewegung der unveränderlichen Atome interessiert ist, ist die klassische Beschreibung ganz gut.
306
12 Gott würfelt verständlich: Statistische Physik
en v der Teilchen. Für ein System aus Atomen besteht E aus der Bewegungsenergie E kin (v) (die ist immer die Summe aller (m i /2)vi2 ) und der Wechselwirkungsenergie U (r), die meistens nur von den Orten der Teilchen abhängt. Also ist die Energie E(X ) = E kin (v) + U (r). Mit Kenntnis der Funktion E(X ) gibt die Boltzmann Verteilung nun auch die Wahrscheinlichkeiten der Mikrozustände an. Die sind nicht mehr alle gleich wahrscheinlich, denn es können ja – anders als beim abgeschlossenen System – jetzt Mikrozustände mit allen möglichen Energien vorkommen. Je größer die Energie, desto unwahrscheinlicher der Mikrozustand. Am einfachsten zu verstehen ist ein Modell, bei dem alle innere Energie Bewegungsenergie einzelner Atome ist, die man als klassische Teilchen betrachtet. Die Bewegungsenergie eines Atoms ist Mv 2 /2. Wenn die innere Energie nur Bewegungsenergie ist, dann nennt man das System ein ideales Gas. Dieses Modell ist das einfachste (aber trotzdem sehr leistungsfähige) Vielteilchenmodell der Physik. Es besteht aus lauter klassischen Teilchen der Newtonschen Mechanik, die nicht untereinander wechselwirken, die aber in einem Kasten eingesperrt sind. Es war James Clark Maxwell, den wir schon von den Maxwell Gleichungen her kennen, der die Idee hatte, statt eines reduktionistischen Zugangs mit Newtonschen Gleichungen nach statistischen Gesetzmäßigkeiten der mikroskopischen Teilchengeschwindigkeiten zu suchen. Daraus entwickelte er die kinetische Gastheorie, die der österreichische Physiker Ludwig Boltzmann (1844–1906) dann ausbaute und damit das Forschungsgebiet der statistischen Physik begründete. Die Begriffsbildungen der statistischen Gesetzmäßigkeiten waren zunächst auf Gase beschränkt. Der US-amerikanische Physiker Josiah Willard Gibbs (1839–1903) verallgemeinerte die statistischen Theorien auf alle Phasen von Materie im Gleichgewicht. Erst mit diesen Hilfsmitteln gelang ein physikalisches Verständnis der verwirrenden Vielfalt der Phasen und Ordnungszustände und der Übergänge dazwischen. Viele Materialgrößen, die vorher aus dem Experiment bestimmt werden mussten (ohne ihren Ursprung zu kennen), konnten nun erklärt und teilweise sogar berechnet werden. Als einfache Anwendung der Boltzmann Verteilung schauen wir mal nach, wie viel Energie in so einem idealen Gas bei einer Temperatur T steckt. Die Boltzmann Verteilung sagt uns, wie das Histogramm der Bewegungsenergie aussieht, es ist nämlich P = exp(−E kin /k B T )/Z . Die Bewegungsenergie ist eine Summe der Bewegungsenergien der einzelnen Teilchen und das erlaubt es, aus diesem Histogramm auch das Histogramm der Geschwindigkeit eines einzelnen Teilchens zu bekommen. Betrachten wir mal 2 Teilchen, dann ist E kin = (m/2)(v12 + v22 ). Jetzt müssen wir eine Rechenregel aus der Potenzrechnung bemühen (siehe Mathe Glossar), nämlich exp(a + b) = exp(a) exp(b). Für unsere Betrachtung bedeutet das, dass die Geschwindigkeiten einzelner Teilchen alle statistisch unabhängig (siehe Abschn. 4.11) sind. Daher ist die Wahrscheinlichkeit für die Geschwindigkeit vi von Teilchen i gerade P = exp(−mvi2 /2k B T )/C. Die Konstante C muss wieder dafür sorgen, dass die Summe über alle Wahrscheinlichkeiten Eins ergibt. Wenn Sie die kartesischen Komponenten der Geschwindigkeit v = (vx , v y , vz ) einsetzen, dann sehen Sie, dass sogar jede Komponente statistisch unabhängig von den anderen Komponenten ist. Lassen Sie uns die vx Komponente betrachten, also die Bewegung in x-Richtung. Das Ergebnis ist, wie Sie sehen, eine Gaußsche Glockenkurve (s. Ab-
12.5 Statistische Physik des Gleichgewichts
307
schn. 4.13). Der Mittelwert jeder Geschwindigkeitskomponente ist Null. Das muss auch so sein, denn sonst würde der ganze Gascontainer davonfliegen. Die Breite der Gaußschen Glockenkurve definiert ein typisches Tempo vther m ), mit dem Teilchen unterwegs sind. Dazu schreiben √ wir die Glockenkurve in der Form 2 )/C. Also ist v ) = k B T /m. Dieses typische Tempo von P = exp(−v 2 /2vther ther m m Teilchen wollen wir für eine Zimmertemperatur T ≈ 300 K abschätzen. Für die Teilchenmasse wählen wir 4m P , das entspricht der Masse von Helium. Jetzt müssen wir nur noch Zahlen einsetzen und finden vther m = 0.57 · 103 m/s. Die typische Geschwindigkeit ist also ganz schön schnell: 500 m/s, das ist schneller als die Schallgeschwindigkeit in Luft. Die typische Bewegungsenergie 2 eines Teilchens ist mvther m /2 = k B T /2, also misst die Temperatur nichts anderes als die Bewegungsenergie der Teilchen. Da die Bewegungen in x, y und z Richtungen statistisch unabhängig sind, kann man die Beiträge zur Bewegungsenergie einfach addieren. Ein Teilchen eines idealen Gases hat also eine Bewegungsenergie von 3k B T /2. Wenn sich die Teilchen überhaupt nicht mehr bewegen, ist die Temperatur T = 0, d. h. das Gas hat den absoluten Nullpunkt erreicht. Die statistische Physik liefert also eine recht anschauliche Interpretation des absoluten Nullpunkts und macht außerdem klar, dass es keine kleineren Temperaturen geben kann. Die Bewegung der Teilchen ist auch die Ursache des Drucks. Den wollen wir nun ebenfalls berechnen. Dazu schließen wir den Gasbehälter mit einem beweglichen Zylinder ab . Die Gasatome stoßen von innen gegen den Zylinder und schieben ihn dadurch ein wenig weiter, – und zwar alle in dieselbe Richtung. Wenn ein Gasatom mit Tempo vx gegen eine Wand stößt (s. Abb. 12.2), so kehrt es gerade seine Bewegungsrichtung um. Also hat es seinen Impuls um −2mvx geändert, von +mvx nach −mvx . Wegen der Impulserhaltung muss sich also der Impuls des Zylinders um +2mvx verändern. Nun muss man nur noch alle Stöße über ein kleines Zeitintervall t zusammenzählen, (das ist nicht schwer (s. Abb. 12.2)) um die Gesamtänderung des Zylinderimpulses pzyl über das Zeitintervall t zu erhalten. Ja, und nun können wir wieder mal das 2. Newtonsche Gesetz benutzen. Es sagt uns, dass pzyl /t gerade die Kraft Fgas ist, die das Gas auf den Zylinder ausübt. Diese Kraft wird mit der Zylinderfläche größer. Der Druck ist einfach diese Kraft pro Zylinderfläche p = FGas /Fl¨ache. Das ist die mikroskopische Sichtweise auf den Druck des Gases. Gäbe es keine Kraft aus der Umgebung, die den Zylinder festhält, so würde sich das Gas immer weiter ausdehnen, indem es den Zylinder verschiebt. Wenn die Atome des Gases mehr Platz zur Verfügung haben, dann stoßen sie allerdings pro Zeit seltener mit dem Zylinder zusammen. Mit zunehmendem Volumen des Gasbehälters nimmt der Druck also ab. Es ist nicht schwer, daraus die Kraft pro Zylinderflache zu berechnen. Man findet so den interessanten Zusammenhang (für N Gasatome im Volumen V): N p = kB T . V Diesen Zusammenhang kennen wir schon aus dem Abschn. 12.2. Wir müssen lediglich statt der Teilchenzahl die Stoffmenge n einführen, d. h. N als N = n N A
308
12 Gott würfelt verständlich: Statistische Physik
Abb. 12.2 Der Druck in einem Gefäß entsteht durch die Teilchen, die auf die Wände aufprallen. Dabei ändern sie ihren Impuls, diese Impulsänderung ist nach Newtons 2. Gesetz eine Kraft. In einem kleinen Zeitintervall t prallen alle Teilchen in dem Abschnitt der Länge vx t auf die Wand. Die Impulsänderung muss durch eine äußere Kraft F kompensiert werden, damit die Wand stehen bleibt
schreiben und k B Na mit der Gaskonstanten Rm identifizieren. Mithilfe der statistischen Physik ist es aber gelungen, diese Zustandsgleichung deduktiv (!) abzuleiten. Wir können also den Druck mikroskopisch erklären (Abb. 12.2). Nun können wir verstehen, dass man die innere Energie des idealen Gases auch durch den Umgebungsdruck verändern kann. Wenn man den Zylinder in das Volumen hereindrückt, dann leistet man Arbeit gegen die Kraft Fgas . Wegen der Energieerhaltung transportiert man daher Energie von der Umgebung in das Gas. Wo steckt diese Energie jetzt? Diese Frage ist für ein ideales Gas recht knifflig. Die Verteilung der Geschwindigkeiten hat sich nicht verändert, d. h. die Bewegungsenergie ist gleich geblieben. Wenn man sehen will, wo die Energie im Inneren des idealen Gases geblieben ist, muss man zunächst mal die Wände mit zum Inneren rechnen. Außerdem braucht man ein realistischeres Modell für die Wände. Eine Wand stellt für ein dagegen laufendes Teilchen eine Kraft dar. Gegen diese Kraft leistet das Teilchen Arbeit, um das Volumen zu vergrößern. Diese Arbeit ist die zusätzliche innere Energie. Das ist also ein ziemlich subtiler Effekt. Wenn das Gas nicht ideal ist, d. h. wenn die Teilchen miteinander wechselwirken, ist es viel offensichtlicher, dass man durch Verringern des Volumens die innere Energie ändert, denn die gleiche Anzahl Teilchen auf weniger Raum führt ja dazu, dass die Teilchen typischerweise kleinere Abstände haben. Wenn die Wechselwirkung zwischen ihnen mit kleiner werdendem Abstand stärker abstoßend ist, dann erhöht sich so die innere Energie.
12.6 Die statistische Entropie: Wissen ist Energie Ich hoffe, Sie haben nicht vergessen, dass wir die statistische Physik wegen eines grundsätzlichen Mangels an Informationen über den Mikrozustand betreiben müssen. Eine brillante Einsicht, die man aus diesem Zugang erhalten kann ist, dass man die thermodynamische Entropie statistisch interpretieren und damit berechenbar machen
12.6 Die statistische Entropie: Wissen ist Energie
309
kann. Diese Einsicht stammt bereits von James Clark Maxwell, dem klar war, was man tun müsste, um den 2. Hauptsatz zu überlisten. Er drückt das so aus: Oder kurz gesagt, wenn Wärme die Bewegung von endlichen Teilen der Materie ist und wenn wir Werkzeuge auf solche Teile der Materie anwenden können, um sie getrennt zu behandeln, dann können wir die unterschiedliche Bewegung verschiedener Anteile nutzen, um ein gleichmäßig heißes System wieder auf ungleiche Temperaturen oder Bewegungen großer Massen wiederherzustellen. Nur können wir das nicht, weil wir nicht clever genug sind. J.C. Maxwell, 1876
Was uns also fehlt, ist Information. Maxwell führte auch ein hypothetisches Wesen ein, das die fehlende Information besitzt. Viele Experimente und Gedankenexperimente wurden seither mit diesem sogenannten Maxwellschen Dämon durchgeführt. Das Ergebnis ist dabei stets, dass ein periodisch arbeitender Maxwellscher Dämon es nicht schafft, den 2. Hauptsatz außer Kraft zu setzen. Erstaunlicherweise ist es das Auslöschen der in einem Arbeitstakt gewonnen Information (ein irreversibler Vorgang), das den 2. Hauptsatz rettet. Der US-amerikanische Physiker Edwin Thompson Jaynes (1922–1998) erkannte, dass die Entropie im Wesentlichen den Grad der Unkenntnis über den Zustand des Systems quantifiziert, d. h. die Menge an Information über den Mikrozustand, die verloren geht, wenn man das System nur makroskopisch kontrolliert. Der nicht nutzbare Teil der Energie in einem System aus kondensierter Materie (T S) ist deshalb nicht nutzbar, weil uns Information fehlt. Mit anderen Worten: Energie kann nur dann vollständig in Arbeit umgewandelt werden, wenn der Mikrozustand und damit die vollständige Information über das System verfügbar ist. Die thermodynamische Abwärme ist also der physikalische Preis der fehlenden Information. Wenn nun Entropie die fehlende Information ist, was bitte ist dann Information? Darauf gibt es eine ziemlich einfache Antwort, die von dem US-amerikanischen Mathematiker und Elektrotechniker Claude Elwood Shannon (1916–2001) stammt. Information ist die Anzahl der Ja-Nein Fragen (oder Experimente), die man braucht, bis man das in Erfahrung gebracht hat, was man wissen will. Nehmen wir ein Beispiel. Unter einem von 8 Hütchen befindet sich eine Münze. Wie viele Fragen brauchen Sie, um mit Sicherheit herauszufinden, wo sie steckt? Genau drei! Alle Fragen beginnen mit: „Ist die Münze unter einem der Hütchen ...“ Erste Frage: ...1– 4? Falls die Antwort ja ist, lautet die 2. Frage: ...1–2? Falls die Antwort nein ist, lautet die 2. Frage: ...5–6 ? Mit der dritten Frage ist das Hütchen gefunden. Wie Sie sehen, ist die Menge an Information der effizienteste Weg, alle Möglichkeiten mit Ja-Nein Fragen abzudecken. Wenn wir also einen einzigen aus einer riesigen Anzahl von Mikrozuständen realisiert haben, die alle gleich wahrscheinlich auftreten, was ist die Information, die in dem Zustand steckt? Da wir Ja-Nein Fragen stellen, können wir mit jeder Frage die Anzahl der Möglichkeiten halbieren. Wenn wir also zum Beispiel die gewaltige Zahl von 21000 Möglichkeiten haben, dann brauchen wir 1000 Fragen. Die Einheit 1 Ja-Nein Frage heißt in der Informationstechnik 1 Bit. Der Zustand hätte also eine Information von 1000 Bit. Hätten wir diese 1000 Bit, dann könnten wir den 2. Hauptsatz überlisten. Da wir das nicht können, muss gewaltig viel mehr Information in einem makroskopischen System stecken. Nehmen wir nur den einfachen Fall, dass sich jedes „Teilchen“ in einem von 2 Zuständen befinden kann.
310
12 Gott würfelt verständlich: Statistische Physik
Dann braucht man aber immerhin ungefähr N A (Avogadro Zahl, ∼ 6 · 1023 ) Teilchen, damit das System makroskopisch ist und damit gibt es W ∼ 2 N A Mikrozustände. Für die Funktion, die aus 2 N A gerade N A macht, gibt es eine eigene Bezeichnung, den Logarithmus zur Basis 2 ld. Also ist die Information I = ld(W ), wenn alle Mikrozustände gleich wahrscheinlich sind. In der Physik arbeitet man nicht gern mit der Basis 2. Wenn schon, dann Basis 10 (für Zahlen) oder für natürliche Prozesse immer gern mit der Basis e (Eulersche Zahl). Für die Verwendung in der Physik rechnen wir I daher um, d. h. wir wollen W = e J schreiben können. Die Funktion, die aus e J gerade J macht, hat die Kurzbezeichnung ln (Logarithmus naturalis). Leuten, die mit Logarithmen rechnen können, fällt die Umrechnung nicht schwer. Allen anderen sei gesagt, dass ld(W ) = ln(W )/ ln(2) ≈ 1.44 ln(W ). Die Information ist also I = 1.44 ln(W ). Statt durch die Zahl der Zustände W könnte man die Information genauso gut durch die Wahrscheinlichkeit ausdrücken, mit der jeder Zustand auftritt, also P = 1/W . Wir wissen (Mathe Glossar), dass 1/2 N = 2−N ist, also ist ld(W ) = −ld(1/W ) = −ld(P). Jetzt bliebe die Frage, ob diese Information schon die thermodynamische Entropie ist. Das kann noch nicht stimmen, weil die Dimensionsanalyse ergibt, dass T S eine Energie sein muss. Also fehlt eine Naturkonstante, die die Information mal Temperatur in Energie umrechnet. Dies ist die Boltzmannkonstante k B , die wir bereits kennen. Genau an dieser Stelle wurde sie von Boltzmann eingeführt. Auf seinem Grabstein steht ganz oben die folgende Beziehung: S = k · log W log steht einfach für jede Art von Logarithmus, denn alle unterscheiden sich nur um konstante Vorfaktoren, die lediglich zu verschiedenen Zahlenwerten der Boltzmannkonstanten führen. Beachten Sie aber, dass da steht S und nicht S. Der Informationszugang ordnet ja auch einem abgeschlossenen System eine Entropie zu. Aber praktisch wird die erst, wenn man Änderungen an dem System vornimmt. Dadurch allerdings passiert es fast immer, dass die Mikrozustände nicht mehr alle gleich wahrscheinlich sind (siehe Boltzmannverteilung). Was dann? Auch für diese Fälle hält Shannon eine Antwort bereit. Wenn man eine Nachricht empfängt, deren einzelne Buchstaben a, b, c · · · mit verschiedenen Wahrscheindann für einen langen Text lichkeiten Pa , Pb , Pc , · · · auftreten, ist die Information gerade die Summe −Pa ld Pa − Pb ld Pb − Pc ld Pc · · · .. Wenn alle Buchstaben gleichwahrscheinlich sind, ist man zurück zu unserer einfachen Formel. Für die Boltzmannsche Grabformel heißt das aber, dass man vielleicht besser S = −k · ln(P) geschrieben hätte, denn das ist einfacher zu verallgemeinern. Die Boltzmannsche Interpretation der Entropie ist auch naturphilosophisch ein äußerst bemerkenswertes Ergebnis. Sie verknüpft ein geisteswissenschaftliches Konzept, nämlich Information, mit einem Konzept der äußeren Welt, nämlich Abwärme. Über diese Brücke zwischen zwei völlig verschiedenen Glaubensbekenntnissen kann man lange nachdenken. Nun hat man eine statistische Entropie gefunden, die man berechnen kann. Man muss sich als Erstes sehr sorgfältig davon überzeugen, dass die wirklich alle Eigen-
12.6 Die statistische Entropie: Wissen ist Energie
311
schaften der thermodynamischen Entropie hat. Das ist der Fall, glauben Sie mir mal12 . Also kann man daran gehen, für konkrete Systeme die Entropie auszurechnen und daraus thermodynamische Eigenschaften zu bestimmen. Diese einfach klingende Aufgabe beschäftigt heutzutage vielleicht 50 % der gesamten Forschung in der theoretischen Physik, denn sie beinhaltet die Berechnung aller interessanten Eigenschaften kondensierter Materie aus der mikroskopischen, atomaren Struktur.
12
Die statistische Entropie kann manchmal noch ein wenig mehr, aber das spielt für uns hier keine Rolle.
Teil III
Modelle und Katastrophen
Kapitel 13
Künstliche Intelligenz
13.1 Was ist Intelligenz? Der Begriff „künstliche Intelligenz“ (KI) ist ein Musterbeispiel für framing, d. h. das Einbetten eines Begriffs in ein bestimmtes Bedeutungsumfeld. Menschen bilden sich enorm etwas auf ihre Intelligenz ein, da ist es natürlich höchst beunruhigend, wenn ihre zentrale Fähigkeit plötzlich künstlich hergestellt wird und möglicherweise Wesenheiten produziert werden, die ihnen den Status als Krone der Schöpfung streitig machen. Ich glaube, dass sich wesentlich weniger Leute beunruhigt fühlen würden, wenn nicht von künstlicher Intelligenz, sondern von „Trainierbarer Verallgemeinerungsfähigkeit“ die Rede wäre. In diesem Kapitel möchte ich Ihnen zeigen, dass dieser Begriff auf heutige KI-Systeme ganz gut passt und möchte Sie einen kleinen Blick in das Innenleben solcher Maschinen werfen lassen. Aber wenn es um Intelligenz geht, müssen wir zunächst wissen, was das eigentlich ist. Intelligenz ist ein geisteswissenschaftlicher Begriff und nicht etwa ein naturwissenschaftlicher. „Moment“, höre ich Sie schon sagen, „Intelligenz kann man doch messen. Da gibt’s doch diesen Intelligenzquotienten.“. Ja, gibt es, aber im Sinn der Physik ist der Intelligenzquotient kein quantitatives Merkmal. Ohne jetzt auf Details einzugehen: es gibt jede Menge verschiedene Intelligenztests, die verschiedene, geisteswissenschaftlich definierte Intelligenzen testen sollen. Diese Tests beruhen auf Vergleichen mit einer Statistik. Dazu braucht man eine große Menge von Personen, die nach irgendeinem Kriterium eine homogene Gruppe bilden, also zum Beispiel alle Schulanfänge. Denen stellt man dann die Aufgaben des Tests und versucht die Ergebnisse mit Punkten so zu bewerten, dass als Histogramm eine Gaußsche Glockenkurve herauskommt. Den Mittelwert dieser Verteilung bezeichnet man willkürlich mit 100, dann liest man die Halbwertsbreite der Glockenkurve ab und hat damit eine Skala typischer Streuungen (was immer die auch bedeutet). Nun kann man die Ergebnisse von Testpersonen in dieser Skala einordnen und so mit einer Zahl belegen, genannt der IQ. Aber ein quantitatives Merkmal im Sinn der Physik ist das auf keinen Fall, es sei denn, der Test würde allen Ernstes behaupten, eine Person mit IQ 100 sei doppelt so intelligent wie eine Person mit IQ 50 (was kein seriöser Test tut). © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_13
315
316
13 Künstliche Intelligenz
Wozu sind IQs dann überhaupt gut? Die Nützlichkeit des Tests überprüft man, indem man aus dem IQ-Wert Prognosen über die Testperson erstellt und später mit der Realität vergleicht. Zum Beispiel gibt es IQ-Tests, die den Schulerfolg vorhersagen sollen. Eine Analyse der Statistik der Prognosen und der realen Erfolge zeigt dann, ob der Test etwas taugte. Der Test „misst“ also niemals die Intelligenz, sondern immer nur ein bestimmtes Ergebnis bei der Lösung von ganz speziellen Aufgaben (so wie in den abendfüllenden Quizsendungen), und dieses Ergebnis sollte mit späteren Handlungen korreliert sein, die wir als intelligent empfinden. Wenn es schon nicht möglich ist, Intelligenz zu quantifizieren, können wir dann wenigstens eine Ja-Nein Messung für Intelligenz basteln? Wir könnten mit einem Glaubensgrundsatz beginnen, auf den wir uns alle einigen können: „Was immer Intelligenz auch ist, Menschen sind intelligent“. Wer will herausfinden, ob ein System intelligent ist? – wir, die Menschen. Wenn es überhaupt eine Möglichkeit für eine Ja-Nein Messung geben kann, dann müssen dazu Menschen mit diesem System wechselwirken können. Damit man nicht aus dem vom System gewählten Medium (Sprache, Schrift, Radiosignale, ... ) irgendwelche Rückschlüsse ziehen kann, wird die Wechselwirkung auf einen Kanal reduziert, zum Beispiel auf die schriftliche Computer-Ein und -Ausgabe (also einen Chat). Wenn ein Mensch so mit dem System kommuniziert und dabei nicht herausfinden kann, ob das System selbst ein Mensch ist oder nicht, so muss der Mensch es für intelligent halten. Das ist der Versuch einer Ja-Nein Messung, die der brillante englische Mathematiker Alan Turing (1912–1954) vorgeschlagen hat, der Turing Test. Turing selbst nannte den Test „imitation game“. Der Name zeigt schon eine Schwierigkeit: kann ein System so tun als ob es intelligent wäre ohne es selbst zu sein? Der US-amerikanische Philosoph John Searle (*1932) hat das Problem in einem berühmten Gedankenexperiment formuliert. Angenommen, eine Person, die die chinesische Sprache nicht schreiben und lesen kann, sitzt in einem Bibliothekszimmer. Der Person werden Zettel mit chinesischen Schriftzeichen hereingereicht. Die enthalten die Eingaben eines Menschen. Das optische Muster auf einem Zettel schlägt die Person in einem sehr (!) großen Buch nach und findet dort ein entsprechendes Antwortmuster. Dieses kopiert sie auf einen Zettel und gibt es zurück. Damit führt das „chinesische Zimmer“ ein Gespräch mit der chinesischen Außenwelt. Nichts in diesem Zimmer versteht Chinesisch: die Person nicht und das große Buch nicht. Trotzdem könnte dieses Zimmer (wenn nur das Buch groß genug wäre) den Turing Test bestehen. Wo ist die Intelligenz? Ja klar, die wurde vorher in das große Buch hineingesteckt. Aber das chinesische Zimmer ist sich der Intelligenz nicht bewusst. Gehört denn Bewusstsein überhaupt zur Intelligenz? Es lohnt sich, hier fein zu unterscheiden. Eine schwache Intelligenz kann Probleme lösen (wie zum Beispiel ein Gespräch führen), ohne sich dessen bewusst zu sein. Eine starke Intelligenz hat ein Bewusstsein, kann Dinge absichtlich tun und ist sich ihrer selbst bewusst. Heutige künstliche Intelligenzen sind schwach. Technikfreaks träumen von einem Umschlagen der Quantität (immer größere schwache Intelligenzen, die immer mehr Probleme lösen können) in Qualität (Bewusstsein und Selbstbewusstsein). Merkwürdig ist dabei nur, dass es menschliche Individuen mit sehr geringen Fähigkeiten zu Problemlösungen gibt, die trotzdem ein Bewusstsein und ein Selbstbewusstsein
13.1 Was ist Intelligenz?
317
haben (manche sogar ein sehr großes). Bewusstsein ist also sicher nicht an tolle Problemlösungsfähigkeiten geknüpft. Menschen sind unheimlich stolz auf ihre Intelligenz. Dabei unterstellen sie bei dem Begriff „menschliche Intelligenz“ immer gern, dass das eine Eigenschaft ist, die man bei einzelnen Personen finden kann, vorzugsweise bei sich selbst. Aber ist es tatsächlich diese persönliche Intelligenz, wenn wir von der „menschlichen Intelligenz“ sprechen? Betrachten Sie doch mal Ihre eigene Intelligenz im Verhältnis zur „menschlichen Intelligenz“ kritisch. Können Sie einen Flachbildfernseher bauen? Können Sie ein überschallschnelles Flugzeug steuern? Können Sie den Akku in Ihrem Smartphone austauschen? Können Sie allein und ohne Hilfsmittel aus einem großen, weglosen Waldgebiet herausfinden? Können Sie einen Fehler in der Elektronik Ihres Autos finden? Können Sie berechnen, wann der Komet Hyakutake wieder von der Erde aus sichtbar sein wird? Können Sie ein gemischtes Publikum davon überzeugen, dass der Klimawandel von uns beeinflusst wird? Können Sie Ihren Chef davon überzeugen, dass Sie eine Gehaltserhöhung verdienen? Können Sie eine akute Schizophrenie bei einer Person erkennen? – Diese Liste kann man natürlich endlos fortsetzen. Sie soll nur zeigen, dass das Allermeiste von dem, was wir „menschliche Intelligenz“ nennen, in der Gesamtheit bei keiner Einzelperson zu finden ist. Die intelligenten Einzelleistungen sind fein verteilt und finden sich nur in kleinen Stücken in einer Person. Aber es ist eine der wirklich großartigen Fähigkeiten von Menschen, dass sie diese einzelnen Stücke zu einer gigantischen, verteilten Intelligenz zusammenfügen können. Jede Einzelperson kann, wenn sie will, auf andere Intelligenzen zugreifen, zum Beispiel durch Beratung, aber auch durch Bildung. Dabei kann sie auch von technischen Hilfsmitteln Gebrauch machen und dadurch eine Steigerung der eigenen Intelligenzleistungen erfahren. In der prä-Google Ära schaute man in ein Nachschlagewerk, ein Lehr- oder ein Sachbuch. In so einem alten Brockhaus ist viel mehr Wissen versammelt, als Sie je in Ihrem Kopf parat haben werden. Der Brockhaus ist eine Form von schwacher künstlicher Intelligenz, die Sie zur Verstärkung Ihrer eigenen Intelligenz benutzen können. Einzelne können aber nicht nur vom Wissen Anderer profitieren, sie können ihre Fähigkeiten auch zusammenschalten und in sozialen Organisationsformen (Diskussionsrunden, Firmen, Staaten) Probleme lösen, die keine Einzelperson bewältigen könnte. Es ist die verteilte Intelligenz aller Menschen, die uns zu den außergewöhnlichsten Lebewesen auf diesem Planeten gemacht hat. Ist diese Intelligenz dasselbe wie die Intelligenz einer Einzelperson?
Abb. 13.1 Ein simpler Regelkreis, die schwächste Intelligenz
318
13 Künstliche Intelligenz
Damit wir uns nicht in zu vielen geisteswissenschaftlichen Diskussionen verirren, ist es nützlich, die praktischen Ideen über Intelligenz einmal zu verfolgen. Das ist die physikalische Herangehensweise. Was sind denn Anfangsgründe von intelligentem Verhalten, was ist sozusagen die schwächste der schwachen Intelligenz? Wir gehen davon aus, dass ein System, das intelligentes Verhalten zeigen soll, auf Reize oder Informationen von außen reagiert. Dabei kann es zum Beispiel im Rahmen seiner Möglichkeiten völlig zufällig reagieren. Das wäre mal sicher nicht intelligent. Es kann aber auch sein, dass das System eine Aufgabe oder einen Daseinszweck hat und zur Erfüllung dieser Aufgabe „richtig“ reagiert. Das klingt zwar großartig (so irgendwie nach Sinn des Lebens), ist aber ganz profan gemeint. Die einfachsten Beispiele sind simple Regelkreise. Nehmen Sie eine Klospülung. Deren Aufgabe ist es, nach Auslösen des Spülvorgangs das Wasser aus einem Sammelbecken in einem Schwall ins Klo zu leiten, dann dieses Ventil zu schließen und ein anderes Ventil zu öffnen, durch das das Sammelbecken wieder befüllt wird. Dabei muss der Füllvorgang stoppen, wenn das Sammelbecken voll ist. Dazu gibt es einen einfachen, mechanischen Regelkreis1 . Der funktioniert – wie viele andere einfache Regelkreise – nach dem Schema in Abb. 13.1. Er hat einen Sensor (bei der Klospülung besteht der aus einem Schwimmer, der die Füllhöhe misst) und vergleicht den IST-Wert des Sensors mit einem eingebauten SOLL-Wert (Spülkasten voll). Je nach Abweichung zwischen diesen beiden Werten greift nun der Regler in das System ein. Im Fall der Klospülung schließt er das Zulaufventil, wenn die IST-Füllhöhe die SOLL-Füllhöhe erreicht hat. Solche Formen der schwachen KI sind keine Erfindung der Neuzeit. Der griechische Mathematiker und Ingenieur Heron von Alexandria (lebte wahrscheinlich im 1. Jahrhundert n. Chr.) beschreibt in seinem Buch Automata ganz detailliert viele beeindruckende, komplizierte Regelmechanismen, zum Beispiel Tempeltüren, die sich automatisch öffnen, einen Verkaufsautomaten für geweihtes Wasser (mit Münzeinwurf), windgetriebene Orgeln und automatische Theater mit verblüffenden Spezialeffekten2 . Im 18. Jahrhunderts kamen komplizierte, mechanische Automaten groß in Mode. Man glaubte fast, man könne das echte Leben auf anderen Substraten (Holz, Metall, Gummi, ...) nachbilden. Es entstanden menschliche und tierische Figuren, die möglichst viele reale Funktionen ausführen konnten. Ein Meister dieser Kunst war der französische Ingenieur Jacques de Vaucanson (1709–1782), dessen Traum es war, einen künstlichen Menschen mit zirkulierendem Blut zu erschaffen. Das blieb ein Traum, aber er schaffte es immerhin, drei Automaten zu konstruieren, die europaweit berühmt wurden: einen Flötenspieler, einen Flöten- und Trommelspieler und eine Ente. Diese Ente war sein Meisterstück. Sie konnte mit den Flügeln schlagen, schnattern, Wasser trinken und Körner fressen. Sie besaß ein chemisches Verdauungssystem, sodass die gefressenen Körner auch in einer dem Original sehr ähnlichen Weise wieder ausgeschieden wurden. Die Idee perfekter, künstlicher Androiden war weit verbreitet und fand ihren Niederschlag in der Literatur, beispiel1
Den Sie im heimischen Klo studieren können. Er erfand auch eine Dampfmaschine, den Heronsball. Leider wurde diese Maschine damals nur als gadget angesehen. Hätte man die Möglichkeiten erkannt, wer weiß ...
2
13.1 Was ist Intelligenz?
319
sweise in E.T.A. Hoffmanns Erzählung Der Sandmann, in der der Protagonist sich in die mechanische Puppe Olympia verliebt. Bekannt wurde auch der Schachtürke, eine Maschine in Gestalt eines am Schachbrett sitzenden Türken, der als Schachroboter ausgegeben wurde und ziemlich gut spielte. In dem Kasten, in dem angeblich die Mechanik steckte, verbarg sich allerdings ein Mensch. Trotzdem zeigt der Erfolg der Vorführungen des Schachtürken, dass man damals solche Automaten für möglich hielt. Dahinter steckte ein tiefer Glaube daran, dass alle Lebensäußerungen (einschließlich solcher, die wir heute als Meisterwerke der KI betrachten) letztlich mechanischer Natur sind, mit Ausnahme der Seele des Menschen. Etwas intelligenter als einfache Regelkreise sind solche, die sich an veränderte Bedingungen anpassen können, die also eine gewisse Form von Lernfähigkeit zeigen. Ein derartiger Regler findet sich beispielsweise in Heizungen. Da vergleicht eine Sonde zunächst die Raumtemperatur mit einer SOLL-Temperatur und heizt, solange die SOLL-Temperatur nicht erreicht ist. Wenn nun aber die Außentemperatur zu niedrig ist und die Heizung es nicht schafft, dann wird die Heizwassertemperatur angepasst, d. h. erhöht. Geht dann die Außentemperatur wieder herauf, wird die Wassertemperatur erneut verringert. Diese Reaktion (genannt Adaptation) findet auf längeren Zeitskalen statt und passt sich veränderten Umweltbedingungen an. Ihr eigener Körper ist vollgestopft mit Regelkreisen und Adaptationen. Es sind so viele, dass es eine eigene Forschungsrichtung gibt, die sich nur mit der Beschreibung dieser Regelungen befasst (medizinische Kybernetik). Als einziges Beispiel erwähne ich die Adaptation des Auges an geänderte Lichtstärken. Die Lichtstärken im Mondund im Sonnenlicht unterscheiden sich um einen Faktor 105 . Trotzdem können wir bei beiden Lichtverhältnissen ganz gut sehen. Wenn wir von einer hellen in eine dunkle Umgebung wechseln, in der die Zäpfchen (siehe Abschn. 9.7) nicht genug Licht für ordentliche Signale erhalten, so weiten sich die Pupillen (einfacher Regelkreis), aber dann wird auf einer Zeitskala von 10–30 min in den Stäbchen (siehe Abschn. 9.7) das lichtempfindliche Molekül Rhodopsin gebildet. Dieser Adaptationsprozess ist beim Übergang vom Dunklen ins Helle nicht nötig, daher verläuft die Dunkel-Hell Anpassung innerhalb von Sekunden durch Verkleinern der Pupille. Adaptation ist für Lebewesen schon eine gute Strategie, um mit Umweltbedingungen klarzukommen, die sich ständig verändern. Man kann es als eine einfache Lernfähigkeit des Systems ansehen. Es gibt aber noch etwas Besseres, das die Evolution hervorgebracht hat: das Lernen aus Beispielen. Jedes Kleinkind steht vor dem Problem, in der Umwelt stabile Muster als eine bestimmte Kategorie zu erkennen. Was ist zum Beispiel ein Auto? Das Kind bekommt keine Vorlesung über die verschiedenen Gestalten von Autos. Es sieht ein paar Beispiele. Ziemlich bald kann es Autos als solche erkennen, die es vorher noch nie gesehen hat. Wie geht das? Wie schafft es das Kind, aus den Beispielen Merkmale zu destillieren, die ein Ding zu einem Auto machen? Selbst so kompliziert erscheinende Fähigkeiten wie den Spracherwerb lernt ein Kind aus Beispielen. Dabei kommt es dann auch ziemlich bald an einen Punkt, ab dem es nicht nur einfache Sätze versteht, sondern eigene Gedanken in eigener Sprache äußern kann. Während des Lernens macht ein Kind Fehler. Als Erwachsene können wir korrigierend eingreifen („Nein, das ist kein Nikolausi, das ist Osterhasi“), das nennt man überwachtes Lernen. Manchmal gibt es aber auch nur ermutigende
320
13 Künstliche Intelligenz
oder warnende Zurufe („Gut gemacht“, „Vorsicht“) , das nennt man verstärkendes Lernen und manche Dinge muss ein Kind einfach durch eigene Erfahrungen lernen, ohne dass sich Andere einmischen (unüberwachtes Lernen). Wie gut das Lernen geklappt hat, zeigt sich, wenn das Kind mit einer neuen Situation konfrontiert wird, die ihm als Beispiel nicht begegnet ist. Die Fehler, die jetzt passieren, nennt man Verallgemeinerungs- (oder Generalisierungs-) Fehler . Für fast alle Menschen, die sich die Mühe machen, mal darüber nachzudenken, ist es verblüffend, wie klein die Generalisierungsfehler bei Kindern sind. Diese Fähigkeit des Lernens aus Beispielen als schwache KI nachzubilden, – das genau tun heutige KI-Systeme. Wie sie das tun, erfahren Sie im nächsten Abschnitt. Erst mal wollen wir noch klären, welches Substrat man wohl braucht, um diese Fähigkeiten zu konstruieren. Ein Substrat, mit dem es funktioniert, sind die zentralen Nervensysteme von Lebewesen, allen voran unser Gehirn. Aber das ist ja nicht „künstlich“. Die heute gängige Hypothese zum Substrat für Intelligenz sieht so aus: Was immer Intelligenz auch ist, wir können sie mit einem Programm auf einem Computer simulieren. Woher nimmt man dieses Selbstvertrauen? Im Wesentlichen aus der Arbeit des US-amerikanischen Mathematikers Alonzo Church (1903–1995) und des britischen Mathematikers Alan Turing, die beide die Fundamente der theoretischen Computerwissenschaft gelegt haben. Turing hatte Ergebnisse von Kurt Gödel auf eine ganz neue und intuitiv zugängliche Art formuliert. Dazu führte er eine abstrakte Rechenmaschine ein, die so einfach ist, dass man sie in jedem SchulInformatikunterricht erklären kann. Es ist erstaunlich, dass diese simple TuringMaschine universell ist, d. h. dass sie jedes erdenkliche Computerprogramm abarbeiten kann. Was also diese einfache Maschine nicht kann, das kann auch kein Supercomputer. Der Unterschied zwischen beiden besteht nur in der Geschwindigkeit, mit der ein Programm erledigt wird. Wenn man nun eine Aufgabe hat, für die man ein Programm für eine Turing Maschine schreiben kann, dass in endlich vielen Schritten zu einer Lösung kommt, dann nennt man das Problem Turing berechenbar. Die These, die Church und Turing aufstellten, ist nun, dass alle Aufgaben, die irgendein Computer berechnen kann, auch Turing-berechenbar sein müssen. Diese These ist nicht so streng mathematisch zu fassen, dass man sie beweisen oder widerlegen könnte, aber alle Begriffe von Berechenbarkeit, die bis heute existieren, sind immer nur Varianten von Turing-Berechenbarkeit. Ist denn nun alles berechenbar? Nein, gar nicht. Turing bewies nämlich, dass es kein Turing-Maschinen Programm gibt, mit dem man für alle Turing-Programme entscheiden kann, ob das Programm nach endlich vielen Schritten fertig wird. Turing-Maschinen können also ihr eigenes Halteproblem nicht entscheiden, d. h. man kann mit einer Turing-Maschine weder beweisen noch widerlegen, dass beliebig gestrickte Turing Programme halten. Das ist eine Aussage vom Typ Gödelscher Unentscheidbarkeitssätze (siehe Abschn. 3.5), aber sie sieht in Turings Formulierung viel praxisnäher aus. Außerdem setzt sie allen KI Modellen, die auf Computern laufen, absolute Grenzen. Es ist eine interessante Frage, ob Menschen Probleme lösen können, die TuringMaschinen nicht lösen können. Wenn dem so wäre, dann wären alle gegenwärtigen Unternehmungen zur KI zumindest prinzipiell zum Scheitern verurteilt. Man kann diese Frage gegenwärtig nicht beantworten (vielleicht ist sie auch noch nicht
13.2 Große KI ganz klein
321
richtig gestellt), aber Menschen haben etwas in ihrer Intelligenz, was man umgangssprachlich „unberechenbar“ nennt, nämlich die Intuition. Das ist ebenfalls ein geisteswissenschaftlicher Begriff. Einig sind sich die Geistes- und Naturwissenschaften darüber, dass Intuition ein nicht-deterministisches Element der Intelligenz ist. Turing-Maschinen sind aber deterministische Automaten, Intuition besitzen sie also keine. Wenn Menschen etwas „ganz Neues“ schaffen, dann berichten sie häufig von diesem „Heureka“-Moment, in denen ihnen ohne logisches Denken plötzlich die Lösung eines Problems klar wurde. Turing selbst versuchte, dieses Element zu berücksichtigen, indem er die Turing-Maschinen mit einem zusätzlichen Orakel versah. So ein Orakel weiß die Lösung eines speziellen Problems, das man mit einer Turing-Maschine nicht berechnen kann (zum Beispiel das Halteproblem). Dann kann diese Maschine eine Menge mehr, aber wieder gibt es auch für sie unentscheidbare Probleme. Für so ein Problem kann man wieder ein Orakel einführen und kommt damit zu einer Hierarchie von immer leistungsfähigeren Maschinen. Aber so richtig entsprechen die nicht dem, was man bei Menschen Intuition nennt. Die Frage, ob man Intelligenz auf einem Computer simulieren kann, bleibt also ebenso offen wie die Frage, ob Intuition auf Zufall gründet und für unsere Intelligenz eine bedeutende Rolle spielt. Der Stand Kunst ist nach wie vor: Was immer Intelligenz auch ist, wir wollen sie mit einem Programm auf einem Computer simulieren.
13.2 Große KI ganz klein Wir sind bisher bei der Diskussion über künstliche Intelligenz zwar immer wieder auf interessante mathematische, logische und philosophische Probleme gestoßen, aber die haben uns für praktische Lösungen nicht so recht weiter gebracht. Schauen wir daher mal auf einen ganz einfachen, praktischen Fall des Lernens aus Beispielen, der es uns erlaubt, die meisten mysteriösen Eigenschaften der gegenwärtigen KI Systeme zu veranschaulichen. Wir stellen uns die Aufgabe, eine unbekannte Funktion f (x) zu lernen. Dazu wollen wir eine KI mit Beispielen trainieren, d. h. wir suchen uns als Erstes einen Satz von x (x1 , x2 , · · · xn ) (Fragen) und die zugehörigen f (x) (nämlich f (x1 ), f (x2 ), · · · f (xn )) (Antworten). Diesen Trainingsdatensatz können wir einfach grafisch darstellen (siehe Abb. 13.2). Anschließend stellen wir Fragen an die KI, wobei wir wissen wollen, wie der Funktionswert an Stellen aussieht, die nicht zu den Trainingsdaten gehören. Bei den Trainingsdaten soll es sich aber so verhalten wie im richtigen Leben: Sie sind nicht perfekt. Sie enthalten zusätzlich Fehler, Unschärfe, Rauschen. Daher können wir auch nicht hoffen, die Funktion f (x) fehlerfrei zu lernen. Aber was sollen wir eigentlich trainieren? Wir brauchen für das Training eine KI, die einen Satz von anpassbaren Funktionen mitbringt, sie muss also mit einem Modell ausgestattet sein. Das Modell kann sehr einfach sein, zum Beispiel könnte man eine KI betrachten, die überhaupt nur konstante Funktionen g(x) = a kennt. Sie besitzt einen einzigen anpassbaren Parameter a, der durch Lernen verändert werden kann. Das nächst einfache wäre eine KI die Geraden kennt. Geraden entsprechen
322
13 Künstliche Intelligenz
Abb. 13.2 Die ganze KI in einer Abbildung. Die KI soll lernen, richtige Antworten (d. h. Funktionswerte y) zu liefern, wenn man fragt (d. h. einen x-Wert vorgibt). Das linke Modell ist zu einfach, das mittlere ist ok, das rechte zu kompliziert. Beim Lernen will man den Trainingsfehler T minimieren, im Betrieb soll der Generalisierungsfehler G möglichst klein sein
Funktionen g(x) = b · x + a, es gibt also 2 anpassbare Parameter. Man kann Krümmungen und Auf und Ab in den Modellen mit berücksichtigen, wenn man zum Beispiel g(x) = a + b · x + c · x 2 + d · x 3 wählt. So ein Modell hat 4 Parameter a, b, c, d. Mit einfachen Modellen schafft man es nicht, den Trainingsdatensatz exakt zu reproduzieren. Man kann aber immer noch versuchen, die Modellparameter so zu bestimmen, dass der Trainingsfehler minimal wird. Genau das passiert beim überwachten Lernen. Lernen aus Beispielen besteht immer darin, den Trainingsfehler zu minimieren. Ok, könnte man sagen, dann müssen wir eben ein KI-Modell mit so vielen Parametern nehmen, dass der Trainingsfehler verschwindet. Das ist aber eine ganz schlechte Idee, denn dann hat man die Fehler und das Rauschen in den Trainingsdaten mit gelernt. Wenn man eine einfache, glatte Funktion lernen möchte (zum Beispiel eine Gerade), die Trainingsdaten aber um diese Gerade herum streuen, dann ist die Funktion, die exakt durch alle Daten geht, enorm kompliziert. Als Folge davon wird sie viel schlechter generalisieren als ein einfaches Modell, das zum Beispiel nur Geraden beinhaltet. So etwas nennt man overfitting (siehe Abb. 13.2). Der Trainingsfehler ist zwar Null, aber die KI generalisiert miserabel. Also nehmen wir eben ein möglichst einfaches Modell? Aber nicht zu einfach! Bei einem zu einfachen Modell bleibt der Trainingsfehler groß, aber auch der Generalisierungsfehler! (siehe Abb. 13.2) Das nennt man underfitting. Also gibt es irgendwo ein optimales Mittelmaß, das man durch Ausprobieren finden muss, und das natürlich von den Funktionen abhängt, die man lernen will. Bei einem Problem aus dem wirklichen Leben kennt man diese Funktionen aber gerade nicht. Man kann nur hoffen und glauben, dass die Funktionen ziemlich glatt sind, sodass zwischen zwei Trainingsdaten keine Ausreißer liegen. Andernfalls wird es nichts mit dem Generalisieren. Die Erfolge der KI, mit denen man gegenwärtig hausieren geht, liegen – ebenso wie die Erfolge unserer eigenen Verallgemeinerungsfähigkeit – nicht nur in genialen Eigenschaften der KI (oder unserer Gehirne), sondern zu einem guten Teil in der Struktur der Probleme, die wir in der äußeren Welt meistern wollen. Was die KI zwischen zwei Trainingsdaten macht, hängt ja wesentlich von ihrem Modell ab. Sie erfindet beim Generalisieren Antworten auf Fragen, die sie nie zuvor zu
13.3 Neuronale Netzwerke
323
Gesicht bekommen hat. Wenn nun die reale Welt zwischen den Trainingsdaten anders aussieht als das KI Modell, dann liefert die KI vielleicht eine plausibel klingende Antwort, die aber in der realen Welt totaler Quatsch sein kann. Die KI spinnt. Es ist eine nette Freizeitbeschäftigung, bei künstlichen Intelligenzen wie ChatGPT (zu erreichen auf https://openai.com/blog/chatgpt) nach Fragen zu suchen, die solche Fehler hervorrufen. Einen wichtigen Gesichtspunkt für das Funktionieren der KI haben wir noch nicht näher betrachtet. Was ist eigentlich ein Fehler, sei es ein Trainings- oder ein Generalisierungsfehler? Für unser einfaches Beispiel bietet sich eine Lösung aus dem Problem heraus an: der Fehler an einem Punkt x ist f (x) − g(x) oder ( f (x) − g(x))2 , wenn man nur positive Fehler haben will. Der gesamte Trainingsfehler ist dann einfach die Summe all der Einzelfehler an den xi der Trainingsdaten. Man kann natürlich statt des Quadrats auch irgendeine andere Fehlerfunktion F( f (x) − g(x)) benutzen und die Wahl dieser Funktion ist für kompliziertere Probleme eine wichtige Entscheidung beim Bau der KI (für die es aber auch nur heuristische Prinzipien und keine zuverlässige Theorie gibt). Nicht jeder Fehler lässt sich durch eine Zahl ausdrücken, manchmal kann man das Ergebnis nur mit richtig oder falsch beurteilen. Dann ist der Fehler die Anzahl der falschen Ergebnisse. Was nun noch fehlt, das ist ein Rechenschema (Algorithmus), mit dem man die Parameter des Modells so bestimmen kann, dass der Trainingsfehler minimal wird. Anstatt Ihnen den für unser einfaches Beispiel vorzuführen, wagen wir den Schritt in die Welt der großen KI, die Modelle benutzt, die wie vereinfachte Versionen unserer Nervenzellen (Neuronen) aussehen. Daher heißen diese Modelle künstliche neuronale Netzwerke (KNN) oder auf gut englisch artificial neural networks (ANN).
13.3 Neuronale Netzwerke Zunächst möchte ich Ihnen ein einfaches Modell für Nervenzellen (Neuronen) vorstellen, das sind die biologischen Zellen, aus denen unser Gehirn zu einem großen Teil besteht, und die wir für unser Denken verantwortlich machen. Außerdem schließen sie unser Gehirn an Sinnesorgane, Muskeln und Drüsen an. Vom Standpunkt der Physik aus betrachtet, ist so eine Nervenzelle ein wahnsinnig kompliziertes System. Ein sehr vereinfachtes Modell davon bildet die Grundlage all der KI Anwendungen, die gegenwärtig so kontrovers diskutiert werden. Werfen wir einen oberflächlichen Blick darauf. Neuronen haben einen Zellkern und sind von einer Zellmembran umschlossen; das ist nichts Besonderes. Ihre Form ist allerdings sehr charakteristisch: sie besitzen einen schlauchförmigen Zellfortsatz, Axon genannt. So ein Axon kann sehr lang sein. Das längste in Ihrem Körper steckt im Ischias Nerv und misst ungefähr einen Meter. Axone bilden die Leitungen, die Sinnesreize ins Gehirn leiten, ebenso wie die Leitungen, die Steuerbefehle des Gehirns an Muskeln und Drüsen schicken (motorische oder efferente Neuronen). Die allermeisten Neuronen stecken im Gehirn und verbinden sich über Axone mit anderen Neuronen (die nennt man Interneuronen) .
324
13 Künstliche Intelligenz
Die Axone der Interneuronen sind kurz, mache nur wenige Mikrometer lang. Diese Neuronen bilden ein Netzwerk, das wir Gehirn nennen. Neben dem Axon besitzen Neuronen typischerweise eine baumartig verzweigte Struktur von Fortsätzen, die Dendriten genannt werden. Bei Interneuronen enden die Axone anderer Neuronen auf diesen Dendriten an speziellen Zellorganellen, den Synapsen . Dort kommen sich die Zellmembranen der beiden Neuronen sehr nahe und bilden einen Kontakt. Nervenzellen erzeugen elektrische Signale, die sich längs der Axone ausbreiten. Alle Einzelsignale (genannt spikes) sind kurze elektrische Spannungspulse von gleicher Größe. Das Aussenden eines solchen spikes wird auch „feuern“ des Neurons genannt. An den Synapsen werden diese elektrischen Signale in chemische Signale verwandelt und dann in elektrische Signale auf dem Zielneuron zurückverwandelt. Diese Signale können sehr schnell transportiert werden. Für lange Wege (etwa für Nerven zu Muskeln oder von der Haut) erreichen sie typische Geschwindigkeiten von 50–100 m/sek. Die Geschwindigkeit hängt davon ab, wie gut die Axone durch andere, anliegende Zellmembranen elektrisch isoliert werden. Auch im Gehirn können ähnliche Geschwindigkeiten erreicht werden. Wenn ein Interneuron elektrische Signale an seinen Synapsen empfängt, so beginnt eine sehr unübersichtliche Signalverarbeitung, die man in der Neurophysiologie im Detail erforscht. Für die elektrischen Signale ist aber nur das Ergebnis interessant: Sendet das Neuron als Reaktion auf die Eingangssignale einen spike aus, oder nicht? Im einfachsten Modell spielen dafür nur wenige Prozesse eine Rolle. Das elektrische Signal wird an dem synaptischen Kontakt in ein chemisches Signal umgewandelt, dessen Moleküle das andere Neuron über den synaptischen Spalt erreichen. Dort produzieren sie wiederum ein elektrisches Antwortsignal, das post-synaptisches Potential (PSP) genannt wird und dessen Größe nicht wie beim spike festgelegt ist, sondern von der Synapse abhängt. Alle PSP werden auf der Zellmembran weitergeleitet in Richtung des Punktes, an dem das Axon abzweigt (Axonhügel). Dabei werden die PSP zusammengeführt. In unserem einfachsten Modell nehmen wir an, dass alle PSP addiert werden3 . Wenn wir den synaptischen Input für ein Neuron (das mit der Nummer j) betrachten, der vom Neuron Nummer i kommt, so können wir das gesamte PSP in der Form schreiben yi→ j = Ji→ j si Dabei ist si = 0, wenn das Neuron i kein Signal sendet und si = 1, wenn es einen spike sendet. Ji j ist PSP (gemessen am Axonhügel), das die Antwort auf den spike von Neuron i erzeugt hat. Nun erhält das Neuron i im allgemeinen von vielen verschiedenen Neuronen Input. Daher ist das gesamte PSP y j = J1→ j s1 + J2→ j s2 + J3→ j s3 + · · · JN → j s N Jetzt kommt der zweite Teil unseres Modells. Eine in Neuron j eingebaute Maschinerie sorgt dafür, dass die Wahrscheinlichkeit, im nächsten Moment einen spike auszusenden, vom PSP abhängt. Diese Abhängigkeit bezeichnen wir mit P(y j ). Ein Neuron ist also in diesem Modell zunächst eine stochastische Maschine. Die charak3
Für Neuronen, deren Dendritenbaum nicht zu groß ist, ist diese Annahme in Übereinstimmung mit Experimenten.
13.3 Neuronale Netzwerke
325
Abb. 13.3 Das PSP yi erzeugt das Ausgangssignal si
teristische, häufig anzutreffende Abhängigkeit der Wahrscheinlichkeit P vom PSP ist in Abb. 13.3 gezeigt. Es gibt da eine eingebaute Schwelle (In Abb. 13.3 gleich 0), die Bereiche mit kleinem PSP und niedriger Feuerwahrscheinlichkeit von großen PSP und sehr großer Feuerwahrscheinlichkeit trennt. Im allereinfachsten Fall ist P für kleine P S P Null und für PSP jenseits der Schwelle gleich 1. Zur Vereinfachung lässt man aber die Zufallskomponente in KNN Modellen weg und interpretiert s j = P(y j ) direkt als das Output-Signal eines Neurons. Das besteht jetzt nicht mehr aus Spikes, sondern einer Zahl, die man manchmal auch mit einer Spikerate (also der Zahl der Spikes, die pro Zeit ausgesendet werden) identifiziert. Experimentell stellt man fest, dass es zwei verschiedene Typen von Synapsen gibt, die man erregend (oder exzitatorisch) und hemmend (oder inhibitorisch) nennt und die sich im Vorzeichen der erzeugten PSP unterscheiden, positiv für erregend, negativ für hemmend. Kommen elektrische Signale an erregenden (hemmenden) Synapsen an, so erhöhen (verringern) sie das output Signal s. Dieses Modell erscheint sehr mechanistisch. Finden Sie es nicht völlig unglaubwürdig, dass ein Netzwerk aus solchen Modellneuronen zu tollen geistigen Leistungen fähig sein soll? Ist es aber! Dieses primitive Neuronenmodell stellt das Grundmodell für alle modernen KI Anwendungen dar, egal ob die Gesichter erkennen, Bilder malen, oder Ihre Prüfungsarbeiten schreiben. Aber damit es eine KI wird, fehlt dem Netzwerk noch ein wichtiges Element. Wie wollen wir ihm überhaupt eine Aufgabe stellen? Ein konventioneller Computer erhält von uns eine detaillierte Liste von Instruktionen, die er nacheinander (manchmal auch parallel) abarbeitet. Aber was soll ein KNN genau tun? Die Eingabe und die Ausgabe von Daten ist kein Problem, die funktioniert per elektrischen Signalen genau wie bei uns. Bei einem KNN wie auch bei unserem Gehirn kann die Ausgabe aus spikes oder aus kontinuierlichen Signalstärken s bestehen. Aber wo ist in unserem Modell Platz fürs Lernen? Auch hier erhalten wir Hilfestellung von der Neurophysiologie. Im Gehirn können sich die synaptischen Stärken (d. h. die erzeugten PSP) verändern. Man weiß auch, dass Lernprozesse mit solchen
326
13 Künstliche Intelligenz
Veränderungen einhergehen. Wir wollen daher unser einfaches Modell um eine Lernregel erweitern, die sagt, wie sich synaptische Verbindungen verändern. Damit ist nicht gesagt, dass wir alle Mechanismen des natürlichen Lernens im Modell abgebildet haben. Es kann noch ganz andere Mechanismen geben, zum Beispiel können neue Neuronen entstehen, Axone besser isoliert, oder synaptische Verbindungen ein für alle Mal entfernt werden.4 Von welchen Informationen kann eine Lernregel nun Gebrauch machen? Wenn eine Lehrperson die richtigen Lösungen für Trainingsdaten zur Verfügung stellt, dann kann es seine eigenen Aktivitätsmuster (einschließlich Eingaben und Ausgaben) und die Trainingssignale benutzen (überwachtes Lernen), andernfalls bleibt nur die eigene Aktivität (unüberwachtes Lernen). Für jede Art von Lernen ist aber ein Feedback wichtig. Irgendwie muss man wissen, dass man beim Lernen auf dem richtigen Weg ist. Dazu muss man auch wissen, wohin man überhaupt will und ob eine Änderung der Synapsenstärken zu einer Ausgabe führt, die näher am gewünschten Ziel liegt oder nicht. Dazu braucht man ein Maß für Fehler des KNN. Dieses Fehlermaß beeinflusst ganz wesentlich, wie gut ein KNN aus Beispielen lernen kann. Wenn man Trainingsdaten hat, kann man so vorgehen: Man wählt ein Beispiel mit Eingabe E, das KNN produziert eine Ausgabe A, aber die richtige Ausgabe ist T , und die wird dem KNN mitgeteilt. Der Fehler ist also eine geeignete Funktion F(A, T ). Da hat man viel Spielraum und kann herumexperimentieren, welche Fehlerfunktionen sich gut zum Lernen eignen. Es ist schon mal klar, dass eine Funktion F(A, T ), die für alle A = T einen Wert von 1 und nur für A = T den Wert 0 hat, denkbar ungeeignet ist. Sie gibt nicht den geringsten Hinweis darauf, wie das KNN sich verbessern kann. Man kann sich den Lernprozess des KNN vorstellen wie eine Wanderung in einer „Fehlerlandschaft“. In einer guten Fehlerlandschaft geht es abwärts immer in die richtige Richtung, d. h. man kann sich nicht in Seitentälern verirren. Die Wahl eines geeigneten Fehlermaßes ist also entscheidend wichtig und muss auch heute noch mit viel Herumprobieren optimiert werden. Beim Lernen ohne detaillierte Rückmeldungen ist es schwieriger, Fehler zu definieren, aus denen man lernen kann. Schauen wir auf ein Beispiel. Stellen Sie sich vor, sie laufen mit verbundenen Augen durch ein unbekanntes Zimmer und Sie sollen lernen, sich in dem Zimmer zurechtzufinden. Zunächst können Sie in eine beliebige Richtung gehen, aber – autsch! – sind Sie gegen einen Tisch gelaufen. Nun tapsen Sie eine Weile herum, aber mit jeder Erfahrung, die ihr Tastsinn macht, lernen sie mehr über das Zimmer, bis sie schließlich in der Lage sind, von jedem Punkt zu jedem anderen Punkt zu kommen, ohne anzustoßen. Hier lernen sie aus einer Bestrafungs- oder Belohnungsfunktion (englisch reward function) für Ihre Handlungen. Bestraft werden Sie, wenn Sie wo anstoßen, belohnt, wenn sie einen Schritt in die Richtung weiterkommen, für die Sie sich entschieden haben. Statt einen Fehler zu minimieren, wollen Sie Ihre Belohnungsfunktion maximieren. Diese Art von Lernen ist offensichtlich für Roboter unverzichtbar. Man nennt es verstärkendes Lernen (reinforcement learning). 4
Kinder haben im Alter von 3 Jahren etwa doppelt so viele Synapsen wie Erwachsene. Dieser Vorsprung bleibt bis zum Alter von etwa 10 Jahren.
13.3 Neuronale Netzwerke
327
Ein komplett unüberwachtes Lernen, also ein Lernen ohne jede Rückmeldung gibt es auch. Dabei geht es allerdings nicht um die Erreichung von Zielen, sondern das Lernen ist explorativ. Es geht darum, in einem Haufen Daten bestimmte Muster zu erkennen. Kann man zum Beispiel eine Menge von Leuten in Gruppen einteilen, die alle ein ähnliches Konsumverhalten haben? Wie viele solcher Gruppen sollte man einführen? Bei den heute anfallenden, riesigen Datenmengen für jeden Mist (Big Data) ist das Suchen von Mustern in den Daten zu einem neuen Zweig der Wissenschaften geworden (genannt Data Mining). Bei Kindern kann man das unüberwachte Lernen beobachten, wenn sie ihre Legosteine mal wieder völlig durcheinander gebracht haben und nun beginnen, aus dem ungeordneten Steinhaufen ein neues Kunstwerk zu erschaffen. Man kann ein KNN mit verschiedenen Arten des Lernens trainieren. Beim Chatbot ChatGPT zum Beispiel steht das P für pretrained, das ist eine erste Lernphase, in der die KI unüberwacht in großen Mengen von Texten herumschnüffelt und dabei bestimmte Merkmale lernt wie zum Beispiel: Es gibt Gedichte (mit strukturierten Zeilen), Zeitungsartikel (mit fetten Überschriften), Romane (sehr lang) u. s. w. Erst nach dieser Orientierungsphase beginnt ein Training durch überwachtes Lernen. Aber auch, wenn man ein Fehlermaß (oder Belohnungsmaß) hat, ist das noch keine Lernregel. Immerhin wird das Ziel klar. Das KNN soll lernen, die Fehler auf den Trainingsdaten zu minimieren. Dazu soll es seine synaptischen Stärken anpassen. Erfolgreiche Lernalgorithmen hängen vom Aufbau der Netzwerke ab. Besonders effektive Regeln gibt es für Schichten von Neuronen (s. Abb. 13.4). Am Anfang steht eine Schicht von sensorischen Neuronen (Schicht Nr. 1), deren Aktivitäten durch die Eingaben festgelegt werden und die sie an die Neuronen der nächsten Schicht verteilen. Die Axone der Neuronen einer Schicht enden immer auf Synapsen der nächsten Schicht. Weder sind die Neuronen einer Schicht untereinander gekoppelt, noch gibt es Rückkopplungen von späteren Schichten auf frühere. Die Signalverarbeitung geschieht dadurch schrittweise: Outputsignale der Schicht Nr. n sind der Input von Schicht Nr. n+1. Im einfachsten Fall gibt es nur eine Eingabe- und eine Ausgabeschicht (so eine Architektur nennt man Perzeptron. Schichten, die zwischen Ein- und Ausgabe liegen, nennt man verborgen (engl. hidden layers). Ein Netzwerk mit mehreren verborgenen Schichten nennt man auch tief (engl. deep) und das Lernen in solchen Netzwerken heißt dementsprechend deep learning. Dieses Buzzword hat also nichts mit Tiefsinn zu tun, sondern bezieht sich auf eine einfache Architektur. Um eine typische Lernregel für KNN zu verstehen, betrachten wir ein Neuron Nr. j, das Input von Neuron Nr. i erhält (siehe Abb. 13.4). Die synaptische Stärke, die lernen soll, ist Ji→ j . Den Output von Neuron Nr. j nennen wir s j . Wenn wir den Sollwert Z j kennen (das ist bei der Ausgabeschicht der Fall), dann können wir den Fehler j = Z j − s j angeben. Wenn der Fehler positiv ist, dann sollte man offenbar s j vergrößern. Neuron Nr. i trägt durch seinen output si gerade Ji→ j si zum PSP von Neuron j bei. Um den Fehler zu verringern, sollte dieser Beitrag etwas größer werden. Das erreichen wir durch die folgende einfache Lernregel Ji→ j → Ji→ j + k · si · j
328
13 Künstliche Intelligenz
Abb. 13.4 Ein KNN mit einer Eingabeschicht, einer verborgenen Schicht und einer Ausgabeschicht beim überwachten Lernen
die auch Hebb-Delta Regel genannt wird. Der positive Parameter k heißt Lernparameter und muss sorgfältig angepasst werden. Wählt man ihn zu klein, dann kommt das Lernen nicht von der Stelle und wählt man ihn zu groß, dann schießt man über das Lernziel hinaus und erreicht es nie. Egal, ob si kleiner oder größer ist als Null, die Regel sorgt in jedem Fall dafür, dass das psp yj bei positivem Fehler erhöht und bei negativem Fehler vermindert wird. Damit wird stets der Betrag des Fehlers kleiner. Voraussetzung für die Anwendbarkeit der Regel ist die Kenntnis des Fehlersignals j . Direkt vergleichen mit dem Soll kann man aber nur den Output. Für Synapsen der verborgenen Schichten muss man indirekt vorgehen. Sie tragen ihr Teil zum Fehlersignal bei. Diesen Anteil kann man schichtweise zurückverfolgen, d. h. man kann schauen, was in der Ausgabe passiert, wenn man die synaptischen Kopplungen an der vorletzten Schicht verändert. Aus dem Fehler der Ausgabe kann man den Fehleranteil der Neuronen der vorletzten Schicht bestimmen und die Kopplungen entsprechen korrigieren. So hangelt man sich von hinten nach vorn durch die Schichten. Die Lernregel heißt aus diesem Grund Backpropagation und ist sehr leistungsfähig. Alle Modelle und Methoden, die ich Ihnen hier gezeigt habe, sind ja nun keine genialisch-dämonischen Rezepturen. Die Ungewissheit, die Experte bei diesen Apparaten beschleicht, besteht darin, dass man nicht recht nachvollziehen kann, was sich so ein KNN in den verborgenen Schichten eigentlich für Modelle von der Welt macht. Damit weiß man auch nicht so genau, wie es verallgemeinert. Das ist ein wichtiges Grundlagenproblem, das man erst mal besser verstanden haben sollte, bevor man immer größere ChatGPTs baut. Momentan herrscht allerdings Goldgräberstimmung, und die Grundlagen werden nicht so intensiv betrieben. Statt also Angst vor geheimnisvollen „technologischen Singularitäten“ zu haben, die aus Al-
13.3 Neuronale Netzwerke
329
gorithmen selbstbewusst handelnde Wesenheiten machen, sollten wir eher fürchten, dass wir Maschinen bauen, die wir nicht richtig verstanden haben, und daher auch nicht richtig kontrollieren können. Hand aufs Herz: Würden Sie ein Auto kaufen, wenn Ihnen die Ingenieure sagen, dass es hervorragend fährt und bremst, sie aber leider nicht genau wissen, warum?
Kapitel 14
Radioaktivität, Kernenergie und Atombomben
Im Kap. 11 haben wir die Entstehung der Atom- und Quantenmechanik betrachtet, die schließlich zur Elementarteilchenphysik, zur Molekül- und zur Festkörperphysik geführt hat. Wir haben aber einen speziellen Zweig dieser Entwicklung ausgelassen, der seit der ersten Entdeckung mit allergrößten Hoffnungen und Befürchtungen belastet war (und immer noch ist), -die Radioaktivität und die Kernenergie. Von Anfang an war die Einstellung der Menschen gegenüber der Radioaktivität geprägt von Ambivalenz. Einerseits konnten diese geheimnisvollen Strahlen das Tor zu einer idealen Welt eröffnen, in der man ungeheuere Energien frei zur Verfügung hat. Andererseits konnten sie der Vorbote der Zerstörung der ganzen Erde sein. Schon Röntgen hatte mit seinen geheimnisvollen Strahlen, die alles durchdringen, eine enorme gesellschaftliche Resonanz erzeugt. Als dann die Experimente zur Umwandlung von chemischen Elementen bekannt wurden, lebten alle uralten Mythen, die damit verbunden waren, wieder auf: die Alchemie, der Stein der Weisen und das geheime Wissen, über das nur Wissenschaftler verfügen, die gelegentlich verrückt sind, und deren Macht zum Untergang der Welt oder zum Aufgang eines goldenen Zeitalters führen kann. Schon 1903 konnte man in den Sonntagsbeilagen Spekulationen über ein mit Radioaktivität betriebenes Gerät lesen, das auf Knopfdruck die ganze Erde zerstören kann.
14.1 Die Entdeckung An einem bewölkten Tag im Februar 1896 musste der französische Physiker Antoine Henri Becquerel (1852–1908) ein Experiment verschieben, weil der Himmel grau war und die Sonne sich nicht zeigte. Er studierte das Phänomen der Fluoreszenz, d. h. das Nachleuchten von Materialien, die man vorher mit Sonnenlicht belichtet hat. Gerade hatte Röntgen seine X-Strahlen entdeckt, und Becquerel war auf die Idee gekommen, dass bei der Fluoreszenz auch ein paar dieser Strahlen ausgesandt © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_14
331
332
14 Radioaktivität, Kernenergie und Atombomben
werden könnten. Das wollte er überprüfen, indem er versuchte, eine Röntgenaufnahme während des Nachleuchtens zu erstellen. Er legte also auf eine Fotoplatte ein metallenes Kreuz und darauf seine Proben eines Uransalzes (Kaliumuranylsulfat). Aber die Sonne wollte nicht scheinen und daher gab es kein Nachleuchten. Also wickelte er alles in ein schwarzes Tuch und legte es ein paar Tage zur Seite. Als er sich dann wieder an sein Experiment machte und die eingewickelte Fotoplatte untersuchte, stellte er fest, dass sich dort das Metallkreuz abgebildet hatte. Jetzt begann er diesen Effekt systematisch zu untersuchen und konnte schon nach kurzen Experimenten in sein Labortagebuch schreiben:“ „Ich bin nun davon überzeugt, dass Uransalze unsichtbare Strahlung erzeugen, selbst wenn sie im Dunkeln aufbewahrt werden“. Becquerel begann, sich die gefundene Strahlung näher anzuschauen und wies nach, dass sie in einem Magnetfeld abgelenkt wurde. Licht war es also nicht. Vielmehr schien es sich um eine Variante der Kathodenstrahlen zu handeln. Das sind Strahlen, die aus einer Metalloberfläche im Vakuum austreten, wenn man das Metall als Pol einer elektrischen Spannungsquelle benutzt. Aber diese Strahlen kamen direkt aus dem Uransalz, ohne jede elektrische Spannung. Schon 1898 erkannte Ernest Rutherford, dass es sich bei der „Uranstrahlung“ um mehrere, verschiedene Strahlungsarten handelt, die Materie unterschiedlich stark durchdringen. Er identifizierte 2 Sorten, die er Alpha- (α) und Beta- (β) Strahlung nannte. Zwei Jahre später wurde noch eine dritte Komponente entdeckt, die sich nicht durch Magnetfelder ablenken ließ und die Rutherford als Gamma-(γ ) Strahlung bezeichnete. Henri Becquerel hatte seit 1894 eine äußerst begabte Doktorandin, die Polin Marie Skłodowska (1867–1934). Trotz aller Hürden, die eine Frau – noch dazu eine Ausländerin in Frankreich – in den Naturwissenschaften zu überwinden hatte, hatte sie es bis zur Doktorarbeit geschafft. Sie heiratete 1895 den französischen Physiker Pierre Curie (1859–1906) und beide entschieden sich, die Suche nach neuen chemischen Elementen aufzunehmen, die ebenfalls die geheimnisvollen Strahlen aussenden. Nach der Geburt ihrer ersten Tochter im Jahr 1897 machten sie sich zusammen ans Werk. Sie fanden durch Untersuchung vieler uranhaltiger Mineralien heraus, dass zwei von ihnen (Pechblende und Tobernit) stärker strahlten, als nach ihrem Urangehalt zu erwarten war. Marie und ihr Mann vermuteten, dass in den Mineralien noch mindestens ein unbekanntes Element steckte, das stärker als Uran strahlte. Es gelang ihnen, sogar zwei strahlende Elemente in Reinform zu isolieren, die sie Polonium und Radium nannten. Mit der Arbeit der Curies hatte die Naturwissenschaft einen wichtigen Meilenstein erreicht: Chemie und Physik, die von ganz verschiedenen Arten des Naturverständnisses aus gestartet waren, hatten ein gemeinsames Fundament gefunden. Die Atome waren Wirklichkeit, aber sie waren nicht so unteilbar, wie die Chemie immer angenommen hatte. In der Überschrift ihres Berichtes an die französische Akademie der Wissenschaften prägte Marie Curie das Wort, das von nun an in der Grundlagenforschung, aber auch in der öffentlichen Wahrnehmung und selbst in Kunst und Literatur ein riesiges Interesse auslösen sollte: radioaktiv. Rutherford arbeitete 1901 an der McGill University in Montreal (Quebec, Kanada) und hielt einen Vortrag mit dem Titel The existence of bodies smaller than an atom (Die Existenz von Körpern die kleiner als ein Atom sind). Ein zufällig anwe-
14.1 Die Entdeckung
333
sender Chemiker namens Frederick Soddy (1877–1956) protestierte scharf gegen solche Ideen und argumentierte, dass die Chemie viele Beweise für die Unteilbarkeit von Atomen habe. Sie kamen ins Gespräch und daraus entwickelte sich eine sehr fruchtbare Zusammenarbeit, die Soddy vom Gegenteil überzeugte. Sie untersuchten die Radioaktivität des Elements Thorium. Schon 1900 hatte Rutherford festgestellt, das Thorium merkwürdige radioaktive Ausdünstungen‘ (Emanationen) hat, aber ’ nun wurde ihnen klar, dass die Radioaktivität ein chemisches Element in ein anderes verwandelt. Der alchemistische Traum von der Transmutation war wahr! Als ihnen das aufging, rief Soddy aufgeregt (nach seiner eigenen Erinnerung) „Rutherford, das ist Transmutation: Das Thorium zerfällt und verwandelt sich in ArgonGas1 .“ Rutherford Antwort kam prompt: „Um Gottes2 Willen, Soddy, nenn’ es nicht Transmutation. Sie werden uns als Alchemisten die Köpfe abschlagen!“ Rutherford untersuchte den Zerfall von Thorium und den Zerfall des daraus entstehenden radioaktiven Gases Radon quantitativ und fand dabei ein sehr bemerkenswertes Gesetz. Die Wahrscheinlichkeit P, dass ein radioaktiver Kern in einem kleinen Zeitintervall dt zerfällt, ist für alle Zeiten konstant r dt. r nennt man die Zerfallsrate, sie ist eine Eigenschaft des radioaktiven Elements. Radioaktiver Zerfall verhält sich also wie eine zufällige Abzinsung. Die relative Häufigkeit von noch nicht zerfallenen Atomen, N (t)/N , geht für große N gegen die Wahrscheinlichkeit P (siehe Abschn. 4.8). Das Zeitgesetz von P haben wir in Abschn. 7.5 schon ausführlich besprochen. Daher sollte es Sie nicht sehr verwundern, dass N (T )/N → e−r T für große N (Grenzprozess N → Unendlich.) ist. Die Aktivität einer radioaktiven Substanz ist die Anzahl der Zerfälle pro Sekunde, dafür wurde die Bezeichnung Becquerel (Bq) eingeführt. (1 Bq ist 1 Zerfall pro Sekunde). Da die Anzahl von der Menge der Substanz abhängt, gibt man für radioaktive Substanzen die Aktivität als Bq pro Gewicht an, meist pro 10−3 g, also 1 mg (mg). Welche Art von Strahlung (α, β, γ ) bei einem Zerfall entsteht, kann man aus der Aktivität nicht ablesen. Die Zeit t1/2 , die es braucht, bis die Hälfte einer anfänglichen Menge von Atomen zerfallen ist, d. h. N (T1/2 ) = N /2 nennt man die Halbwertzeit. Sie spielt in vielen Diskussionen um Kernenergie eine große Rolle. Diese Zeit kann für verschiedene Atome enorm unterschiedlich sein. Es gibt Halbwertzeiten von Millisekunden, aber auch von 1024 Jahren, das sind viele Weltalter. Eine kurze Halbwertszeit bedeutet, dass pro Sekunde sehr viele Zerfälle stattfinden, also ist kurze Halbwertzeit = große Aktivität. Beachten Sie noch ein Kuriosum, über das man leicht stolpern kann. Es wird oft behauptet, das exponentielle Zerfallsgesetz sei „natürlich“. Ist es das? Radioaktive Kerne können zwar zerfallen (sterben), aber sie altern niemals! Als Menschen sind wir gewohnt, dass ältere Wesen schneller sterben. Das trifft aber auf Atomkerne überhaupt nicht zu. Wenn Sie mit einem Haufen Kerne starten, zwischen denen sich welche befinden, die schon viele Millionen Jahre alt sind und andere, die vor Minuten 1
dachte Soddy, tatsächlich ist es Radon. Im Original „For Mike’s sake...“. Mike (St. Michael) und Pete (St. Peter) waren zu Beginn des 20. Jahrhunderts geläufige Ersetzungen für Gott.
2
334
14 Radioaktivität, Kernenergie und Atombomben
gerade erst künstlich erzeugt wurden, so hat das auf das weitere Schicksal der Kerne überhaupt keinen Einfluss. Pro Zeitintervall zerfallen sie mit immer der gleichen Wahrscheinlichkeit, egal, wie alt sie sind. Bei einem Alterungsprozess müsste diese Wahrscheinlichkeit im Laufe der Zeit zunehmen. Was man als „natürlich“ empfindet, ist also Geschmackssache. Transmutationen, die von der Natur frei Haus geliefert werden, sind noch nicht ganz das, was sich die Alchemisten vorstellten. Sie wollten die Umwandlung künstlich durchführen und nicht als natürlichen Prozess erleben (abgesehen davon, dass sie Gold als Endprodukt haben wollten). Auch das sollte Rutherford gelingen, aber erst nach einem katastrophalen Zwischenspiel. Als er nämlich 1915 nach England zurückkehrte, landete er mitten im 1. Weltkrieg, und da hatte er zunächst ganz andere Probleme zu lösen. Er erfand (zusammen mit seinem Freund und Kollegen William Bragg (1862–1942)) ein Hydrophon (Unterwasser-Mikrophon), mit dem sich UBoote von Schiffen aus orten ließen. Das war sein Beitrag zur Kriegsführung. Erst 1917 machte er sich wieder an seine Atome. Rasch gelang ihm die erste künstliche Transmutation, indem er Alpha-Teilchen auf Stickstoffatome schoss. Er interpretierte seine Beobachtungen mit der Hypothese, dass das Alpha-Teilchen in den Stickstoffkern eintritt und der daraufhin einen Wasserstoffkern (Proton) freisetzt. Insgesamt hatte er also Stickstoff (mit 7 Protonen) in ein Element verwandelt, dass ein Proton mehr hat. Das Element mit 8 Protonen ist Sauerstoff. Er hatte Stickstoff in Sauerstoff verwandelt. Damit war Rutherford der erste erfolgreiche Alchemist der Geschichte. Jetzt sehe ich schon so ein gieriges Flackern in Ihren Augen. Kann man damit aus Dreck Gold machen und reich werden? Nein, leider nicht. Es gibt durchaus künstliche Transmutationen, deren Endprodukt Gold ist, aber die Ausgangsmaterialien und der Herstellungsprozess sind viel teurer als das Endprodukt. Soddy war, wie wir wissen, von Transmutationen und der Verknüpfung von Physik und Chemie begeistert. Er fand 1908 heraus, dass die Rutherfordschen Alpha-Teilchen zu Heliumatomen werden, wenn man sie mit (2) Elektronen elektrisch neutral macht. Ein Alpha-Teilchen ist also der Kern eines Helium-Atoms, das seine zwei Elektronen verloren hat. Atome, die Elektronen verloren, oder zusätzliche erhalten haben, nennt man Ionen. Anionen sind negativ geladen, Kationen positiv. Soddy untersuchte alle Transmutationen durch natürliche Radioaktivität, die er auftreiben konnte, und formulierte 1913 (gleichzeitig mit dem polnisch-USamerikanischen Physiker und Chemiker Kasimir Fajans (1887–1975)) die sogenannten Verschiebungsregeln, die angeben, wie sich Elemente bei einem radioaktiven Zerfall verändern . Die Regeln lauten: • Beim „α-Zerfall“ (es wird ein Alpha-Teilchen ausgesendet) entsteht ein Atomkern mit einer um zwei Einheiten niedrigeren Ordnungszahl als der Ausgangskern. Die Massenzahl verringert sich dabei um vier Einheiten. • Beim Betazerfall (der Atomkern sendet ein Elektron aus oder er fängt ein Elektron ein) entsteht ein Kern gleicher Massenzahl. Die Ordnungszahl erhöht (β−-Zerfall) bzw. verringert sich (beim β+-Zerfall, bei dem ein Positron ausgesandt wird, oder beim Elektroneneinfang durch den Kern) um eine Einheit.
14.1 Die Entdeckung
335
Heute mögen diese Regeln einfach erscheinen, zur damaligen Zeit waren sie tolle Forschungsergebnisse. Bei den Beobachtungen, die zu diesen Regeln führten, fiel Soddy etwas sehr Wichtiges auf. Er konnte zeigen, dass Elemente unterschiedliche Massen haben können, selbst wenn sie identische chemische Eigenschaften besitzen. Er wusste noch nicht, dass sich ihre Kerne in der Zahl der Neutronen unterscheiden (die waren noch gar nicht entdeckt). Seine Bekannte, die Medizinerin Margaret Todd (1859–1918), schlug ihm den heute noch gebräuchlichen Begriff dafür vor: Isotope3 . Die Zahl der bekannten Isotope nahm dramatisch zu (auf 200), als im Jahr 1919 der englische Chemiker und Physiker Francis William Aston (1877–1945) ein Messgerät benutzte, das 1913 von J.J. Thomson (der mit dem plum pudding Modell) entwickelt wurde, und mit dem sich Atome verschiedener Massen wunderbar trennen lassen, das Massenspektrometer. Im Prinzip ist das Gerät einfach. Man ionisiert die Atome (man entreißt ihnen eine ganz bestimmte Zahl von Elektronen), und dann schickt man sie durch elektrische und magnetische Felder. Auf alle Ionen mit gleicher Ladung wirken die gleichen Kräfte, aber wenn sie verschiedene Massen haben, dann (wissen wir von Newton) durchlaufen sie verschiedenen Bahnen. Löst man die Newtonschen Bewegungsgleichungen, so kann man aus den Experimenten die Masse bestimmen (wenn die Ladung bekannt ist). Bevor das Gerät funktioniert, muss man noch ein paar praktische Probleme lösen, für die Aston wunderbare Lösungen entwickelte. Er fand dann, dass fast alle bekannten Elemente Mischungen von Isotopen sind, und dass alle Isotopenmassen annähernd ganzzahlige Vielfache der Masse des leichtesten Kerns waren. Der leichteste Kern gehört zum Wasserstoff, aber auch von diesem Element gibt es 3 Isotope: einfacher Wasserstoff (1 Proton), Deuterium (Ein Proton und 1 Neutron) und Tritium (ein Proton und 2 Neutronen). Das Neutron selbst war noch nicht entdeckt, aber man konnte sich schon denken, dass im Kern noch irgendein neutrales Teilchen mit einer Masse stecken musste, die der des Protons zumindest sehr ähnlich war. Ganz genau betrachtet, ist die Masse eines Kerns etwas geringer als sich aus der Masse der Summe seiner Bausteine ergeben würde. Diesen sogenannten Massendefekt entdeckte Aston. Der Defekt ist scheinbar nicht besonders groß, er verrät uns aber etwas Wichtiges zur Größe der starken Wechselwirkung. Wenn man zum Beispiel 2 Protonen und 2 Neutronen sehr weit voneinander entfernt und in Ruhe hat, so entspricht ihre Ruhemasse nach Einsteins Formel der Energie E f r ei = (2m p + 2m n )c2 . Wenn man aber die Masse des He-Kerns aus 2 Protonen und 2 Neutronen im Massenspektrometer bestimmt, so findet man, dass sie etwas kleiner ist, also m H e = 2m p + 2m n − m. Warum? Das verrät uns Einsteins berühmte Formel. Die Gesamtenergie der gebundenen Teilchen ist ja kleiner als die der freien Teilchen, genau deshalb sind sie gebunden. Aus dem Massendefekt m kann man also die Bindungsenergie nach der Einstein Formel bestimmen: E Bind = E H e − E f r ei = −m/c2 . Der Massendefekt von Helium beträgt etwa 0.8 % der Ausgangsmassen oder 0.049 · 10−27 kg, und das entspricht einer Bindungsenergie von E Bind von 27.5 Mega-Elektronenvolt. Zum Vergleich: eine chemische Bindung zwischen zwei Atomen besitzt eine typische Bindungsenergie 3
Mal wieder griechisch. iso: gleich, topos: Ort, gemeint ist der Ort im Periodensystem der Elemente.
336
14 Radioaktivität, Kernenergie und Atombomben
von 3–7 Elektronenvolt. Die Kernbindung ist also millionenfach stärker als die chemische. Fragt sich, warum sich dann nicht alle Kerne zu einem Superkern verbinden. Erstens werden die Kerne immer größer und schließlich werden sie größer als die Reichweite der starken Wechselwirkung. Und zweitens gibt’s da noch die CoulombAbstoßung. Wenn man Protonen zusammenbringen will, so muss man Energie aufbringen, um diese Coulomb-Abstoßung zu überwinden. Diese Energie können wir aus dem Coulombgesetz berechnen, und man nennt sie die Coulomb-Barriere. Die Barriere muss man überwinden, wenn man Energie aus dem Verschmelzen von leichten Kernen gewinnen will. Genau das versucht man in einem Fusionsreaktor, indem man den Teilchen durch Erhitzen auf mehr als 100 Mio. Grad eine enorme Bewegungsenergie gibt. Die technischen Probleme dabei sind offensichtlich. Es gibt kein Material für die Wände, das derartige Temperaturen aushält. Daher schließt man das Gas aus den Ionen der Kerne durch elektromagnetische Felder ein, was gegenwärtig trotz einiger Fortschritte noch nicht so richtig klappt. Nach der Entdeckung der Isotope war klar, dass man das Periodensystem, in dem alle Elemente aufgrund ihrer chemischen Eigenschaften aufgelistet sind, erheblich erweitern musste, denn eigentlich ist ja jedes Isotop ein anderes Atom. Zum Glück für die Chemie spielt sich aber die chemische Bindung ausschließlich zwischen den Elektronen ab, sodass man für die meisten chemischen Zwecke bei der alten Tafel bleiben konnte. Aber in der Kernphysik kommt man um eine genauere Notation nicht herum. Ein Isotop eines Elements (zum Beispiel Sauerstoff) bezeichnet man dann so: 16 8 O. Das „O“ ist ein Namenskürzel (es steht für Oxigen. Bei den Kürzeln schwingt oft noch ein wenig die alte Alchemie mit. Das Kürzel für Gold ist z. B. Au und steht für das lateinische Aureum, das für Silber ist Ag und steht für Argentum). Die Zahl links unten gibt die Anzahl der Elektronen (und damit auch die Anzahl der Protonen) an und wird Ordnungszahl genannt, denn sie zählt das chemische Periodensystem durch: Wasserstoff (Symbol H) hat Ordnungszahl 1, Helium (Symbol He) Ordnungszahl 2, Lithium (Symbol Li, das in den Akkus) hat Ordnungszahl 3, u. s. w. Die Zahl links oben nennt man Massenzahl oder (besser) Nukleonenzahl. Es ist die Gesamtzahl von Protonen und Neutronen, für die der Sammelbegriff Nukleon üblich ist. Um die Isotope in Texten zu benennen, schreibt man die Massenzahl hinter den Namen, also zum Beispiel Sauerstoff-16. Sauerstoff ist übrigens das häufigste Element auf der Erde und das dritthäufigste im Universum (nach Wasserstoff und Helium). Zurzeit sind 14 Isotope des Sauerstoffs bekannt (12 O − 26 O), von denen aber nur 3 stabil (nicht radioaktiv) sind, nämlich 16 O, 17 O, 18 O. Die Zahl der Isotope lässt sich nie abschließend angeben, weil man immer mal wieder neue, sehr kurzlebige, künstlich erzeugen kann. Als kleine Anwendung unserer neuen Notation können wir die Rutherfordsche Verwandlung von Stickstoff in Sauerstoff ganz genau hinschreiben. Sie sieht so aus. 14 7 N
+ 42 H e → 11 H + 17 8 O
14.1 Die Entdeckung
337
Das Stickstoff-14 (N für Nitrogen) Isotop und das Alpha Teilchen (He für Helium) verwandelt sich in einen Wasserstoff-Kern (der ist ein Proton) und das stabile Sauerstoff-17 Isotop. Das schwerste natürlich vorkommende Element ist das Uran (92 U) (abgesehen von winzigen Spuren des Elements Plutonium, die durch natürliche Radioaktivität entstanden sind). Sämtliche Isotope des Urans sind radioaktiv. Natürliches Uran besteht fast komplett (nämlich zu 99.27 %) aus dem Isotop 238 U mit einer Halbwertzeit von 4.468 Milliarden Jahren; dann gibt es noch 0.72 %. 235 U (Halbwertzeit 703.8 Mio. Jahre) und 0.0055 % 234 U (Halbwertzeit 245.5 Tausend Jahre). Ausgehend vom Uran hoffte man, durch Beschuss mit anderen Teilchen noch weitere Elemente jenseits des Urans (Transurane) zu finden. Aber die Rutherfordsche Methode, Kerne mit Alpha-Teilchen zu beschießen, brauchte viel Energie, um die Coulomb-Barrieren zu überwinden. Immerhin gelang es Irène und Fréderic Joliot-Curie (s. Abschn. 11.7) 1933 mit dieser Methode, radioaktive Isotope von bekannten Elementen wie Aluminium, Phosphor oder Stickstoff durch Beschuss stabiler Kerne mit Alpha-Teilchen zu erzeugen. Man konnte also Radioaktivität künstlich herstellen. Chadwicks Entdeckung (s. Abschn. 11.8) des Neutrons (1932) eröffnete dann völlig neue Möglichkeiten, denn nun stand ein elektrisch neutrales Teilchen für den Beschuss von Kernen zur Verfügung. Bereits 1934 unternahm Enrico Fermi Bestrahlungsversuche mit Neutronen. Die allgemeine Erwartung war, dass man so Transurane erzeugen könnte, und Fermi hatte Hinweise darauf in seinen Experimenten gefunden. Auch die deutschen Chemiker Otto Hahn (1879–1968) und Fritz Straßmann (1902–1980) suchten danach, aber bei dieser Suche schufen sie in ihrem Labor in Berlin etwas völlig Anderes und sehr Unerwartetes, eine Art Monster der modernen Physik. Es gelang Ihnen, Kerne des Urans durch Beschuss mit Neutronen (und zwar mit nicht sehr großer Energie) in zwei ungefähr gleich schwere Teile zu spalten. Eigentlich wollten sie in einer Versuchsreihe prüfen, ob bei dem Neutronenbeschuss von Uran Radium entstanden war, aber das wollte nicht so recht klappen. Stattdessen fanden sie das Element Barium (144 56 Ba). Da Uran ja die Ordnungszahl 92 hat, musste das andere Bruchstück das Edelgas Krypton (89 36 Kr) sein. Ein Edelgas lässt sich aber kaum auf direktem Weg chemisch nachweisen, weil es mit nichts reagiert. Hahn und Straßmann waren ausgezeichnete Experimentatoren, aber für eine Interpretation ihrer Ergebnisse brauchten sie theoretische kernphysikalische Expertise. Ihr Ergebnis war nach der vorherrschenden physikalischen Meinung nämlich gar nicht möglich. Bei radioaktiven Prozessen sollten immer nur kleine Bruchstücke ausgesandt werden, so wie das Soddys Verschiebungsregeln aussagten. Die theoretische Abteilung ihres Instituts hatte lange Zeit die Österreicherin Lise Meitner (1878–1968) geleitet, aber die war gerade – nach dem Anschluss Österreichs ans Dritte Reich – wegen ihrer jüdischen Abstammung nach Schweden geflohen. Die Flucht hatte Otto Hahn organisiert und er blieb auch weiter in brieflichem Kontakt mit ihr. So unterrichtete er sie als Einzige von der Entdeckung und fragte sie nach einer kernphysikalischen Interpretation. Hahn schreibt ihr am 19. Dezember:
338
14 Radioaktivität, Kernenergie und Atombomben
Abb. 14.1 Die Spaltung eines Urankerns als Comic. Die Notation in der Formel ist genauer, denn sie enthält die wichtige, freigesetzte Energie (MikeRun, © CC BY-SA 4.0, via Wikimedia Commons)
Liebe Lise, Es ist gleich 11 Uhr abends; um 11:30 Uhr will Straßmann wieder kommen, so daß ich nach Hause kann allmählich. Es ist nämlich etwas mit den Radiumisotopen, das wir vorerst nur Dir sagen. [...] Es könnte noch ein merkwürdiger Zufall vorliegen. Aber immer mehr kommen wir zu dem schrecklichen Schluß: Unsere Ra-Isotope verhalten sich nicht wie Ra, sondern wie Ba. [...] Vielleicht kannst Du dafür irgendeine phantastische Erklärung vorschlagen. Wir wissen dabei selbst, daß es eigentlich nicht in Ba zerplatzen kann.
Nach mehreren Überprüfungen waren Hahn und Straßmann von ihrem Ergebnis überzeugt: die Bestrahlung erzeugte aus Uran Barium. Zu dieser Zeit war Lise Meitners Neffe Otto Frisch (1904–1979), ebenfalls Physiker, gerade während der Weihnachtsferien 1938 bei seiner Tante. Sie diskutierten die Experimente während eines Winterspaziergangs am Heiligabend 1938 und fanden eine kernphysikalische Deutung. Der schwere Urankern wird durch das Neutron zu Schwingungen angeregt und zerfällt dann wie ein Flüssigkeitströpfchen. Das gaben die Theorien her. Eine Spaltung, wie Hahn und Straßmann sie beobachteten, kann man mit unserer IsotopenNotation so aufschreiben (in der Abb. 14.1 noch mal mit anschaulichen Bildchen): 235 92 U
144 89 + n → 236 92 U → 56 Ba + 36 Kr + 3n + 200 MeV
Otto Frisch kehrte nach Weihnachten an seine Arbeitsstelle nach Kopenhagen zurück und berichtete Niels Bohr von der Entdeckung. Der begriff den Sachverhalt innerhalb von Minuten. Am 16. Januar reiste Bohr in die USA und verbreitete die Neuigkeit, die sofort mit größtem Interesse aufgenommen wurde. Bei ihren Diskussionen konnten Meitner und Frisch auch eine für die folgende Geschichte der Menschheit sehr bedeutsame Abschätzung machen. Die beiden Bruchstücke der Kernspaltung (dieser Begriff wurde von Otto Frisch geprägt) waren zusammen leichter als der Ausgangskern des Urans. Dieser „Massendefekt“ entsprach nach Einsteins E = mc2 einer Energie. Und diese Energie war gigantisch, sie entsprach etwa 200 MeV! Die Energie wurde bei der Spaltung freigesetzt, und zwar hauptsächlich in Form von kinetischer Energie der Bruchstücke. Wie groß muss man sich diese 200 MeV nun vorstellen? Wenn Sie auf die Umrechnungstabelle der Energien schauen (Tab. 8.2), dann scheint das zunächst mal nur eine winzige Menge Energie zu sein, nämlich 320 · 10−13 J. Aber in einer makroskopischen Menge Uran befinden sich ja auch sehr viele Teilchen. Rechnen wir mal aus, wie viel Energie in einem Gramm 235 92 U steckt. Wir wissen, dass 1 Mol (d. h. N A ≈ 6 · 1023 ) Uranatome 235 g wiegen. Also sind in einem Gramm
14.2 Der Hype und die Prophezeiung
339
N A /235 ≈ (6/235) · 1023 ≈ 25 · 1020 Atome. Darin stecken also 25 · 320 · 107 = 8000 · 107 = 8 · 1010 J. Zum Vergleich schauen Sie in die Tab. 8.3. Ein Gramm des Sprengstoffs TNT enthält 4200 J pro Gramm. Also enthält das Uran (8/4.2) · 107 ≈ 1.9 · 107 mal mehr Energie pro Gramm als TNT, grob 10 bis 20 Mio. mal so viel!
14.2 Der Hype und die Prophezeiung Bereits vor Becquerels Uranstrahlen entdeckte Conrad Röntgen im Jahr 1895 Strahlen, die faszinierend neue Eigenschaften besaßen. Sie konnten nämlich das Innere eines Menschen sichtbar machen, was augenblicklich von der Medizin registriert wurde. Röntgen stellte seine Entdeckung am 23. Januar 1896 auf Einladung der Physikalisch- Medizinischen Gesellschaft zu Würzburg der Öffentlichkeit vor und fertigte während des Vortrags vor dem Publikum eine Röntgenaufnahme der Hand des Anatomen Albert von Kölliker (siehe Abb. 14.2) an. Gleich danach wurden auch Therapieversuche mit den neuen Strahlen unternommen, und bereits 1899 wurde die erste erfolgreiche Krebsbehandlung mit Röntgenstrahlen durchgeführt. Eine 49 jährige Frau mit Basalzellenkarzinom erhielt über 9 Monate hinweg 100 Strahlenbehandlungen. Sie lebte weitere 30 Jahre symptom- und beschwerdefrei. Mit der Entdeckung der Radioaktivität und der verschiedenen Strahlenarten war klar, dass im Inneren der Atome gewaltige Energien schlummern. Sofort spekulierte man auch darüber, wie die Menschheit diese Energie anzapfen könnte. Diese Diskussion verlies den Kreis der Fachwissenschaften und wurde von der Öffentlichkeit begeistert geführt. Kurioserweise wurde „radioaktiv“ zu einem Werbeschlager. Es stand für strahlende Schönheit und unerschöpfliche Energie, vor allem im
Abb. 14.2 links: Albert von Köllikers Hand, die erste Röntgenaufnahme (gemeinfrei, Version von Old Moonraker, via Wikimedia Commons), rechts: Doramand, die radioaktive Zahncreme für strahlend weiße Zähne (Autor: Suit, CC BY-SA 4.0 , via Wikimedia Commons)
340
14 Radioaktivität, Kernenergie und Atombomben
Gesundheits- und Kosmetiksektor. Es entstanden die unglaublichsten Produkte (s. Abb. 14.2 für ein Beispiel). Es gab radioaktive Iradia Unterwäsche, Kosmetikserien mit Radium und Thorium wie zum Beispiel Thor-Radia (die Crème enthielt 0.35 g Thoriumchlorid und 0.35 mg Radium auf 100 g), Burk und Brauns Radiumschokolade und radioaktive Energy Drinks, wie das 1928 auf den Markt gekommene Radithor. Es gab Radium-Butter, Radium-Bier, Radium-Zwieback, Radium-Zigaretten, ja sogar Radium-Kondome (in denen allerdings kein Radium nachgewiesen werden konnte) und Radium-Schuhcreme. Bekannt ist auch die in den 1940er Jahren erhältliche, radioaktive Doramad Zahnpasta4 . Da Radium sehr teuer und schwer zu beschaffen war, wurde häufig Thorium und ganz besonders Radon verwendet. Es gab sogenannte Emanatoren, die Trink- und Badewasser mit Radon versetzten. Es gab natürlich auch radioaktive Badekuren, und Heilbäder wie Bad Kreuznach warben mit dem Slogan „Stärkstes Radium Solbad“. Das „stärkste Radium Mineralbad der Welt“, Brambach (bis 1963 offiziell Radiumbad Brambach, die südlichste Gemeinde Sachsens), warb mit einem „Radiogramm“. Dabei wurde ein metallener Schlüssel auf Fotopapier gelegt und ins Mineralwasser getaucht, bis die Strahlung aus dem Wasser ein Abbild des Schlüssels auf dem Papier produzierte. Zum Jahrhundertwechsel zwischen dem 19. und dem 20. Jahrhundert drängten die wissenschaftlichen und technischen Errungenschaften zunehmend in die allgemeine Öffentlichkeit. Es entstand ein Klima der Erwartung. Irgendetwas Schönes oder Schreckliches musste aus diesen neuen Formen der Kontrolle über die äußere Welt entstehen. Es überwog der Optimismus, der die Menschheit im Jahr 2000 einträchtig und ohne Arbeit in blühenden Gärten wandeln sah. Eine schöne Zukunftsprojektion dieser Art war die World’s Columbian Exposition 1893, die in Chicago stattfand. Dort gab es zum Beispiel hypermoderne „elektrische Küchen“, und eine „weiße Stadt“, die nachts mit einer Unzahl von elektrischen Glühlampen erleuchtet wurde. Überhaupt, – elektrisches Licht! Die Ausstellung verbrauchte dreimal so viel Strom wie die ganze Stadt Chicago, und zwar Wechselstrom. Das war neu und revolutionär. Nicht die Firma General Electric, sondern die Westinghouse Electric Corporation hatte den Auftrag für die Stromversorgung erhalten, weil sie den Wechselstrom, den der serbische Erfinder und Physiker Nicola Tesla (1856–1943) entwickelt hatte, viel billiger anbieten konnte als der US-amerkanische Erfinder Thomas Edison (1847– 1931) seinen Gleichstrom. Westinghouse setzte auch eigene Glühlampen ein, um Edisons Patente zu umgehen. Die hatten allerdings eine viel kürzere Brenndauer (Westinghouse Stopping Lamp) als Edisons Qualitätsprodukte.5
4
Die US Armee glaubte an eine geheime Atombomben-Entwicklung, als sie bemerkte, dass die Produktionsfirma Auer radioaktives Material aus Frankreich geraubt hatte und nach Oranienburg brachte. Sie ließ das Werk bombardieren. 5 Die allgemeine Folklore, dass Edison die Glühlampe erfunden hat, gibt die Geschichte dieser technischen Errungenschaft sehr unvollkommen wieder. Es gab seit 1845 zahlreiche Patente in England, Russland und den USA. Edison hatte es aber schließlich geschafft, die Brenndauer einer Kohlefadenlampe von ca. 50 h auf 1000 h auszudehnen. Die Patente zu diesem Schritt stammen aus den Jahren 1881 und 1882. Es gab viele Parallelentwicklungen, die Edison durch ungefähr 200 Patentanmeldungen versuchte, zu verdrängen.
14.3 Biologische Strahlenwirkungen
341
Aber neben dem allgemeinen Hype um die wundervolle Zukunft gab es auch schon literarische Warnungen, die – im Nachhinein betrachtet – erschreckend exakt waren. Der britische Science Fiction Schriftsteller Herbert George Wells (1866– 1946) beschreibt in seinem geradezu prophetischen Buch The world set free (Die befreite Welt), das 1914 veröffentlicht wurde (also lange vor Entdeckung der Kernspaltung) eine Welt des politischen Versagens, das schließlich in einen Krieg mündet, in dem Atombomben (!) aus Flugzeugen abgeworfen wurden, von denen jede eine Großstadt zerstört. Aussehen und Abmessungen der Bombe sind beängstigend ähnlich zu der über Nagasaki abgeworfenen Bombe, und die Wirkungsweise entspricht etwa einem Super-Gau in einem Atomkraftwerk (denn Wells kannte ja keine Kernexplosionen durch Kernspaltung, die wir im Abschn. 14.4 beschreiben.)
14.3 Biologische Strahlenwirkungen Die biologischen Wirkungen der Röntgenstrahlen und der Radioaktivität bekamen die Pioniere dieses Forschungsgebiets am eigenen Leib zu spüren. Es gibt am St. Georg Krankenhaus in Hamburg ein besonderes Denkmal, das Ehrenmal der Radiologie. Es wurde 1936 eingeweiht und erinnert an Personen, die im medizinischen Umgang mit der Röntgenstrahlung verstorben sind6 . Bei der Einweihung trug es 159 Namen, mittlerweile sind es 359. Auch Henri Becquerel und Marie Curie hatten zu Lebzeiten Strahlenverbrennungen. Beide starben an Krankheiten, die durch radioaktive Strahlen ausgelöst werden. Die Wirkung der Strahlung auf einen Organismus hängt von einer Menge Faktoren ab, die teilweise physikalisch und teilweise biologisch sind. Um nur die wichtigsten zu nennen: die Art der Strahlung, die Energie, die die Strahlung in einer bestimmten Menge des Gewebes deponiert hat (das ist die Dosis), der Zeitraum, über den diese Energie zugeführt wurde (Dosis pro Bestrahlungszeit ist die Dosisleistung), die Art des bestrahlten Gewebes, der Status der Gewebezellen im Zellteilungszyklus, die Ausstattung der Zelle mit Reparaturmechanismen. Zunächst die Arten der Strahlung. Neben den uns schon bekannten Alpha-Strahlen (Helium Kerne), Beta-Strahlen (Elektronen) und Gamma-Strahlen (Fotonen mit Energien, die viel größer sind als die von Licht) zählen dazu auch die Neutronen und die Neutrinos. Röntgenstrahlung rechnet man heute zwar nicht mehr zur Radioaktivität, denn darunter versteht man die ausgesandten Teilchen (Quanten, inklusive Photonen), die bei spontanen Kernzerfällen freigesetzt werden. Trotzdem werden wir sie in diesem Abschnitt einfach als Variante der Gamma-Strahlen behandeln. Sowohl Röntgen- als auch Gammastrahlen sind ja elektromagnetische Strahlung. Die Bezeichnungen können verwirren. Wieso kann man nicht allen Photonen mit genügend hoher Energie einfach einen Namen geben? Es gibt einen (zumindest in der Physik) sehr einfachen Grund: die beiden Strahlenarten stammen von verschiedenen Naturkräften her. Röntgenstrahlen werden durch Übergänge von Elektronen 6
Keine Patienten, für die gibt’s meines Wissens kein Ehrenmal.
342
14 Radioaktivität, Kernenergie und Atombomben
zwischen stationären Zuständen eines Atoms oder durch Abbremsen von Elektronen durch das elektrische Feld im Atominnern erzeugt. Gamma-Strahlen werden durch Kernprozesse unter Beteiligung der Kernkräfte erzeugt. Daher sind GammaPhotonen erheblich energiereicher als Röntgen-Photonen. Aber eine genaue Grenze gibt es nicht, ebenso wenig, wie es im Regenbogen eine genaue Grenze zwischen zwei Farben gibt. Auch die Grenze zwischen UV-Strahlung und Röntgenstrahlung ist nicht scharf. Manche Leute unterscheiden auch noch zwischen „weicher“ und „harter“ Strahlung. Harte Röntgenstrahlung besteht aus besonders energiereichen Photonen, weiche aus energiearmen, aber eben im Bereich der Röntgenstrahlen. Daher kommt es häufig vor, dass die Einen eine Strahlung harte Röntgenstrahlung nennen, während für Andere dieselbe Strahlung weiche Gamma-Strahlung ist. Den Photonen sieht man ihre Entstehung nicht an. Neutrinos gehen glatt durch jeden menschlichen Körper ohne jede Wechselwirkung, sie haben daher überhaupt keine biologische Wirkung. Neutrinos gehen sogar durch die gesamte Erde, ohne irgendeine Spur zu hinterlassen, nur ganz selten kommt es mal zu einer Wechselwirkung mit Materie. Entsprechend schwer sind sie auch nachzuweisen. Die anderen Formen der Radioaktivität wirken stark auf biologische Materie, aber auf sehr verschiedene Art und Weise. Ein wichtiger Unterschied zwischen der Gamma-Strahlung und den Neutronen einerseits und der Alpha- und Beta-Strahlen andererseits ist die elektrische Ladung: Sowohl Alpha- als auch Beta- Strahlung besteht aus geladenen Teilchen, Photonen und Neutronen haben keine Ladung. Die Prozesse der Wechselwirkung zwischen Strahlung und Materie sind sehr komplex, für jeden Einzelprozess gibt es Theorien und Experimente, die wir hier nicht detailliert beschreiben können. Wir begnügen uns mit ein paar plausiblen Bemerkungen. Da Materie aus Atomen besteht, die wiederum aus geladenen Teilchen zusammengesetzt sind, werden Alpha- und Beta-Teilchen über die Coulombkräfte mit sehr vielen Teilchen wechselwirken können. Das führt dazu, dass sie beim Eindringen in Materie ziemlich schnell an Energie verlieren. Der Effekt ist so ähnlich wie die Reibung: durch viele Wechselwirkungen zwischen dem bewegten Objekt und den Bausteinen der Materie wird die Energie des Objekts in Wärme verwandelt. Die Bremsspur wird bei der Bestrahlung von Materie durch den sogenannten linearen Energietransfer (LET) beschrieben. Der gibt einfach an, wie viel Energie ein Teilchen beim Eindringen pro Wegstrecke verliert und wird üblicherweise in keV /μm angegeben. Alpha Strahlen haben eine sehr kurze Bremsspur. Die schweren Alpha-Teilchen werfen bei einem Zusammentreffen mit einem Atom meistens Elektronen des Atoms aus der Bahn, d. h. sie bilden Ionen. Dieser Prozess bremst sie sehr schnell ab, sodass sie nur sehr wenig in biologische Materie eindringen. Ihr typischer LET liegt bei 100 keV/μm (für Alpha-Teilchen mit ungefähr 5 MeV Bewegungsenergie). Die leichteren Elektronen der Beta-Strahlung erzeugen viel weniger Ionen, dafür werden sie im elektrischen Feld der Atome abgebremst und es wird ein Röntgenquant (Bremsstrahlung) ausgesandt. Das kann wiederum viel tiefer ins Gewebe eindringen, wie wir gleich noch genauer sehen werden. Ihr typischer LET Wert liegt in etwa bei 0.3 keV/μm für Elektronen mit 2 MeV Bewegungsenergie.
14.3 Biologische Strahlenwirkungen
343
Die positive Kehrseite dieser starken Wechselwirkung mit Materie ist, dass sich Alpha- und Beta-Stahlen ziemlich leicht abschirmen lassen. Elektronen mit 10 MeV, kinetischer Energie sind nach ungefähr 40 m Flug durch die Luft vollständig abgebremst, bei Alpha-Teilchen dieser Energie reichen schon 10 cm Luft. Zum Schutz vor Alpha-Strahlung reicht tatsächlich ein Blatt Papier, da kommt sie nicht durch. Auch Hornhaut hält Alpha-Strahlung locker auf. Für Beta-Strahlung braucht man etwa mehr Abschirmung, z. B.: dicke Kleidung, starker Karton oder ein dünnes Aluminiumblech. Das klingt nun so, als seien diese Formen der Strahlung harmlos, aber das stimmt nur, wenn sie von außen kommen. Extrem gefährlich werden sie jedoch, wenn sie aus Quellen stammen, die im Gewebe eingelagert sind. Wenn Sie also mit der Luft oder der Nahrung radioaktive Elemente zu sich nehmen, die Alpha(oder Beta-) Strahlen abgeben, und die womöglich auch noch längere Zeit im Körper bleiben, dann tragen sie eine tickende Zeitbombe mit sich herum. So, weiter mit der Wechselwirkung zwischen Gamma-Strahlung und Materie. Es gibt die Möglichkeit, dass ein Gamma-Quant verschluckt wird und ein Elektron aus der Hülle eines Atoms heraus kickt. Das ist der uns schon bekannte Fotoeffekt. Der kann auch so ablaufen, dass das Photon nicht ganz verschwindet, sondern nur ein Teil der Energie zum Ionisieren gebraucht wird, während der Rest in Form eines gestreuten Photons mit kleinerer Energie weiterfliegt (Compton Effekt). Schließlich kann ein Photon im elektrischen Feld in Kernnähe auch eine Paarerzeugung zuwege bringen, bei der ein Elektron und ein Positron entsteht. Das Positron hat allerdings nur sehr wenig Überlebenschancen, denn es ist ja von Elektronen umgeben. Daher rekombiniert es sehr schnell mit einem Elektron und es entsteht wieder ein GammaPhoton. Der LET hängt von der Energie der Photonen ab. Typische, radioaktive Zerfälle, die Ihnen auch mal in der Wirklichkeit begegnen können, sind der von Cäsium-137 (Gammaphoton-Energie 660 keV, LET 0.39 keV/μm) und Kobalt-60 (Gamma-Photonenergie 1.25 MEV, LET 0.27 keV/μm). Das Neutron ist zwar ebenfalls elektrisch neutral, aber es kümmert sich wenig um die Atomhülle, denn es kann nur per starker und per schwacher Kraft mit dem Kern wechselwirken. Dabei kann es einerseits wie beim Billard Kerne anstoßen und dadurch selbst abgelenkt werden (elastische Wechselwirkung). Das passiert bevorzugt bei Bewegungsenergien des Neutrons zwischen 10 keV und einem MeV. Da die Kerne in Bewegung geraten, verliert das Neutron so an Energie. Bei höheren Energien regt es die Bewegung der Nukleonen im Inneren des Kerns gegeneinander an sodass der Kern verbogen wird (unelastische Wechselwirkung). Der angeregte Kern gibt dann die aufgenommene Energie durch Abstrahlung (Gamma-Photon) wieder ab. Schließlich kann ein Neutron ja auch noch vom Atomkern eingefangen werden, wie wir wissen. Das führt dann zu Isotopen mit künstlicher Radioaktivität, die wiederum auf ihrem ganz eigenen Weg weiter zerfallen. So weit klingt das vielleicht kompliziert, aber plausibel, doch was sind die Folgen, insbesondere die Folgen in biologischer Materie? Es ist klar, dass bei den Wechselwirkungen zwischen Materie und radioaktiver Strahlung chemische Bindungen zerstört werden. Da chemische Bindungen typische Bindungsenergien von 1–10 eV haben, können Teilchen mit Millionen von eV eine Menge Bindungen knacken. Überdies erzeugen sie bei der Zerstörung haufenweise Ionen, also geladene Teilchen.
344
14 Radioaktivität, Kernenergie und Atombomben
Daher spricht man auch von ionisierender Strahlung. Welche Teilchen treffen sie denn so beim Eindringen in unseren Körper? Dazu ist es wichtig zu wissen, dass das häufigste Molekül in unserem Körper Wasser ist. Bei Männern besteht ungefähr 60 % der Körpermasse aus Wasser, bei Frauen 55 %. Von diesem Wasser befindet sich ungefähr 2/3 im Inneren der Zellen. Die wahrscheinlichsten Treffer für die Strahlung sind also Wassermoleküle, die dadurch zerlegt werden (das nennt man Radiolyse). Dabei entstehen Ionen, äußerst reaktionsfreudige sogenannte Radikale (das sind Atome oder Moleküle mit einer unausgewogenen Elektronenstruktur, die sie liebend gern wieder in Ordnung bringen würden) und unerfreuliche Reaktionsprodukte wie zum Beispiel Wasserstoffperoxid (zum Desinfizieren, Blondieren und Wäschebleichen verwendet). All diese Gebilde können in ihren chemischen Reaktionen mit wichtigen Zellmolekülen, nämlich mit Proteinen (den Arbeitstieren der Zellfunktionen) und der DNA, die die genetische Information trägt, schwere Schäden anrichten. Strahlenschäden an Proteinen können jedoch in großem Umfang ertragen werden, weil die dauernd neu zusammengesetzt werden. Schäden an der DNA können böse Folgen haben, zum Beispiel kann ein Strang oder sogar beide Stränge des DNA Moleküls auseinander brechen. Das klingt verheerend, aber Lebewesen sind auf solche Ereignisse, die immer mal wieder ganz natürlich vorkommen, vorbereitet. Sie verfügen über sehr ausgeklügelte DNAReparaturmechanismen, die aus der Evolution hervorgegangen sind. Aber nicht alle Schäden lassen sich reparieren. Die Reparatur funktioniert bei Brüchen eines DNA Strangs ganz gut. Sind es jedoch zu viele, oder ist es eine zu ungewöhnliche Schädigung, so können Fehlfunktionen oder der Zelltod die Folge sein. Zelltod ist übrigens nicht unbedingt das Schlimmste, denn dann können die Zellen nicht als entartete Zellen ihr Unwesen treiben, die möglicherweise die Kontrolle über ihre Zellteilung verlieren und zu Krebszellen werden. Gewebezellen sterben auch in einem natürlichen Zyklus ab und werden erneuert, und zwar aus den passenden Stammzellen. Solange genügend schnell genügend viele neue Zellen vom Körper produziert werden können, treten zumindest kurzfristig keine Symptome auf und man merkt von der Bestrahlung nichts. Erst wenn die Schäden in einem Gewebe so stark sind, dass das nicht mehr klappt, tritt die sogenannte Strahlenkrankheit auf. Es leuchtet ein, dass verschiedene Gewebearten verschieden empfindlich auf solche Schädigungen sind, je nach typischer Lebensdauer und Menge der verfügbaren Stammzellen, aus denen die Gewebezellen erneuert werden. Da die Energie der radioaktiven Teilchen im Gewebe über die beschriebenen, schädlich wirkenden Prozesse deponiert wird, nehmen die Gesamtschäden mit der deponierten Energie zu. Die Energie, die eine bestimmte Körpermasse aufgenommen hat, nennt man Dosis und man misst sie in der Einheit Gray, nach dem Physiker Louis Harold Gray (1905–1965), der die quantitative Radiobiologie begründete. Das Kürzel der Einheit ist Gy, wobei 1 Gy = 1 J/kg (Joule pro Kilogramm Gewebemasse) ist. Dabei spielt es keine Rolle, von welcher Strahlung die Energie stammt. Die Dosisleistung ist dementsprechend die pro Zeiteinheit aufgenommene Dosis, gemessen also zum Beispiel in Gray/Sekunde. Um die biologischen Wirkungen vorherzusagen, ist das Gray eindeutig zu wenig. Louis Gray führte daher die relative, biologische
14.3 Biologische Strahlenwirkungen
345
Wirksamkeit ein, die die biologischen Wirkungen auf eine bestimmte Referenzstrahlung beziehen (meist Röntgenstrahlung). Heutzutage wird das gesammelte Wissen über biologische Wirkungen dazu benutzt, die in Gy gemessene Dosis mit einem Gewichtungsfaktor Q zu versehen, der die biologische Wirksamkeit ausdrückt. Aus der Dosis D wird so die Äquivalentdosis H = Q · D (auch H-Dosis), die natürlich auch in J/kg gemessen wird, die aber als Einheit den Namen Sievert trägt. Früher verwendete man als Einheit 1/100 Sievert, genannt rem (für roentgen equivalent men). Die Q-Faktoren hängen von der Strahlungsart, aber natürlich auch von anderen Faktoren ab, wie zum Beispiel dem bestrahlten Organ. Ganz wichtig ist auch, ob die Strahlungsquelle außerhalb oder innerhalb des Körpers sitzt. Während man die Dosis ohne Weiteres messen kann, ist die Äquivalentdosis eine eher schwammige Angelegenheit, weil so viele Faktoren in eine einzige Zahl gequetscht werden. Trotzdem ist es eine nützliche Richtschnur, so nützlich, dass auch die Strahlenschutzverordnungen davon Gebrauch machen. Die Äquivalentdosis allein sagt aber noch nichts über die Art der Strahlenwirkungen aus. Genauso entscheidend ist die Dosisleistung. Wenn man die gesamte Dosis innerhalb so kurzer Zeit abbekommt, dass die Reparaturmechanismen der Gewebe nicht reagieren können (hohe Dosisleistung), dann erhält man eine prompte Reaktion des Körpers, genannt Strahlenkrankheit. Die ganz verschiedenen Ausprägungen sehen ungefähr so aus: • H-Dosis bis 1 Sv (100 rem): keine Reaktion • H-Dosis 1–2 Sv (100–200 rem): Schwindel, Haarausfall aber nur sehr selten tödlich • H-Dosis etwa ab 3 Sv (300 rem): tödlich in 50 % der Fälle, falls keine Behandlung innerhalb von 60 Tagen erfolgt • H- Dosis ab 10 Sv (1000 rem): fast immer tödlich innerhalb von Stunden Wieviel Strahlung bekommen wir denn so im Alltag ab? Die Tab. 14.1 gibt eine kleine Orientierungshilfe: Wie Sie sehen, enthalten auch gesunde Lebensmittel Radioaktivität. Die steckt vor allem im Kalium, das ein natürliches, radioaktives Isotop besitzt. Der Grenzwert für die Berufslebenszeit ist per Gesetz und Verordnung
Tab. 14.1 So groß sind radioaktive Äquivalentdosen, denen man im Alltag ausgesetzt ist. Auch Bananen sind radioaktiv 1 Banane essen 1 Röntgenaufnahme des Brustkorbs 1 Flug München-Tokyo „natürliche“ Quellen (z. B. Radon) pro Jahr Dosis aus dem Chernobyl-Unfall für eine Person im Voralpenland 1986–2036 1 Ganzkörper Computertomografie Berufszeit Lebensdosis (Grenzwert) Mensch in der Präfektur Fukushima, nach dem 1. Jahr nach Reaktorunfall
0.01 · 10−3 rem 1 − 3 · 10−3 rem 10−2 rem 0.2 − 0.3 rem 0.2 rem 1–2 rem 40 rem 1 rem
346
14 Radioaktivität, Kernenergie und Atombomben
geregelt. Medizinische Strahlendiagnostik (nicht Therapie, da sind die Dosen viel höher) ergibt nicht vernachlässigbare Dosen, insbesondere, wenn der ganze Körper untersucht wird. Dann bekommen Sie so viel Strahlungsdosis ab, wie ein Mensch, der in gesperrten Zone der Präfektur Fukushima das 1. Jahr nach der Reaktorkatastrophe verbringt. In unserer Umwelt steckt ebenfalls Radioaktivität, die nicht von Menschen produziert wurde. Je nach Gebiet kann die sogar ganz beträchtlich sein. Die Strahlungsbelastungen schwanken je nach Wohnort, Beruf und Lebensstil stark, in Deutschland etwa zwischen (1 · · · 10) · 10−3 Sv. Ein recht großer Anteil entfällt dabei auf das Edelgas Radon, es entsteht aus den Uranzerfallsprodukten Radium und Thorium. Die Zerfallsprodukte des Radon wiederum lagern sich an kleinste Partikel an, die wir einatmen, und die sich dann im Körper anreichern können. Dort bilden sie gefährliche, innere Strahlungsquellen. Das Tückische an Radon ist, dass es aus dem Boden in Baumaterialien eindringen kann. Der Radongehalt in den Ziegelsteinen, aus denen Ihr Haus besteht, kann die Strahlenbelastung in Ihrer Wohnung gefährlich ansteigen lassen. Lüften hilft also auch gegen radioaktive Strahlen. Die Jahresdosen aus unserer Lebensumwelt erscheinen eigentlich nicht groß. Wenn eine Dosis über sehr lange Zeit verteilt wird, dann überfordert sie das Reparatursystem der Gewebe nie. Wo also ist da ein Problem? Es bleiben mit einer gewissen Wahrscheinlichkeit die oben erwähnten irreparablen Schäden, die zu Krankheiten führen können, – allen voran Krebs. Das ist ein unvorhersehbares, statistisches Ereignis. Man kann aber eine recht gute Schätzung angeben, wie das Krebsrisiko mit der Gesamtdosis steigt. Die 5 % Regel Pro Sievert (100 rem) Gesamtdosis steigt das Krebsrisiko um 5 %
Um diese Regel richtig zu verstehen, müssen Sie wissen, dass das ein zusätzliches Risiko ist, d. h. es vergrößert Ihr natürliches Risiko, an Krebs zu erkranken. Und dieses Risiko ist recht groß, so um die 20 %. Außerdem müssen Sie beachten, dass hier die Gesamtdosis gemeint ist. Wenn Sie also einer Strahlenbelastung von 2.5 rem pro Jahr über eine Lebensspanne von 80 Jahren ausgesetzt sind, dann steigt ihr statistisches Risiko mit dem Lebensalter an und erreicht schließlich (bei 200 rem) 10 %. Aber dies sind statistische Werte, die nichts über Einzelschicksale sagen können. Im unglücklichsten Fall könnte jedes einzelne Teilchen einer radioaktiven Strahlung so einen irreparablen Schaden erzeugen, der zu einer Krebserkrankung führt. Ob das wirklich so ist, oder ob man eine Mindestanzahl von solchen Schäden erleiden muss, bevor es gefährlich wird, darüber wird immer wieder diskutiert. Wenn es eine solche Schwelle gibt, dann liegt sie jedenfalls bei einer sehr kleinen Dosis. Für alle wichtigen Entscheidungen ist es weise, keine solche Schwelle anzunehmen. Solche Entscheidungen machen es Verantwortlichen nicht einfach, wie wir jetzt mal illustrieren wollen.
14.4 Kernenergie
347
Das politische Dilemma einer statistischen Entscheidung Stellen Sie sich vor, es gab einen Unglücksfall, bei dem eine Bevölkerung von 1 Mio. Menschen eine Strahlendosis von 1 rem/Jahr und pro Person abbekommt. Das entspricht ganz grob dem Fukushima Reaktorunfall. Sollen Sie als Verantwortliche das Gebiet evakuieren? Wenn nicht, dann leben die Menschen (im Mittel) noch 50 Jahre dort. Nehmen wir an, über diesen Zeitraum geht die Strahlenbelastung nicht zurück. Dann erhält im Mittel jede Person während dieser Zeit eine Dosis von 0.5 Sv, hat also ein um 2.5 % erhöhtes Krebsrisiko. Das Dilemma, vor dem Sie stehen, besteht in zwei unterschiedlichen Sichtweisen auf diese Daten • Die Privatperspektive: Mein natürliches Krebsrisiko beträgt 20 %. Soll ich wegen zusätzlicher 2.5 % meine Heimat verlassen? • Die gesellschaftliche Perspektive. Die statistische Grundgesamtheit besteht aus 1 Mio. Menschen. Wenn das Risiko pro Sievert um 5 % steigt, dann erwartet man (wenn alle Menschen ähnlich auf die Strahlung reagieren) pro 20 Sv Dosis einen Krebsfall (20 · 5 % = 100 %). Diese Perspektive schaut nicht auf den zeitlichen Mittelwert über die Strahlung, sondern auf den Mittelwert über die Bevölkerung. Die 2.5 % Zusatzrisiko entsprechen für die 1 Mio. Menschen 25 000 zusätzliche Tote über 50 Jahre oder 500 pro Jahr. Egal, wie überschlägig diese Abschätzungen sind, sie zeigen deutlich das Dilemma, vor denen Verantwortliche stehen, wenn sie aufgrund statistischer Risiken weitreichende Entscheidungen treffen müssen. Danken wird ihnen die Evakuierung sicher niemand. In den 50 Jahren sind aufgrund des natürlichen Risikos ohnehin 200000 Menschen an Krebs erkrankt. Ähnliche Entscheidungen müssen auch in anderen Fällen getroffen werden, etwa beim Hochwasserschutz (Enteignungen) oder beim Schutz gegen Infektionskrankheiten (Impfpflicht). Das Dilemma ist stets das gleiche.
14.4 Kernenergie Grundsatzdiskussionen über unsere Energieversorgung beginne ich gern mit einer Behauptung, die bei ökologisch orientierten Personen sofort auf reflexhafte Ablehnung stößt: Kernenergie ist unsere wichtigste primäre Energiequelle. Typische Antwort: Quatsch! Wir brauchen keine Kernenergie, wir müssen nachhaltig wirtschaften, mit erneuerbarer Energie, so aus Wind und Sonne. So, so. – Schauen wir genauer nach, woher unsere Energie kommt. Größtenteils von der Sonne, da sind wir uns einig. Selbst die fossilen Brennstoffe (Kohle, Öl, Gas), die wir verwenden, sind lediglich vor langer Zeit gespeicherte Sonnenenergie. Sie wurde von Pflanzen in energiereiche Materie umgewandelt (durch Fotosynthese), und diese Materie verfeuern wir (noch). Die Sonnenenergie kommt in wundervoll ökologischer Verpackung als Sonnenstrahlung direkt zu uns. Diese Strahlung wird jedoch in einem
348
14 Radioaktivität, Kernenergie und Atombomben
gigantischen Fusionsreaktor erzeugt, – nämlich in der Sonne. Dort wird fortwährend Wasserstoff zu Helium verschmolzen, wie oben beschrieben. Wenn also der Kernreaktor nur weit genug weg ist, ist er ökologisch völlig korrekt. Gibt es überhaupt noch andere Energiequellen? Ja doch, werden Sie sagen, die Windenergie. Aber auch die kommt von der Sonne. Der Wind wird durch Druckunterschiede in der Atmosphäre betrieben, die ihren Ursprung in der Sonneneinstrahlung haben. Wie wäre es mit Geothermie? Da bohrt man ein Loch in die Erde, unten ist es warm, damit macht man Wasser heiß, verdampft es und betreibt mit dem Dampf Generatoren. Aber warum ist es eigentlich im Inneren der Erde so heiß? Wohlgemerkt, wir zapfen hier nicht den Erdkern aus flüssigem Eisen an, denn die Löcher sind nur so 400–1000 m tief. Sie kratzen also gerade an der Erdkruste, die eine ungefähr 30 km dicke, feste Gesteinsschicht ist. Dann beginnt der Erdmantel, und ganz im Inneren liegt der Erdkern. Bei der Entstehung der Erde ist jede Menge Materie zusammengekracht und hat sich dadurch aufgeheizt. Diese Wärmeenergie ist heute im Kern, und kann nach außen strömen. Erstaunlicherweise reicht dieser Wärmestrom aber bei Weitem nicht aus, um die Größenordnung der geothermischen Energie zu erklären. Den Wärmestrom kann man über Bilanzen der Energieströme messen. Er ist viel kleiner als der Energiestrom von der Sonne, b. z. w. der Rückstrom von der Erde ins Weltall, aber er fällt auf. Die wichtigste Energiequelle der Geothermie kann man heutzutage mit physikalischen Methoden beobachten. Es ist nämlich, – Radioaktivität. Dazu misst man die Neutrinos aus den Kernzerfällen, was nur mit riesigen Gerätschaften geht, weil Neutrinos ja fast durch die gesamte Materie hindurch flutschen. Das Ergebnis ist beeindruckend. Die Radioaktivität macht mindestens 50–70 % der geothermischen Energie aus. Die anderen 30–50 % könnten aus dem Erdkern stammen. Auch bei dieser Energiequelle ist die eklige Kernenergie wieder weit genug weg und erscheint ganz ökologisch einwandfrei. Schätzungen aus diesen Daten und Modellrechnungen zeigen, dass der Energiefluss der Erde aufgrund von Geothermie bei ungefähr 4 · 1013 W liegt (davon ungefähr 2 · 1013 W aus radioaktiven Zerfällen. Zum Vergleich: Die Leistung der Sonneneinstrahlung beträgt ≈ 1.7 · 1017 W. Mit anderen Worten, die geothermische Leistung der Erde entspricht 0.02 % der Sonnenenergieleistung. Es gibt tatsächlich noch eine andere primäre Energiequelle, und das ist die Schwerkraft. Ihre Verwendung ist aber gar nicht so einfach. Die Idee, dass man etwas herunterfallen lässt, funktioniert nur dann, wenn man es frei Haus nach oben bekommt. Wasserkraftwerke an Flüssen und Wasserfällen sind daher keine Schwerkraftmaschinen. Das Wasser kam nämlich auf den Berg mithilfe der Sonne. Es verdampfte unten, stieg auf, kondensierte oben, regnete herab und konnte dann als Wasser wieder vom Berg fließen. Die Energie stammt von der Sonne. Es gibt aber tatsächlich einen Schwerkrafteffekt, der geeignet ist, um Elektrizität daraus zu gewinnen, nämlich der Einfluss des Mondes. Die Schwerkraft des Mondes verursacht auf der Erde die Gezeiten, und die Gezeitenströmungen kann man durch Turbinen und Generatoren zu Elektrizität machen. Es gibt noch nicht sehr viele solche Gezeitenkraftwerke. Wenn Sie mal eins besuchen wollen, dann machen Sie doch mal Urlaub in der Bre-
14.4 Kernenergie
349
tagne und schauen sich das Kraftwerk an der Mündung des Flusses Rance an, gar nicht weit von Saint-Malo. Nachdem man entdeckt hatte, welche gewaltigen Energien in Atomkernen schlummern, brauchte es nur sehr kurze Zeit, um herauszufinden, wie man diese Energiereserven anzapft. Die entscheidende Frage war: Wenn ein Urankern in zwei Stücke zerfällt, nachdem er ein Neutron geschluckt hat, wie viele Neutronen werden in so einer Spaltung frei? Fréderic Joliot-Curie konnte diese Frage schnell beantworten, und die Antwort sollte schwerwiegende Folgen haben. Es werden meistens 3 Neutronen freigesetzt. Joliot-Curie erkannte, dass damit die Möglichkeit gegeben war, die enormen Energiemengen im Inneren von Atomkernen in einer Explosion freizusetzen, und zwar durch eine Kettenreaktion. Nach der Veröffentlichung der Arbeit von Meitner und Frisch (1939) über die Interpretation der Entdeckung der Kernspaltung (in der der Energiegewinn bei einer Spaltung abgeschätzt wurde) begann der 2. Weltkrieg. Otto Frisch befand sich zu dieser Zeit in England und konnte nicht nach Dänemark zurückkehren. Seine Nachrichten über die Fähigkeiten Deutschlands auf dem Gebiet der Kernspaltung alarmierten die britischen Physiker und im März 1940 verfasste Otto Frisch zusammen mit dem deutsch-britischen Physiker Rudolf Peierls (1907–1995) ein Memorandum, in dem sie vor der Möglichkeit warnten, das Nazi-Deutschland eine Super-Bombe bauen könnte. Nils Bohr hatte mittlerweile die Nachricht von der Kernspaltung auch in die USA gebracht, wo sie sofort Alarm in der Physik auslöste. Der geflüchtete ungarische Physiker Leo Szilard (1898–1964) verfasste einen Brief an den Präsidenten und brachte Albert Einstein dazu, den Brief zu unterzeichnen, damit er mehr politisches Gewicht bekam. Die Warnungen wurden ernst genommen und daraus entstand das Manhattan Projekt zur Entwicklung von Atomwaffen. Im Jahr 1945 waren Atombomben einsatzbereit und wurden im August über Hiroshima und Nagasaki abgeworfen. Aber auch Deutschland stand auf der Abschussliste. Die Zeit von der Entdeckung der Kernspaltung bis zum ersten Kernreaktor war noch kürzer, der ging schon 1942 in Chicago in Betrieb (nur 4 Jahre (!) nach der Entdeckung des Phänomens im Labor. Es ging so schnell, weil man den Reaktor auch im Manhattan Projekt brauchte.) Sowohl die militärische als auch die friedliche Nutzung der Kernenergie beruht auf Kettenreaktionen. Die Kettenreaktion Ein einfaches, in vielen Varianten und an allen möglichen Ecken der Welt immer wieder auftauchendes Muster einer Katastrophe ist die Kettenreaktion. Sie funktioniert wie eine Lawine. Im einfachsten Modell stößt ein Stein zwei andere Steine an, die ins Rollen kommen. Jeder dieser Steine stößt wieder zwei Steine an u. s. w. Bei jeder Generation von Stößen verdoppelt sich die Zahl der neu hinzukommenden Steine in der Lawine. Nennen wir die Generation mit 2 rollenden Steinen die erste, so werden in der n-ten Generation 2 · 2 · 2· · · 2 · 2 = 2n n-mal
350
14 Radioaktivität, Kernenergie und Atombomben
Steine der Lawine hinzugefügt. Hier kann übrigens unsere Potenz-Notation wieder mal glänzen. Wie viele Steine sind das? Man kann sich bei der Größe dieser Zahl gewaltig verschätzen. Wenn man sich die ersten Terme 2, 4, 8, 16 anschaut dann denkt man oft: So viele werden’s schon nicht werden. Es ist eine nie endende Aufgabe, Menschen auf die Gefahren einer Kettenreaktion hinzuweisen. Aus dem arabischen Kulturkreis zur Zeit des Mittelalters stammt die Legende vom Erfinder des Schachspiels Sissa Ibn Dahir und dem indischen Herrscher Shihram, der so begeistert von dem Spiel war, dass er Sissa einen Wunsch gewährte. Der wünschte sich Weizenkörner. Auf dem ersten Feld des Schachbretts eines, auf dem zweiten 2 auf dem dritten 4 u. s. w. Er wünschte sich also eine Lawine von Weizenkörnern. Shihram war fast erbost über die Bescheidenheit des Wunsches, der ja bloß ein paar Getreidekörner wert war. Ein paar Tage später hatten die Rechenmeister die Zahl der Weizenkörner immer noch nicht ermittelt7 . Wie viele Körner musste Shihram hergeben? Wir können die Summe ja leicht hinschreiben, nämlich N = 1 + 2 + 22 + 23 + · · · + 263 aber ausrechnen verlangt schon einen Taschenrechner. Es sind 18 446 744 073 709 551 615 oder in Worten 18 Trillionen 446 Billiarden 744 Billionen 73 Mrd. 709 Mio. 551 Tausend 615 Körner. Das sagt Ihnen jetzt erst mal nichts? Richtig, wir müssen ja immer einen Vergleich finden, um festzustellen, wie wir eine Zahl einordnen können. Im Saatguthandel findet man eine praktische Einheit dafür: das Tausendkorngewicht. 1000 Körner Weizen wiegen 40–65 g. Sagen wir für unsere Abschätzung, es seien 50 g. Dann können wir das Gewicht der N Körner auf dem Schachbrett berechnen, es ist G = N · 50/1000 Gramm und da wiederum 1000 g 1 kg sind und 1000 kg 1 Tonne sind es G = N · 50/(1000 · 1000 · 1000) t. Wir rechnen jetzt im Physikstil, d. h. wir runden kräftig und benutzen Zehnerpotenzen. Das N ist so ungefähr 18.5 × 1018 , also ist G ≈ 18.5 · 50 × 1018 /109 = 925 × 109 t Die weltweite Erntemenge für Weizen beträgt zur Zeit ca. 780 Mio. ton also 7.8 × 108 t. Teilen wir G durch diese Menge, dann erhalten wir ungefähr 1190. Es ist also mehr als das Tausendfache der heutigen Welternte an Weizen. Fast noch wichtiger als diese riesenhafte Zahl nach nur 63 Verdopplungsschritten ist ein Blick auf das letzte Feld. Da liegen ja 263 Körner und das sind laut Taschenrechner 9 223 372 036 854 775 808. Das sind praktisch die Hälfte aller Körner, und ist kein Zufall. Man kann die Summe mit etwas Mathematik aufsummieren und erhält als Ergebnis 264 − 1. Wenn man das durch 263 teilt (und wieder unsere tolle Potenzrechnung verwendet) findet man als Ergebnis 2 − 2−63 . Bis auf eine winzige 7
Shihram rettete sich mit dem Trick, dass er von Sissa verlangte, alle Körner zu zählen, damit er auch die richtige Menge erhielt.
14.4 Kernenergie
351
Korrektur ist die Summe also doppelt so groß wie der Wert auf dem letzten Feld. Erst die letzten Schritte einer Lawine machen sie so richtig gefährlich! Die Unterschätzung dieses Anwachsens ist ein Fehler, den Menschen offenbar eingebaut haben. Zahlreiche Bücher über die Grenzen des Wachstums versuchten schon, die Öffentlichkeit vor den Folgen eines solchen Wachstums zu warnen. Denn es tritt vor allem in ökonomischen Theorien überall auf. Lassen Sie es mich an einem einfachen Beispiel illustrieren. Stellen Sie sich vor, wir alle bräuchten dringend ein bestimmtes Mineral (zum Beispiel Lithium, wenn wir alle E-Autos fahren wollen). Von diesem Mineral gibt es ein begrenztes Vorkommen, und wir beginnen, es auszubeuten. Die Nachfrage steigt, und daher verdoppelt sich die abgebaute Menge alle 5 Jahre. Die letzten 50 Jahre ist alles gut gegangen, und die Reserven sind noch riesig (sagt Ihnen die Bergbaugesellschaft), denn die Hälfte des Minerals ist noch in der Erde. Aber was bedeutet das? Sie wissen jetzt: in den nächsten 5 Jahren sind die Vorräte erschöpft! Das ist das Gemeine an dieser Form des Wachstums: Eine ganze Weile sieht alles harmlos aus und dann – zack – ist die Katastrophe da. Das einfache Modell mit der schrittweisen Verdoppelung ist allerdings nicht so realistisch für eine wirkliche Lawine, und auch nicht für die meisten anderen natürlichen Kettenreaktionen. Es muss nicht immer eine Verdoppelung sein, genauso gut kann sich jede Generation verdreifachen, oder allgemein ver-k-fachen. Das k nennt man die Verzweigungszahl. Aber bei realen Lawinen ist auch diese Zahl nicht konstant, sondern eher zufällig. Außerdem werden die Stöße nicht alle synchron stattfinden. Wenn der Zufall ins Spiel kommt, kann natürlich auch die Voraussage über die Entwicklung nur eine Wahrscheinlichkeitsaussage sein. Die spezielle Art von zufälligen Prozessen, mit denen wir es bei Kettenreaktionen zu tun haben, heißen Verzweigungsprozesse. Wenn nicht der exakte Zeitverlauf, sondern nur die Generationszahl beobachtet wird, heißt der Prozess auch nach dem Mathematiker Francis Galton (1822–1911) und seinem Landsmann Henry William Watson (1827–1903) Galton-Watson Prozess. Die beiden wollten herausfinden, wie groß die Wahrscheinlichkeit für das Aussterben von Adelsgeschlechtern ist (damals ein sehr relevantes Thema). Daher betrachteten sie die Lawine der männlichen Nachkommen8 und berechneten, wie groß die Wahrscheinlichkeit ist, nach n Generationen überhaupt keine Nachkommen mehr zu haben. Diese Theorie wurde bald auf viele andere Themen angewendet, wie zum Beispiel Kettenbriefe oder (heutzutage) die Ausbreitung von Computerviren. Schließlich kann in jedem Zeitschritt auch eine kontinuierliche Größe um einen Bruchteil ihrer selbst anwachsen, auch das ist eine Kettenreaktion. Das Resultat ist dann ein exponentielles Wachstum (s. Abschn. 7.5). Die Uranbombe und die Plutoniumbombe Wie sieht nun die Kettenreaktion der Kernspaltung von 235 U aus? Ein Neutron spaltet einen einzelnen Kern. Dabei werden ungefähr 200 MeV an Energie und drei Neutronen freigesetzt. Diese 3 Neutronen spalten 3 weitere Kerne u. s. w. In jeder Generation der Spaltungen verdreifacht sich die Zahl der Neutronen und die Zahl 8
nur die vererbten den Titel weiter.
352
14 Radioaktivität, Kernenergie und Atombomben
der Kerne, die in der nächsten Generation gespalten werden. Das Ganze geht rasend schnell. Die Zeit zwischen zwei Generationen (Verzweigungszeit) beträgt bei der Uran-Kernspaltung für die allermeisten (nämlich 99 %) der freigesetzten Neutronen nur 10−14 s. Diese Neutronen werden auch als prompt bezeichnet. Das restliche Prozent stammt von Folgereaktionen der entstandenen Bruchstücke, und da ist die Verzweigungszeit sehr viel länger, zwischen 1 ms und 100 s. Wir werden noch sehen, wie wichtig diese verzögerten Neutronen für eine friedliche Nutzung der Kernenergie sind. Wie schnell kann man die Energie in den Atomkernen durch so eine Kettenreaktion freisetzen? Vergessen wir erst mal die wenigen verzögerten Neutronen und fragen uns, wie viele Generationen man braucht, um zum Beispiel 1 kg Uranatome (d. h. 25 · 1023 ) zu spalten. Wenn Sie einen leistungsfähigen Taschenrechner haben, können Sie einfach immer wieder mit 3 multiplizieren bis 3 · 3 · · · 3 = 3n die gewünschte Größe erreicht hat9 . Das Ergebnis: Es werden n = 51 Generationen gebraucht, d. h., die ganze Freisetzung passiert in einer unvorstellbar kurzen Zeit (5 · 10−13 Sekunden). Das ist eine Kernexplosion. Deren Stärke wird durch Vergleich mit TNT charakterisiert. Im Abschn. 14.1 können Sie nachlesen, dass der Energieinhalt von 1 kg Urans 19 Mio. kg TNT entspricht. Statt 1 Mio. kg schreibt man 1 Kt (1kt), sodass man sagen kann: 1 kg 235 U entspricht 19 kt TNT. Eine Bombe etwa dieser Größe (genannt „Little Boy“) wurde zur Zerstörung von Hiroshima durch die USA im 2. Weltkrieg eingesetzt. Die beobachtete Sprengkraft dieser Bombe betrug 13 kt. Es ist aber keineswegs einfach, eine funktionierende Kettenreaktion in einer makroskopischen Menge von Uranatomen zu entfachen. Man muss viele technische Probleme lösen. Zunächst mal ist das Isotop 235 U nur in winzigen Spuren (0.7 %) im natürlich vorkommenden Uran enthalten. Man muss große Anstrengungen unternehmen, um es anzureichern. Damit Uran für Kernwaffen verwendet werden kann, muss es mindestens 20 % 235 U enthalten. Aber solche Atombomben wären enorm groß, schwer und folglich schlecht ins Ziel zu bringen. Von waffenfähigem Uran spricht man daher erst ab ca. 85 % Anreicherung. Wieso fliegt das Uran bei der Anreicherung nicht in die Luft? Das liegt daran, dass längst nicht jedes Neutron wieder auf einen spaltfähigen Urankern stößt, bevor es das Uran verlässt. Daher braucht man eine Mindestmenge an Uran. Diese Mindestmenge, auch kritische Masse genannt, hängt von der Form des Uranklumpens ab. Wenn man eine dicht gepresste Kugel hat (wie in der Bombe) ist die kritische Masse viel kleiner als wenn man das Uran großflächig ausbreitet (wie bei der Aufbereitung). Man kann also zwei angereicherte, unterkritische Uranklumpen herstellen, die dann in der Bombe zu einer überkritischen Masse zusammengebracht werden, indem man sie durch eine Explosion mit konventionellem Sprengstoff gegeneinander schießt (das Kanonenprinzip, siehe Abb. 14.3). Wenn die überkritische Masse hergestellt ist, beginnt eine Neutronenquelle (ein radioaktives Material, das Neutronen aussendet) diese Masse mit Neutronen zu beschießen und die Kettenreaktion gezielt auszulösen. Das Timing ist entscheidend wichtig. Man muss nämlich das Uran so lange wie 9
Sollten Sie mit Logarithmen rechnen können, geht’s auch schneller.
14.4 Kernenergie
353
Abb. 14.3 oben: Das Kanonenprinzip der Uranbombe, unten: Das Implosionsdesign der Plutoniumbombe (von Fastfission, gemeinfrei, via Wikimedia Commons)
möglich im überkritischen Zustand halten. Bei der Explosion fliegt es aber schließlich auseinander und die Kettenreaktion bricht ab. Daher kann es schnell zu Früh- oder Spätzündungen kommen. Damit die kritischen Massen nicht zu groß werden, und damit die Bombe nicht vorzeitig zerplatzt, braucht man weitere Tricks. Der wichtigste ist ein Mantel um die Urankugel herum, der Neutronen, die aus der Kugel entweichen wollen, wieder zurück reflektiert. Dieser Mantel verzögert außerdem das Zerplatzen der Bombe, und ermöglicht damit mehr Generationen von Spaltungen. Beachten Sie, dass es für das Funktionieren einer Atombombe ausschlaggebend ist, genügend viele Generationen von Spaltungen zu erreichen, denn in der letzten Generation finden immer fast so viele Spaltungen statt wie in allen Generationen vorher zusammen (siehe voriger Abschnitt). Als die ersten Atombomben im Manhattan Projekt der USA konstruiert wurden, war das Kanonenprinzip (Abb. 14.3) die technisch einfachste Lösung. Man war sich ziemlich sicher, dass so eine Bombe funktioniert. Das musste man auch, denn der Nachteil einer Uranbombe ist, dass angereichertes Uran schwer herzustellen ist. Man hatte damals genug Uran für genau eine Bombe, nämlich Little Boy. Sie enthielt 64 kg auf 80 % angereichertes Uran, also 51.2 kg 235 U . Tests dieses Bombendesigns konnte es nicht geben. Wenn Sie sich die erreichte Sprengkraft (13 kt TNT) anschauen, dann sehen Sie, dass die Bombe eigentlich ziemlich schlecht funktioniert hat, denn diese Sprengkraft entspricht weniger als 1 kg gespaltenes Uran. Aber für die Zerstörung von Hiroshima hat’s ja gereicht.
354
14 Radioaktivität, Kernenergie und Atombomben
Das Manhattan Projekt entwickelte noch ein anderes Bombendesign, für das es zwar genügend spaltbares Material gab, das aber technisch extrem anspruchsvoll zu realisieren ist (siehe Abb. 14.3). Das spaltbare Material ist das Plutonium Isotop 239 Pu, das man zusammen mit 240 Pu in Kernreaktoren „erbrüten“ kann. Moderne „Schurkenstaaten“ können das übrigens auch. Das Kanonendesign funktioniert für Plutoniumbomben aber schlecht, weil die aufgrund der spontanen Spaltungen des 240 Pu sehr leicht zu Frühzündungen neigen, wodurch die Bombe nicht so richtig explodiert. Das Prinzip, das mit solchen spaltbaren Materialien funktioniert, heißt auch Implosionsdesign. Es klingt einfach. In der Mitte befindet sich eine unterkritische Kugel, die von mehreren, meisterlich ausgetüftelten Lagen Sprengstoff umgeben ist. Beim Explodieren erzeugen diese Sprengstoffschichten eine enorme, kugelförmig nach innen gerichtete Druckwelle, die die unterkritische Kugel zusammenpresst und kritisch werden lässt. Dieses Design verlangt außerordentliche wissenschaftliche und technische Spezialfähigkeiten, weshalb der Kreis der Länder, die solche Waffen herstellen können, noch immer nicht sehr groß ist. Könnten das auch Maschinenbaustudierende mit Bachelor- oder Masterabschluss, wäre die Welt voller Atommächte, denn für das spaltbare Material braucht man nur einen einfachen „friedlichen“ Atomreaktor. Kernreaktoren Wenn eine Kettenreaktion der Kernspaltung einmal in Gang gekommen ist, dann läuft sie – wie wir gesehen haben – wahnsinnig schnell ab und es gibt eine Kernexplosion. Wie soll man dann jemals die Kernenergie ohne Explosion anzapfen können? Die Antwort steckt in dem winzig kleinen Bruchteil von verzögerten Neutronen, wie wir gleich sehen werden. Beginnen wir mit einer unterkritischen Masse von nicht sehr stark angereichertem Uran (3 %–5 %). Ein Neutron einer Generation erzeugt also weniger als 1 Neutron in der nächsten Generation, die Verzweigungszahl k ist kleiner als 1 (siehe Abschn. 14.1). Es entsteht keine anwachsende Kettenreaktion. Wie können wir das spaltbare Material erst mal so beeinflussen, dass es näher an die Kritikalität (d. h. Verzweigungszahl k = 1) heran kommt? Dazu gibt es eine äußerst effektive Methode. Die Neutronen, die bei der Spaltung erzeugt werden, sind sehr schnell. Sehr schnelle Neutronen eignen sich aber schlecht für Kernspaltungen, d. h. die Wahrscheinlichkeit, dass sie von einem Urankern geschluckt werden und diesen zur Spaltung anregen ist klein. Mit zunehmender Bewegungsenergie der Neutronen wird sie immer kleiner. Die meisten schnellen Neutronen verlassen daher das spaltbare Material ohne Wirkungen, und das Material bleibt unterkritisch. Der Trick besteht nun darin, die Neutronen abzubremsen. Dafür braucht man ein Material (Moderator genannt), das die Neutronen nicht schluckt, das aber dauernd mit ihnen zusammenstößt, sodass sie Energie verlieren. Ein prima Material dieser Art ist Wasser. Das schluckt zwar ein paar Neutronen (daher müssen mit Wasser moderierte Reaktoren auch mit angereichertem Uran betrieben werden10 , aber es hat einen unschätzbaren Sicher10
Ein noch besserer Moderator ist schweres Wasser. Das sind Wassermoleküle, bei denen der Wasserstoff das Isotop 2 H (Deuterium) ist. So einen Reaktor kann man sogar mit Natururan be-
14.4 Kernenergie
355
heitsvorteil. Sollte tatsächlich mal das spaltbare Material heiß laufen und kritisch werden, dann verdampft das umgebende Moderator-Wasser. Damit ist aber auch der Moderator futsch und der Reaktor wird wieder unterkritisch. Es gibt andere Moderatormaterialien, die diesen Vorteil nicht haben, beispielsweise Graphit (das ist Kohlenstoff). Der Unglücksreaktor von Tschernobyl war ein graphit-moderierter Reaktor. Solche Reaktoren kann man zwar mit Natururan betreiben, aber bei Unfällen verdampft das Graphit nicht (die Moderatorwirkung bleibt). Stattdessen fängt es an zu brennen. Während Wasser sowohl als Moderator als auch als Kühlmittel verwendet werden kann, brauchen graphit-moderierte Reaktoren zusätzlich ein separates Kühlmittel. So ganz frei von Nachteilen ist aber auch Wasser nicht. Wenn die Temperaturen zu hoch werden, dann kann das Wassermolekül in Sauerstoff und Wasserstoff zerfallen, und das ist ein hochexplosives Gemisch (Knallgas). Neben den Moderatormaterialien finden sich in jedem Reaktor noch Materialien, die Neutronen schlucken (Steuerstäbe). Damit lässt sich die Kettenreaktion unterbinden, d. h. sie bilden den „Aus“ Knopf des Reaktors. Wichtig ist, dass sie auch bei völligem Ausfall der Stromversorgung von allein in die ausschaltende Position plumpsen. Nun kann man den moderierten Reaktor mit langsamem Entfernen der Steuerstäbe näher an die Kritikalität heranbringen. Das nennt man Hochfahren des Reaktors. Damit man Energie herausbekommt, sollte der Reaktor einerseits überkritisch (k größer als 1) betrieben werden, aber andererseits fliegt er einem dann um die Ohren. Passiert so etwas, dann steigt die Leistung mit einer Verdopplungszeit von ca. 1/10 ms an und die Brennelemente werden gefährlich heiß (über 1000 ◦ C). Das nennt sich Leistungsexkursion und sollte möglichst nie auftreten, denn es kann die Kühlsysteme überfordern und zu großen Reaktorunfällen führen. Wenn es in einem wassermoderierten Reaktor passiert, dann verdampft das Wasser wie oben beschrieben und die Kettenreaktion wird unterbrochen. Allerdings bedeutet eine solche Unterbrechung noch nicht, dass die Wärmeproduktion sofort gestoppt ist. Durch die Kernspaltungen sind in den Brennelementen alle möglichen Isotope entstanden, von denen viele auf Zeitskalen von Sekunden, Minuten, Stunden und länger weiter zerfallen und dabei neue Wärme freisetzen, die sogenannte Nachzerfallswärme. Man kann damit rechnen, dass nach dem Abschalten der Reaktor ein paar Tage lang noch 5 %–10 % seiner Nennleistung produziert. Die kann bei Reaktorstörfällen sehr gefährlich werden, wenn alle aktiven Kühlsysteme ausgefallen sind. Wird die entstandene Wärmeleistung nicht abgekühlt, so erhitzen sich die Brennelemente immer weiter, bis sie schließlich die Brennelementhüllen und auch die Steuerstäbe schmelzen (Kernschmelze). Das geschmolzene Material sammelt sich auf dem Boden des Druckgefäßes, in dem der Reaktor eingeschlossen ist. Schafft man es nicht, diese Hülle von außen zu kühlen, so schmilzt sich das Brennmaterial zum Betonfundament des Reaktors durch. Im schlimmsten Fall kann nicht mal diese Betonschicht das Material stoppen, es sinkt in den Boden ein und wird freigesetzt. treiben. Leider ist schweres Wasser sauteuer, denn es ist ja nicht einfach zu gewinnen. Etwa 1 von 9000 Wasserstoffatomen im Wasser ist Deuterium, und die herauszufischen ist kompliziert und kostspielig.
356
14 Radioaktivität, Kernenergie und Atombomben
Wie kann man nun verhindern, dass der Reaktor explodiert und trotzdem dauernd Leistung entnehmen? Die einzige Möglichkeit zum stabilen Dauerbetrieb besteht darin, die Kettenreaktion so zu steuern, dass k genau 1 wird. Das klingt gefährlich. Geht das überhaupt? Denken Sie an die kurzen Verdopplungszeiten bei Leistungsexkursionen. Wie soll man auf so kurzen Zeitskalen etwas steuern? Zum Glück hält die Natur die verzögerten Neutronen bereit. Die nutzt man nun aus. Man kann den Reaktor beim Hochfahren so nahe an die Kritikalität heranbringen, dass die Kettenreaktion nur durch die verzögerten Neutronen überkritisch wird. Dann sind die Zeitskalen für das Anwachsen der Leistung lang genug, um ganz ruhig mit den Steuerstäben den Neutronenfluss auf k = 1 einzupendeln. Das geschieht automatisch in einem Regelkreis, der dauernd den Neutronenfluss misst und die Steuerstäbe anpasst. Dieser verzögert kritische Betrieb ist es, der Kernreaktoren möglich macht. Die durch die Kettenreaktion erzeugte Wärmeleistung wird durch ein Kühlmittel abtransportiert. Das häufigste Kühlmittel ist Wasser, dass in zwei Varianten benutzt wird. Beim Druckwasserreaktor wird das Wasser im Kühlkreislauf unter so hohem Druck gehalten, dass es nicht verdampft. Dann gibt es seine Wärme in einem Wärmetauscher an Wasser bei Normaldruck ab, das verdampft und mit diesem Dampf werden Generatorturbinen zur Stromerzeugung betrieben. Beim Siedewassereaktor verdampft das Wasser beim Kühlen des Reaktorkerns und der (radioaktiv belastete) Dampf wird direkt zum Betrieb der Turbinen verwendet. Beide Reaktortypen machen immer noch 90 % der auf der Erde installierten Reaktoren aus. Die Praxis hat gezeigt, dass in so konstruierten Reaktoren größere Unfälle passieren können (Tschernobyl, Fukushima), und zwar erheblich häufiger, als Risikoberechnungen aus der Frühzeit des Reaktorbaus ergaben. Für viele Menschen sind Reaktoren deshalb eine teuflische Technologie, die man zur Vermeidung von Apokalypsen möglichst schnell abschalten muss. Das ist vielleicht auch keine schlechte Idee. Das beste Argument gegen alle fossile und kerntechnische Energieerzeugung bleibt aber , dass sie angesichts der Überfülle an Sonnenenergie eigentlich überflüssig sind. Allerdings soll das nicht heißen, dass man nicht hin und wieder mal einen Reaktor brauchen könnte. Die Forschung an kerntechnischen Anlagen einzustellen, könnte sich als Fehler erweisen. Erstens haben wir immer noch den ganzen Abbrand der vorhandenen Reaktoren am Hals und den sollten wir mit möglichst guten Technologien versorgen. Einfach verbuddeln könnte nicht die beste Lösung sein. Denken Sie an Soddys Transmutationen. Vielleicht ist es möglich, sich einiges von den gefährlicheren Isotopen im radioaktiven Müll durch geeignete Kernreaktionen vom Hals zu schaffen. Zweitens kann ein sicherer Reaktor auch eine C O2 -freie Brückentechnologie werden. Tatsächlich gibt es in vielen Ländern Forschungsanstrengungen zur Konstruktion von sicheren und benutzerfreundlichen Reaktoren (Reaktoren der 4. Generation). Diese Idee ist aber nicht neu. Schon sehr früh in der Reaktorentwicklung kam der Gedanke auf, Reaktoren zu bauen, die „narrensicher“ sind. Ich möchte Ihnen ein Beispiel vorstellen, den TRIGA Reaktor (für Training, Research, Isotopes, General Atomics). Er wurde 1956–1958 von der ersten Idee bis zum 1. Reaktor in einer Gruppe hochklassiger Forscher unter der Leitung von Edward Teller entwickelt, der zum Entwicklungsziel sagte:
14.4 Kernenergie
357
Man könnte ihn [den Reaktor] einer Gruppe von Schülern zum Spielen geben, ohne Angst zu haben, dass sie sich verletzen könnten.
Der Reaktor ist ein sogenannter swimming pool Reaktor, d. h. die Brennelemente befinden sich in einem offenen Wasserbecken. Eine Hülle gibt es nicht. Der Sicherheitstrick besteht im Material der Brennelemente. Das wurde so ausgetüftelt, dass es beim Erhitzen die Kettenreaktion sehr (!) schnell beendet. Man kann den Reaktor einfach überkritisch machen, dann schnellt die Leistung in die Höhe, wird aber, bevor sie Schaden anrichten kann, wieder per Naturgesetz gebremst. Klingt gut? Es ist so sicher, wie Edward Teller sagte. Einer dieser TRIGA Reaktoren befindet sich auf dem Campus des Reed College in Portland (Oregon) und wird dort von einem Team aus etwa 40 Studierenden (vom 1. bis 4. Semester) in Eigenregie betrieben (und das sind nicht etwa alles Studierende der Naturwissenschaften.). Dieses Beispiel soll Ihnen einfach zeigen, dass bei der Entwicklung ein paar Weichen zu früh in Richtung schnelles Geld gestellt wurden, während es vielleicht ganz nützlich gewesen wäre, erst mal mehr in der Reaktorsicherheit und der nachhaltigen Verwendung von Brennelementen zu forschen. Das wird heute mit den Reaktoren der 4. Generation nachgeholt, – etwas spät, denn, wie gesagt: Für ganz große Anwendungen brauchen wir sie eigentlich nicht mehr.
Kapitel 15
Biologische Kettenreaktionen
Kettenreaktionen mit exponentiellem Wachstum sind katastrophale Prozesse, aber nicht alle laufen so schnell ab wie bei der Kernspaltung. Die Zeit zwischen zwei Generationen kann statt winzigen Sekundenbruchteilen auch Minuten, Stunden oder Jahre betragen. Diese Zeitskalen sind besonders typisch für biologische Kettenreaktionen. Aus dem Mechanismus einer Kettenreaktion ist klar, dass eine biologische Art, bei der jedes Individuum mehr als ein überlebendes Nachkomme produziert, das sich wieder vermehren kann, exponentiell wachsen wird. Eine besonders einfache Kettenreaktion findet sich bei Bakterien. Ein alter Bekannter für alle Warmblüter ist Escherichia Coli, weil es in deren Dickdarm zu finden ist. Es kommt in diversen Varianten vor, von denen die meisten harmlos sind, – bis auf wenige Ausnahmen, die es allerdings in sich haben. Bekannt geworden sind vor allem der Stamm ETEC (Enterotoxische E. coli, unter dem Pseudonym „Montezumas Rache“ bekannter Reisedurchfall) und EHEC ( Enterohämorrhagische E. coli, der 2011 in Deutschland eine Epidemie auslöste, an der 3800 Personen erkrankten und 53 starben.)1 So ein Bakterium stirbt nicht, zumindest nicht ohne äußere Einflüsse. Stattdessen teilt es sich alle 20 min. Die beiden Tochterzellen teilen sich dann weiter. Wie entwickelt sich also eine einzige Zelle während eines Tages? Nach 8 h haben wir 24 Teilungen hinter uns und 223 = 8.388.608 Zellen. Nach 12 h sind es 235 = 34.359.738.368 und nach einem Tag 271 = 2.36 · 1021 . Jede Zelle wiegt ungefähr 1 Pikogramm, d. h. 10−12 g, sodass die gesamte Masse nach einem Tag 2.36 · 109 g oder ca. 2360 t beträgt! Na ja, das kann nicht gut gehen. Irgendwann ist die Petrischale leer gefuttert, oder die Bakterien sitzen so eng aufeinander, dass sie an ihren eigenen Stoffwechselprodukten sterben. Zwischendurch gibt es eine Weile lang eine Phase, in der die Situation stabil aussieht, die Zahl der Bakterien bleibt in etwa gleich. 1
Kleines Cocktailpartyhäppchen für Vegetarier: Ein spezieller EHEC Stamm findet sich in ungefähr 1 % des Rinderkots. Der kann beim Schlachten das Fleisch verseuchen. Wenn man nicht aufpasst, macht er sich dann in kalt geschlachteten Würsten (Original Eichsfelder Stracke) breit (Erhitzen auf mehr als 70 ◦ C überlebt er nicht) und löst schwere Lebensmittelvergiftungen aus. Mahlzeit! © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_15
359
360
15 Biologische Kettenreaktionen
Das bedeutet, dass genauso viele durch Zellteilung entstehen wie absterben. Obwohl Bakterien sehr simple Lebewesen sind, so veranschaulicht ihr Wachstum doch ein Gefährdungspotential, das alle lebenden Wesen – nicht zuletzt Menschen – von Natur aus in sich tragen. Lebende Organismen sind Zeitbomben, sie sind darauf angelegt, sich exponentiell zu vermehren. Auch wenn kompliziertere Lebewesen nicht so unsterblich sind wie Bakterien, so existieren sie doch nur, weil ihre Nettovermehrungsrate – d. h. die Geburtenrate minus die Sterberate – positiv ist. Es war der Mathematiker Leonhard Euler, der nicht nur die quantitative Beschreibung des exponentiellen Wachstums fand, sondern es auch gleich auf die Bevölkerungsentwicklung anwandte. Ein solches Wachstum kann aber auf die Dauer nicht gut gehen. Jede Art, die ungebremst wächst, wird die gesamten, ihr zur Verfügung stehenden Ressourcen verschlingen. Hat dann nicht jede Lebensform das Potential, die gesamte Biosphäre zu vernichten? Werden nicht Kaninchen alles Gras der Erde fressen, Borkenkäfer alle Wälder umlegen, Mäuse sämtliche Grassamen verputzen? Warum eigentlich nicht? Es könnte natürlich zum einen sein, dass die Wachstumsraten so klein sind, dass wir die multiplen Katastrophen noch gar nicht bemerkt haben. Zum anderen könnte die Zahl der Lebewesen durch Wechselwirkungen mit anderen Lebewesen oder mit anderen Umweltfaktoren beschränkt werden. Die Erforschung dieser Wechselwirkungen bezeichnet man als Ökologie, und mit ihr werden wir uns in den Abschn. 15.2 und 15.3 etwas mehr beschäftigen.
15.1 Bevölkerungswachstum Zunächst jedoch wollen wir das Wachstum einer Art betrachten, die im Laufe ihrer Existenz schon immer auf Ökologie gepfiffen hat: der Homo sapiens. Diese Art zeichnete sich von jeher dadurch aus, dass sie sich von anderen Lebewesen oder von Umweltfaktoren nicht in ihrem Wachstum aufhalten ließ. Konkurrierende Lebewesen oder Gefährder wurden mit immer raffinierteren Techniken erlegt und die Umwelt so umgestaltet, dass sie schön gemütlich wurde. Nur ganz große Katastrophen haben es gelegentlich geschafft, das Wachstum dieser Art zu bremsen. Wie schnell diese Bevölkerung gewachsen ist zeigt die Abb. 15.1 in 50 Jahres-Schritten seit 1750. Es gibt eine Menge Darstellungen dieser Daten, die je nach grafischer Kunst mal mehr oder mal weniger beunruhigend aussehen. Die gezeigte Abbildung stellt nur die Rohdaten der Vereinten Nationen ohne jeden Schnickschnack dar. Wenn man die Entwicklung der menschlichen Bevölkerung über längere Zeiten rekonstruieren will, muss man erst mal Daten haben. Wie kommt man da ran? Heutzutage gibt es Volkszählungen in fast allen Ländern und Sie können in verschiedenen Quellen (UN, Weltbank u.s.w.) Zusammenstellungen der Ergebnisse finden. Eine eigene Wissenschaft, die Demografie, beschäftigt sich mit der Analyse dieser Daten und versucht, Voraussagemodelle für die Bevölkerungsentwicklung zu bauen. Je weiter man aber in der Zeit zurückgeht, desto schwieriger wird die Zählung, oder besser die Schätzung. Die Untersuchung der Weltbevölkerung zu sehr frühen, prähistorischen Zeiten ist ein kniffliges Unternehmen, der Forschungszweig heißt Paläo-
15.1 Bevölkerungswachstum
361
Abb. 15.1 Die Entwicklung der Weltbevölkerung mit Datenpunkten alle 50 Jahre, und ohne jeden grafischen Schnickschnack.Die Daten und die Prognose bis 2050 stammen von der UN
Demografie, und muss sich auf ein paar Skelette und DNA Abschnitte stützen. Ab der Zeit, als Menschen mehr Kulturartefakte hinterließen, kommt man mit archäologischen Methoden voran. Ungefähr ab 10000 v. Chr. liegen die Zahlen zwischen 1 und 10 Mio., 1000 v. Chr. bei 50 Mio., zu Christi Geburt zwischen 170 und 400 Mio.. Um 1600 lebten etwa 550 Mio., die Milliardengrenze wurde etwa um 1800 erreicht, 1900 waren es ca. 1.7 Mrd., und 1950 2.5 Mrd.. Ab dann sind die Zahlen genauer, denn internationale Organisationen wie UN und Weltbank sammelten alle Daten systematisch. 1970 sind es 4 Mrd., 1990 5.3 Mrd. und gerade haben wir die 8 Mrd. überschritten. Je nach Quellen können die Zahlen etwas variieren, aber der Gesamteindruck, den die Abb. 15.1 vermittelt, ist alarmierend. Seit der wissenschaftlichen und industriellen Revolution wächst die Bevölkerung in schwindelerregendem Tempo. Gegenwärtig nimmt die Weltbevölkerung jedes Jahr um ca. 80 Mio. Menschen zu. Seit 1800 nahm auch die Wachstumsrate bis Ende der 1960er Jahre zu: von 0.5 % auf 2.3 %. Wohlgemerkt: die Wachstumsrate nahm zu, das bedeutet, dass das Wachstum schneller als ein exponentielles Wachstum mit konstanter Rate erfolgte (superexponentielles Wachstum). Danach nahm die Rate wieder ab und liegt gegenwärtig bei ungefähr 1.1 %. Schaut man auf die Geburts- und Todesraten, so sieht man, dass beide Raten stetig gesunken sind, aber dass der Anstieg der Nettorate vor allem auf abnehmende Sterblichkeit zurückzuführen war. Das wiederum lag ganz wesentlich an den Ertragssteigerungen in der Landwirtschaft durch die sogenannte Grüne Revolution, die Hochertragssorten von Mais, Weizen und Reis einführte2 . Ohne diesen Riesensprung in der Agrotechnik hätte man schon damals ein dystopisches Szenario zu spüren bekommen, das der britische Ökonom Thomas Robert Malthus 1766–1834 vorhergesagt hatte. Er verglich das exponentielle Bevölkerungswachstum mit den Möglichkeiten, die Lebensmittelproduktion zu steigern. Dabei machte er die sehr begründete Annahme, dass die landwirtschaftliche 2
Damals und auch heute noch ein segensreiches Projekt. Ob es ausnahmslos eine gute Idee war, oder ob man damit irreversible Schäden am Ackerland und der Biodiversität verursacht hat, darüber streitet man sich. Übrigens sicher ein wichtiger Streit, um den sich viel mehr Bürge kümmern sollten.
362
15 Biologische Kettenreaktionen
Produktion sich nicht exponentiell vermehrt. Man kann zwar den Ertrag einer Ackerfläche zunächst steigern, aber diese Steigerung selbst erzeugt keine weiteren Erhöhungen der Erntemengen. Also, so schloss er, kommt der Zeitpunkt, wo nicht mehr genug Nahrungsmittel für eine weiter wachsende Bevölkerung produziert werden können, und es kommt zu einer Hungerkatastrophe. Wie üblich bei exponentiellem Wachstum sehen die meisten Menschen diese Katastrophe nicht kommen, und sie trifft uns mit voller Wucht. Sein Buch zu diesem Thema (An Essay on the Principle of Population as It Affects the Future Improvement of Society) von 1798 wurde und wird von verschiedenen Seiten gern kritisiert. Es erschien zunächst anonym, und eher in der Form einer polemischen Streitschrift gegen die optimistische Sicht der Bevölkerungsentwicklung, die im 18. Jahrhundert vorherrschte. Die Autorenschaft blieb nicht lange verborgen, und sofort erntete das Werk erbitterte Kritik. Dieser Shitstorm bewog Malthus, sein Werk mit statistischen Daten und theologischen Argumenten aufzupeppen. Die zweite Auflage 1803 trug jetzt seinen Namen und war fast viermal so dick wie die erste. Abgesehen von den theologischen Argumenten hat sich an der Begründung der Ablehnung des Malthusschen Essays im Laufe der Zeit eigentlich nicht viel geändert. In den Wirtschaftswissenschaften wird man nicht müde, darauf hinzuweisen, dass Malthus einfach ein Miesepeter war, der den technischen Fortschritt unterschätzt hat. Malthus Argument wird aber durch die enormen Steigerungsraten der landwirtschaftlichen Produktion in der Grünen Revolution nicht ungültig. Es dauert eben nur länger bis zur Katastrophe. Denn sein Hauptargument ist ja nicht widerlegt: Steigerungen der Erntemengen verdoppeln sich nicht automatisch, da kann man machen, was man will. Außer, – man glaubt an die unbeschränkte Kraft des technischen Fortschritts und des Marktes. In der Physik glaubt man eher nicht daran, und zwar aus einem einfachen Grund: Erhaltungssätze vertragen sich nicht mit exponentiellem Wachstum. Man kann zwar bei nicht erhaltenen Größen wie Geld (oder Entropie) die Menge unbegrenzt vermehren3 , für Objekte der äußeren Welt gilt das aber nicht. Daher ist es in einem Wirtschaftsraum gut möglich, dass die Geldmenge eine Zeit lang exponentiell wächst, die Realwirtschaft jedoch nicht. Wenn jedes Kapital mit Zinsen ausgeliehen wird, so bedeutet das, dass man einen dauerhaften Kapitalertrag erwartet. Also muss entweder in der realen Welt ein exponentielles Wachstum an Vermögenswerten stattfinden, oder die Zinsen werden aufgefressen, weil der Tauschwert einer Geldeinheit in reale Güter sinkt (Inflation). Das Vertrauen auf fortdauerndes exponentielles Wachstum ist ein klassischer Glaube der Ökonomie. Der bekannte Wirtschaftswissenschaftler Kenneth Ewart Boulding (1910–1993) bemerkte dazu: Jeder, der glaubt, exponentielles Wachstum kann in einer endlichen Welt andauernd weitergehen, ist entweder ein Verrückter oder ein Ökonom.
3
Zentralbanken können neues Bargeld erzeugen, aber auch vernichten. Geschäftsbanken erzeugen bei der Kreditvergabe neues Buchgeld. Die Menge an Buchgeld kann im Prinzip unbeschränkt wachsen.
15.1 Bevölkerungswachstum
363
Obwohl also technischer Fortschritt zu enormen Steigerungen der realen Gütermengen bei gleichem Einsatz von Mitteln führen kann, fehlt ihm doch das wesentliche Element, um eine Lösung der Malthusschen Bevölkerungsfalle zu sein. Bevor es weitergeht, möchte ich aber noch die andere Position der Kritik an Malthus erwähnen, der ich mich vollständig anschließen kann. Aus seinen Untersuchungen zog Malthus nämlich sehr fragwürdige ethische Schlüsse. Er fand, dass die unteren Klassen ohnehin überflüssig sind, wenn es mehr von ihnen gibt, als man für die Arbeit braucht. Und natürlich ist dieses Pack selbst Schuld, wenn es sich so vermehrt, dass es sich nicht mehr ernähren kann. Daher war es für ihn eine prima Idee, die Sterblichkeitsrate dieser Leute deutlich anzuheben: Wenn wir also konsequent handeln wollen, sollten wir die Vorgänge in der Natur, die diese Sterblichkeit hervorbringen, erleichtern, anstatt uns töricht und vergeblich zu bemühen, sie zu behindern; und wenn wir die allzu häufige Heimsuchung durch die schreckliche Form der Hungersnot fürchten, sollten wir eifrig die anderen Formen der Zerstörung fördern, zu denen wir die Natur zwingen. Anstatt den Armen Sauberkeit zu empfehlen, sollten wir die gegenteiligen Gewohnheiten fördern. In unseren Städten sollten wir die Straßen enger machen, mehr Menschen in die Häuser drängen und der Rückkehr der Pest den Hof machen. Auf dem Lande sollten wir unsere Dörfer in der Nähe von Tümpeln errichten und besonders die Ansiedlung in allen sumpfigen und ungesunden Gegenden fördern. Vor allem aber sollten wir spezifische Heilmittel für verheerende Krankheiten loswerden, zusammen mit jenen wohlwollenden, aber sehr irrenden Menschen, die glauben, der Menschheit einen Dienst zu erweisen, indem sie Pläne zur vollständigen Ausrottung bestimmter Krankheiten entwerfen. An Essay on the Principle of Population, 1826 Book IV, Chapter V.
Auf die Idee, man könnte stattdessen die Geburtenrate senken, kam er auch. Allerdings war er da bedeutend pingeliger in der Wahl der Mittel. Späte Heirat und Enthaltsamkeit waren ok, aber Verhütung oder gar Abtreibung kam überhaupt nicht infrage aus Sicht des Pfarrers Malthus. Denn er war Pfarrer, bevor er der erste Professor für politische Ökonomie wurde. Malthus Ideen setzten sich im England des 19. Jahrhunderts durch, und zwar sowohl die wissenschaftlichen, als auch die politischen. Charles Darwin (1809–1882) schreibt in seinem Buch Über die Entstehung der Arten, das die Evolutionstheorie begründete: Im nächsten Kapitel wird der Existenzkampf aller organischen Wesen auf der ganzen Welt behandelt, der sich zwangsläufig aus ihrer hohen geometrischen Vermehrungsfähigkeit ergibt. Dies ist die Lehre von Malthus, angewandt auf das gesamte Tier- und Pflanzenreich.
So fragwürdig, um nicht zu sagen, total empathielos die ethischen Auffassungen von Malthus sind, der mathematische Kern seines Arguments bleibt für uns Menschen bisher leider richtig. Ganz ohne Zweifel kann es nicht so weitergehen wie der Langzeittrend. Tut es auch nicht, sagen Optimisten beruhigend. Wenn man die Wachstumsraten der neueren Zeit genauer analysiert, so stellt man fest, dass sie abnehmen. Das Wachstum wird langsamer. Könnte es nicht doch einen natürlichen Mechanismus geben, der das Wachstum begrenzt? Doch, den könnte es schon geben. Bevor wir uns dieser Frage zuwenden, gibt es allerdings noch einen ganz anderen Dämpfer für diesen Optimismus. Der Ressourcenverbrauch steigt nämlich nicht im Gleichschritt mit der Bevölkerungszahl. Vielmehr „entwickeln“ sich immer größere
364
15 Biologische Kettenreaktionen
Teile der Bevölkerung, das heißt, sie leben nicht mehr am Existenzminimum oder darunter, sondern können sich immer mehr Wünsche erfüllen: satt werden, in einer ordentlichen Wohnung leben, ein Auto fahren, Urlaub machen u.s.w. Mit anderen Worten: der Ressourcenverbrauch pro Mensch steigt eben auch, weil die Erwartungen der Menschen an ihren Lebensstandard steigen. Die Erwartungen sind aber kein Element der äußeren Welt, sie können daher unbegrenzt wachsen. Vielleicht braucht jedes Individuum eine Villa in Bel Air, eine Yacht, ein Landgut in Montana und eine Zweitvilla am Comer See, natürlich in ruhiger Lage? Ich kenne keine Untersuchungen über die materiellen Erwartungen der Weltbevölkerung, aber schon die realisierten Steigerungen des Lebensstandards sind gigantisch. Zur Demonstration: das durchschnittliche monatliche Einkommen in China stieg von etwas über 80 US$ zu Anfang der 2000er Jahre auf ungefähr 1400 US$ im letzten Jahr. Das ist mehr als ein Faktor 15! Auf globaler Skala sind die Steigerungen ebenfalls noch riesig. Das Bruttoinlandsprodukt (BIP:Gesamtwert aller Waren und Dienstleistungen innerhalb der Grenzen eines Landes) der ganzen Welt (alle BIPs zusammengezählt) stieg von 1900 bis 2000 um das 17.5-Fache und bis 2015 um das 30-Fache. Die Bevölkerung wuchs in dem Zeitraum von 1.7 auf 6.1 Mrd. im Jahr 2000 (8 Mrd. im Jahr 2023), das ist ungefähr das 3.6 (4.7) Fache. Für Ökonomen klingt das gut, denn ihnen sagt es, dass das Bruttoinlandsprodukt pro Kopf gestiegen ist und zwar um das 31/5.7 = 5.4-Fache. Tatsächlich hat das Einkommen selbst der Ärmsten beträchtlich zugenommen. Keine Frage: Das Lebensniveau, gemessen in Einkommen, konsumierten Gütern und Dienstleistungen ist gestiegen. Die Kehrseite dabei ist der ebenfalls gestiegene Ressourcenverbrauch.
15.2 Der ökologische Traum Malthus war nicht der Einzige, der sich mit den Fragen der Bevölkerungsentwicklung beschäftigte. Die oben erwähnte, optimistische Theorie des Bevölkerungswachstums kam rein theologisch daher. Sie wollte zeigen, dass Gott es doch gut mit den Menschen meint. Vorher – im 17. Jahrhundert und davor – war die allgemeine christliche Meinung, dass der Sündenfall eben zu einer Welt geführt hat, in der Gott durch gelegentliche Hungersnöte und Katastrophen immer mal den moralischen Zeigefinger erheben und die sündige Menschheit dezimieren muss. Demgegenüber wollte man im 18. Jahrhundert beweisen, dass demografische Prozesse das wohlwollende Wirken Gottes in der Welt demonstrieren. Ein herausragender Vertreter dieser Denkrichtung war der preußische Geistliche und Statistiker Johann Peter Süßmilch (1707–1767). Vom Standpunkt der Physik aus betrachtet arbeitete er wissenschaftlich gründlicher als Malthus, denn er bemühte sich um empirische Daten und deren mathematische Auswertung (seine statistischen Zusammenstellungen wurden sogar teilweise von Malthus übernommen). Sein 1741 in Berlin erschienenes Werk mit dem Titel Die göttliche Ordnung in den Veränderungen des menschlichen Geschlechts aus der Geburt, dem Tode und der Fortpflanzung desselben erwiesen war eine der ersten wissenschaftlichen und sys-
15.2 Der ökologische Traum
365
tematischen Werke über Bevölkerungsstatistik überhaupt. Auch wenn der Titel eher ein theologisches Traktat vermuten lässt, – das Werk führt praktisch alle modernen wissenschaftlichen Kenngrößen der Demografie ein: die Geburtenrate, die durchschnittliche Lebenserwartung, die Altersverteilung, die Sterberate und die unterschiedlichen Todesursachen (geschlechtsspezifisch), die Gesamteinwohnerzahl, die Ab- und Einwanderung, den Geburtenüberschuss und das Bevölkerungswachstum. Süßmilch untersuchte die unterschiedliche demografische Entwicklung in städtischen und ländlichen Räumen in Deutschland und Europa, und er benutzte umfangreiche bevölkerungsstatistische Daten, die er mit mathematischen Methoden auswertete. Aus seinen Modellen leitet er auch ab, dass die Erde nur eine maximale Bevölkerung tragen kann. Er gibt sogar eine Schätzung für diese maximale Zahl von Menschen an, nämlich (in der 2. Auflage) 14 Mrd., und diese Schätzung ist ziemlich genau das, was auch moderne demografische und ökologische Prognosen liefern. Er argumentiert, dass sich die Bevölkerung dieser Zahl annähern wird, aber – ganz anders als Malthus – geht er davon aus, dass Gott das mittels sinkender Fruchtbarkeit und unterschiedlicher Lebensdauer, also nicht durch Katastrophen und Unglücksfälle, regeln werde. Den dann eintretenden Zustand eines stationären Gleichgewichts beschreibt er harmonisch und stabil, ohne immer wiederkehrende Hungersnöte. Die Harmonie war natürlich theologisches Wunschdenken. Malthus stellte dem sein eigenes, pessimistisches Modell entgegen. Aber könnte es nicht Mechanismen geben, die eine Abnahme der Nettovermehrungsrate ohne direktes göttliches Eingreifen regeln? Werfen wir dazu noch einmal einen Blick auf die Petrischale einer Bakterienkultur. Nach der Phase des exponentiellen Wachstums gibt es eine Weile lang eine konstante Bakterienbevölkerung. Die Nettovermehrungsrate ist also Null. Woher kommt das? Der belgische Mathematiker Pierre-François Verhulst (1804–1849) veröffentlichte 1838 seine Notiz über das Gesetz des Bevölkerungswachstums, in dem er ein einfaches und plausibles Modell vorschlug, das nach dem exponentiellen Wachstum zu einer zeitunabhängigen Bevölkerungszahl führt. Sein Argument ist einfach: je mehr Individuen sich die Ressourcen teilen, desto schwieriger wird es für sie, sich erfolgreich zu reproduzieren. Ob die Sterberate zunimmt oder die Geburtenrate abnimmt (oder beides) spielt dabei keine Rolle. Eigentlich hört sich das doch sehr nach Malthus an, und er schreibt auch: Bekanntlich hat der berühmte Malthus den Grundsatz aufgestellt, dass die menschliche Bevölkerung dazu neigt, in geometrischer Progression zu wachsen, sodass sie sich nach einer bestimmten Zeit verdoppelt, zum Beispiel alle fünfundzwanzig Jahre. Diese Behauptung ist unbestritten, wenn man von der zunehmenden Schwierigkeit, Nahrung zu finden, absieht.
Wichtig ist der letzte Satz. Wie soll man diese recht plausible Annahme in ein mathematisches Modell gießen? Es ist einfacher, als Sie vielleicht denken. Das exponentielle Wachstum wird durch die Nettovermehrungsrate r kontrolliert (und die ist die Differenz zwischen Geburts- und Todesrate r = g+ − g− ). Die Gleichung für die Änderung der Individuenzahl N kennen Sie schon: N (t) = r N (t)t (s. Abschn. 3.9). Statt mit der Individuenzahl N , die sich immer nur um ganze Zahlen ändern kann, wollen wir mit der Bevölkerungsdichte, also der Individuenzahl pro
366
15 Biologische Kettenreaktionen
Fläche (A) rechnen, n = N /A. n ändert sich nur in winzigen Schritten und wir wollen für kleine Zeitschritte diese Dichte als ganz stetig annehmen, um ein DGL-Modell aufzustellen. Malthus dachte sich nun, dass beim Eintreten einer Hungerkatastrophe die Rate r stark negativ wird und die Bevölkerung schnell schrumpft. Katastrophen, die uns „von außen“ treffen, wie Überschwemmungen, Vulkanausbrüche, Erbeben u.s.w. haben diese Eigenschaft. Einige sind sogar so schnell, dass man sie einfach durch eine Verkleinerung von N (t) in einem einzigen Zeitschritt modelliert. Verhulst dachte jedoch an andere Mechanismen. Wenn nämlich eine wachsende Zahl von Individuen die gleichen Ressourcen benutzt, so werden sie schließlich um die knappen Ressourcen konkurrieren müssen und dieser Konkurrenzprozess vermindert die Rate r . Mit anderen Worten: Die Rate r wird kleiner, wenn die Zahl der Individuen größer wird. Das ist Verhulsts Mechanismus. Er machte eine einfache Annahme darüber, wie r mit wachsendem n abnimmt. Aufgrund dieser Annahme modellierte er das Bevölkerungswachstum mit einer DGL, die so aussieht n dn = r (n)n = r 1 − n. dt K Die Konstanten r und K müssen aus dem Experiment bestimmt werden. Diese spezielle Form ist natürlich geraten und man muss experimentell überprüfen, ob es für sie einen Anwendungsbereich gibt. Ich hätte Ihnen diese Formel nicht zugemutet, wenn dem nicht so wäre. Der Anwendungsbereich ist sogar riesig. Sehr viele verschiedene biologische Wachstumsprozesse folgen den Gesetzen, die sich aus dieser Form ergeben. Solange n kleiner ist als die Konstante K , ist die Rate r positiv, d. h. die Bevölkerung wächst exponentiell, und wenn n größer wird als K , dann schrumpft die Bevölkerung exponentiell. Das bedeutet, – was? Erstaunlicherweise pendelt sich die Bevölkerung stets bei n = K ein. Wenn man mit wenigen Individuen beginnt, so wächst n zunächst exponentiell, aber bei n = K ist Schluss mit dem Wachstum. Sollte die Bevölkerung (durch irgendeinen Zufall) mal größer werden als K , so schrumpft sie wieder bis sie K erneut erreicht. Man nennt K die (ökologische) Kapazität einer Umgebung. Verhulst gab seinem Modell (bzw. der Kurve n(t), die aus seinem Modell folgt) den Namen logistique, und unter dem Namen „logistisches Wachstum“ ist es heute noch bekannt. Die Wortwahl wird von Verhulst in seiner Arbeit leider nicht genauer erklärt. Im wissenschaftlichen Französisch des 19. Jahrhunderts wird das Wort für praktisch angewandte Rechenkunst – im Gegensatz zur theoretischen und exakten Arithmetik – verwendet. Vielleicht wollte er andeuten, dass seine Kurve eine empirische Hilfestellung zur Berechnung von Bevölkerungszahlen ist. Nun zum ökologischen Traum. Der Lebensraum kann auch die ganze Erde sein, und man könnte das Modell auf Menschen anwenden. Damit realisiert das Verhulst Modell das göttliche Wohlwollen, das Süßmilch annahm. Die Bevölkerung regelt sich per Naturgesetz ganz soft und ohne Katastrophen. Wenn wir den Überlegungen von Süßmilch Vertrauen schenken, dann ist K für die Menschheit auf der Erde ungefähr 14 Mrd.. Verhulst wandte sein Modell nur auf die Bevölkerung einzelner Länder wie Belgien und Frankreich an und versuchte aus Bevölkerungsdaten zu verschiedenen
15.3 Wie man sich ganz einfach ökologisch ruiniert
367
Zeiten den Wert K abzuschätzen. Erstaunlicherweise4 geriet die Verhulst-Gleichung für eine Weile in Vergessenheit. Sie wurde nach dem 1. Weltkrieg wiederentdeckt von den Biostatistikern Raymond Pearle (1879–1940) und Lowell Reed (186–1977), die später bemerkten, dass ihre Wachstumsgleichung, mit der sie die Entwicklung der Bevölkerung der USA vorhersagen wollten, schon lange bekannt war. Sie übernahmen Verhulsts Bezeichnung „logistisches Wachstum“ und machten sie populär. Die Modelle von Euler (exponentielles Wachstum) und Verhulst sind Grundmodelle für die Änderungen der Individuenzahl einer Bevölkerung. Sie eröffnen ein großes Forschungsfeld, das Populationsdynamik genannt wird. Ihr wissenschaftlicher Status ist aber verschieden. Während das exponentielle Wachstum als Naturgesetz bezeichnet werden kann, denn es braucht nicht mehr als eine Kettenreaktion, ist das Modell von Verhulst im Anwendungsbereich viel beschränkter. Nicht alle Bevölkerungen folgen diesem Gesetz, und vor allem nicht für lange Zeiten. Es kann viel passieren, was die Kapazität und die Wachstumsraten beeinflusst und sie zeitabhängig macht. Es gibt aber – wie unschwer zu erkennen – einige universelle Aspekte, die unabhängig von der speziellen Form der N-Abhängigkeit der Nettovermehrungsrate gelten.
15.3 Wie man sich ganz einfach ökologisch ruiniert Die Idee eines ökologischen Gleichgewichtspunkts, an dem die Menschen für alle Zeiten in Eintracht mit der Natur leben, ist natürlich ein schöner Traum. Im Rahmen des logistischen Wachstums beruht dieser Traum darauf, dass die beiden Parameter, Reproduktionsrate r und Kapazität K unverändert bleiben. Das ist aber für unsere Population nicht der Fall. Einerseits haben wir die Nettovermehrungsrate im Laufe der Zeit vergrößert, indem wir die Sterberate verkleinert haben, und andererseits sägen wir fleißig an unseren biologischen Ressourcen. Um Ihnen die Leistungsfähigkeit des einfachen logistischen Modells näherzubringen, möchte ich eine kleine, wissenschaftliche Überlegung zur quantitativen Abschätzung des Einflusses unseres Ressourcenverbrauchs auf die Bevölkerungsentwicklung vorstellen, die ich der Arbeit von Maurao Bologna und J.C. Flores, betitelt Deforestation and world population sustainability: a quantitative analysis aus der Zeitschrift Scientific Reports (Bd. 10, 7631) aus dem Jahr 2020 entnommen habe. Die Arbeit betrachtet zunächst mal unsere Ressourcen mit naturwissenschaftlichen Augen. Da zählt kein Geld, kein Öl und keine Diamanten. Alles, auf das wir unsere Existenz gründen können, sind nachwachsende Ressourcen, denn alle anderen sind nutzlos oder irgendwann weg. Dieses Konzept ist mittlerweile in der Öffentlichkeit bekannt geworden unter dem Namen ökologischer Fussabdruck. Der zählt die bioproduktive Fläche, die eine Person (oder ein Staat oder die ganze Welt) braucht, um so zu leben, wie sie lebt.
4
Wenn man bedenkt, was für ein öffentliches Getöse die Arbeit von Malthus hervorgerufen hatte.
368
15 Biologische Kettenreaktionen
Zur Vereinfachung betrachtet man nur eine einzige Ressource, nämlich den Wald5 . Die Menge dieser Ressource ist die Waldfläche R(t). Die beträgt zur Zeit weniger als R0 = 4 · 107 km2 und könnte etwa Rc = 6 · 107 km2 sein. Das ist die Kapazität unserer Ressource. Der Wald R wächst logistisch (mit einer Kapazität Rc und einer Rate g R = 0.001 pro Jahr, die man aus der Erholung von Waldflächen nach Abholzung, Brand oder Sturmschlag schätzt ), aber zusätzlich verliert er dauernd durch Abholzung. Das sieht dann als DGL so aus R dR − an R. = gR 1 − dt Rc Der Term −an beschreibt die Abholzung als Vergrößerung der Sterberate (um an). Die nimmt mit wachsender Population n zu, denn die nachwachsende Ressource wird von allen Menschen gebraucht. Die Abholzungsrate a (pro Kopf der Bevölkerung) wird durch Daten aus dem Zeitraum 2000–2012 abgeschätzt zu a ∼ 10−12 pro Jahr. Damit sind die Parameter dieser DGL bestimmt. Auch die Bevölkerung wächst logistisch. Der entscheidende Punkt des Modells ist jedoch, dass die Kapazität von der Ressource abhängt. Je weniger nachwachsende Ressource, desto weniger Menschen können auf der Erde überleben. Genau wie beim logistischen Wachstum raten die Autoren eine plausible Abhängigkeit der Kapazität von der Ressource R, nämlich K = b R. Die Konstante b kann man aus der aktuellen Wachstumsrate der Bevölkerung bestimmen. Die Autoren finden b ∼ 700 · · · 900. Die Wachstums-Gleichung für die Bevölkerung sieht also so aus: n dn =r 1− n dt bR Die Rate r wird aus Schätzungen der Nettoreproduktionsrate zu möglichst frühen Zeiten (d. h. mit so geringer Bevölkerungszahl, dass der begrenzende Verhulst Term noch vernachlässigbar ist) gewonnen zu r ∼ 0.01 Alle Parameter dieses Modells sind plausibel quantitativ geschätzt. Jetzt können wir die gekoppelten DGLn lösen, mit einem Rechenschema wie im Abschn. 7.5. Die Anfangswerte sind Bevölkerungszahl und Waldfläche im Jahr 2000 (N0 = 6 · 109 und R0 = 4 · 107 ). Diese Lösung ist in der Abb. 15.2 für den Zeitraum bis 2500 dargestellt. Was sind nun die Botschaften dieser Rechnung? Zunächst sieht man, dass die Waldfläche immer weiter abgeholzt wird und die Bevölkerung weiter wächst. Das ist „business as usual“. Bis 2100 scheint ja alles gutzugehen. Nach 2100 aber ändert sich das Bild grundlegend. Die Bevölkerung nimmt ab, und zwar innerhalb von 100 Jahren (das ist zurzeit schon fast nur noch eine Generation) von fast 10 Mrd. auf 6 Mrd.. Diese Abnahme geschieht nur aufgrund der Ressourcenknappheit. Das bedeutet, dass während dieser Zeit mit großen Verteilungskämpfen zu rechnen ist. Gemütlich ist es auf so einer Erde nicht mehr. Sie sehen außerdem, dass der Wald 5
Sie können aber, wenn Sie mehr Daten haben, beliebige nachwachsende Ressourcen hinzufügen.
15.3 Wie man sich ganz einfach ökologisch ruiniert
369
Abb. 15.2 Eine ökologische Katastrophe. links: Die Entwicklung der Bevölkerung, rechts: Die Entwicklung des Waldes
weiter abnimmt, obwohl die Bevölkerung schrumpft. Hier hat man einen Kipppunkt überschritten, die Katastrophe des Zusammenbruchs der Bevölkerung ist nicht mehr aufzuhalten. Die Zeitskala, um unseren Umgang mit der nachwachsenden Ressource zu ändern, ist das vielleicht wichtigste Ergebnis, denn diese Zeitskala ist plausibel geschätzt. Wir haben nicht mehr Jahrtausende oder Jahrhunderte Zeit. Die Zeit für Gegenmaßnahmen ist auf Jahrzehnte geschrumpft. Natürlich ist das Modell sehr stark vereinfacht. Die üblichen Kritiken kommen da wieder mit den üblichen Argumenten („Das Modell ist lächerlich einfach. Da fehlt noch dies und das, was wir tun können“). Diese Kritik gibt es, seit es solche vereinfachten „Weltmodelle“ gibt. Das erste, das mit Computern erarbeitet wurde, war das Buch „Die Grenzen des Wachstums“ (Limits to Growth), das 1972 erschien, und das sofort von den Experte (vor allem Ökonomen) zerrissen wurde. In einer Besprechung von Peter Passell, Marc Roberts und Leonard Ross in der New York Times am 2. April 1972 wurde das Buch zum Beispiel so beurteilt: The Limits to Growth ist unserer Ansicht nach ein leeres und irreführendes Werk. Hinter seiner imposanten Computertechnologie und etlichem Systemjargon verbirgt sich eine Art intellektueller Rube-Goldberg-Apparat6 , der willkürliche Annahmen aufgreift, sie durcheinanderschüttelt und zu willkürlichen Schlussfolgerungen kommt, die den Anschein von Wissenschaftlichkeit erwecken. „Limits“ gibt einen Grad an Gewissheit vor, der so übertrieben ist, dass die wenigen bescheidenen (und unoriginellen) Einsichten, die es tatsächlich enthält, verdeckt werden. Weniger als Pseudowissenschaft und kaum mehr als polemische Fiktion lässt sich „Limits to Growth“ am besten nicht als Wiederentdeckung der Naturgesetze, sondern als Wiederentdeckung der ältesten Maxime der Computerwissenschaft zusammenfassen: Garbage In, Garbage Out7 .
6
Der US-amerikanischen Cartoonist Reuben L. Goldberg zeichnete Nonsense-Maschinen, die eine einfache Aufgabe absichtlich in unzähligen, unnötigen und komplizierten Einzelschritten ausführt. 7 Müll in der Eingabe erzeugt Müll in der Ausgabe, eine in den Anfangsjahren der Computer sehr populäre Redewendung, die ihre Gültigkeit ebenso behalten hat wie andere Grundgesetze der Softwareentwicklung, etwa „Alles wird besser, nichts wird gut“.
370
15 Biologische Kettenreaktionen
Eine zentrale Voraussage des Buches war, dass wir ab 2030 herum in ernstere Schwierigkeiten kommen, wenn wir so weitermachen wie bisher. Nun – urteilen Sie selbst.
Kapitel 16
Das Klima und wie man es vermurkst
Im Abschn. 5.4 habe ich Ihnen gezeigt, wie die Informationen über den menschlichen Einfluss auf das Erdklima für entscheidende Jahrzehnte erfolgreich weggeleugnet wurden. Nun wollen wir einen kleinen Blick auf die Physik des Klimas werfen, die sich von social media Kunststücken nicht bluffen lässt. Das Thema ist eigentlich viel zu groß für dieses Buch, und es wurde mittlerweile in so vielen Podcasts, Blogs und anderen Büchern ausführlich behandelt, dass ich hier nur einen einzigen Aspekt herausgreifen will, um Ihnen zu illustrieren, dass einfache Erklärungen für komplexe Zusammenhänge zwar gut sind, aber auch zu neuen Klimamythen führen können. Zunächst wollen wir klären, was das eigentlich ist, – Klima . Hier ist die offizielle Definition des IPCC. Klima im engeren Sinne ist normalerweise definiert als das durchschnittliche Wetter, oder genauer als die statistische Beschreibung in Form von Durchschnitt und Variabilität relevanter Größen über eine Zeitspanne im Bereich von Monaten bis zu Tausenden oder Millionen von Jahren. Der klassische Zeitraum zur Mittelung dieser Variablen sind 30 Jahre, wie von der Weltorganisation für Meteorologie definiert. Die relevanten Größen sind zumeist Oberflächenvariablen wie Temperatur, Niederschlag und Wind. Klima im weiteren Sinne ist der Zustand, einschließlich einer statistischen Beschreibung, des Klimasystems
Damit lässt sich in der Physik arbeiten. Nun ist die nächste Frage: „Was treibt denn all diese Wetterprozesse an?“. Um Temperaturen zu ändern, Luft und Wasser (in Meeresströmungen) zu bewegen, Wasser verdunsten zu lassen, kurz, für all diese Wetterprozesse muss Energie umgewandelt werden. Also tut sich hier eine wunderbare Anwendung der Energiebuchhaltung auf. Genau so betrachtet die Physik das Wetter und das Klima: als ein Netzwerk von Prozessen, die Energie umwandeln und transportieren. Diese Buchhaltung wollen wir jetzt ein wenig betreiben, im Großen wie im Kleinen.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0_16
371
372
16 Das Klima und wie man es vermurkst
16.1 Globale Erwärmung, global gesehen Die Erde bewegt sich ständig in einem Strom von kosmischer Energie. Nein, das ist nicht der Beginn einer esoterischen Abhandlung. Es handelt sich um eine physikalische Aussage. Die einströmende Energie kommt von der Sonne in Form von Strahlung. Die ausströmende Energie verlässt die Erde ebenfalls in Form von Strahlung. Das liegt daran, dass Energietransport im leeren Raum nur über Strahlung abläuft, die anderen beiden Mechanismen (Konvektion und Leitung) funktionieren da nicht. Wenn wir also wissen wollen, ob sich die Erde erwärmt, wobei Erwärmung aus Energiezunahme folgt, dann müssen wir nur Zufluss und Abfluss der Energie der gesamten Erde bilanzieren. Die Klimamaschine besteht aus nichts anderem als dem Transport und der Umwandlung von der eingestrahlten Sonnenenergie. Das Eingangstor ist die Atmosphäre, dort finden viele, wichtige Prozesse statt. Auf der Erdoberfläche unterscheidet man grob vier weitere Teilsysteme: die Hydrosphäre (Ozeane, Seen, Flüsse), die Lithosphäre (steiniger Untergrund, Wüste), die Biosphäre (grün bewachsen) und die Kryosphäre (Eis). Wir werden uns hier auf die Atmosphäre konzentrieren, schon das ist mehr als genug. Beginnen wir mit dem Input. Die Sonne schickt uns ein Spektrum elektromagnetischer Strahlung, die über einen Wellenlängenbereich von 10 cm (Mikrowellen) bis ca. 200 nm (das ist die sehr schädliche UV-C Strahlung) dem Spektrum eines heißen Körpers mit einer Temperatur von ungefähr 5900◦ ähnlich sieht (siehe Abb. 16.1). Diese Strahlung trifft auf die Atmosphäre, deren Moleküle einen Teil der Energie absorbieren. Jedes Molekül hat (genau wie jedes Atom, siehe Abschn. 11.4) quantenmechanische stationäre Zustände mit festen Energien, und es kann daher nur Energiequanten schlucken, die zwischen diese Energien passen. Daher hat das Spektrum der ausgesandten Strahlung dieselbe charakteristische Form wie das der absorbierten Strahlung . Die möglichen Energien liegen bei Molekülen so dicht beieinander, dass man statt scharfer Linien ganze Bereiche (Banden) von absorbierter Strahlung sieht. Das Sonnenspektrum hat daher auf der Erde an den Stellen Löcher, an denen Moleküle der Luft Strahlung schlucken können. Können wir nun die gesamte Sonnenenergie messen, die die Erde pro Zeit und pro Quadratmeter erreicht (das nennt man total solar irradiance, abgekürzt TSI)? Wohlgemerkt, die muss man messen, bevor sie in die Atmosphäre der Erde kommt, denn dort wird sie ja schon teilweise geschluckt. Es ist also ein Unternehmen für Satelliten. Solche Messungen werden seit 1978 in diversen Missionen fortlaufend durchgeführt. Ein paar will ich Ihnen nennen. Von 1980–2014 arbeiteten beispielsweise verschiedene Versionen des Instruments ACRIM (Active Cavity Radiometer Irradiance Monitor), um die totale Sonneneinstrahlung im All zu messen. Diese Messungen wurden bis 2020 von dem Solar Radiation and Climate Experiment (SORCE) weitergeführt und ab 2017 gibt es auch in der internationalen Raumstation ISS ein Instrument das Total and Spectral Solar Irradiance Sensor (TSIS. 1) heißt. Seit 1995 ist das Gemeinschaftsprojekt der ESA und NASA Solar and Heliospheric Observa-
16.1 Globale Erwärmung, global gesehen
373
Abb. 16.1 Sonnenspektrum, d. h. die eingestrahlte Leistung pro m2 , verteilt über die Wellenlängen. Am Erdboden sind schon größere Löcher in diesem Spektrum. Die zugehörige Strahlung wurde von Luftmolekülen geschluckt und in Wärme verwandelt. (Eigene Deutsche Übersetzung. Zuerst hochgeladen von Degreen bei German Wikipedia.Verbessert von Baba66 (opt Perhelion) auf Nachfrage; En. translation Locust, © CC BY-SA 2.0 DE, via Wikimedia Commons)
tory (SOHO) ein Flaggschiff der internationalen Sonnenforschung und liefert präzise Daten über Strahlung und Aktivität der Sonne. Seit 1997 gibt es sogar ein Satellitenprojekt, das fortlaufend die Bilanz von eingestrahlter Energie und ausgestrahlter Energie der Erde misst, genannt Clouds and the Earth’s Radiant Energy System (CERES), auf dessen Ergebnisse wir noch eingehen werden. Wie misst man eigentlich Strahlungsenergie? Das Prinzip ist einfach. Man stellt senkrecht zur Strahlungsrichtung eine total schwarze Fläche (sagen wir 1 m2 ) auf. Total schwarz bedeutet, dass das gesamte elektromagnetische Spektrum so gut wie möglich geschluckt wird (und nicht nur der sichtbare Teil !). Die absorbierte Strahlung erwärmt die Fläche und jetzt kann man einfach eine Kalorimetrie (s. Abschn. 8.3) durchführen. Wenn man die Leistung pro m2 gemessen hat, kann man mit der Fläche multiplizieren, auf die die Sonnenstrahlung fällt. Das ist eine kreisförmige Scheibe mit dem Radius der Erde (mal abgesehen von kleinen Abweichungen der Erde von der Kugelgestalt). Dieser Kreis hat genau 1/4 der Fläche der Erdkugel (FE = 510.100.000 km2 ). Meistens gibt man die TSI als Strahlungsleistung pro Fläche in W/m2 an, die muss man FE /4 multiplizieren, um die gesamte eingestrahlte Leistung zu erhalten.
374
16 Das Klima und wie man es vermurkst
Die TSI ist nicht konstant. Da die Erde auf einer elliptischen Bahn um die Sonne läuft, gibt es jahreszeitliche Schwankungen von ca. ±3.3 % um den Mittelwert. Die Aktivität der Sonne ist auch nicht konstant. Es gibt zum Beispiel einen ungefähr 11 jährigen Zyklus, der zu Schwankungen von ca. 0.1 % führt. Auf ganz langen Zeitskalen von 100 Mio. Jahren spielt auch die Alterung der Sonne eine Rolle. Die Daten enthalten natürlich zusätzlich – wie jede Messung – eine Menge statistischer Messfehler, die man durch Mittelung unterdrücken kann. Um die systematischen, jahreszeitlichen Schwankungen auszugleichen, kann man die Strahlungsleistung pro m2 umrechnen auf die Leistung, die auf eine Kugel mit einem Standardradius (1 Astronomischen Einheit (AE), d. i. die mittlere Entfernung der Erde von der Sonne und die beträgt 149.597.870 km.) Die Umrechnung ist einfach. Die gesamte Leistung W S der Sonne strömt durch jede Kugel, die die Sonne einschließt. Die Leistung pro Fläche auf einer Kugel mit Radius r nennen wir mal J (r ). Da die Oberfläche F(r ) einer Kugel mit Radius r gerade F(r ) = 4πr 2 ist, muss W S = J (r )A(r ) sein. Je größer die Fläche, desto kleiner wird also J (r ). Nimmt der Radius um einen Faktor 2 zu, so nimmt J (r ) um einen Faktor 4 ab. Nach dieser Korrektur kommt man schließlich von den gemessenen Rohdaten zur sogenannten Solarkonstanten d. i. die Energie der Sonnenstrahlung pro Quadratmeter und Sekunde (in W/m2 ) bei senkrechter Einstrahlung im Abstand von 1 AE von der Sonne, ohne den Einfluss der Atmosphäre, gemittelt über mehrere Jahre. Ihr Wert ist S0 = 1361 W/m2 .
Natürlich ist die Solarkonstante keine Naturkonstante wie die Elementarladung, aber sie ist für uns auf der Erde enorm wichtig1 . Die gesamte, im Mittel auf die Erde gestrahlte Leistung ist die Solarkonstante multipliziert mit FE /4 das ergibt, ≈ 1.74 · 1017 W. Solarkonstante und Weltenergiebedarf Wie viel von dieser Energie bräuchten wir, um den Bedarf der Menschen zu decken? Dazu vergleichen wir die eingestrahlte Leistung einmal mit dem Energiebedarf der Weltbevölkerung im Jahr 2021. Da betrug der Primärenergiebedarf ca. 6 · 1020 J (oder W · s). Weil ein Jahr ungefähr 3.15 · 107 s hat, beträgt die durchschnittliche Leistung, die wir 2021 verbraten haben, 6 · 1020 /3.15 · 107 ≈ 1.9 · 1013 W. Wenn wir die Sonnenstrahlung als Energiequelle im Weltall anzapfen könnten, dann liefert sie uns also das Zehntausendfache von der von uns benötigten Leistung frei Haus vor die Tür der Erde. Mit unseren gegenwärtigen Technologien nutzen wir aber nur den Bruchteil, der durch die Erdatmosphäre zu uns auf den Boden fällt. Das ist schon weniger. Von 1
Mit Verbesserungen der Messtechnik ändert sich auch mal der Zahlenwert. Bis 2015 hatte man sich noch auf 1367 W/m2 geeinigt. Die Solarkonstante ist also ein bewegliches Ziel.
16.1 Globale Erwärmung, global gesehen
375
den 1367 W/m 2 schluckt die Erdatmosphäre einen großen Teil und es bleiben ca. 165 W/m2 (gemittelt über die ganze Erde. Es gibt da je nach Breitengrad erhebliche Unterschiede.) Damit ist es „nur“ noch das 1000-fache unseres Energiebedarfs, das uns zur Verfügung steht. Bei der Umwandlung von Sonnenenergie in nutzbare Formen der Energie entstehen (mit unseren gegenwärtigen Technologien) erhebliche Verluste. Aber etwa 10 % schaffen wir allemal. Das bedeutet, dass wir zur Deckung des Weltenergiebedarfs aus Sonnenenergie (und nichts sonst) ∼1 % der Fläche der Erde brauchen. Die können auf dem Land oder auf dem Meer liegen. Wenn wir global zusammenarbeiten und Energietransporte in Kauf nehmen würden, könnten wir auch mit weniger auskommen. In sonnenreichen Gegenden (Wüsten!) erreichen locker ∼300 W/m2 den Erdboden, der Flächenbedarf würde also nur noch die Hälfte sein. Das klingt doch nach einem lösbaren technologischen Problem. Aus der Solarkonstanten erhalten wir auch ganz einfach einen Wert für die gesamte, von der Sonne fortlaufend abgestrahlte Leistung, die ist nämlich W S = 1361 · F(r = 1 AE). Die Fläche der Kugel mit dem Radius 1 AE ≈ 1.5 · 1011 m kann man per Taschenrechner berechnen und daraus erhält man W S ≈ 3.84 · 1026 W. Diese Zahl ist für die entfernte Zukunft der Menschen (falls es die geben sollte) von großer Bedeutung. Es ist nämlich die gesamte Energie, die wir in unserem Teil des Universums ergattern können. Man nennt sie auch Dyson Grenze, denn es war Freeman Dyson, der darauf hinwies, dass eine hoch entwickelte Zivilisation maximal diese Energie benutzen kann (bevor sie zu interstellaren Reisen in der Lage ist, falls das jemals klappen sollte). Die Sonne nimmt beim Strahlen ab Da die Sonne dauernd Energie abstrahlt, muss ihre Masse nach der Einsteinschen Formel E = mc2 abnehmen. Mit anderen Worten: Die Sonne wird leichter, weil sie scheint. Um wie viel? Ganz einfach, um m = E/c2 . Pro Sekunde sind das m = 3.84 · 1026 /(3 · 108 )2 g oder (3.84/9) · 1010 kg oder 4 · 106 t. Schluck! Wollen uns diese Physike hier etwa weismachen, die Sonne würde in jeder Sekunde um 4 Mio. t leichter, weil sie scheint? Haben Sie überhaupt eine Vorstellung, wie viel das ist? Ein Güterwagen für Schüttgüter (Kohle, Erz, Sand) hat eine Tragfähigkeit von ungefähr 60 t. Dann sind 4 Mio. t ungefähr 666667 Güterwagen. Jeder ist ungefähr 15 m lang, also ist der Zug 1 Mio. m oder Tausend Kilometer lang. Stehen wir vor einer Katastrophe? Verschwindet die Sonne? Ich kann Sie beruhigen. Die Masse der Sonne beträgt ungefähr 2 · 1027 t. Der Massenverlust der Sonne pro Jahr beträgt M = 4 · 106 · 3.15 · 107 t, denn 1 Jahr hat gerade 3.15 · 107 s. Das hört sich zwar viel an, aber als Bruchteil der Sonnenmasse ist es nur M/M ≈ 6.3 · 10−14 . In 100 Mrd. Jahren sind das 6.3 Promille der Sonnenmasse. Sie sehen mal wieder, dass man furchtlos mit sehr großen und auch mit sehr kleinen Zahlen hantieren muss, um zu physikalischen Aussagen zu kommen. Nun zurück zur globalen Erwärmung. Für die Bilanz muss man auch die von der Erde in den Weltraum abgestrahlte Energie messen. Kein Problem. Dazu lässt man den Satelliten auf die Erde schauen. Die CERES Mission tastet die ganze Erdoberfläche bei ihren Erdumkreisungen ab und kann viele, interessante Dinge sehen. Das von der Erde in den Weltraum geschickte Spektrum ist in der Abb. 16.2 zu sehen.
376
16 Das Klima und wie man es vermurkst
Abb. 16.2 Das Spektrum der Abstrahlung der Erde liegt im Infraroten. Die Löcher im Spektrum wurden von Spurengasen absorbiert. Das ist der Ursprung des sogenannten Treibhauseffekts. (Datenquelle: NASA)
Wenn Sie dieses Spektrum mit dem der Einstrahlung vergleichen, dann fallen sofort zwei Dinge auf: Erstens sind die Leistungen viel kleiner, und zweitens sind die Wellenlängen größer. 1000 nm sind gerade 1 µm, sodass das Sonnenspektrum bei 2.25 µm aufhört, während das Spektrum der „Erdstrahlen“ erst bei 5 µm anfängt und sich bis 30 µm erstreckt. In diesem Bereich liegen Infrarotstrahlen, die wir als Wärme spüren. Aber auch an diesem Spektrum nagt die Absorption der Moleküle. Ohne diese gäbe es ungefähr die als ideale Strahlung eingezeichnete Kurve. Wie Sie sehen, schluckt Kohlendioxid, Wasser und Ozon Einiges von dieser Strahlung. Es gibt aber auch einen Bereich (so ungefähr von 8–13 µm) wo (mit Ausnahme des Ozons) nichts die Strahlung am Verlassen unseres Planeten hindert. Aus dem Spektrum kann man nun durch Summieren (Integrieren) über alle Wellenlängen die gesamte ins Weltall abgestrahlte Leistung ermitteln. Die bisherigen CERES Daten zu dieser Bilanz seit 2005 sehen Sie in der Abb. 16.3 Keine Frage, es kommt mehr Energie rein- als rausgeht, und dieses Ungleichgewicht ist im Laufe der Jahre sogar größer geworden. Mittlerweile stehen wir bei ungefähr 1 W/m2 . Die Abb. 16.3 zeigt noch eine zweite Kurve, die das Ungleichgewicht auf ganz andere Weise gemessen hat, nämlich durch ein Netz von Messstationen in den Ozeanen. Die Übereinstimmung ist erstaunlich gut und zeigt die Zuverlässigkeit der Methoden. Egal, ob aus dem Weltall oder auf dem Meer, die Schlussfolgerung ist quantitativ die gleiche: Unser Planet wird aufgeheizt. Beachten Sie für Diskussionen mit Klimawandelleugen, dass dieses Bild kein Modell und keine Computersimulation ist. Es sind gemessene Daten. Das Ungleichgewicht klingt allerdings zunächst nicht viel, es ist ein Promille der zur Zeit eingestrahlten Leistung. Multiplizieren wir 1 W/m2 mal mit dem Erdkreis π R 2E ≈ 127.5 · 1012 m2 . Das ergibt 127.5 · 1012 W oder 127.5 TW. Vergessen Sie nicht, dass diese Energie fortlaufend zuströmt, d. h. die Erde wird immer heißer!
16.1 Globale Erwärmung, global gesehen
377
Abb. 16.3 Die Differenz zwischen eingestrahlter und abgestrahlter Energie der Erde, gemessen von Satelliten (TOA bedeutet top of atmosphere) und auf der Oberfläche der Erde. (Loeb, Norman G.; Johnson, Gregory C.; Thorsen, Tyler J.; Lyman, John M.; Rose, Fred G.; and Kato, Seiji, © CC BY 4.0, via Wikimedia Commons)
Über den 10 Jahres Zeitraum hat ihr Energieinhalt um 127.5 · 1012 · 10 · 3.15 · 107 ≈ 4 · 1022 J zugenommen. Jetzt versuchen Sie mal selbst, sich diese Zahl durch Vergleiche zu veranschaulichen.
16.2 Die Klimamaschine der Atmosphäre auf großen Skalen Um zu verstehen, wie man ein Klima durcheinander bringt, muss man zunächst mal verstehen, wie die Klimamaschine im großen Bilanz-Gleichgewicht funktioniert, d. h. dann, wenn genauso viel Energie eingestrahlt wie abgestrahlt wird. Es ist eine sehr komplizierte Maschine, die durch ein Zusammenspiel von Transport- und Umwandlungsprozessen auf sehr großen und sehr kleinen Skalen die Sonneneinstrahlung in Wetterereignisse verwandelt. Betrachten wir die größten Skalen, die astronomischen. Für unser Klima ist es wichtig, dass die Erdachse gegenüber einer Ebene geneigt ist, in der die Erde ihre Bahn um die Sonne zieht (auch Ekliptikebene genannt) (in der Abb. 16.4 ist das die Ebene durch den Mittelpunkt der Erde, die parallel zu den Sonnenstrahlen liegt). Beginnen wir aber mal mit einem Modellplaneten, dessen Drehachse genau senkrecht
378
16 Das Klima und wie man es vermurkst
Abb. 16.4 Die Entstehung der Jahreszeiten durch die Neigung der Erdachse an zwei verschiedene punkten der Erdbahn um die Sonne Abb. 16.5 Die Einstrahlung pro Fläche auf der Erde hängt vom Breitengrad ab. (Oblique rays0 4 Pengo.svg: Pengoderivative work: Cepheiden, CC BY SA 2.5, via Wikimedia Commons)
auf der Ekliptikebene steht (siehe Abb. 16.5). Auf einem solchen Planeten stünde die Sonne über dem Äquator an jedem Tag des Jahres einmal senkrecht am Himmel (im Zenit). Die TSI ist ungleichmäßig über die Breitengrade des Planeten verteilt, denn weg vom Äquator fallen die Sonnenstrahlen schräg ein, weil die Sonne eben nicht im Zenit steht . Dadurch wird die Energie, die am Äquator auf 1 m2 fällt, auf eine größere Fläche verteilt. Es wird also in höheren Breiten weniger Energie pro Fläche eingestrahlt als am Äquator, und zwar sowohl auf der Süd- wie auf der Nordhalbkugel. Die Energie pro Fläche bei schrägem Einfallswinkel α kann man ganz einfach mit Elementarmathematik berechnen und erhält: J (α) = J (0) sin(α). Wenn also am Äquator 1361 W/m2 einfallen, dann sind es auf 50◦ nördlicher Breite (Deutschland) nur noch 1042.6 W/m2 . Auf einem solchen Planeten gäbe es keine jahreszeitlichen Schwankungen des Klimas. Unsere Erde hat aber eine Drehachse, die gegen die Erdbahnebene um 23.5◦ geneigt ist. Daher steht die Sonne im Laufe eines Jahres über jedem Breitengrad zwischen 23.5◦ nördlicher Breite und 23.5◦ südlicher Bre-
16.2 Die Klimamaschine der Atmosphäre auf großen Skalen
379
ite (dieser Bereich heißt die Tropen) zweimal im Jahr im Zenit2 Die Breitengrade heißen Wendekreise3 . Natürlich steht die Sonne nicht einen ganzen Tag im Zenit, sie beschreibt am Himmel zwischen Auf- und Untergang einen Bogen, den Tagesbogen. Wenn die Sonne in den nördlichen Tropen im Zenit steht, erhält die Nordhalbkugel mehr Sonneneinstrahlung als die Südhalbkugel. Dann ist Nord-Frühling (SüdHerbst). Genau zur Sonnenwende (21. Juni) ist dieser Unterschied maximal, ab dann nimmt er wieder ab. Das ist der Nord-Sommer (Süd-Winter). Die Unterschiede an Sonneneinstrahlung pro m2 zwischen Sommer und Winter sind groß. Meine Heimatstadt liegt auf 51.5◦ nördlicher Breite. Der Einfallswinkel der Sonne schwankt daher zwischen 51.5◦ + 23.5◦ = 75◦ im Sommer und 51.5◦ − 23.5◦ = 28◦ im Winter, d. h. die Sonneneinstrahlung ist im Sommer 1361 · sin(75◦ ) = 1315 W/m2 und im Winter 1361 · sin(28◦ ) = 640 W/m2 . Das weniger als die Hälfte der Sommereinstrahlung. Aber egal ob Sommer, ob Winter, es kommt immer mehr Energie in den Tropen an als in den Polarregionen. Auch die Abstrahlung hängt von den Breitengraden ab. CERES kann die Bilanz „Eingestrahlte Leistung minus Abgestrahlte Leistung“ räumlich aufgelöst messen. Dabei stellt sich heraus, dass die Tropen immer mehr Energie ansammeln und die Polarregionen immer mehr Energie verlieren. Warum wird es dann an den Polen nicht immer kälter und in den Tropen immer heißer? Weil es einen Energietransport von den Tropen zu den Polen gibt. Der funktioniert über Luftbewegungen und Meeresströmungen, die sich die Aufgabe ca. hälftig teilen. So fließen beständig 5 Petawatt (5 · 1015 W) vom Äquator zu den Polen. Man nennt das auch meridionalen Energietransport, weil die Energie entlang der Längengrade (Meridiane) transportiert wird. Die Richtung des Transports wird durch den 2. Hauptsatz bestimmt, von den heißeren Tropen zu den kälteren Polen. Es gibt aber nicht nur eine Energieverteilung in der Atmosphäre über die Breitengrade, sondern auch in die Höhe, und diese vertikale Verteilung ist ziemlich kompliziert und in mehrere Stockwerke mit jeweils charakteristischen Eigenschaften aufgeteilt (siehe Abb. 16.6). Für unser Klima sind die beiden unteren Stockwerke am wichtigsten. Sie heißen Troposphäre (am Äquator bis 8 km an den Polen bis 17 km Höhe) und Stratosphäre (bis ca. 50 km Höhe). In der Troposphäre nimmt die Temperatur mit zunehmender Höhe ab, von einer Durchschnittstemperatur von ungefähr 15 ◦ C auf ungefähr −50 ◦ C. Aber in der Stratosphäre wird es dann mit zunehmender Höhe wieder wärmer, bis man am oberen Rand bei über 0 ◦ C angelangt ist. Woher kommt diese merkwürdige Verteilung? Die Zunahme der Temperatur in der Stratosphäre rührt von der Absorption der Sonneneinstrahlung durch eine besondere Form des Sauerstoffs her, dem Ozon (O3 ) . Ozon ist ein ziemlich instabiles Molekül, es bildet sich und zerfällt in einem dauernden Wechselspiel mit dem Sauerstoffmolekül O2 . Es spaltet unter Absorption eines Photons von (langwelligerem) UV Licht ein Sauerstoffatom ab, das gleich Anschluss Bei genau 23.5◦ fallen die beiden Daten zusammen und die Sonne steht nur einmal im Jahr im Zenit. Dieser Tag heißt Sonnenwende. 3 Sie sollten sich ruhig mal Zeit nehmen, um sich diese Sachverhalte klarzumachen. Das mag Menschen mit geringem dreidimensionalem Vorstellungsvermögen (wie zum Beispiel mir) etwas schwerer fallen. 2
380
16 Das Klima und wie man es vermurkst
Abb. 16.6 Temperatur- und Druckprofil in der Erdatmosphäre. Die Einheit des Drucks ist Hektopascal = 100 Pa, wobei 1 Pa= 1 N/m2 ist. (Datenquelle: Deutscher Wetterdienst)
an ein O2 Molekül findet, sodass die Ozonmenge gleich bleibt. Durch kurzwelliges UV Licht wird das O2 Molekül gespalten und die Sauerstoffatome binden sich an andere O2 Moleküle und erzeugen Ozon. Schließlich zerfällt Ozon auch, indem es mit einem weiteren O Atom zwei Moleküle O2 bildet. All diese Reaktionen laufen parallel ab und führen zu einem Kreislauf, der dauernd UV Photonen absorbiert, aber die Ozonkonzentration unverändert lässt (genannt Chapman Zyklus). Der (für uns) schöne Effekt dabei ist, dass die schädlichen, kurzwelligen U V − B und U V − C Anteile der Sonnenstrahlung absorbiert werden, bevor sie in zu großer Menge die Erdoberfläche erreichen. Das wäre für alles Leben auf der Erde äußerst ungesund. Die Produktion von Ozon durch Sonnenlicht ist am effizientesten in ungefähr 25 km Höhe in den Tropen. Das produzierte Ozon wird dann aber in die Polarregionen transportiert, wo es sich anreichert (oder eben nicht mehr so, dann haben wir ein Ozonloch). Für das Klima wirkt die Stratosphäre dank des Ozons wie ein warmer Deckel. Wärmere Luft liegt über kälterer Luft. Wenn Sie bei den Wetterberichten immer genau aufpassen, so stoßen Sie manchmal auf die Ansage einer sogenannten Inversionswetterlage. Die funktioniert genau so, nur viel kleinräumiger. Der Warmluftdeckel erschwert den Luftaustausch zwischen Troposphäre und Stratosphäre, sodass aufsteigende Luft am Eingang der Stratosphäre (in einer Zwischenschicht genannt Tropopause) hängen bleibt.
16.2 Die Klimamaschine der Atmosphäre auf großen Skalen
381
Abb. 16.7 Konvektionszellen: Das aufsteigende warme Fluid (Gas oder Flüssigkeit) kühlt sich oben ab und sinkt wieder herunter. Dabei bilden sich sehr schöne, regelmäßige Fluss-Muster
Die Troposphäre lässt das kurzwellige Sonnenlicht weitgehend unbehelligt passieren. Daher erwärmt die Strahlung zunächst die Erdoberfläche und die heizt die Troposphäre von unten. Nun gibt es natürlich wieder Ausgleichsprozesse. Energie strömt von der wärmeren, bodennahen Luft zur kalten Höhenluft. Dabei entsteht ein sehr interessantes Strömungsmuster, das Sie auch zu Hause in einem Kochtopf mit Wasser studieren können, dem Sie etwas gemahlenen Kaffee beigeben (damit Sie das Strömungsmuster erkennen können). Wenn der Temperaturunterschied zwischen dem beheizten Boden und der Oberfläche klein ist, passiert gar nichts, die Wärme wird per Wärmeleitung von unten nach oben transportiert, das Wasser bleibt in Ruhe. Ab einem gewissen Temperaturunterschied beginnt das Wasser zu strömen. Es steigt auf, strömt an der Oberfläche entlang, wobei es sich abkühlt, und sinkt dann wieder ab. Es bildet sich ein ziemlich regelmäßiges Muster von sogenannten Konvektionszellen aus (s. Abb. 16.7). Diese spontane Musterbildung findet sich in der Natur auf allen möglichen Skalen, vom Kochtopf bis zu Zellen auf Roten Riesensternen von 120 Mio. km Durchmesser. Genau dieser Mechanismus führt in der Troposphäre zu großräumigen Konvektionszellen, deren Form dadurch beschränkt wird, dass die genau auf die Erdkugel passen müssen. Das erinnert an de Broglies Argument über Materiewellen, die auch genau um ein Atom herum passen müssen. Auf der Nordhalbkugel (und symmetrisch dazu auf der Südhalbkugel) gibt es zwischen Äquator und Pol 3 Zellen, die jeweils ca. 30 Breitengrade einnehmen (s. Abb. 16.8), und die Hadley Zelle (nach George Hadley (1685–1768) englischer Rechtsanwalt und Freizeitphysiker), Ferrel Zelle (William Ferrel, 1817– 1891, US-amerikanischer Meteorologe) und Polare Zelle heißen. Die Region, in der zwei Zellen aufeinanderstoßen heißen Fronten. Am Äquatorrand der Hadley Zelle steigt die erwärmte Luft auf. Dann strömt sie auf der Nordhalbkugel nach Norden4 . Sie kühlt sich beim Aufsteigen ab und strömt schließlich am Tropopausendeckel entlang, bis sie so kalt geworden ist, dass sie wieder absinkt. Bei diesen Breiten stößt sie mit der Strömung der Ferrel Zelle zusammen und bildet eine Front. Am Boden angekommen, strömt sie nach Süden zurück. Durch die Erddrehung verlaufen die Luftströme allerdings nicht genau in Nord-Süd Richtung, sie werden abgelenkt. Strömt die Luft nach Norden, werden sie 4
Auf der Südhalbkugel nach Süden.
382
16 Das Klima und wie man es vermurkst
nach Osten abgelenkt, strömt sie Luft nach Süden werden sie nach Westen abgelenkt. Der Wind der Hadley Zelle weht also am Boden (auf der Nordhalbkugel) aus Nordosten, und in der Höhe aus Südwesten. Der Bodenwind ist der sogenannte Nordostpassat 5 . Bei der Ferrel Zelle strömt die bodennahe Luft nach Norden und die Höhenluft nach Süden. Diesen Wind erleben wir in den gemäßigten Breiten als warme Südwestwinde aus den Subtropen. Die stößt bei uns mit der nach Südwesten fließenden Luft der Polarzelle zusammen und bildet die sogenannte Polarfront, die ganz wesentlich für unser abwechslungsreiches Wetter verantwortlich ist. Die Höhenströmungen der Zellen bilden beim Zusammentreffen an der Front starke Höhenwinde (Jetstreams) aus. Der westwärts gerichtete polare Jetstream ist für unsere großräumigen Wetterlagen essenziell. Mit den großräumigen Strömungen ist auch eine Verteilung von Tief- und Hochdruckgebieten verknüpft. In ein Tiefdruckgebiet strömt Luft herein. Dort steigt sie auf. Beim Hoch ist es umgekehrt. Luft strömt heraus, die aus der Höhe herabsinkt. Damit ist die Front zwischen Ferrel und Hadley Zelle ein Gebiet hohen Luftdrucks und die Polarfront ein Gebiet tiefen Luftdrucks. Diese grobe Skizze der atmosphärischen Klimamaschine ist natürlich längst nicht vollständig. Es bleiben viele Fragen: Wie werden die Winde in Bodennähe durch die Landschaftsform beeinflusst? Wie entstehen eigentlich Wolken und wann regnet
Abb. 16.8 Die Haupt-Konvektionszellen der Erde. (File:Earth Global Circulation – en.svg: Kaidorderivative work: MikeRun, © CC BY-SA 3.0, via Wikimedia Commons)
5
Winde werden immer nach der Richtung benannt, aus der sie kommen. Die nach Südwest strömende Luft ist also ein Nordostwind.
16.2 Die Klimamaschine der Atmosphäre auf großen Skalen
383
es? Diese Fragen sind entscheidend dafür, wie wir Klimaänderungen empfinden. Wird es zu heiß? Wird es zu trocken? Gibt es Wirbelstürme, gibt es sintflutartige Regenfälle? Aber auch wenn die Naturwissenschaften ein paar Antworten darauf geben können, so sind wir noch weit davon entfernt, alle Konsequenzen eines global geänderten Klimas auf die lokalen Wetterereignisse vorhersagen zu können (wie es von der Klimamystik gern gefordert wird). Versuche dazu werden im Rahmen wissenschaftlicher Projekte durchgeführt, man sollte nur nicht jede Aussage eines Projekts mit wissenschaftlich gesicherten Erkenntnissen verwechseln. Es fehlt oft die Prüfung der Puzzlesteine, sowohl durch Experimente als auch durch Einpassen in gesicherte Theorien.
16.3 Die Klimamaschine der Atmosphäre auf kleinen Skalen Soweit die Atmosphäre auf großen Skalen. Jetzt schauen wir auf die Prozesse auf mikroskopischen Skalen, die die Sonneneinstrahlung verändern. Sobald sie in die Atmosphäre eintritt, stößt die Strahlung auf Moleküle. Die können die Photonen beeinflussen, und das sieht man makroskopisch an zwei Phänomenen: Strahlung kann beim Durchgang durch die Atmosphäre (eigentlich durch jede Materie) absorbiert oder gestreut werden. Mikroskopisch beginnen alle Prozesse gleich. Es wird zunächst ein Photon absorbiert, das dabei ein Molekül in einen quantenmechanischen Zustand mit entsprechend höherer Energie versetzt. Nach einer Absorption werden Photonen wieder ausgesandt. Die können die gleiche Frequenz (sprich Energie) wie das absorbierte Photon haben (dann nennt man das elastische Streuung) . Sie können aber auch kleinere Frequenzen haben (inelastische Streuung). Außerdem haben sie im Allgemeinen andere Richtungen als das absorbierte Photon. Der Richtungswechsel führt dazu, dass gerichtete Strahlung zerstreut, also in der Bewegungsrichtung abgeschwächt wird. Der Transport von Strahlung durch Materie wird mithilfe dieser Mechanismen modelliert und in mathematische Form gegossen (Theorie des Strahlungstransports). Zum genauen Verständnis der Vorgänge in der Atmosphäre kommt man um diese Theorie nicht herum, aber meistens versucht man, die komplizierten Prozesse zu vereinfachen. Dabei sollte man nicht zu einfach werden, denn sonst kommen wieder die Klimamystiker. Die Absorption bei kurzen Wellenlängen (kleiner als 500 nm) (Photonen hoher Energie), also im sichtbaren und UV Bereich, ist dominiert durch Übergänge zwischen Elektronenzuständen in einem Atom, oder durch das Aufspalten von chemischen Bindungen, während es im Infraroten Schwingungen (und Drehungen) des Moleküls sind, die Strahlung schlucken. Man kann sich ein einfaches, klassisches Bild von diesem Vorgang bei größeren Wellenlängen machen, das die quantenmechanischen Details ganz gut wiedergibt: Das zeitabhängige elektrische Feld der Lichtwelle zerrt an den Ladungen im Molekül (Protonen und Elektronen), die so in Schwingungen versetzt werden. Wenn sie sich dadurch relativ zueinander beschleunigt bewegen,
384
16 Das Klima und wie man es vermurkst
so das führt das zur Ausstrahlung wie in einer Antenne. Die Ladungsverteilung in manchen Molekülen ist aber so symmetrisch, dass die Schwingungen nicht mit einer Bewegung von Ladungen gegeneinander verbunden sind. Ein solches Molekül kann im Infrarotbereich nicht absorbieren. Wichtige Beispiele sind die häufigsten Moleküle in unserer Luft, Stickstoff (N2 ) und Sauerstoff (O2 ). Die Energie kann aus dem elektromagnetischen Feld immer nur portionsweise, als Quanten, entnommen werden. Jedes Molekül hat sein eigenes, charakteristisches Spektrum von Photonen, die es absorbieren kann. Nach der Absorption kann das schwingende Molekül seine Energie auf zwei Arten weitergeben: Es kann Photonen aussenden oder es kann mit anderen Molekülen zusammenstoßen und einen Teil seiner Schwingungsenergie auf den Stoßpartner übertragen. Dabei kann Schwingungsenergie in Bewegungsenergie verwandelt werden. So verteilt sich eingestrahlte Energie in Bewegungsenergie aller Moleküle, also wird die Atmosphäre aufgeheizt (s. Abschn. 12.5). Etwa 20 % der Sonnenenergie wird so von der Erde aufgenommen. Betrachten wir die elastische Streuung etwas genauer. Als Ergebnis dieser Streuung wird ein Photon, das von der Sonne zur Erde fliegt, mit Wahrscheinlichkeit P erdwärts gestreut und mit einer Wahrscheinlichkeit (1 − P) himmelwärts6 . Die Effizienz dieser Streuung ist von der Frequenz der Photonen abhängig. Je höher die Frequenz, desto größer die Wahrscheinlichkeit, dass das Photon elastisch gestreut wird, sagt die Quantenmechanik. Aber den Effekt versteht man auch schon mit der klassischen Elektrodynamik. Je schneller Ladungen schwingen, desto mehr Leistung strahlen sie ab, das berechnete bereits der Nachfolger von James Clark Maxwell, John William Strutt, 3. Baron Rayleigh (1842–1919), nach dem dieses Phänomen Rayleigh Streuung heisst . Ein hochfrequent schwingendes Wellenfeld gibt also mehr Energie (in der Quantenmechanik die Stückzahl der Photonen) an das Molekül zur Streuung ab als ein niederfrequentes, und zwar nimmt die gestreute Leistung proportional zur 4. Potenz der Frequenz zu. Blaue Photonen mit einer Wellenlänge von 400 nm werden im Verhältnis zu roten Photonen mit 700 nm gerade (7/4)4 9.4 ∼ 10 mal häufiger gestreut. Das hat großen Einfluss auf unseren Eindruck vom Himmel. Wären wir auf dem Mond (ohne Atmosphäre), so würden wir eine gleißende Sonne vor einem nachtschwarzen Himmel sehen. Der taghelle, blaue Himmel, den wir alle gewohnt sind, kommt daher, dass der Blauanteil des Lichts (hohe Frequenz) stärker in alle Richtungen gestreut wird als der Rotanteil. Wir sehen daher vorwiegend blaues Licht, das aus allen Richtungen am Himmel zu kommen scheint. Wenn der Weg der Photonen durch die Atmosphäre sehr lang wird – d. h. wenn die Sonne sehr tief steht – so wird so viel mehr Blauanteil zerstreut, dass die Sonne rot wirkt. Auf jeden Fall schwächt die elastische Streuung die einfallende Strahlung ab, weil ein Teil wieder ins All geschickt wird. Vom Licht im Maximum des Sonnenspektrums (grün bei 550 nm) werden bei senkrechtem Einfall 10 % zurückgestreut (bei flachem Einfall 40 %), während vom Blau 440 nm 20 % (75 % bei flachem Einfall) wieder ins All verschwinden. Die elastische Streuung an Molekülen ist nicht der einzige Prozess, der einfallendes Sonnenlicht wieder ins All reflektiert. Zerstreuung durch Reflexion tritt auch an 6
Die Wahrscheinlichkeit kann man ausrechnen.
16.3 Die Klimamaschine der Atmosphäre auf kleinen Skalen
385
Oberflächen auf, wie wir bereits wissen. Daher wird Licht von größeren Teilchen in der Luft (Wassertröpfchen in Wolken, Staubkörner, e.t.c.) und von der Erdoberfläche selbst reflektiert. Die Zerstreuung einfallender Strahlung an kleinen Teilchen und Tröpfchen nennt man auch Mie Streuung, diese Streuintensität wächst nur schwach (ungefähr linear) mit der Frequenz. Viele kleine Tröpfchen zerstreuen das Licht in alle Richtungen, verändern aber die spektrale Zusammensetzung kaum. Daher erscheinen uns Wolken weiß. Übrigens kann gestreutes oder reflektiertes Licht auch mehrmals gestreut oder reflektiert werden, was die Modellierung dieser Prozesse in der Atmosphäre nicht gerade einfach macht. Der Gesamteffekt ist aber klar: Ein Teil der einfallenden Sonnenstrahlung wird umstandslos ins All zurückgeschickt, ohne dass er Wirkungen entfalten könnte. Dieses Rückstrahlvermögen bezeichnet man als Albedo. Ein Zahlenwert der Albedo von 0.3 bedeutet, dass 30 % der einfallenden Strahlung zurückgeschickt werden. Die Albedo verschiedener Bereiche der Atmosphäre und der Erdoberfläche kann sehr verschieden sein. Frisch gefallener Schnee z. B. reflektiert fast 100 % der einfallenden Strahlung. Deshalb erscheint er ja auch so strahlend weiß. Wolken reflektieren ca. 30–60 % der einfallenden Strahlung und tragen ganz erheblich zur gesamten Albedo der Erde bei. Allerdings ist dieser Beitrag sehr kompliziert zu bestimmen, denn er hängt von der Wolkenform und der darunter befindlichen Erdoberfläche ab. Wolken haben neben dem Rückstrahleffekt noch andere Effekte, die großen Einfluss auf unser Klima haben und die noch nicht sehr genau verstanden sind. Wenn man die Albedo über die ganze Erde und längere Zeiträume mittelt, so bekommt man ungefähr den Wert 0.3, wovon 0.13 auf das Konto der Erdoberfläche gehen und der Rest von der Atmosphäre zurückgestrahlt wird (durch Rayleigh und Mie Streuung). Für grobe Schätzungen kann man damit rechnen. Ok, wenn die Strahlung also auf der Erde irgendetwas bewirken soll, so muss sie absorbiert werden. Das geschieht in inelastischen Streuprozessen oder Absorptionsprozessen. Die unterscheiden sich nur dadurch, dass bei inelastischer Streuung ein Teil der eingestrahlten Energie als Photon wieder abgestrahlt wird, während bei der totalen Absorption alle Energie geschluckt wird. Die zusätzliche Energie eines Moleküls wird durch Stoßprozesse mit anderen Molekülen weiter verteilt und führt letztlich zur Zunahme der Bewegungsenergie, also der Temperatur, in dem gesamten System. Das gilt für jede Wechselwirkung von Strahlung mit Materie, aber die Einzelprozesse sind materialabhängig, und werden immer noch erforscht. Um die Rolle der Atmosphäre für den Energietransport besser zu verstehen, wird es jetzt Zeit, einen genaueren Blick auf ihre Zusammensetzung zu werfen. Woraus besteht die Atmosphäre? Aus Luft. Was ist das? Ein Gasgemisch. Die Zusammensetzung dieses Gemisches ist ein bewegliches Ziel, denn sie ändert sich fortlaufend, nicht zuletzt durch unser Eingreifen. Man gibt die Zusammensetzung meist ohne Wasser (in Tröpfchenform oder als Gas) an, also für trockene Luft. Insgesamt sind im Durchschnitt etwa 0.4 % des Volumens unserer Atmosphäre Wasser, das sich aber dauernd zwischen den Aggregatzuständen flüssig und gasförmig verändert. Die maximale Konzentration von Wasserdampf, die Luft aufnehmen kann, bevor das Wasser zu Wassertröpfchen kondensiert, hängt stark von der Temperatur und dem Druck ab. Daher betrachtet man es separat und gibt es als relative Luftfeuchtigkeit an. 50 %
386
16 Das Klima und wie man es vermurkst
relative Luftfeuchtigkeit bedeutet, dass die Luft aktuell die Hälfte vom maximalen Gehalt an Wasserdampf enthält. Warme Luft kann mehr Wasser enthalten als kalte (bei gleichem Druck). Wenn Sie also nach dem Duschen die Heizung herunterdrehen, dann kondensiert Wasser aus und es wird in Ihrem Bad feucht. Neben den Hauptbestandteilen trockener Luft, nämlich Sauerstoffmolekülen O2 (ungefähr 78 % Volumenanteil) und Stickstoffmolekülen N2 (ungefähr 21 %), finden sich dort noch eine Menge anderer Gase, am häufigsten das Edelgas Argon Ar (0.9 %). Diese drei Gase machen zusammen 99 % des Luftvolumens aus. Entsprechend klein sind die Konzentrationen anderer Gase, die man deshalb auch als Spurengase bezeichnet. Das berüchtigte Kohlendioxid CO2 nimmt einen Volumenanteil von 0.041 %, (Tendenz zunehmend) ein. Besonders wichtig für das Klima ist Wasserdampf (Wasserdampf ist kein so zutreffender Name, weil man sich meist unter Dampf Wasserwolken vorstellt. Die bestehen aber aus kleinen Wassertröpfchen. Gemeint ist das absolut unsichtbare, gasförmige H2 O). Noch kleiner sind die Anteile von Methan CH4 mit 1.85 · 10−6 (für 10−6 schreibt man auch ppm, nämlich parts per million), und von Lachgas N2 O mit 328 · 10−9 . Einige Spurengase haben eine für das Klima wichtige Eigenschaft, die Stickstoff- und Sauerstoffmoleküle nicht haben: Sie absorbieren Photonen der Wärmestrahlung. Diese wichtige Eigenschaft haben auch Wassermoleküle, aber die Hauptbestandteile der Luft (N2 , O2 ) können das nicht, wie wir oben schon erklärt haben. Der Effekt der Absorption von Wärmestrahlung durch CO2 und durch Wasserdampf wurde übrigens von einer fast in Vergessenheit geratenen Forscherin entdeckt. Es war die US-amerikanische Erfinderin, Naturwissenschaftlerin und Frauenrechtlerin Eunice Newton Foote7 (1819–1888). Sie untersuchte die Erwärmung von Gasen in verschlossenen Glaszylindern und entdeckte dabei, dass CO2 -gefüllte Zylinder sich besonders stark erwärmen. Sie erkannte die Bedeutung für das Erdklima und schrieb in ihrer Veröffentlichung Circumstances affecting the heat of the Sun’s rays im American Journal of Science and Arts im Jahr 1856: (2ndSeries, v. XXII/no. LXVI, S. 382–383.) Eine Atmosphäre dieses Gases [CO2 ] würde unserer Erde eine hohe Temperatur verleihen; und wenn sich, wie manche annehmen, die Luft in einem bestimmten Zeitraum ihrer Geschichte zu einem größeren Anteil als bisher mit ihr vermischt hätte, [...] hätte dies zwangsläufig zu einer erhöhten Temperatur geführt.
Damit war sie die erste Wissenschaftlerin, die die Auswirkungen der CO2 Konzentration auf das Klima klar benannt hat. Da aber nach der damals weitverbreiteten Ansicht Frauen nicht in der Lage sind, bedeutende Beiträge zu Wissenschaften zu machen, wurde ihre Arbeit nicht weiter zur Kenntnis genommen. Drei Jahre später entdeckte der irische Forscher John Tyndall (1820–1893) denselben Effekt und untersuchte ihn wesentlich genauer als das der Amateurforscherin möglich war, denn er hatte ein professionell ausgestattetes Labor.
7
Ihr Vater hieß tatsächlich Isaac Newton.
16.4 Die Temperatur der Erde
387
16.4 Die Temperatur der Erde Können wir denn nun mit unseren Erkenntnissen über groß- und kleinskalige Klimaprozesse etwas anfangen? Eine Größe, die die Diskussion über Klimawandel von Anfang an beherrscht hat, ist die mittlere Temperatur der Erdoberfläche. Das wichtigste Ziel, auf das sich die globale Politik einigen konnte, ist das „1.5 Grad Ziel“. Auf der 21. UN-Klimakonferenz (COP21) im Dezember 2015 verabschiedeten 195 Nationen das Übereinkommen von Paris. Es beinhaltet, dass man versuchen soll, den Anstieg der globalen Durchschnittstemperatur auf 1,5 ◦ C zu begrenzen, gerechnet vom Beginn der Industrialisierung bis zum Jahr 2100. Als vorindustriell wird dabei der Mittelwert der Jahre 1850 bis 1900 verwendet. Kann man das überhaupt messen? So eine globale Durchschnittstemperatur beinhaltet ja zwei ganz schön komplizierte Mittelwerte, den räumlichen Mittelwert und den zeitlichen. Kompliziert sind die Mittelwerte aus vielen Gründen. Man kann zwar an jedem Punkt und zu jeder Zeit die Temperatur sehr genau messen, aber die Messwerte zwischen zwei Messungen beinhalten statistische und systematische Abweichungen und Fehler. Wenn ein Thermometer in Bremen steht und ein anderes auf der Zugspitze, so wundert sich niemand, dass die Temperatur auf der Zugspitze niedriger ist. Alle hundert Höhenmeter sinkt die Temperatur um ungefähr 0.6 K (siehe Troposphäre). Man muss also unbedingt die geografischen Faktoren herausrechnen. Wie viele Messstationen brauchen wir, um ein verlässliches Temperaturprofil über die ganze Erdoberfläche zu erhalten? Wenn ich in meinem Garten messe, erhalte ich andere Werte als in den Einkaufsstraßen der Innenstadt. Es gibt bei Weitem nicht genug Messstationen, um ein zuverlässiges Temperaturprofil der ganzen Erdoberfläche zu erstellen. Selbst bei Windstille unterscheiden sich zwei gleiche Thermometer, die 1 m auseinander stehen, oft um 0.1◦ . Was für Orte gilt, gilt auch für Zeiten. Nachts ist es kälter als tagsüber, im Dezember ist es kälter als im Juni, also muss man die täglichen und die jahreszeitlichen Schwankungen herausrechnen. Wenn man ein warmes Jahr erwischt, kann es überall bei uns wärmer sein als in einem kalten Jahr. Wie lang sollen wir also die Temperatur-Zeitreihen mitteln? Und schließlich gibt es kein einheitlich kalibriertes Verfahren für alle Temperaturmessungen, weder räumlich noch zeitlich. Da gibt es Wetterstationen an Land, Bojen im Meer, Satellitendaten und viele andere Datenquellen, alle mit verschiedener Qualität. Die Genauigkeit der Messungen nimmt im Allgemeinen im Laufe der Jahre zu, sollen wir daher die älteren Daten weglassen? Oder geringer gewichten? Sie sehen, eine mittlere Globaltemperatur gibt es eigentlich gar nicht. Zumindest keine, die man ganz präzise angeben kann. Man kann sich damit zufriedengeben, dass diese Temperatur in unserer Gegenwart so ungefähr 15 ◦ C beträgt8 . Trotzdem geben viele Publikationen über den Klimawandel viel genauere Werte an. Misstrauen Sie denen, selbst wenn sie von renommierten Instituten stammen9 . Was meinen die damit? Dazu kommen wir jetzt. Manche bevorzugen 14.5◦ , aber es ist eh wurscht, wie wir gleich sehen werden. Die Wetterbehörde der USA, die National Oceanic and Atmospheric Administration (NOAA) verbreitete 2017 die Nachricht: Die durchschnittliche globale Temperatur über Land und See betrug [2016] um 58.69 ◦ F (14.83 ◦ C).
8 9
388
16 Das Klima und wie man es vermurkst
Wenn man die Durchschnittstemperatur gar nicht richtig messen kann, wie können wir dann überhaupt wissen, ob diese schlecht bekannte Temperatur etwas gestiegen oder gefallen ist? Die einfache Erklärung ist: Änderungen der Durchschnittstemperatur lassen sich viel genauer messen als die Temperatur selbst. Das gilt für viele andere Messungen auch. Wenn Sie auf dem Gipfel des Brockens im Harz stehen, dann sind sie ungefähr 1140 m über dem Meeresspiegel (aber nur ungefähr, es hängt davon ab, wo genau Sie sich befinden). Sie können aber dort, wo Sie sich befinden, einen Steinhaufen von genau 1 m Höhe (±1 cm) errichten, wenn Sie einen Zollstock dabei haben. Warum kann man denn Änderungen der globalen Temperatur so genau messen? Wenn man kurze Zeitreihen von Temperaturänderungen betrachtet, etwa Mittelungen über einen Monat, dann stellt man fest, dass die Monatsmittelwerte noch zwischen 1000 km entfernten Messstationen stark korreliert sind, und zwar ganz unabhängig vom tatsächlichen Wert der Temperatur. Wenn es also in Ehrwald im Monat September gegenüber einer Referenztemperatur 3◦ wärmer war, so ist es mit großer Wahrscheinlichkeit auch auf dem Gipfel der Zugspitze im Monat September ungefähr 3◦ wärmer gewesen. Die Aussage, dass die Temperaturabweichungen ungefähr gleich sind, hängt auch gar nicht vom Wert der Referenztemperatur ab. Man nennt solche Abweichungen Temperatur Anomalien und benutzt als Referenz gern Mittelwerte über längere, willkürlich festgelegt Zeiträume (Temperaturmittel der letzten 20 Jahre oder seit Beginn der Industrialisierung) oder Startwerte eines Messintervalls (im Vergleich zum Monatsbeginn). Kurze Zeitmittelwerte unterdrücken also das räumliche Rauschen von Temperaturabweichungen stark. Bis auf ein paar ganz abgelegene Regionen findet sich tatsächlich alle 1000 km (über Land wie über den Ozeanen) eine Messstation, sodass man für Anomalien ein zumindest statistisch fast vollständiges Netz über die ganze Erdoberfläche zur Verfügung hat. Das erlaubt eine Messung von Monatsdurchschnitten der Anomalien mit einer Genauigkeit von einigen hundertstel Grad, während der Messfehler der Durchschnittstemperatur so bei 0.5◦ liegt. Es macht nun keinen Sinn, den genauen Messwert einer Anomalie zum ungenauen Messwert der Durchschnittstemperatur zu addieren. Wenn die Temperatur zu Anfang des Jahres 14.5 ± 0.6◦ beträgt und die Veränderung über das Jahr 0.5 ± 0.03◦ , dann ist die Aussage, dass die Temperatur am Jahresende auf 15◦ gestiegen ist, einfach nur Quatsch. Die Anomalie geht bei diesem Beispiel sogar völlig im Fehler der Durchschnittstemperatur unter. Es könnte mit diesen Daten auch kälter geworden sein. Jetzt sollte Ihnen klar sein, warum man ein Klimaziel über eine Anomalie (1.5◦ ) und nicht über eine Maximaltemperatur definiert. Nur so ist es nämlich auch nachprüfbar. Das hält aber die Klimamystik nicht davon ab, immer wieder mit dieser nicht genau messbaren Temperatur zu argumentieren. Sobald man aber Modelle für die physikalischen Prozesse machen will, sieht die Sache anders aus. Man kann nicht mit Änderungen auf noch unbestimmten Größen starten. Die typische Arbeitsweise der Physik bei der Modellierung sieht mal wieder so aus: Beginne mit einem Modell auf der gröbsten Skala, an dem man wichtige Prozesse sofort versteht. Dann vergleiche mit der Wirklichkeit und versuche Abweichungen durch Verfeinerungen oder Änderungen des Modells zu verstehen. Da wir
16.4 Die Temperatur der Erde
389
uns immer auf die Energieerhaltung verlassen können, starten wir von einer globalen Energiebilanz. Die einfachste Bilanz, die man aufstellen kann, entspricht dem Blick auf die ganze Erde aus dem All. Wir wollen zuerst mal ein Strahlungsgleichgewicht annehmen, d. h. die gesamte eingestrahlte Leistung (Jein ) soll auch wieder abgestrahlt werden, also Jein = Jaus . Für Jein können wir die Solarkonstante von S0 = 1361 W/m2 mit der Fläche des beleuchteten Erdkreises FE /4 = π R 2E multiplizieren (siehe Abschn. 16.1). Die ausgestrahlte Leistung Jaus besteht aus zwei Teilen. Da gibt es erstens den per Albedo a direkt zurückgestrahlten Teil der Einstrahlung, also a Jein . Der zweite Teil ist die Ausstrahlung der Erde aufgrund ihrer Temperatur TE . Hierfür stehen uns zwar gute Messdaten zur Verfügung, aber wir wollen die Ausstrahlung ja mit einer Erdtemperatur in Verbindung bringen. Daher brauchen wir ein Gesetz, dass die Strahlungsleistung mit der Temperatur eines Körpers verknüpft. Dieses Gesetz ist seit den Arbeiten von Max Planck (siehe Abschn. 11.1) vollständig verstanden. Es hat den Namen: Stefan-Boltzmann Gesetz Ein idealer Körper mit Temperatur T, der alle Frequenzen über seine Oberfläche aussenden (und dann, wie wir wissen, auch wieder absorbieren kann) (so etwas nennt man in der Physik schwarzer Strahler) hat eine Strahlungsleistung pro m2 seiner Oberfläche von P = σ T 4, wobei die sogenannte Stefan-Boltzmann Konstante σ berechnet werden kann. Sie hat den Wert 5.67 · 10−8 mW 2 K4 .
Für viele reale Körper gilt das T 4 Gesetz immer noch, aber die Gesamtleistung ist um einen Faktor (kleiner als 1, den nennt man Emissionsgrad) kleiner. Solche Körper nennt man graue Strahler. Von weit weg betrachtet ist die Erde ein grauer Strahler mit Emissionsgraden der verschiedenen Oberflächen, die alle nahe bei 1 sind (so zwischen 0.95 und 0.99), so dass ihre Strahlungsleistung nach dem Stefan-Boltzmann Gesetz FE σ TE4 ist. Hier ist FE = 4π R 2E die Fläche der Erdkugel, denn die ganze Kugel strahlt ja ins All. Unsere Bilanzgleichung lautet also (1 − a)Jein = 4π R 2E TE4 oder (1 − a)S0 = σ 4TE4 , wobei wir den Albedo-Teil der ausgestrahlten Leistung auf die andere Seite der Gleichung gebracht haben. Außerdem haben wir den Faktor π R 2E , der auf beiden Seiten der Gleichung steht, gekürzt.Mit a = 0.3 und σ = 5.67 · 10−8 W/(m2 K4 ) erhalten wir einen Wert für die Gleichgewichtstemperatur TE (Taschenrechner!):
390
16 Das Klima und wie man es vermurkst
TE =
0.7S 1/4 0
4σ
≈ 254.5 K
Mmmh... das sind 254.6 − 273.2 = −18.6 ◦ C. Brrr! Das ist doch entschieden zu kalt. Wie kann das sein? Doch, doch, es ist schon alles ok mit dieser Rechnung, allerdings ist es eben die Erde von außen betrachtet. Stellen Sie sich vor, Sie liegen in einem kühlen Raum unter einer warmen Daunendecke. Ihnen ist warm, aber wenn jemand die Temperatur genau über ihrer Decke misst, so ist die viel niedriger als unter Ihrer Decke. Die Erde hat auch eine Art Decke, nämlich die Atmosphäre. Die muss es bringen. Beachten Sie nebenbei, dass weit entfernte Aliens bei der Beobachtung unseres Planeten die tiefe Temperatur an der Oberkante der Atmosphäre sehen, denn sie empfangen nur die Strahlung der Erde.
16.5 Der Treibhauseffekt und seine Verstärkung Wir müssen nun einen beachtlichen Temperaturunterschied von ca. 33 K zwischen der Erdtemperatur an der Obergrenze der Atmosphäre und unserer Umgebungstemperatur erklären. Schauen wir dazu erst mal grob auf den Verbleib der Sonnenenergie. Ungefähr 30 % vom Sonnenlicht werden zurückgestrahlt (Albedo) , 20 % von der Atmosphäre absorbiert und 50 % von der Erdoberfläche. Die Erdoberfläche (und die untersten Schichten der Atmosphäre) erwärmen sich dadurch stärker als die Schichten darüber, was wieder zu Ausgleichsprozessen führt. Ein Teil wird per Konvektion, ein anderer Teil per Strahlung nach oben befördert. Die Temperaturen auf der Erde sind aber viel niedriger als die Sonnentemperatur und daher ist das ausgesandte Spektrum viel langwelliger (siehe Abb. 16.2), es liegt hauptsächlich im Infraroten. Genau diese Wärmestrahlung wird von den IR-aktiven Spurengasen (CO2 , H2 0, CH4 , N2 O, O3 ) absorbiert. Bis hierhin stimmen auch viele Klimamythologe zu10 . Ab diesem Punkt lohnt es sich, etwas genauer hinzuschauen, denn auch viele gut gemeinte, populäre Darstellungen des sogenannten Treibhauseffekts sind anfällig für Gegenargumente. Die einfachste Art, den Einfluss der Spurengase zu berücksichtigen, ist es, auch für die langwellige Erdstrahlung eine Albedo (b) einzuführen, d. h. einen Anteil, der von der Atmosphäre auf die Erde zurückgestrahlt wird, sodass nur der Bruchteil (1 − b) abgestrahlt wird. Dann wird die Energiebilanz zu (1 − a)S0 = (1 − b)σ 4TE4 . Um eine Erdtemperatur von ungefähr 15◦ zu erhalten, müsste b ≈ 0.39 sein. Nun müssen wir aber erklären, wie eine solche Albedo zustande kommt. Das nächst einfache Modell kennt zwei Schichten, den Erdboden (oder die bodennahe Schicht) namens B und die Atmosphäre namens A, die als ein einziges homogenes System behandelt wird. Die physikalischen Parameter dieses Modells sind (neben der Albedo a) die Emissionsgrade der Atmosphäre und des Bodens für die langwellige Erdstrahlung A und B . Für unsere Rechnung benutzen wir die 10
Na ja, bis auf die Aussage, dass die Wärmestrahlung absorbiert wird. Es gibt einen Mythos, die Spurengase könnten die von der Erde ausgesandte Strahlung gar nicht absorbieren, aber dazu siehe Abschn. 16.5.
16.5 Der Treibhauseffekt und seine Verstärkung
391
Abb. 16.9 Ein noch etwas übervereinfachtes Modell des Treibhauseffekts, mit dem man zwar nichts ausrechnen kann, der aber schon mal den grundlegenden Mechanismus erklärt. Der Emmisionsgrad A heißt im Text e A
Emissionsgrade in einen Halbraum, d. h. nach oben oder nach unten. Wird in beide Richtungen abgestrahlt, dann verdoppelt sich dieser Emissionsgrad. Jetzt ist das Strahlungsgleichgewicht etwas komplizierter, denn die Atmosphäre hat eine (zunächst unbekannte) Temperatur T A und sendet (langwellige Strahlung) 2e A σ T A4 (in beide Halbräume, daher der Faktor 2) aus. Der Boden strahlt e B σ TB4 , und zwar nur nach oben. Die Emissionsgrade der verschiedenen Oberflächen sind so groß, dass wir in ordentlicher Näherung e B = 1 setzen können. Jetzt können wir die Bilanz für den Boden leicht aus Abb. 16.9 ablesen: Jein = (1 − a)S0 /4 + e A σ T A4 = σ TB4 . Um die Bilanz für die Atmosphäre aufzustellen, müssen wir noch wissen, woher sie ihre Energie bezieht. In unserem einfachen Modell nehmen wir an, dass die Atmosphäre für die einfallende Sonnenstrahlung ganz durchsichtig ist11 . Dann ist der ganze Zustrom die Erdstrahlung, von der ein Teil absorbiert wird. Jetzt brauchen wir die Einsicht, dass ein Körper alles, was er emittiert, auch absorbieren kann. Qualitativ ist uns das schon klar, aber es stimmt auch quantitativ. Der absorbierte Anteil von Strahlung wird ebenfalls durch den Emissionsgrad bestimmt. Das nennt man auch das Kirchhoffsche Gesetz. Also ist der von der Atmosphäre absorbierte Anteil der Erdstrahlung e A (σ TB4 ) und das muss gleich der abgestrahlten Leistung 2e A σ T A4 sein (in beide Halbräume, nach oben und nach unten). Aus der Gleichung e A (σ TB4 ) = 2e A σ T A4 erhalten wir eine Beziehung zwischen der Boden- und der Atmosphärentemperatur, die gar nicht von e A abhängt, nämlich T A4 = TB4 /2 oder T A ≈ 0.84TB (Taschenrechner). (Nicht vergessen, wir rechnen in absoluten Temperaturen). Mit dieser Beziehung können wir in der Bilanz am Boden T A durch die Bodentemperatur ersetzen, das liefert uns (1 − a)S0 /4 = (1 − e A /2)σ TB4 oder TB4 =
11
(1 − a)S0 2σ (2 − e A )
Was nicht ganz stimmen kann, denn auch die enthält ja langwellige Anteile. Deren Leistung ist aber klein, verglichen mit der Erdstrahlung.
392
16 Das Klima und wie man es vermurkst
Um eine Zahl herauszubekommen, müssen wir neben der Solarkonstanten und der Albedo noch e A , den Emissionsgrad der Atmosphäre kennen. Den kennt man aber nicht. Wenn man mal umgekehrt fragt, wie groß er sein müsste, um eine Bodentemperatur von 15◦ zu erhalten, so erhält man ea ≈ 0.78. Ok, der Wert ist nicht unsinnig, aber eine quantitative Vorhersage der Erdtemperatur ist das nicht. Dafür kann man anhand dieses übervereinfachten Modells aber zwei wichtige Dinge lernen. Erstens wird alles, was den Emissionsgrad (= Absorptionsgrad wg. Kirchhoff) erhöht, auch die Erdtemperatur erhöhen. Wenn also die Atmosphäre mehr von der Erdstrahlung absorbiert, wird es wärmer. Das verstehen viele Leute unter Treibhauseffekt als Klimakrise. Zweitens erfolgt die Abstrahlung in den Weltraum bei der Temperatur an der Oberkante der Atmosphäre, und die ist wesentlich niedriger. In unserem Modell ist sie T A ≈ 0.84TB = 0.84 · 288 K ≈ 242 K oder −31 ◦ C. Bei solchen Temperaturen sind Absorptionsprozesse in Molekülen aber anders als bei unseren kuscheligen 15◦ . Die Banden der Moleküle verwandeln sich (weil die sich langsamer bewegen) wieder in scharfe Linien und damit sinkt ihr Absorptions- b.z.w. Emissionsgrad, denn Wellenlängen zwischen den scharfen Linien können ungehindert passieren.
16.6 Einwände und Klimamythen Erwarten Sie jetzt nicht die allumfassende Antwort auf alle Fragen zum Treibhauseffekt. Das wäre ein anderes Buch. Ich möchte Ihnen hier auch nicht die dümmsten Klimamythen vorstellen („Der Treibhauseffekt widerspricht dem 2. Hauptsatz“), denn deren Widerlegung können Sie wirklich überall nachlesen. Ich möchte eigentlich nur zeigen, dass das schöne Modell des letzten Abschnitts die Forschung lange aufgehalten hat. Das einfache Modell entspricht in etwa den Vorstellungen, die Svante Arrhenius vom Einfluss des Kohlendioxids hatte. Kurz nach der Veröffentlichung seiner Arbeit gab es aber zwei Einwände, die so schwerwiegend erschienen, dass sie die weitere Beschäftigung mit dem Einfluss von CO2 auf die Erdtemperatur für ein halbes Jahrhundert blockierten. Die Einwände gründeten sich auf Experimente, die der schwedische Physiker Knut Ångström durchführte und erfreuen sich auch heute noch unter Klimamythenmetzen großer Beliebtheit. Er12 schickte Wärmestrahlung durch ein 30 cm langes, mit Kohlendioxid gefülltes Rohr, das insgesamt so viel Gas enthalten sollte wie die Luftsäule, die bis zum oberen Ende der Atmosphäre reichte13 . Dann maß er die durchgelassene Strahlung. Diese Menge veränderte sich praktisch gar nicht, wenn die Gasmenge in der Röhre um ein Drittel reduziert wurde. Daraus wurde der Schluss gezogen, dass die Absorptionsfähigkeit des Kohlendioxids längst gesättigt war und zusätzliches CO2 keine weitere Wärme aufnehmen würde. Das zweite Argument wurde von der Tatsache abgeleitet, dass die absorbierten Frequenzbereiche von Wasserdampf und von Kohlendioxid sich 12 13
Genauer gesagt, sein Assistent Koch. Dabei verschätzte er sich zwar, aber das war für das Argument unerheblich.
16.6 Einwände und Klimamythen
393
überlappen. Wie soll also ein wenig CO2 einen Effekt haben, wenn die Atmosphäre durch das viel häufigere Wasser bereits undurchsichtig war? Es hat lange gedauert, bis man sich der Physik des Energietransports in der Atmosphäre wieder zuwandte und die Sache genauer betrachtete. Erst in den 1940er Jahren wurde klar, dass die Argumente eine Voraussetzung enthalten, die sie für die reale Atmosphäre unbrauchbar machen: sie betrachten die Atmosphäre als eine homogene Schicht. So als würden vom Erdboden bis zu einem Schild „Hier beginnt der Weltraum“ die gleichen Bedingungen herrschen. Stattdessen ändern sich aber Temperatur und Druck gewaltig (siehe Abb. 16.6), und das hat großen Einfluss auf den Energietransport. Wir können bereits aus dem 2-Temperaturen Modell lernen, dass die Abstrahlung ins All immer nur von der obersten, d. h. kältesten Schicht erfolgt. Wenn man die ganze Höhe vom Erdboden ins All in viele Schichten zerlegt, dann durchqueren die Photonen der Erdstrahlung Schicht für Schicht der Atmosphäre, und in jeder Schicht wird ein Teil von ihnen aufgehalten. Ein Molekül der IR-aktiven Spurengase absorbiert ihre Energie. Dann kann das Molekül das Photon in eine andere Richtung streuen oder es kann die Energie bei Zusammenstößen mit anderen Luftmolekülen in Geschwindigkeit umwandeln, sodass die Luftschicht, in der es sich befindet, wärmer wird. Die Luftschicht strahlt einen Teil der aufgenommenen Energie zurück zum Boden und einen Teil nach oben in höhere Schichten. Je höher man kommt, desto kälter und stärker verdünnt werden die Schichten. Schließlich erreicht die Strahlung eine so verdünnte Schicht, dass sie in den Weltraum entweicht. Was passiert, wenn wir mehr Kohlendioxid hinzufügen? In den Schichten, die so hoch und dünn sind, dass ein großer Teil der Wärmestrahlung ins All entweicht, bedeutet die Zugabe von mehr Treibhausgasmolekülen, dass die Schicht mehr Strahlen absorbiert und sich erwärmt. Die Schicht, die schließlich ins All strahlt, verschiebt sich weiter nach oben und die zur Erde rückstrahlenden Schichten nehmen zu. Dadurch erwärmen sich alle unteren Schichten bis zur Oberfläche. Dieses Ungleichgewicht muss sich fortsetzen, bis die hohen Schichten warm genug sind, um so viel Energie wieder abzustrahlen, wie der Planet aufnimmt. Es ist so ein ähnlicher Effekt, als würden Sie in eine Daunendecke noch weitere Daunen hineingeben. Die Details dieses Transports müssen quantitativ durch Bilanzierung von Schicht zu Schicht berechnet werden. Für diesen Energietransport durch Strahlung gibt es mittlerweile gut getestete Modelle, die in Form von Computerprogrammen verfügbar sind. Auch ohne eine solche detaillierte Analyse kann man aber erkennen, dass eine Sättigung in den unteren Schichten nichts ändern würde, da die Schichten, aus denen die Strahlung entweicht, die Wärmebilanz des Planeten bestimmen. Das sind die oberen, in denen eben gerade die Absorptionsfähigkeit der Spurengase nicht gesättigt ist. Die Luftschicht ganz dicht an der Erdoberfläche ist für die meiste IR Strahlung ohnehin praktisch undurchsichtig (schon wegen der Wasserdampfkonzentration). Die Energie wird also in der Troposphäre hauptsächlich per Konvektion nach oben befördert. Dieser Wärmeaustausch prägt ja auch schließlich unser Wetter. Mit diesem kleinen Blick auf ein großes Thema endet unsere Wanderung. Obwohl der letzte Teil aufgrund der Weltlage eher düster war, wollte ich Ihnen diese Aussichten nicht ersparen, denn sie zeigen, dass wir den Naturgesetzen nicht en-
394
16 Das Klima und wie man es vermurkst
tkommen können. Diese Gesetze bilden aber auch Grundlagen für Lösungen der angesprochenen Probleme, zumindest, soweit sie die äußere Welt betreffen. Das wäre eine andere, sehr interessante Wanderung, die sich hier anschließen könnte. Aber Lösungsvorschläge können nur funktionieren, wenn wir auch unsere Geisteswelt in den Griff bekommen, und auf der ganzen Welt konstruktiv miteinander arbeiten. Dafür kann die Physik nicht sorgen.
Anhang A
Mathematisches Glossar
Potenzrechnung: Braucht man, um sehr große und sehr kleine Zahlen – von denen es in der Physik nur so wimmelt – in den Griff zu bekommen. Die n-te Potenz einer Zahl wie zum Beispiel 10 ist das n-fache Produkt, das schreibt man so: 10n = 10 · 10 · · · 10 . n−mal
n nennt man den Exponenten. Wenn n negativ ist, dann werden die Potenzen immer kleiner, denn 10−n = 1/10n . Die nullte Potenz einer jeden Zahl z (ungleich Null) ist definitionsgemäß 1, z 0 = 1. Statt 10 kann man jede andere Zahl nehmen, aber die Potenzen von 10 sind besonders beliebt. Sie haben auch besondere Namen, die Ihnen vielleicht (zum Teil) bekannt sind: 102 heißt hekto, 103 heißt kilo, 106 heißt mega 109 heißt giga 1012 heißt tera und 1015 heißt peta. Wenn’s immer kleiner wird: 10−1 heißt dezi, 10−2 heißt zenti, 10−3 heißt milli, 10−6 heißt mikro, 10−9 heißt nano, 10−12 heißt piko, 1015 heißt femto. Eine wichtige Rechenregel, von der wir oft Gebrauch machen ist 10n · 10m = 10n+m . Hier können n und m positive oder negative ganze Zahlen sein, d. h. zum Beispiel 107 · 10−4 = 103 . Statt 10 können Sie auch jede andere Zahl einsetzen, oder auch eine Variable (zum Beispiel a), die für jede Zahl stehen kann. Der Ausdruck a n sollte Ihnen dann klar sein. Man kann auch Potenzen der Form a 1/n definieren. Dazu weitet man die Rechenregel auf alle Zahlen aus, d. h. (a 1/n ) · (a 1/n ) · · · (a 1/n ) = (a 1/n )n = a n−mal
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0
395
396
R. Kree
So ist zum Beispiel a 1/2 die Zahl, deren Quadrat gleich a ist (das nennt man (Quadrat) Wurzel). Schließlich benutzen wir die Rechenregel a x · a y = a x+y für alle Zahlen a, x und y, ohne dass ich Ihnen wirklich verrate, wie man das verstehen kann1 . Funktion: Eine Größe (zum Beispiel die Temperatur) kann von anderen Größen abhängen. Zum Beispiel ändert sich die Temperatur dauernd, sie hängt also von der Zeit t ab. Diese Abhängigkeit schreibt man als T (t) und versteht darunter alle Temperaturwerte in einem bestimmten Zeitraum. Den Zeitraum kann man aus der Schreibweise nicht sehen, man muss ihn dazu sagen. Das Symbol t steht also für eine ganze Menge von Zeiten. So ein Symbol nennt man Variable. Die Temperatur kann auch noch von anderen Größen abhängen, zum Beispiel von der Höhe h. Dann schreibt man T (t, h), eine Funktion von zwei Variablen. Eine Funktion T (t) kann man auch grafisch darstellen, indem man auf einer waagerechten Achse die t Werte und auf einer senkrechten Achse die T Werte aufträgt. Das nennt man den Graphen der Funktion. Eine Funktion der Form f (x) = x c mit einer Konstanten c nennt man ein Potenzgesetz. Proportionalität: Die bei einer Autofahrt zurückgelegte Strecke S ist eine Funktion der Zeit t, als schreibt man S(t). Wenn man ganz gleichmäßig fährt, dann nimmt die Strecke mit der Zeit zu wie S(t) = v · t. Dabei ist v eine Konstante, das Tempo. Der Graph dieser Funktion ist eine Gerade. Wenn man das Tempo nicht kennt, schreibt man T ∝ t. Dazu sagt man: T ist proportional zu t. Das Lieblingszeichen der Physik: Oft kennt man eine Größe nicht genau. Dann schreibt man mathematisch zum Beispiel π ≈ 3.14 , d. h. 3.14 ist eine Näherung für die Zahl π . In der Physik gibt es eine Abschwächung dieses Zeichens, die man gern als ∼ schreibt. a ∼ b kann dabei je nach Kontext heißen: „a und b unterscheiden sich um nicht mehr als eine Größenordnung, d. h. ein Faktor 10“ aber auch „a ist irgendwie ähnlich zu b, wie genau, das werden wir noch herausfinden“. Mit diesem Zeichen wird oft an Kreidetafeln und auf Bierdeckeln diskutiert. Sinus und Cosinus: Zwei häufig gebrauchte Funktionen sind der Sinus und der Cosinus. Sie können definiert werden als Streckenverhältnisse in einem rechtwinkligen Dreieck (s. Abb. A.1), und zwar ist sin(α) =
1
b c
Machen Sie sich deswegen keine Sorgen. Wenn Sie zwei Zahlen auf dem Papier multiplizieren oder dividieren, dann verwenden Sie ein Rechenschema, das Sie in der Schule gelernt habe und fragen auch nicht, wieso das eigentlich stimmt.
Mathematisches Glossar
397
Abb. A.1 oben links: Ein rechtwinkliges Dreieck definiert Sinus und Cosinus. oben rechts: der Sinus, unten der Cosinus
und cos(α) =
a c
Der Winkel α wird dabei im Bogenmaß angegeben, d. h. 360 Winkelgrad (= 360 · 60 W. Minuten = 360 · 60 · 60 W. Sekunden) = 2π im Bogenmaß Die Funktionen sind periodisch, d. h. sin(α + 2π ) = sin(α) (analog der Cosinus). Die Form der Funktionen zeigt die Abb. A.1.
Anhang B
Die Statistik zum Gendern
Zum Schluss noch die zu Anfang versprochene Statistik zu meinen Sprachregeln. Eine automatische Wortzählung ergibt für das ganze Buch 158818 Worte. Darunter finde ich 67–140 durch meine Sprachregeln veränderte Worte. Es kommt darauf an, ob man auch Fälle zählt, in denen nur das neutrale Geschlecht ohne konkretes Substantiv benutzt wird, also zum Beispiel Wendungen wie „jedes findet das Wortezählen ermüdend“. Nehmen wir ruhig die Obergrenze 140, dann sind das ungefähr 1 Promille gegenderte Worte.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0
399
Personenverzeichnis
A Amaldi, Edoardo, 276 Ampère, André-Marie, 221 Anderson, Carl David, 272 Arago, François, 232 Arnim, Bettina von, 204 Aronowitz, Stanley, 128 Arouet, François-Marie, gen. Voltaire, 171 Arrhenius, Svante, 139 Aston, Francis William, 335 Avogadro, Amedeo, 290
B Banach, Stefan, 61 Bayes, Thomas, 108 Becquerel, Henri, 276, 331 Bell, John Stuart, 283 Berkeley, George, 151 Bernoulli, Daniel, 182 Bohr, Niels, 262 Boltzmann, Ludwig, 306 Boškovi´c, Rugjer Josip, 164 Bothe, Walter, 258 Boulding, Ewart, 362 Bragg, William, 334 Brentano, Clemens, 204 Broglie, Pierre Raymond de, 263 Brout, Robert, 277 Bunsen, Robert Wilhelm, 259
C Cantor, Georg, 67 Carnot, Sadi, 186, 293 Cauchy, Augustin-Louis, 79 Chadwick, James, 276
Chandrasekhar, Subrahmanyan, 167 Châtelet, Émilie du, 171 Clairaut, Alexis-Claude, 172 Clapeyron, Émile, 292 Clausius, Rudolf, 185, 293 Compton, Arthur Holly, 258 Coulomb, Charles Augustin de, 203, 219 Curie, Marie, 332 Curie, Pierre, 332
D D’Alembert, Jean le Rond, 205 Damarin, Suzanne, 128 Dante Aleghieri, 253 Darwin, Charles, 363 Davisson, Clinton, 263 Davy, Humphrey, 221 Deleuze, Gilles, 129 Derrida, Jacques, 124 Descartes, René, 38 Dirac, Paul Adrien Maurice, 265 Dyson, Freeman, 274, 375
E Eddington, Arthur, 34 Edison, Thomas, 340 Ehrenfest, Paul, 273 Einstein, Albert, 39, 88, 89, 122, 152, 241, 242, 248, 249, 251, 256, 258, 283, 284, 349 Englert, François, 277 Euler, Leonhard, 17, 174
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0
401
402 F Fajans, Kasimir, 334 Faraday, Michael, 221–225, 227–229, 291 Fermat, Pierre de, 101 Fermi, Enrico, 272, 276 Feynman, Richard, 94, 274 Fichte, Johann Gottlieb, 204 Finetti, Bruno de, 105 Foucault, Michel, 124 Fourier, Joseph, 139 Franck, James, 262 Fraunhofer, Joseph, 259 Frege, Gottlob, 62 Fresnel, Augustin Jean, 232 Friedman, Jerome, 280 Friedmann, Alexander, 256 Frisch, Otto, 338, 349
G Galilei, Galileo, 152, 153, 242, 246, 250 Galton, Francis, 351 Geiger, Wilhelm, 261 Gell-Mann, Murray, 280 Germer, Lester, 263 Gibbs, Josiah Willard, 306 Gilbert, William, 219 Gladstone, Edward, 223 Gödel, Kurt Friedrich, 66 Goethe, Johann Wolfgang, 45, 204, 235, 236 Goudsmit, Samuel, 266 Grassmann, Hermann, 227 Gravesande, Jacob s’, 187 Gray, Louis Harold, 344 Grimaldi, Francesco Maria, 231 Grossmann, Marcel, 123, 249 Guattari, Felix, 129 Guralnik, Gerald, 277
H Hagen, Carl, 277 Hahn, Otto, 337 Halley, Edmond, 97, 159, 160 Heaviside, Oliver, 227 Hegel, Georg Wilhelm Friedrich, 204 Heisenberg, Werner, 263–265, 267, 268, 273 Helmholtz, Hermann von, 184 Hertz, Gustav Ludwig, 262 Hertz, Heinrich, 228, 230 Hertzsprung, Ejnar, 28 Higgs, Peter, 277 Hilbert, David, 64
Personenverzeichnis Hipparchos, 27 Hoffman, E.T.A., 204 Hölderlin, Johann Chrstian Friedrich, 204 Hume, David, 17 Huygens, Christian, 77, 231
I Irigaray, Luce, 129
J Jacquier, François, 171 Jaynes, Edwin Thompson, 309 Joliot-Curie, Frédéric, 272 Joliot-Curie, Irène, 272 Joule, James Prescott, 185 Joyce, James, 280
K Kant, Immanuel, 203 Kendall, Henry, 280 Kibble, Thomas, 277 Kirchhoff, Gustav Robert, 259 Kolmogorow, Andrei Nikolajewitsch, 101 Kruskal, Martin, 256
L Ladenberd, Rudolf, 89 Lagrange, Joseph-Louis, 205 Langmuir, Irving, 94 Laue, Max von, 260 Leibniz, Gottfreid Wilhelm, 77 Lemaître, Georges Eduard, 256 Lenard, Phillip, 258 Lewis, David Kellog, 108 Lightfoot, John, 85 Linné, Carl von, 26 Lorentz, Hendrik Antoon, 225 Lorenz, Edward Norton, 98
M Mach, Ernst, 152 Maiman, Theodore Harold, 89 Markley, Robert, 127 Markov, Andrej Andreeviˇc, 111 Marsden, Ernest, 261 Maxwell, James Clerk, 227 May, Robert, 98 Mayer, Robert, 185 Meitner, Lise, 337, 349
Personenverzeichnis Mesmer, Anton, 220 Millikan, Robert Andrews, 261 Minkowski, Hermann, 247 Morgan, Augustus de, 104
N Newcomen, Thomas, 184 Newton Foote, Eunice, 386 Newton, Isaac, 38, 44, 56, 70, 77, 159 Nightingale, Florence, 115
O Oerstedt, Hans Christian, 220
P Paley, William, 136 Pascal, Blaise, 101 Pauli, Wolfgang, 265 Pearle, Raymond, 367 Peierls, Rudolf, 349 Peirce, Charles Sanders, 55 Planck, Max, 257 Podolsky, Boris, 283 Poincaré, Henri, 97 Popper, Karl, 88, 95
Q Quine, Willard Van Orman, 20
R Rabi, Isidor, 277 Ramsey, Frank, 106 Rayleigh, 3. Baron, Strutt, 384 Reed, Lowell, 367 Riedl, Rupert, 16 Riemann, Bernhard, 253 Robertson, Howard percy, 256 Röntgen, Wilhelm Conrad, 260 Rosen, Nathan, 283 Rowbotham, Samuel, 117 Russell, Bertrand, 16, 62 Russell, Henry Norris, 28 Rutherford, Ernest, 261 Rydberg, Johannes, 260
S Salam, Abdus, 277 Schelling, Friedrich Wilhelm Joseph, 204
403 Schlegel, Dorothea, 204 Schopenhauer, Arthur, 133 Schrödinger, Erwin, 266–268, 271, 272 Schubert, Sophie, 204 Schwarzschild, Karl, 256 Schwinger, Julian, 274 Seur, Thomas Le, 171 Shannon, Claude Elwood, 309 Sklodowska, Marie, 332 Snow, Charles Percy, 121 Soddy, Frederick, 333 Sokal, Alan, 131 Sommerfeld, Arnold Johannes Wilhelm, 262 Stoney, Johnstone, 260 Straßmann, Fritz, 337 Strutt, John William, Baron Rayleigh, 384 Stueckelberg, Ernst, 272 Stukeley, William, 162 Süßmilch, Johann Peter, 364 Szilard, Leo, 349
T Tarski, Alfred, 61 Taylor, Richard, 280 Teller, Edward, 140 Tesla, Nicola, 340 Thomson, George Paget, 263 Thomson, Joseph John, 260 T’Hooft, Gerald, 278 Tieck, Ludwig, 204 Todd, Margaret, 335 Tomonaga, Shin’ichir¯o, 274 Turing, Alan, 316, 320 Tyndall, John, 386
U Uhlenbeck, George, 266 Ussher, James, 85
V Vaucanson, Jacques de, 318 Veltman, Martinus, 278 Verhulst, Pierre-François, 365 Volta, Alessandro, 219, 220
W Walker, Arthur Geoffrey, 256 Wallace, Alfred Russel, 119 Watson, Henry William, 351 Watson, William, 219
404 Watt, James, 185 Weinberg, Stephen, 277 Wells, Herbert George, 341 Weyland, Paul, 242 Wilson, Charles Thomson Rees, 258 Wollaston, William Hyde, 259 Wren, Christopher, 160
Personenverzeichnis Y Young, Thomas, 232 Yukawa, Hideki, 276
Z Zeeman, Pieter, 260
Sachverzeichnis
A Aberration, 240 Ableitung, 73 Absorption, 383 Absorptionsgrad, 392 Abwärme, 294, 299 Abzählen, 67 ACRIM, 372 Adaptation, 319 Adiabatischer Prozess, 297 Aggregatzustand, 291 Albedo, 385, 390 Algorithmus, 175 Allquantor, 57 Almagest, 27 Ampères Gesetz, 228–229 Analytische Methode, 177 Angewandte Forschung, 89 Anion, 334 Anti-Teilchen, 272 Anwendung, 89 Approximation lineare, 74 Äquivalentdosis, 345 Argument Definition, 46 gültiges, 47 schlüssiges, 46 Argument ad hominem, 135 Argumentform, 49 Asteroideneinschlag, 201 Astronomie, 2 Astrophysik, 2 Asymptotische Freiheit, 282 Äther, 241 Atmosphäre, 372 Atombombe
Implosionsdesign, 353 Kanonendesign, 353 Atomgewicht, 289–291 Atomismus, 96 Atomkern, 261 Aussage atomare, 50 Aussagenlogik, 45 Aussagenschema, 51 Avogadro-Konstante, 290 Axiomatik, 64 Axiomensystem, 64 Axon, 323
B Baryon, 279 Bayessche Formel, 108 Bedford level experiment, 119 Bedingung hinreichende, 52 notwendige, 52 Bellsche Ungleichung, 285 Beobachtung, 87, 89 Berechenbarkeit, 320 Beschleunigung, 155 Betazerfall, 276 Bevölkerungswachstum, 360 Bewegung beschleunigte, 151 geradlinige, gleichförmige, 152 im leeren Raum, 151 Bewegungsenergie, 184, 186 Bezugssystem, 154 Biologisches Geschlecht, 126 Biosphäre, 372 Bohrsche Quantisierungsbedingung, 262
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 R. Kree, Was geht mich die Physik an?, https://doi.org/10.1007/978-3-662-67934-0
405
406 Bohrsches Atommodell, 262 Boltzmann-Verteilung, 305 Born, Max, 264 Bornsche Wahrscheinlichkeitsinterpretation, 268, 270 Brahe, Tycho, 160 Bunsenbrenner, 259 C Cantors Diagonalargument erstes, 68 zweites, 69 CERES, 373, 379 Chaos , 97–100 Chapman Zyklus, 380 Chemische Energie, 191 Chicxulub, 201 Chinesisches Zimmer, 316 Chronologie, 85 Church-Turing These, 320 Comptoneffekt, 258 Computational Physics, 177 Coulomb Kraft, 203, 219 D Dammbruchargument, 134 Dampfmaschine, 184 Deep learning, 327 Dekonstruktion, 124 Demografie, 360 Determinismus, 96 Deuterium, 335 Deutscher Idealismus, 203 Dezimalzahl, 69 Differentialgleichung, 80, 172 Differentialquotient, 74 Differenzengleichung, 80 Differenzenquotient, 74 Diffraktion, 231 Dimensionsanalyse, 33 Dirac-Gleichung, 272 Diskurs, 124 Diskursanalyse, 124 Dispersion, 234 Dissipative Struktur, 292 Dosis, 341 Dosisleistung, 341, 344 Drei-Körper-Problem, 97 Druck, 307 Druckwasserreaktor, 356 Dutch Book, 105 Dyson Grenze, 375
Sachverzeichnis E Einheitennormale, 31 Ekliptikebene, 377 Elektrische Energie, 190 Elektrische Feldstärke, 219 Elektrische Ladung, 217 Elektromagnetisches Spektrum, 233 Elektromagnetismus, 223 Elektron, 260 Elektronenbeugung, 263 Elektronenspin, 265 Elementarladung, 261 Elementarteilchenphysik, 2 Ellipse, 161 Emission spontane, 272 Emissionsgrad, 390, 392 Empirismus, 87, 162 Energie, 248 elektrische, 190 freie, 299 kinetische, 184, 186 potentielle, 184, 187 Energiebilanz, 375 Energieerhaltung, 183 universelle, 185 Energieform, 183 Energiequelle primäre, 347 Energiereservoir, 305 Energietransfer linearer, 342 Energietransport Konvektion, 195 Leitung, 195 meridionaler, 379 Strahlung, 195, 393 Entropie statistische, 308 thermodynamische, 298 Epistemologie, 20, 35, 130 EPR-Paradoxon, 283 Ereignis, 243 Erhaltungsgröße, 181 Eristik, 133 Erklärung, 89 Erstes Keplersches Gesetz, 160 Ethik, 21 Euklidische Axiome, 60 Eulersche Konstante, 174 Evidenz, 94 Existenzquantor, 57 Experiment, 88, 89
Sachverzeichnis Exponentialfunktion, 174 Exponentielles Wachstum, 174, 351
F Falsche Alternative, 135 Falsifikation, 88, 95 Faradays Gesetz, 228–229 Faradaysche Induktion, 223 Farbe, 234 Farbmischung additive, 236 subtraktive, 236 Farbwahrnehmung, 236 Feld elektromagnetisches, 336 magnetisches, 225 Massendichte, 206 Quelldichte, 209 Stromdichte, 207 Strömungsgeschwindigkeit, 207 Wirbeldichte, 211 Feldstärke elektrische, 219 Feldtheorie, 3, 250 Fermi-See, 272 Ferrel-Zelle, 381 Ferromagnet, 291 Feynmandiagramm, 274 Finanzmarkt, 2 Finnegan’s Wake, 280 Flat Earth, 6 Fluxionen, 72 Forschung angewandte, 89 Fotoelektrischer Effekt, 88 Fourieranalyse, 216 Fouriersynthese, 216 Franck-Hertz Experiment, 262 Franklin, Benjamin, 219 Fraunhofer-Linien, 259 Freie Energie, 299 Freiheit asymptotische, 282 Front, 381 Fusionsreaktor, 336
G Galvani, Luigi, 220 Gas ideales, 292, 306 reales, 293
407 Gaußsche Verteilung, 113 Gaußsches Gesetz, 228–229 Geburtenrate, 360 Geisteswelt, 18–20 Gender, 125 Generalisierungsfehler, 320 Geometrie, 247 Geometrische Optik, 231 Geschlecht biologisches, 126 Geschwindigkeit, 155 Gesetz der großen Zahlen, 113 Gewichtsreduktion, 198 Gibbs, Josiah Willard, 227 Glashow-Salam-Weinberg-Theorie, 278 Glasprisma, 234 Glaubensbekenntnis Ethik, 22 Geisteswissenschaft, 20 Naturwissenschaft, 15 radikaler Skeptizist, 17 Solipsist, 16 übergriffiger Postmodernismus, 21 Glaubensbekenntnisses monotheistisches, 18 Glaubensgrad, 103 Gleichgewichtszustand, 43 Globaltemperatur mittlere, 387 Gluon, 283 Gödelsche Unentscheidbarkeit, 66 Goldbachsche Vermutung, 66 Größenordungsabschätzung, 4 Grauer Strahler, 389 Gravitationsgesetz, 167 Gravitationswellen, 256 Grenzprozess, 72 Grenzwert, 72 Grundlagenforschung, 89 Grundzustand, 273 Grüne Revolution, 361 Gültigkeitsbereich, 56
H Hadley-Zelle, 381 Hadron, 279 Halbwertzeit, 333 Harte Kugeln, 301 Häufigkeit relative, 36 Heisenbergsche Vertauschungsrelation, 265 Hermeneutik, 86
408 Hertzsprung-Russell-Diagramm, 28 Hierarchie, 26 Higgs-Mechanismus, 277 Histogramm, 36 Hochdruckgebiet, 382 Humesche Regel, 22, 138 Huygensches Prinzip, 231 Hydrodynamik, 205 Hydrosphäre, 372
I Implikation materiale, 51 Impuls, 163 Impulserhaltung, 166, 169–171 Individuenzahl, 365 Induktion vollständige, 65 Inertialsystem, 154, 164, 242 Infinitesimalrechnung, 71, 77 Information, 310 Inkompatible Eigenschaften, 265, 286 Integral, 76 Intelligenzquotient, 316 Interneuronen, 323 Irreversibilität, 296 Isotop, 335
J Ja-Nein-Messung, 29 Jahreszeiten, 377 Jetstream, 382 Jordan, Pascual, 265 Junge-Erde-Kreationismus, 84, 135 Junktor Definition, 50 oder, 51 und, 51 XOR, 51
K Kalorimetrie, 373 Kartesische Koordinaten, 156 Kation, 334 Kausalität, 90, 243, 287 Kausalkette, 91 Kepler, Johannes, 160 Kernenergie, 192 Kernexplosion, 352 Kernschmelze, 355 Kernspaltung, 337–339
Sachverzeichnis Kettenreaktion, 349 biologische, 359 Definition, 349 kritische, 354 nukleare, 351 überkritische, 355 unterkritische, 354 verzögert kritische, 356 KI s. künstliche Intelligenz, 315 Kinetische Energie, 184, 186 Kipppunkt, 368 Kirchhoffsches Gesetz, 391 Klassische Mechanik, 3 Klima Definition, 371 makroskopische, 372 Kolmogorov-Axiome, 101 Komplexes System, 2, 9 Kondensierte Materie, 289 Konklusion, 46 Kontinuumsmechanik, 165, 205 Konvektionszellen, 381 Körper, 164 Kosmologischer Term, 256 Kraft, 165–166 Kraftfeld, 204 Kraftlinien magnetische, 224 Kritikalität, 354 Kritische Masse, 352 Kritische Temperatur, 291 Krümmung extrinsische, 252 intrinsische, 252 Kryosphäre, 372 Kultur der Physik, 10 Kulturtechnik, 7 künstliche Intelligenz framing, 315 Generalisierungsfehler, 322 harte, 21, 317 Modell, 321 overfitting, 322 Trainingsdaten, 321 Trainingsfehler, 322 underfitting, 322 weiche, 320
L Ladung elektrische, 217 Lageenergie, 184, 187
Sachverzeichnis Laplacescher Dämon, 97 Leistung, 189 Leistungsexkursion, 355 Lepton, 279 Lernen, 325 aus Beispielen, 319 Fehlermaß, 326 überwachtes, 319 unüberwachtes, 320, 327 verstärkendes, 320, 326 Lernregel Backpropagation, 328 Hebb-Delta, 328 synaptische, 326 Licht Beugung, 231 Brechung, 234 Doppelspaltexperiment, 232 Teilchenhypothese, 231 Wellenhypothese, 231 Lichtäther, 241 Lichtbrechung, 119 Lichtstreuung elastische, 383, 384 inelastische, 383 Lichtuhr, 244 Lineare Approximation, 74 Linearer Energietransfer, 342 Linienspektrum, 259 Links-steile Verteilung, 114 Lithosphäre, 372 Logik, 44 Logische Verknüpfung, 50 Logisches Prädikat, 57 zweistelliges, 57 Logistisches Wachstum, 366 Logizismus, 62 Lokalität, 91, 287 Londoner Kaffeehaus, 159 Lorentz-Kontraktion, 244 Lorentz-Kraft, 225 Lorentz-Transformation, 241, 246 Lorenz-Modell, 98 Luftfeuchtigkeit relative, 385
M Mach, Ernst, 152 Machsches Prinzip, 151 Mächtigkeit, 67 Magnet, 219 Magnetische Kraftlinien, 224
409 Magnetischer Monopol, 225 Makrozustand, 43 Malthussche Katastrophe, 361 Manhattan-Projekt, 349 Markov Prozess, 111–112 Masse kritische, 352 schwere, 38 träge, 38, 248 Massendefekt, 335, 338, 375 Massenelement, 164 Massenpunkt, 164 Massenspektrometrie, 335 Massenzahl, 336 Materiale Implikation, 51 Materie kondensierte, 289 Materiewelle, 263 Matrizenmechanik, 264 Maxwell-Gleichungen Ampères Gesetz, 228–229 Faradays Gesetz, 228–229 Gaußsches Gesetz, 228–229 quellenfreies Magnetfeld, 228–229 Mechanisches Wärmeäquivalent, 185 Mehrdeutigkeit, 133 Mengenlehre, 62 Meridionaler Energietransport, 379 Meson, 277, 279 Messwert, 35 Messwertstatistik, 35 Metrologie, 32 Mie-Streuung, 385 Mikrozustand, 43 Minkowski-Pseudoabstand, 247 Minkowski-Raumzeit, 247 Mittlere Globaltemperatur, 387 Modell physikalisches, 42 Moderator, 354 Molare Gaskonstante, 292 Molekulargewicht, 291 Mondbahn, 97 Monopol magnetischer, 225 Myon, 277
N Nachzerfallswärme, 355 Nahwirkung, 224 Namensgebung, 26 Naturgesetz, 8
410 Nebelkammer, 258 Nettovermehrungsrate, 360, 367 Neuron, 323 Neutrino, 276 Neutron, 276 Newton, Isaac, 72 Newtons Apfel, 162–163 Newtons Principia, 159 Newtonsche Bewegungsgleichung, 172 Newtonsche Gesetze, 163 Newtonsche Mechanik, 163 Nicht renormierbare Theorie, 277 No-communication theorems, 285 Nominalkomposita, 86 Non sequitur, 137 Nordostpassat, 382 Nukleonenzahl, 336
O Objektive Wirklichkeit, 16 Ökologie, 360 ökologischer Fußabdruck, 367 Ontologie, 20, 35 Operative Definition, 30 Optik geometrische, 231 Ortspfeil, 155 Ozon, 379
P Paarerzeugung, 272 Paläo-Demografie, 361 Paradigmenwechsel, 88 Paramagnet, 291 Pareto-Verteilung, 114 Pathologische Wissenschaft, 94 Paulisches Ausschließungsprinzip, 265 Peano-Axiome, 64 Perpetuum mobile 1. Art, 294 2. Art, 294 Perzeptron, 327 Pfeile (Vektoren), 154 Phasendiagramm, 291 Phasenumwandlung, 293 Photoelektrischer Effekt, 258 Photon, 258 Plancksches Wirkungsquantum, 258 Planetenbahn, 161 Plum pudding model, 261 Polarfront, 382
Sachverzeichnis Polarzelle, 381 Politische Statistik, 115 Populationsdynamik, 98, 367 Postmoderne Zitate, 127–130 Poststrukturalismus, 124 Postsynaptisches Potential, 324 Potentielle Energie, 184, 187 Potenzrechnung, 350 Prädikatenlogik, 45, 57 Prämisse, 46 Prävalenzfehler, 109 Primäre Energiequelle, 347 Principal Principle, 108 Produktentwicklung, 89 Proton, 261 Pseudocode, 177 PSP (postsynaptisches Potential), 324
Q Quantenchromodynamik, 283 Quantenelektrodynamik, 273 Quantenfeldtheorie, 273 Quantenfluktuation, 273 Quantenmechanik relativistische, 272 Quantenphysik, 3 Quantensocken, 284 Quantisierung zweite, 273 Quantitative Messgröße, 31 Quantor, 57 Quarks Color, 282 Flavour, 280 Hypothese, 280 Quellstärke, 209
R Radiolyse, 344 Radon, 333, 346 Rationalismus, 87, 162 Raum absoluter, 149 gekrümmter, 251 relationaler, 149 Raum-Zeit-Diagramm, 243 Rauschen, 36 Rayleight-Streuung, 384 Red Herring, 136 Reduktionismus, 40, 300
Sachverzeichnis Regelkreis, 318 Reibung, 184 Relative Häufigkeit, 36, 102 Relative Luftfeuchtigkeit, 385 Relativistische Quantenmechanik, 272 Relativitätsprinzip, 152, 153, 242 Relativitätstheorie allgemeine, 249–256 spezielle, 244–249 Renormierung, 274–275 Ressourcenverbrauch, 363 Röntgenaufnahme, 339 Rosendiagramm, 115 Russelsche Antinomie, 62, 63 Rydbergformel, 260
S Schallwelle, 212 Scheibenerde, 6, 117–121 Schiller, Friedrich, 204 Schlussfolgerung abduktive, 55 deduktive, 59 induktive, 54 Schlussregel, 59 Scholium, 167 Schrödingergleichung, 266 Schwarzer Strahler, 389 Schwere Masse, 31 Schwerkraft, 167 universelle, 161 Schwerpunkt, 165 Sehzellen Stäbchen, 237 Zapfen, 237 Seuche, 2 Siedewasserreaktor, 356 Soddy-Fajans Verschiebungsregeln, 334 SOHO, 372 Sokal-Affäre, 131 Solarkonstante, 374 Sonneneinstrahlung TSI, 372 Sonnenspektrum, 372 Sophismus, 133 Sorce, 372 Spektralanalyse, 259 Spektrallinie, 265 spontane Emission, 272 Spontane Symmetriebrechung, 278 Spukhafte Fernwirkung, 284 Spurengase Kohlendioxid, 386
411 Lachgas, 386 Methan, 386 Wasserdampf, 386 Standardmodell der Elementarteilchen, 281 Statistische Messfehler, 35 Statistische Physik, 3 Gleichgewicht, 303 Grundsatzhypothese, 304 Statistisches Dilemma, 347 Stefan-Boltzmann-Gesetz, 389 Sterberate, 360 Sternenkatalog, 27 Steuerstab, 355 Stochastischer Prozess, 110 Störungsrechnung Definition, 273 Divergenz, 273 Strahlen Alpha, 342 Gamma, 343 Roentgen, 341 Strahlenkrankheit, 344 Strahlenschäden, 344 Strahlung Aktivität, 333 Alpha, 332, 334 Beta, 332 Gamma, 332, 341 ionisierende, 344 radioaktive, 332 Strahlungsbilanz, 389 Strahlungsenergie, 193 Strangeness, 279 Stratosphäre, 379 Strohmann-Argument, 135 Stromlinie, 207 Stromstärke, 207 Strukturalismus, 123 Subjunktion, 51 Superb theorem, 169, 256 Symmetriebrechung spontane, 278 Synapse exzitatorisch, 325 inhibitorisch, 325 Zellorganelle, 324 Synaptische Summation, 324 System abgeschlossenes, 39 physikalisches, 39 T Tangente, 73
412 Taxa, 26 Teilchen, 164 Temperatur Anomalie, 387 kritische, 291 Mittelung, 387 thermodynamische, 299 Tempo Durchschcnitt, 71 momentane, 72 Theorie physikalische, 43 Thermalisierung, 385 Thermodynamik, 185, 293 Thorium, 333 Tiefdruckgebiet, 382 Trägheit, 38, 160, 163 Translation, 154 Transmutation, 333, 334 Transurane, 337 Treibhauseffekt, 390, 392 TRIGA Reaktor, 356 Tritium, 335 Tropen, 379 Tropopause, 380 Troposphäre, 379 TSIS, 372 Turing Maschine, 320 Turing-Test, 316
U überlichtschnele Kommunikation, 285 Uhrmacherargument, 135 Unendlichkeit, 67 Universelle Energieerhaltung, 185 Universelle Schwerkraft, 161 Unschärferelation, 265 Unterstellung, 134 Uran, 332, 337 Urananreicherung, 352 Urknall, 256 Ussher-Lightfoot-Kalender, 85
V Vakuumzustand, 273 Variable logische, 49 Vaucansons Ente, 318 Verborgene Parameter, 285 Verhulst-Gleichung, 366 Verifikationsregel, 83
Sachverzeichnis Verschiebungsstrom, 227, 229 Verzweigungsprozess, 351 Verzweigungszahl, 351 Verzweigungszeit, 351 Vollständige Induktion, 65 Voltasche Säule, 220 Vorhersagbarkeit, 99
W Wachstum exponentielles, 174, 351 logistisches, 366 Wahrheitstafel, 51 Wahrscheinlichkeit bedingte, 107 Dutch Book, 105 mathematische, 100 objektive, 103 statistische, 102 subjektive, 103 update, 108 Wärme, 184, 188, 299 Wärmeäquivalent mechanisches, 185 Wärmekraftmaschine, 186, 293 Wärmepumpe COP, 295 JAZ, 295 Wechselwirkung, 39 schwache, 276 starke, 277 Weihnachtsvorlesung, 222 Welle Definition, 212 einfach harmonische, 215 elektromagnetische, 230 Federkettenmodell, 213 grafische Darstellung, 215 Interferenz, 214 longitudinale, 212 Polarisation, 213 stehende, 216 transversale, 213 Überlagerung, 214 Wellenfunktion, 267 Welt äußere, 16 Welt-Puzzle, 92 Weltenergiebedarf, 374 Weltlinie, 243 Wendekreise, 379 Wirbelstärke, 211
Sachverzeichnis Wirkungsgrad Carnot, 294 Gaskraftwerk, 295 Steinkohlekraftwerk, 295 thermischer, 294 Wärmepumpe, 295 World set free, 341 Wurzel, 68 Y Yukawa-wechselwirkung, 277 Z Zahlen irrationale, 68 komplexe, 269 natürliche, 64
413 rationale, 67 reelle, 69 Zeeman-Aufspaltung, 260 Zeitdilatation, 244 Zeitmessung, 156–157 Zentraler Grenzwertsatz, 113 Zentrifugalkraft, 161 Zentripetalkraft, 161 Zirkelschluss, 137 Zufallsprozess, 110 Zustand physikalischer, 42 stationärer, 262 thermodynamisches Gleichgewicht, 297 Zustandsgleichung, 292 Zwei Kulturen, 121 Zweifel, 94 Zweite Quantisierung, 273